JP2016091182A - Operation input device - Google Patents
Operation input device Download PDFInfo
- Publication number
- JP2016091182A JP2016091182A JP2014222788A JP2014222788A JP2016091182A JP 2016091182 A JP2016091182 A JP 2016091182A JP 2014222788 A JP2014222788 A JP 2014222788A JP 2014222788 A JP2014222788 A JP 2014222788A JP 2016091182 A JP2016091182 A JP 2016091182A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- operation input
- steering wheel
- vehicle
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、操作対象機器への操作入力を受け付ける操作入力装置に関する。 The present invention relates to an operation input device that receives an operation input to an operation target device.
従来、操作者のジェスチャを認識して操作対象機器への操作入力を受け付ける操作入力装置が知られている。ジェスチャを用いた操作入力は、スイッチやボタン等の入力部を用いる操作入力と比較して、操作者の視線や注意を入力部に向けることなく行うことができるので、例えば車両に搭載された車載機器への操作入力等に有効である。
例えば、下記特許文献1は、予め定めた複数の操作対象機器に対応して設けられた複数のジェスチャ領域にそれぞれ異なる色の光を照射し、複数のジェスチャ領域を撮影した撮影結果からジェスチャ操作を検出する共に当該ジェスチャ操作されたジェスチャ領域を検出する。そして、検出されたジェスチャ領域に対応する操作対象機器に対して、検出されたジェスチャ操作に対応する予め定めた操作を行うように制御する。
Conventionally, an operation input device that recognizes an operator's gesture and receives an operation input to an operation target device is known. Compared with operation input using an input unit such as a switch or a button, operation input using a gesture can be performed without directing the operator's line of sight or attention to the input unit. Effective for operation input to equipment.
For example, in
ジェスチャは操作者の体の一部、特に操作対象機器が車載機器である場合には、操作者である運転者の手を動かして行うのが一般的である。車両の運転中は、通常運転者の手はステアリングホイールを握った状態であるが、ジェスチャを行っている間はステアリングホイールを離した状態になる場合がある。また、ステアリングホイールを握った状態で行うジェスチャであっても、運転者の注意は多少ジェスチャに対して向くことになる。
よって、運転動作をより慎重に行う必要がある場面、例えばステアリングホイールを大きく操舵している際などには、ジェスチャを用いた操作入力は好ましくない場合がある。
また、ステアリングホイールの操舵量が大きい場合には、運転動作(ステアリングホイールの操舵)をジェスチャ動作と誤認識する可能性があり、操作入力装置の誤認識率が上昇する可能性があるという課題がある。
The gesture is generally performed by moving the driver's hand as a part of the operator's body, particularly when the operation target device is an in-vehicle device. While the vehicle is being driven, the driver's hand is usually in a state of gripping the steering wheel, but may be in a state of releasing the steering wheel while performing a gesture. Even if the gesture is performed while holding the steering wheel, the driver's attention is slightly directed toward the gesture.
Therefore, when a driving operation needs to be performed more carefully, for example, when the steering wheel is steered greatly, an operation input using a gesture may not be preferable.
Further, when the steering amount of the steering wheel is large, there is a possibility that the driving operation (steering of the steering wheel) may be erroneously recognized as a gesture operation, and the erroneous recognition rate of the operation input device may increase. is there.
本発明は、このような事情に鑑みなされたものであり、その目的は、ジェスチャを用いた操作入力においてステアリング操舵時の安全性向上および誤認識率低減を図ることにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to improve safety and reduce a false recognition rate at the time of steering by an operation input using a gesture.
上述の目的を達成するため、請求項1の発明にかかる操作入力装置は、3次元空間内における操作者のジェスチャを認識して操作対象機器への操作入力を受け付ける操作入力装置であって、前記操作対象機器は車両に搭載された車載機器であり、前記車両のステアリングホイールの操舵角を検出する操舵角検出手段と、前記操舵角に基づいて前記ジェスチャを用いた操作入力を受け付けるか否かを決定するジェスチャ操作可否決定手段と、前記3次元空間を連続的に撮影する撮影手段と、前記ジェスチャを用いた操作入力が許可されている場合、前記撮影手段によって撮影された撮影画像に基づいて、前記操作者が所定のジェスチャを行ったか否かを識別し、前記所定のジェスチャを行った際に、前記所定のジェスチャに対応する動作を前記操作対象機器に行わせる制御信号を出力するジェスチャ識別手段と、を備える。
請求項2の発明にかかる操作入力装置は、前記所定のジェスチャは複数種類設定されており、前記ジェスチャ可否決定手段は、前記複数種類の所定のジェスチャを、前記操舵角が所定角度以上の場合は受け付けを禁止する禁止ジェスチャ群と、前記操舵角が所定角度以上の場合にも受け付ける許可ジェスチャ群と、に分けて設定し、前記ジェスチャ識別手段は、前記操舵角が所定角度以上の場合には、前記操作者が前記許可ジェスチャ群に属するジェスチャを行ったか否かを識別し、前記許可ジェスチャ群に属するジェスチャを行った際に、当該ジェスチャに対応する動作を前記操作対象機器に行わせる制御信号を出力する、ことを特徴とする。
請求項3の発明にかかる操作入力装置は、前記ジェスチャ操作可否決定手段は、前記操舵角が所定角度以上の場合は前記ジェスチャを用いた操作入力を禁止する、ことを特徴とする。
請求項4の発明にかかる操作入力装置は、前記所定のジェスチャは、ジェスチャ動作と、当該ジェスチャ動作が行われた前記3次元空間上の位置を示すジェスチャ領域によって特定され、前記ジェスチャ領域は、前記3次元空間を少なくとも2つの座標軸方向に沿って複数の領域に分割したものである、ことを特徴とする。
請求項5の発明にかかる操作入力装置は、前記3次元空間には車両のステアリングホイールが配置されており、前記ジェスチャ領域は、前記3次元空間を前記ステアリングホイールの中心点を原点として前記車両の上下方向にほぼ沿った略上下方向軸、および前記車両の前後方向にほぼ沿った略前後方向軸に沿って分割したものであり、前記略上下方向軸に沿った空間は、前記ステアリングホイールの内周領域、前記ステアリングホイールの外縁領域、および前記外縁領域より上方の上方領域に分割され、前記略前後方向軸に沿った空間は、前記ステアリングホイールが運転者と対向する面である前面領域と、前記ステアリングホイールの車体への取り付け面である後面領域とに分割される、ことを特徴とする。
請求項6の発明にかかる操作入力装置は、前記3次元空間には車両のステアリングホイールが配置されており、前記ジェスチャ領域は、前記3次元空間を前記ステアリングホイールの中心点を原点として前記車両の上下方向にほぼ沿った略上下方向軸、前記車両の前後方向にほぼ沿った略前後方向軸、および前記車両の車幅方向にほぼ沿った略車幅方向軸に沿って分割したものであり、前記略上下方向軸に沿った空間は、前記ステアリングホイールの内周領域、前記ステアリングホイールの外縁領域、および前記外縁領域より上方の上方領域に分割され、前記略前後方向軸に沿った空間は、前記ステアリングホイールが運転者と対向する面である前面領域と、前記ステアリングホイールの車体への取り付け面である後面領域とに分割され、前記略車幅方向軸に沿った空間は、前記ステアリングホイールの中心点から一方の車側側の領域と、前記中心点から他方の車側側の領域とに分割される、ことを特徴とする。
In order to achieve the above object, an operation input device according to the invention of
In the operation input device according to a second aspect of the present invention, a plurality of types of the predetermined gestures are set, and the gesture availability determining unit is configured to determine the plurality of types of predetermined gestures when the steering angle is equal to or greater than a predetermined angle. A gesture group for prohibiting acceptance and a permission gesture group that is accepted even when the steering angle is greater than or equal to a predetermined angle are set separately, and the gesture identification means, when the steering angle is greater than or equal to a predetermined angle, A control signal for identifying whether or not the operator has performed a gesture belonging to the permitted gesture group and causing the operation target device to perform an operation corresponding to the gesture when performing a gesture belonging to the permitted gesture group. Output.
The operation input device according to a third aspect of the invention is characterized in that the gesture operation propriety determining means prohibits an operation input using the gesture when the steering angle is equal to or larger than a predetermined angle.
In the operation input device according to a fourth aspect of the invention, the predetermined gesture is specified by a gesture action and a gesture area indicating a position in the three-dimensional space where the gesture action is performed. The three-dimensional space is divided into a plurality of regions along at least two coordinate axis directions.
In the operation input device according to a fifth aspect of the present invention, a steering wheel of a vehicle is arranged in the three-dimensional space, and the gesture region of the vehicle has the three-dimensional space as an origin at a center point of the steering wheel. It is divided along a substantially vertical axis substantially along the vertical direction and a substantially longitudinal axis substantially along the longitudinal direction of the vehicle, and the space along the substantially vertical axis is an inner space of the steering wheel. The space is divided into a circumferential region, an outer edge region of the steering wheel, and an upper region above the outer edge region, and the space along the substantially front-rear axis is a front region where the steering wheel is a surface facing the driver; The steering wheel is divided into a rear surface region that is a mounting surface to the vehicle body.
In the operation input device according to a sixth aspect of the present invention, a steering wheel of a vehicle is arranged in the three-dimensional space, and the gesture region has the three-dimensional space as an origin at the center point of the steering wheel. Divided along a substantially vertical axis substantially along the vertical direction, a substantially longitudinal axis substantially along the vehicle longitudinal direction, and a substantially vehicle width direction axis substantially along the vehicle width direction of the vehicle, The space along the substantially vertical axis is divided into an inner circumferential region of the steering wheel, an outer edge region of the steering wheel, and an upper region above the outer edge region, and the space along the substantially longitudinal axis is The steering wheel is divided into a front region that is a surface facing the driver and a rear region that is a mounting surface of the steering wheel to the vehicle body. Space along the substantially vehicle transverse axis, said and one of the car-side side area from the center point of the steering wheel, is divided from the center point to the other car side side region, it is characterized.
請求項1の発明によれば、車両のステアリングホイールの操舵角に基づいてジェスチャを用いた操作入力を受け付けるか否かを決定する。車両内における操作者は運転者である場合が多いが、運転者の身体的・心理的状態は、車両の走行状態、例えば操舵角の大きさによって大きく異なる。よって、ステアリングホイールの操舵角に基づいてジェスチャを用いた操作入力の可否を決定することによって、操作者の身体的・心理的状態に即した操作入力を実現することができ、ジェスチャを用いた操作入力をより有効に機能させることができる。また、前方の注視を要求される車両の運転中に入力部等を用いずに車載機器を操作することができ、車両運転中の安全性を向上させることができる。
請求項2の発明によれば、操舵角が所定角度以上の場合、すなわち運転動作をより慎重に行う必要があるとともに、操作者(運転者)の身体がステアリング操舵に大きく拘束される状態では、一部のジェスチャを禁止ジェスチャ群として禁止するとともに、残りのジェスチャは許可ジェスチャ群として操作入力を受け付ける。よって、例えばステアリング操舵時には必要性が低い操作入力を禁止するなどして、ステアリング操舵時の操作入力の数を減らすことができ、ステアリング操舵時における操作者(運転者)の注意を走行動作に向けやすくすることができる。
請求項3の発明によれば、操舵角が所定角度以上の場合にはジェスチャを用いた操作入力を禁止するので、ステアリング操舵時における操作者(運転者)の注意を更に走行動作に向けやすくすることができる。
請求項4の発明によれば、3次元空間内における操作者のジェスチャを認識して操作入力を受け付けるにあたって、予め定められた所定のジェスチャ動作を行ったか否かと、当該所定のジェスチャが行われた領域とに基づいて所定のジェスチャを特定する。よって、領域に区分されていない単一空間内でジェスチャを行う場合と比較して、操作入力の意図のない単なる動作を操作入力のジェスチャと誤認識する可能性を低減することができる。また、ジェスチャ領域は3次元空間を少なくとも2つの座標軸方向に沿って複数の領域に分割したものであるので、ジェスチャ動作を行う位置をより詳細に特定することができ、操作入力の認識率を向上させることができる。また、ジェスチャ動作とジェスチャ領域との組み合わせによって、操作入力の種類を増加させることができる。
請求項5および請求項6の発明によれば、車両のステアリングホイールが基準となって、操作者が座標軸方向を認識しやすくなり、ジェスチャ動作を容易かつ正確に行うことができる。
According to the first aspect of the present invention, it is determined whether or not to accept an operation input using a gesture based on the steering angle of the steering wheel of the vehicle. In many cases, the operator in the vehicle is a driver, but the physical and psychological state of the driver varies greatly depending on the traveling state of the vehicle, for example, the magnitude of the steering angle. Therefore, by determining whether or not an operation input using a gesture is possible based on the steering angle of the steering wheel, it is possible to realize an operation input that matches the physical and psychological state of the operator. Input can function more effectively. In addition, the vehicle-mounted device can be operated without using an input unit or the like during driving of a vehicle that requires forward gaze, and safety during driving of the vehicle can be improved.
According to the invention of
According to the invention of claim 3, when the steering angle is equal to or larger than the predetermined angle, the operation input using the gesture is prohibited, so that the operator's (driver) 's attention at the time of steering is further directed toward the traveling operation. be able to.
According to the fourth aspect of the present invention, whether or not a predetermined gesture operation is performed in advance when the operator's gesture in the three-dimensional space is recognized and an operation input is accepted, and the predetermined gesture is performed. A predetermined gesture is identified based on the region. Therefore, compared with the case where a gesture is performed in a single space that is not divided into regions, it is possible to reduce the possibility of erroneously recognizing a simple operation with no intention of operation input as a gesture of operation input. In addition, since the gesture region is obtained by dividing the three-dimensional space into a plurality of regions along at least two coordinate axis directions, the position where the gesture operation is performed can be specified in more detail, and the recognition rate of operation input is improved. Can be made. Further, the types of operation inputs can be increased by combining the gesture operation and the gesture area.
According to the fifth and sixth aspects of the invention, the operator can easily recognize the coordinate axis direction based on the steering wheel of the vehicle, and the gesture operation can be performed easily and accurately.
以下に添付図面を参照して、本発明にかかる操作入力装置の好適な実施の形態を詳細に説明する。 Exemplary embodiments of an operation input device according to the present invention will be explained below in detail with reference to the accompanying drawings.
(実施の形態1)
図1は、実施の形態にかかる操作入力装置10の構成を示すブロック図である。
実施の形態にかかる操作入力装置10は、図示しない車両に搭載されており、3次元空間S内における操作者のジェスチャを認識して車両内の車載機器30(操作対象機器)への操作入力を受け付ける。
本実施の形態では、3次元空間Sとは車両内の車室空間であり、特に運転席近傍のステアリングホイール20が配置された空間を指す。
また、本実施の形態では、ステアリングホイール20を基準として周囲の空間を複数の領域(ジェスチャ領域)に分割し、どの領域でどのようなジェスチャ(ジェスチャ動作)が行われたかによって、操作内容を識別する。
すなわち、操作入力装置10は、ジェスチャを用いた操作入力が行われる際に、ジェスチャ動作と、そのジェスチャ動作が行われた位置を示すジェスチャ領域によって操作入力の内容を特定する。
このように、ジェスチャ時に基準となる部材(ステアリングホイール20)を空間内で特定することによって、操作者(運転者)がジェスチャの基準となる位置を認識しやすく、操作を行いやすくすることができるとともに、操作入力装置10におけるジェスチャの認識率を向上させることができる。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of an operation input device 10 according to the embodiment.
The operation input device 10 according to the embodiment is mounted on a vehicle (not shown), recognizes an operator's gesture in the three-dimensional space S, and inputs an operation input to the in-vehicle device 30 (operation target device) in the vehicle. Accept.
In the present embodiment, the three-dimensional space S is a cabin space in the vehicle, and particularly refers to a space where the
In the present embodiment, the surrounding space is divided into a plurality of regions (gesture regions) with reference to the
That is, when an operation input using a gesture is performed, the operation input device 10 specifies the content of the operation input based on the gesture operation and the gesture area indicating the position where the gesture operation is performed.
In this way, by specifying the reference member (steering wheel 20) in the space in the space, it is easy for the operator (driver) to recognize the reference position of the gesture and to perform the operation. At the same time, the gesture recognition rate in the operation input device 10 can be improved.
図2は、ステアリングホイール20の正面図であり、図3は、ステアリングホイール20の側面図(図2のA矢視図)である。
図2に示すように、ステアリングホイール20は、環状のグリップ部22と、当該グリップ部22の中央に配置されたセンター部24と、当該センター部24から左右の径方向に延設されてセンター部24とグリップ部22とを接続する複数のスポーク部26と、を有している。
また、図3に示すように、ステアリングホイール20は、車室内前方の幅方向に延びて形成されているインストルメントパネル31からコラムカバー32を介して配設されている。
ステアリングホイール20は、コラムカバー32内でステアリングシャフト34の上端と連結されている 。ステアリングシャフト34は、筒状のステアリングコラム36内に回転自在に支持され、コラムカバー32内からインストルメントパネル31内にかけて延びている。
ステアリングコラム36には、ステアリングホイール20の角度を変更するチルト装置38と、チルト装置38と一体となりステアリングホイール20の操舵角を検出する操舵角センサ39が設けられている。これらの機構は、インストルメントパネル31内に収容されている。
FIG. 2 is a front view of the
As shown in FIG. 2, the
Further, as shown in FIG. 3, the
The
The
本実施の形態では、ステアリングホイール20周辺の3次元空間Sを、少なくとも2つの座標軸方向に沿って複数の領域に分割することによってジェスチャ領域を特定する。
本実施の形態では、3次元空間Sを3つの座標軸方向、すなわちステアリングホイール20の中心点を原点Oとして、車両の上下方向にほぼ沿った略上下方向軸であるX軸、車両の前後方向にほぼ沿った略前後方向軸であるZ軸、および車両の車幅方向にほぼ沿った略車幅方向軸であるY軸に沿って分割してジェスチャ領域を特定する。
ここで、車両の上下方向や前後方向等にほぼ沿ったとは、図3に示すようにステアリングホイール20は車両の前後方向に傾けて配置されている場合が多く、後述のようにステアリングホイール20の円環を基準として座標軸を設定した場合、車両の上下方向や前後方向に厳密には沿わないことを意味する。
In the present embodiment, the gesture region is specified by dividing the three-dimensional space S around the
In the present embodiment, the three-dimensional space S is set in three coordinate axis directions, that is, with the center point of the
Here, “almost along the vertical direction or the front-rear direction of the vehicle” means that the
略上下方向軸(X軸)に沿った空間は、図2に示すようにステアリングホイール20の内周領域X1、ステアリングホイール20の外縁領域X2、および外縁領域X2より上方の上方領域X3に分割される。
なお、外縁領域X2は、例えばステアリングホイール20のグリップ部22の上端部22Aから上に数センチ程度(操作者の握りこぶしの高さ程度)までの領域である。
また、本実施の形態では、各領域X1〜X3を原点Oより上の空間にのみ設定している。これは、原点Oより下の空間は操作者の視界に入りにくく、操作が行いづらいためである。
しかしながら、図10Aに示すように、原点Oより下の空間にも各領域X1〜X3を設定してもよい。また、図10Bに示すように、原点Oより上の空間に設定された領域X1〜X3と、原点Oより下の空間に設定された領域X1〜X3(領域X1’〜X3’)とを別個の領域として設定してもよい。
As shown in FIG. 2, the space along the substantially vertical axis (X axis) is divided into an inner peripheral region X1 of the
The outer edge region X2 is, for example, a region from the
In the present embodiment, the regions X1 to X3 are set only in the space above the origin O. This is because the space below the origin O is difficult to enter the operator's field of view and is difficult to operate.
However, as shown in FIG. 10A, the regions X1 to X3 may be set in a space below the origin O. Further, as shown in FIG. 10B, the regions X1 to X3 set in the space above the origin O and the regions X1 to X3 (regions X1 ′ to X3 ′) set in the space below the origin O are separated. It may be set as a region.
略車幅方向軸(Y軸)に沿った空間は、図2に示すようにステアリングホイール20の中心点(原点O)から一方の車側側の領域(図2では操作者から見て右側に位置する右側領域Y1)と、中心点(原点O)から他方の車側側の領域(図2では操作者から見て左側に位置する左側領域Y2)とに分割する。 As shown in FIG. 2, the space along the substantially vehicle width direction axis (Y axis) is a region on the vehicle side from the center point (origin O) of the steering wheel 20 (in FIG. 2, on the right side as viewed from the operator). It is divided into a right area Y1) and a center area (origin O) on the other vehicle side (left area Y2 located on the left side as viewed from the operator in FIG. 2).
略前後方向軸(Z軸)に沿った空間は、図3に示すようにステアリングホイール20が運転者と対向する面である前面領域Z1と、ステアリングホイール20の車体への取り付け面である後面領域Z2とに分割される。
As shown in FIG. 3, the space along the substantially longitudinal axis (Z-axis) includes a front area Z1 where the
なお、図2および図3では、3次元空間Sを3つの座標軸方向に分割する場合について説明したが、3次元空間Sを2つの座標軸方向、例えば略上下方向軸であるX軸と略前後方向軸であるZ軸とに分割するようにしてもよい。 2 and 3, the case where the three-dimensional space S is divided into three coordinate axis directions has been described. However, the three-dimensional space S is divided into two coordinate axis directions, for example, an X axis that is a substantially vertical axis and a substantially front-rear direction. You may make it divide | segment into the Z-axis which is an axis | shaft.
図1の説明に戻り、操作入力装置10は、操舵角検出手段11と、ジェスチャ操作可否決定手段12と、撮影手段13と、ジェスチャ識別手段14と、操作識別データベースDBによって構成される。
上記の構成のうち、ジェスチャ操作可否決定手段12およびジェスチャ識別手段14は、車両ECU等の処理部によって構成される。車両ECUは、CPU、制御プログラムなどを格納・記憶するROM、制御プログラムの作動領域としてのRAM、各種データを書き換え可能に保持するEEPROM、周辺回路等とのインターフェースをとるインターフェース部などを含んで構成され、上記CPUが上記制御プログラムを実行することによって、ジェスチャ操作可否決定手段12またはジェスチャ識別手段14として機能する。
Returning to the description of FIG. 1, the operation input device 10 includes a steering
Among the above configurations, the gesture operation
操舵角検出手段11は、ステアリングホイール20の操舵角を検出する。本実施の形態では、操舵角検出手段11は図3に示した操舵角センサ39である。
ジェスチャ操作可否決定手段12は、操舵角検出手段11で検出された操舵角に基づいてジェスチャを用いた操作入力を受け付けるか否かを決定する。
より詳細には、ジェスチャ操作可否決定手段12は、ステアリングホイール20の操舵角が所定角度以上の場合には、操作者の注意を運転操作に対してより多く向ける必要がある、またはジェスチャの誤認識の可能性が高くなると判断して、少なくとも一部のジェスチャ操作を禁止する。
なお、以下の説明において「所定角度以上」とは、ステアリングホイール20の基準位置(直進状態における位置)から時計回りまたは反時計回りに所定角度以上であることを指し、回転方向は問わない。
The steering angle detection means 11 detects the steering angle of the
Based on the steering angle detected by the steering
More specifically, when the steering angle of the
In the following description, “more than a predetermined angle” means that the
ジェスチャ操作可否決定手段12による決定結果には、例えば以下の<1>または<2>の種類がある。
以下では主に上記<1>について説明する。
<1>操舵角が大きい(所定角度以上)場合、複数種類の操作入力のうち一部の操作入力を禁止し、残りは通常通り受け付ける。
すなわち、操作入力として認識するジェスチャ(所定のジェスチャ)は複数種類設定されており、複数種類のジェスチャを、操舵角が所定角度以上の場合は受け付けを禁止する禁止ジェスチャ群と、操舵角が所定角度以上の場合にも受け付ける許可ジェスチャ群と、に分けて設定する。
<2>操舵角が大きい(所定角度以上)場合にはジェスチャを用いた操作入力を全面的に禁止する。
The determination result by the gesture operation propriety determination means 12 includes the following types <1> or <2>, for example.
Below, <1> will be mainly described.
<1> When the steering angle is large (more than a predetermined angle), some of the plural types of operation inputs are prohibited, and the rest are accepted as usual.
That is, a plurality of types of gestures recognized as operation inputs (predetermined gestures) are set, and a plurality of types of gestures are prohibited from being accepted when the steering angle is a predetermined angle or more, and the steering angle is a predetermined angle. Even in the above case, the permission gesture group to be accepted is set separately.
<2> When the steering angle is large (greater than a predetermined angle), operation input using gestures is completely prohibited.
ジェスチャ操作可否決定手段12についてより詳細に説明するために、操作識別データベースDBについて説明する。
操作識別データベースDBは、3次元空間S内のどの領域でどのようなジェスチャ動作が行われたかによって、操作内容を識別するためのデータが記録されている。
図4は、操作識別データベースDBの内容を模式的に示す表である。
図4の表では、5種類の操作入力(第1の操作入力〜第5の操作入力)について、操作対象機器1481、操作内容1482、ジェスチャ内容1483、操舵角が所定角度以上の大操舵時における操作入力の可否1484がそれぞれ示されている。
なお、ジェスチャ内容1483ジェスチャ動作と、ジェスチャ動作が行われる領域(ジェスチャ領域)の2つの要素から特定される。
In order to describe the gesture operation
In the operation identification database DB, data for identifying the operation content is recorded depending on which gesture operation is performed in which region in the three-dimensional space S.
FIG. 4 is a table schematically showing the contents of the operation identification database DB.
In the table of FIG. 4, for five types of operation inputs (first operation input to fifth operation input), the
Note that the
第1の操作入力の操作対象機器30は車両のスモールランプおよびテールランプであり、操作内容は点灯および消灯、すなわちスモールランプおよびテールランプが消灯した状態でこのジェスチャが行われた場合にはスモールランプおよびテールランプを点灯し、スモールランプおよびテールランプが点灯した状態でこのジェスチャが行われた場合にはスモールランプおよびテールランプを消灯する。
第1の操作入力のジェスチャ内容は、ステアリングホイール20の上方領域X3かつ後面領域Z2で、操作者の手をグー(握りこぶし)からパー(手のひらを広げる)に変化させるジェスチャ動作を行うものである。
すなわち、図5に示すようにステアリングホイール20の上方のインストルメントパネル31寄りの領域に操作者の手Hを位置させて、手Hの形状をグーからパーへと変化させるジェスチャである。
なお、図5、図6、図8において、図Aはステアリングホイール20の正面図であり、図Bはステアリングホイール20の側面図である。また、図7Aおよび図7Bは、共にステアリングホイール20の正面図である。
第1の操作入力は、ステアリングホイール20の操舵角が所定角度以上の場合にも許可されている。すなわち、第1の操作入力は許可ジェスチャ群に属する。
The
The gesture content of the first operation input is a gesture operation that changes the operator's hand from goo (fist fist) to par (spreads palm) in the upper region X3 and the rear surface region Z2 of the
That is, as shown in FIG. 5, the gesture is a gesture in which the operator's hand H is positioned in a region near the
5, 6, and 8, FIG. A is a front view of the
The first operation input is permitted even when the steering angle of the
第2の操作入力の操作対象機器30は車両のヘッドライトであり、操作内容はヘッドライトが点灯した状態でこのジェスチャが行われた場合にはヘッドライトの照射方向をハイとローとで切り替え(ハイ/ロー切替)、ヘッドライトが消灯した状態でこのジェスチャが行われた場合にはパッシング点灯(瞬間的なハイビーム点灯)を行う。
第2の操作入力のジェスチャ内容は、操作者の手をステアリングホイール20の内周領域X1の前面領域Z1から後面領域Z2に移動させるジェスチャ動作を行うものである。
すなわち、図6に示すようにステアリングホイール20の内周に手をくぐらせるジェスチャである。
第2の操作入力は、ステアリングホイール20の操舵角が所定角度以上の場合には禁止されている。すなわち、第2の操作入力は禁止ジェスチャ群に属する。これは、ステアリングホイール20の操舵角が所定角度以上の場合には内周領域X1の位置が左右いずれかに大きくずれることになり、動作が行いにくくなるとともに、操作入力装置10でも誤認識を起こす可能性があるためである。
The
The gesture content of the second operation input is to perform a gesture operation of moving the operator's hand from the front surface area Z1 of the inner peripheral area X1 of the
That is, as shown in FIG. 6, it is a gesture for making a hand pass through the inner periphery of the
The second operation input is prohibited when the steering angle of the
第3の操作入力の操作対象機器30は、操作者から見て左側のターンランプであり、操作内容は点灯である。
第3の操作入力のジェスチャ内容は、ステアリングホイール20の外縁領域X2に沿って操作者の手を右側領域Y1から左側領域Y2へと移動させ、さらに右側領域Y1へと戻すジェスチャ動作を行うものである。
すなわち、図7Aに示すように操作者の右手Hをステアリングホイール20の外縁に沿って車幅方向に往復させるジェスチャである。これは、操作者が左折操作をする際にステアリングホイール20を左側に回転させる動作を模擬している。
第3の操作入力は、ステアリングホイール20の操舵角が所定角度以上の場合には禁止されている。すなわち、第3の操作入力は禁止ジェスチャ群に属する。これは、ターンランプの点灯は通常車両の右左折前に行うものであるが、ステアリングホイール20の操舵角が所定角度以上の場合にはすでに車両の右左折が開始されており、ターンランプを点灯させる実益がなく、また、ステアリングホイール20の操舵時における運転者(操作者)の運転動作を誤認識している可能性が高いためである。
The
The gesture content of the third operation input is to perform a gesture operation that moves the operator's hand from the right region Y1 to the left region Y2 along the outer edge region X2 of the
That is, as shown in FIG. 7A, this is a gesture in which the operator's right hand H is reciprocated in the vehicle width direction along the outer edge of the
The third operation input is prohibited when the steering angle of the
また、第4の操作入力の操作対象機器30は、操作者から見て右側のターンランプであり、操作内容は点灯である。
第4の操作入力のジェスチャ内容は、ステアリングホイール20の外縁領域X2に沿って操作者の手を左側領域Y2から右側領域Y1へと移動させ、さらに左側領域Y2へと戻すジェスチャ動作を行うものである。
すなわち、図7Bに示すように操作者の左手Hをステアリングホイール20の外縁に沿って車幅方向に往復させるジェスチャである。これは、操作者が右折操作をする際にステアリングホイール20を右側に回転させる動作を模擬している。
第4の操作入力も、第3の操作入力と同様に、ステアリングホイール20の操舵角が所定角度以上の場合には禁止されている。すなわち、第4の操作入力は禁止ジェスチャ群に属する。
The
The gesture content of the fourth operation input is a gesture operation in which the operator's hand is moved from the left side area Y2 to the right side area Y1 along the outer edge area X2 of the
That is, as shown in FIG. 7B, the gesture is a reciprocation of the operator's left hand H in the vehicle width direction along the outer edge of the
Similarly to the third operation input, the fourth operation input is also prohibited when the steering angle of the
第5の操作入力の操作対象機器30は車両のヘッドランプであり、操作内容は点灯および消灯、すなわちヘッドランプが消灯した状態でこのジェスチャが行われた場合にはヘッドランプを点灯し、ヘッドランプが点灯した状態でこのジェスチャが行われた場合にはヘッドランプを消灯する。
第5の操作入力のジェスチャ内容は、ステアリングホイール20の内周領域X1かつ前面領域Z1で、ステアリングホイール20に対して手をかざすジェスチャ動作を行うものである。
すなわち、図8に示すようにステアリングホイール20に正対して操作者の手Hを広げるジェスチャである。
第5の操作入力は、ステアリングホイール20の操舵角が所定角度以上の場合にも許可されている。すなわち、第5の操作入力は許可ジェスチャ群に属する。
The
The gesture content of the fifth operation input is to perform a gesture operation of holding the hand over the
That is, as shown in FIG. 8, the gesture is to spread the operator's hand H directly against the
The fifth operation input is permitted even when the steering angle of the
図1の説明に戻り、撮影手段13は、3次元空間を連続的に撮影する。連続的に撮影とは、3次元空間内における操作者の挙動(ジェスチャ)が認識可能な画像群(映像データ)を撮影することを指す。
撮影手段13は、例えば赤外線カメラであり、夜間でも3次元空間内の映像を撮影可能とする。また、撮影手段13を複数のカメラ(ステレオカメラ等)で構成してもよい。
撮影手段13の設置位置は任意であるが、ステアリングホイール20および上述した各領域X1〜X3,Y1,Y2,Z1,Z2を撮影範囲に含むことができる位置とする。
Returning to the description of FIG. 1, the photographing
The photographing means 13 is, for example, an infrared camera, and can photograph a video in a three-dimensional space even at night. Further, the photographing
The installation position of the photographing
ジェスチャ識別手段14は、ジェスチャを用いた操作入力が許可されている場合、撮影手段13によって撮影された撮影画像に基づいて、操作者が所定のジェスチャを行ったか否かを識別し、所定のジェスチャを行った際に、所定のジェスチャに対応する動作を操作対象機器30に行わせる制御信号を出力する。
ジェスチャ識別手段14は、動作識別手段140、領域識別手段142、操作内容特定手段144、および機器制御手段146を有する。
When the operation input using the gesture is permitted, the
The
動作識別手段140は、撮影手段13によって撮影された撮影画像に基づいて、3次元空間内で操作者が所定のジェスチャ動作を行ったか否かを識別する。
本実施の形態において、操作者とは運転者であり、動作を行う部分は手Hである。動作識別手段140は、公知の画像認識技術(パターン認識技術)を用いて撮影画像中に映る手を識別し、さらに手の各点の位置が時間経過とともにどのように変化するかに基づいて、手の動きを認識する。そして、認識した手の動きが上記所定のジェスチャ動作と一致するか否かを識別する。
所定のジェスチャ動作とは、ステアリングホイール20の操舵角が所定角度未満の場合には操作識別データベースDBに記録された全てのジェスチャ動作であり、ステアリングホイール20の操舵角が所定角度以上の場合には操作識別データベースDB中の許可ジェスチャ群に属するジェスチャ動作である。
また、ステアリングホイール20の操舵角が所定角度以上の場合に全ての操作入力が禁止されている場合には、所定のジェスチャ動作がなくなる。よって、動作識別手段140の撮影画像の画像認識を停止してもよいが、操舵角は頻繁に変更されるため画像認識は常時継続するのが好ましい。
The
In the present embodiment, the operator is a driver, and the part that performs the operation is the hand H. The action identifying means 140 identifies a hand appearing in a captured image using a known image recognition technique (pattern recognition technique), and further, based on how the position of each point of the hand changes over time, Recognize hand movements. Then, it is determined whether or not the recognized hand movement matches the predetermined gesture action.
The predetermined gesture operation refers to all gesture operations recorded in the operation identification database DB when the steering angle of the
Further, when all the operation inputs are prohibited when the steering angle of the
領域識別手段142は、所定のジェスチャ動作が行われた位置が上述した複数の領域X1〜X3,Y1,Y2,Z1,Z2のいずれに属するかを識別する。
領域識別手段142は、撮影画像中のステアリングホイール20の位置とジェスチャ動作時における操作者の手の位置との相対関係から、当該ジェスチャ動作が複数の領域X1〜X3,Y1,Y2,Z1,Z2のいずれで行われたかを識別する。
The
The
操作内容特定手段144は、所定のジェスチャ動作と所定のジェスチャが行われた領域とに基づいて、操作対象機器30への操作入力の内容(操作内容)を特定する。
操作内容特定手段144は、動作識別手段140で識別されたジェスチャ動作の種類と、領域識別手段142で識別された領域との組み合わせが操作識別データベースDBに記録された操作入力と一致するかを判断し、一致している場合には当該操作入力に対応する操作対象機器30への操作内容を特定する。
例えば、動作識別手段140で識別されたジェスチャ動作が操作者の手の形状をグーからパーへと変化させるジェスチャ動作(第1の操作入力におけるジェスチャ動作)であったとする。
このとき、領域識別手段142で識別された領域がステアリングホイール20の上方領域X3かつ後面領域Z2である場合には、操作内容特定手段144は、第1の操作入力が行われたと判断し、車両のスモールランプおよびテールランプの点灯または消灯が操作内容であると特定する。
また、領域識別手段142で識別された領域がステアリングホイール20の内周領域X1や前面領域Z1などである場合には、該当する操作入力はないため、操作内容特定手段144は、操作入力なしと判定する。
すなわち、操作内容特定手段144は、動作識別手段140で識別されたジェスチャ動作と、領域識別手段142で識別された領域との組み合わせが、操作識別データベースDBに記録された操作入力のいずれかに一致した場合のみ、有効な操作入力として認識する。
The operation
The operation
For example, it is assumed that the gesture action identified by the
At this time, if the region identified by the
In addition, when the area identified by the
In other words, the operation
機器制御手段146は、操作入力に対応する動作を操作対象機器30に行わせる制御信号を出力する。
例えば上記第1の操作入力が行われた場合には、機器制御手段146は、車両のスモールランプおよびテールランプに対して点灯および消灯を切り換える制御信号を出力する。
The
For example, when the first operation input is performed, the
なお、上記の説明では、ステアリングホイール20の操舵角が所定角度以上の場合に、動作識別手段140で認識するジェスチャ動作(所定のジェスチャ動作)を許可ジェスチャ群のみにすることによって、ジェスチャを用いた操作入力の可否を切り換えるようにしたが、操作入力装置10の動作中どの段階でこのような切り換えを行うかは任意である。
他の構成部、例えば機器制御手段146からの制御信号を出力するか否かによって、ジェスチャを用いた操作入力の可否を切り換えるようにしてもよい。
この場合、機器制御手段146は、ステアリングホイール20の操舵角が所定角度未満の場合には、認識された全ての操作入力について制御信号を出力するが、ステアリングホイール20の操舵角が所定角度以上の場合には、許可ジェスチャ入力群に属する操作入力の制御信号のみを出力し、禁止ジェスチャ群に属する操作入力の制御信号は出力しない。
また、ステアリングホイール20の操舵角が所定角度以上の場合に全ての操作入力が禁止されている場合には、ステアリングホイール20の操舵角が所定角度以上の際にはいずれの操作入力についても制御信号は出力しないようにする。
In the above description, when the steering angle of the
Depending on whether or not a control signal from another component, for example, the device control means 146 is output, whether or not an operation input using a gesture is possible may be switched.
In this case, when the steering angle of the
In addition, when all the operation inputs are prohibited when the steering angle of the
図9は、操作入力装置10による処理の手順を示すフローチャートである。
操作入力装置10は、車両の走行中は図9に示す処理をくり返し行う。
まず、操舵角検出手段11によってステアリングホイール20の操舵角を検出し(ステップS800)、操舵角が所定角度以上か否かを判断する(ステップS801)。
操舵角が所定角度以上の場合は(ステップS801:Yes)、許可ジェスチャ群のジェスチャ動作を動作識別手段140で識別するジェスチャ動作(所定のジェスチャ動作)として設定する(ステップS802)。また、操舵角が所定角度未満である場合には(ステップS801:No)、操作識別データベースDBに含まれる全てのジェスチャ動作を動作識別手段140で識別するジェスチャ動作(所定のジェスチャ動作)として設定する(ステップS803)。
つぎに、撮影手段13によってステアリングホイール20周辺の車室空間を撮影する(ステップS804)。
動作識別手段140は、撮影手段13で撮影された撮影画像を解析し、操作者が上記所定のジェスチャ動作を行ったか否かを判断する(ステップS805)。
操作者が所定のジェスチャ動作を行っていない場合は(ステップS805:No)、ステップS800に戻って以降の処理をくり返す。
また、操作者が所定のジェスチャ動作を行った場合は(ステップS805:Yes)、領域識別手段142によってジェスチャ動作を行った領域を特定する(ステップS806)。
つぎに、操作内容特定手段144は、操作者が行ったジェスチャ動作と当該ジェスチャ動作を行った領域との組み合わせが、いずれかの操作入力に一致するか否かを判断する(ステップS807)。
いずれかの操作入力に一致しない場合は(ステップS807:No)、ステップS800に戻って以降の処理をくり返す。
また、いずれかの操作入力に一致する場合は(ステップS807:Yes)、当該操作入力の操作対象機器30および制御内容を特定し(ステップS808)、機器制御手段146によって操作対象機器30へと制御信号を出力する(ステップS809)。
その後、ステップS800に戻り、以降の処理をくり返す。
FIG. 9 is a flowchart illustrating a procedure of processing performed by the operation input device 10.
The operation input device 10 repeats the process shown in FIG. 9 while the vehicle is traveling.
First, the steering angle detection means 11 detects the steering angle of the steering wheel 20 (step S800), and determines whether or not the steering angle is equal to or greater than a predetermined angle (step S801).
If the steering angle is equal to or greater than the predetermined angle (step S801: Yes), the gesture operation of the permitted gesture group is set as a gesture operation (predetermined gesture operation) that is identified by the operation identification unit 140 (step S802). If the steering angle is less than the predetermined angle (step S801: No), all gesture actions included in the operation identification database DB are set as gesture actions (predetermined gesture actions) that are identified by the
Next, the vehicle interior space around the
The
If the operator is not performing a predetermined gesture operation (step S805: No), the process returns to step S800 and the subsequent processing is repeated.
If the operator performs a predetermined gesture operation (step S805: Yes), the
Next, the operation
If it does not match any of the operation inputs (step S807: No), the process returns to step S800 and the subsequent processing is repeated.
If it matches any of the operation inputs (step S807: Yes), the
Thereafter, the process returns to step S800, and the subsequent processing is repeated.
なお、図9および上記の説明では、動作識別手段140によって所定のジェスチャ動作が行われたことを識別してから領域識別手段142によってジェスチャ領域を識別しているが、これに限らずジェスチャ領域を識別してから所定のジェスチャ動作を行ったかを識別してもよい。例えば、操作者の手の位置を常時追跡しつつ、所定のジェスチャ動作が行われたかを識別してもよい。
In FIG. 9 and the above description, the gesture region is identified by the
以上説明したように、実施の形態にかかる操作入力装置10は、車両のステアリングホイール20の操舵角に基づいてジェスチャを用いた操作入力を受け付けるか否かを決定する。車両内における操作者は運転者である場合が多いが、運転者の身体的・心理的状態は、車両の走行状態、例えば操舵角の大きさによって大きく異なる。よって、ステアリングホイール20の操舵角に基づいてジェスチャを用いた操作入力の可否を決定することによって、操作者の身体的・心理的状態に即した操作入力を実現することができ、ジェスチャを用いた操作入力をより有効に機能させることができる。
また、前方の注視を要求される車両の運転中に入力部等を用いずに車載機器を操作することができ、車両運転中の安全性を向上させることができる。
また、操作入力装置10は、操舵角が所定角度以上の場合、すなわち運転動作をより慎重に行う必要があるとともに、操作者(運転者)の身体がステアリング操舵に大きく拘束される状態では、一部のジェスチャを禁止ジェスチャ群として禁止するとともに、残りのジェスチャは許可ジェスチャ群として操作入力を受け付ける。
よって、例えばステアリング操舵時には必要性が低い操作入力を禁止するなどして、ステアリング操舵時の操作入力の数を減らすことができ、ステアリング操舵時における操作者(運転者)の注意を走行動作に向けやすくすることができる。
また、操作入力装置10において、操舵角が所定角度以上の場合にはジェスチャを用いた操作入力を禁止するようにすれば、ステアリング操舵時における操作者(運転者)の注意を更に走行動作に向けやすくすることができる。
また、操作入力装置10は、3次元空間内における操作者のジェスチャを認識して操作入力を受け付けるにあたって、予め定められた所定のジェスチャ動作を行ったか否かと、当該所定のジェスチャが行われた領域とに基づいて所定のジェスチャを特定する。
よって、領域に区分されていない単一空間内でジェスチャを行う場合と比較して、操作入力の意図のない単なる動作を操作入力のジェスチャと誤認識する可能性を低減することができる。
また、ジェスチャ領域は3次元空間を少なくとも2つの座標軸方向に沿って複数の領域に分割したものであるので、ジェスチャ動作を行う位置をより詳細に特定することができ、操作入力の認識率を向上させることができる。
また、ジェスチャ動作とジェスチャ領域との組み合わせによって、操作入力の種類を増加させることができる。
また、操作入力装置10では、車両のステアリングホイール20が基準となって、操作者が座標軸方向を認識しやすくなり、ジェスチャ動作を容易かつ正確に行うことができる。
As described above, the operation input device 10 according to the embodiment determines whether to accept an operation input using a gesture based on the steering angle of the
In addition, the vehicle-mounted device can be operated without using an input unit or the like during driving of a vehicle that requires forward gaze, and safety during driving of the vehicle can be improved.
In addition, the operation input device 10 is necessary when the steering angle is equal to or greater than a predetermined angle, that is, when the driving operation needs to be performed more carefully and the operator's (driver's) body is largely restrained by steering. Are prohibited as a prohibited gesture group, and the remaining gestures receive an operation input as a permitted gesture group.
Therefore, for example, it is possible to reduce the number of operation inputs at the time of steering steering by prohibiting operation inputs that are less necessary at the time of steering, and to turn the operator's (driver) 's attention at the time of steering to the driving operation. It can be made easier.
In addition, if the operation input device 10 prohibits operation input using gestures when the steering angle is greater than or equal to a predetermined angle, the operator's (driver) 's attention at the time of steering is further directed toward the traveling operation. It can be made easier.
Further, when the operation input device 10 recognizes the gesture of the operator in the three-dimensional space and accepts the operation input, whether or not a predetermined gesture operation is performed in advance and the region where the predetermined gesture is performed Based on the above, a predetermined gesture is specified.
Therefore, compared with the case where a gesture is performed in a single space that is not divided into regions, it is possible to reduce the possibility of erroneously recognizing a simple operation with no intention of operation input as a gesture of operation input.
In addition, since the gesture region is obtained by dividing the three-dimensional space into a plurality of regions along at least two coordinate axis directions, the position where the gesture operation is performed can be specified in more detail, and the recognition rate of operation input is improved. Can be made.
Further, the types of operation inputs can be increased by combining the gesture operation and the gesture area.
In the operation input device 10, the operator can easily recognize the coordinate axis direction based on the
10……操作入力装置、11……速度検出手段、12……ジェスチャ操作可否決定手段、13……撮影手段、14……ジェスチャ識別手段、140……動作識別手段、142……領域識別手段、144……操作内容特定手段、146……機器制御手段、DB……操作識別データベース、20……ステアリングホイール、22……グリップ部、22A……上端部、24……センター部、26……スポーク部、30……操作対象機器(車載機器)。 DESCRIPTION OF SYMBOLS 10 ... Operation input device, 11 ... Speed detection means, 12 ... Gesture operation availability determination means, 13 ... Shooting means, 14 ... Gesture identification means, 140 ... Action identification means, 142 ... Area identification means, 144: Operation content specifying means, 146: Device control means, DB: Operation identification database, 20: Steering wheel, 22: Grip part, 22A ... Upper end part, 24 ... Center part, 26 ... Spoke Part, 30... Operation target device (in-vehicle device).
Claims (6)
前記操作対象機器は車両に搭載された車載機器であり、
前記車両のステアリングホイールの操舵角を検出する操舵角検出手段と、
前記操舵角に基づいて前記ジェスチャを用いた操作入力を受け付けるか否かを決定するジェスチャ操作可否決定手段と、
前記3次元空間を連続的に撮影する撮影手段と、
前記ジェスチャを用いた操作入力が許可されている場合、前記撮影手段によって撮影された撮影画像に基づいて、前記操作者が所定のジェスチャを行ったか否かを識別し、前記所定のジェスチャを行った際に、前記所定のジェスチャに対応する動作を前記操作対象機器に行わせる制御信号を出力するジェスチャ識別手段と、
を備えることを特徴とする操作入力装置。 An operation input device that recognizes an operator's gesture in a three-dimensional space and receives an operation input to an operation target device,
The operation target device is an in-vehicle device mounted on a vehicle,
Steering angle detection means for detecting the steering angle of the steering wheel of the vehicle;
Gesture operation propriety determining means for determining whether or not to accept an operation input using the gesture based on the steering angle;
Photographing means for continuously photographing the three-dimensional space;
When operation input using the gesture is permitted, it is determined whether or not the operator has performed a predetermined gesture based on a captured image captured by the imaging unit, and the predetermined gesture has been performed. A gesture identifying means for outputting a control signal for causing the operation target device to perform an operation corresponding to the predetermined gesture;
An operation input device comprising:
前記ジェスチャ可否決定手段は、前記複数種類の所定のジェスチャを、前記操舵角が所定角度以上の場合は受け付けを禁止する禁止ジェスチャ群と、前記操舵角が所定角度以上の場合にも受け付ける許可ジェスチャ群と、に分けて設定し、
前記ジェスチャ識別手段は、前記操舵角が所定角度以上の場合には、前記操作者が前記許可ジェスチャ群に属するジェスチャを行ったか否かを識別し、前記許可ジェスチャ群に属するジェスチャを行った際に、当該ジェスチャに対応する動作を前記操作対象機器に行わせる制御信号を出力する、
ことを特徴とする請求項1記載の操作入力装置。 A plurality of types of the predetermined gestures are set,
The gesture availability determining means includes a prohibited gesture group that prohibits reception of the plurality of types of predetermined gestures when the steering angle is equal to or greater than a predetermined angle, and a permitted gesture group that is also permitted when the steering angle is equal to or greater than a predetermined angle. And set it separately.
When the steering angle is equal to or greater than a predetermined angle, the gesture identifying means identifies whether the operator has performed a gesture belonging to the permitted gesture group, and when performing a gesture belonging to the permitted gesture group Outputting a control signal for causing the operation target device to perform an operation corresponding to the gesture;
The operation input device according to claim 1.
ことを特徴とする請求項1記載の操作入力装置。 The gesture operation propriety determining means prohibits an operation input using the gesture when the steering angle is a predetermined angle or more;
The operation input device according to claim 1.
前記ジェスチャ領域は、前記3次元空間を少なくとも2つの座標軸方向に沿って複数の領域に分割したものである、
ことを特徴とする請求項1から3のいずれか1項記載の操作入力装置。 The predetermined gesture is specified by a gesture action and a gesture region indicating a position in the three-dimensional space where the gesture action is performed,
The gesture region is obtained by dividing the three-dimensional space into a plurality of regions along at least two coordinate axis directions.
The operation input device according to any one of claims 1 to 3, wherein
前記ジェスチャ領域は、前記3次元空間を前記ステアリングホイールの中心点を原点として前記車両の上下方向にほぼ沿った略上下方向軸、および前記車両の前後方向にほぼ沿った略前後方向軸に沿って分割したものであり、
前記略上下方向軸に沿った空間は、前記ステアリングホイールの内周領域、前記ステアリングホイールの外縁領域、および前記外縁領域より上方の上方領域に分割され、
前記略前後方向軸に沿った空間は、前記ステアリングホイールが運転者と対向する面である前面領域と、前記ステアリングホイールの車体への取り付け面である後面領域とに分割される、
ことを特徴とする請求項4記載の操作入力装置。 A steering wheel of a vehicle is arranged in the three-dimensional space,
The gesture region has a substantially vertical axis substantially along the vertical direction of the vehicle with the center point of the steering wheel as an origin in the three-dimensional space, and a substantially longitudinal axis substantially along the longitudinal direction of the vehicle. Divided,
The space along the substantially vertical axis is divided into an inner peripheral region of the steering wheel, an outer edge region of the steering wheel, and an upper region above the outer edge region,
The space along the substantially longitudinal axis is divided into a front region, which is a surface where the steering wheel faces the driver, and a rear region, which is a mounting surface of the steering wheel to the vehicle body.
The operation input device according to claim 4.
前記ジェスチャ領域は、前記3次元空間を前記ステアリングホイールの中心点を原点として前記車両の上下方向にほぼ沿った略上下方向軸、前記車両の前後方向にほぼ沿った略前後方向軸、および前記車両の車幅方向にほぼ沿った略車幅方向軸に沿って分割したものであり、
前記略上下方向軸に沿った空間は、前記ステアリングホイールの内周領域、前記ステアリングホイールの外縁領域、および前記外縁領域より上方の上方領域に分割され、
前記略前後方向軸に沿った空間は、前記ステアリングホイールが運転者と対向する面である前面領域と、前記ステアリングホイールの車体への取り付け面である後面領域とに分割され、
前記略車幅方向軸に沿った空間は、前記ステアリングホイールの中心点から一方の車側側の領域と、前記中心点から他方の車側側の領域とに分割される、
ことを特徴とする請求項4記載の操作入力装置。 A steering wheel of a vehicle is arranged in the three-dimensional space,
The gesture region includes a substantially vertical axis substantially along the vertical direction of the vehicle with the center point of the steering wheel as an origin in the three-dimensional space, a substantially longitudinal axis substantially along the longitudinal direction of the vehicle, and the vehicle Divided substantially along the vehicle width direction axis substantially along the vehicle width direction,
The space along the substantially vertical axis is divided into an inner peripheral region of the steering wheel, an outer edge region of the steering wheel, and an upper region above the outer edge region,
The space along the substantially longitudinal axis is divided into a front region, which is a surface where the steering wheel faces the driver, and a rear region, which is a mounting surface of the steering wheel to the vehicle body,
The space along the substantially vehicle width direction axis is divided into a region on one vehicle side from the center point of the steering wheel and a region on the other vehicle side from the center point.
The operation input device according to claim 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014222788A JP6413647B2 (en) | 2014-10-31 | 2014-10-31 | Operation input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014222788A JP6413647B2 (en) | 2014-10-31 | 2014-10-31 | Operation input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016091182A true JP2016091182A (en) | 2016-05-23 |
JP6413647B2 JP6413647B2 (en) | 2018-10-31 |
Family
ID=56018631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014222788A Active JP6413647B2 (en) | 2014-10-31 | 2014-10-31 | Operation input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6413647B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106828349A (en) * | 2016-12-25 | 2017-06-13 | 重庆路格科技有限公司 | Onboard navigation system |
KR20180102776A (en) * | 2017-03-08 | 2018-09-18 | 전자부품연구원 | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device |
JP2020057139A (en) * | 2018-10-01 | 2020-04-09 | トヨタ自動車株式会社 | Equipment controller |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005047412A (en) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | Non-contact information input device |
JP2006096246A (en) * | 2004-09-30 | 2006-04-13 | Mazda Motor Corp | Information display device for vehicle |
JP2010254199A (en) * | 2009-04-27 | 2010-11-11 | Denso Corp | Operation device for vehicle |
JP2012206692A (en) * | 2011-03-30 | 2012-10-25 | Honda Motor Co Ltd | Vehicular operating device |
JP2013086750A (en) * | 2011-10-21 | 2013-05-13 | Suzuki Motor Corp | Input device for vehicle |
US20130143601A1 (en) * | 2011-11-16 | 2013-06-06 | Flextronics Ap, Llc | In-car communication between devices |
JP2014109994A (en) * | 2012-12-04 | 2014-06-12 | Alpine Electronics Inc | Gesture recognition device, and method and program |
-
2014
- 2014-10-31 JP JP2014222788A patent/JP6413647B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005047412A (en) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | Non-contact information input device |
JP2006096246A (en) * | 2004-09-30 | 2006-04-13 | Mazda Motor Corp | Information display device for vehicle |
JP2010254199A (en) * | 2009-04-27 | 2010-11-11 | Denso Corp | Operation device for vehicle |
JP2012206692A (en) * | 2011-03-30 | 2012-10-25 | Honda Motor Co Ltd | Vehicular operating device |
JP2013086750A (en) * | 2011-10-21 | 2013-05-13 | Suzuki Motor Corp | Input device for vehicle |
US20130143601A1 (en) * | 2011-11-16 | 2013-06-06 | Flextronics Ap, Llc | In-car communication between devices |
JP2014109994A (en) * | 2012-12-04 | 2014-06-12 | Alpine Electronics Inc | Gesture recognition device, and method and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106828349A (en) * | 2016-12-25 | 2017-06-13 | 重庆路格科技有限公司 | Onboard navigation system |
KR20180102776A (en) * | 2017-03-08 | 2018-09-18 | 전자부품연구원 | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device |
KR101983892B1 (en) * | 2017-03-08 | 2019-05-29 | 전자부품연구원 | Gesture Recognition Method, Device, and recording medium for Vehicle using Wearable device |
JP2020057139A (en) * | 2018-10-01 | 2020-04-09 | トヨタ自動車株式会社 | Equipment controller |
JP7091983B2 (en) | 2018-10-01 | 2022-06-28 | トヨタ自動車株式会社 | Equipment control device |
Also Published As
Publication number | Publication date |
---|---|
JP6413647B2 (en) | 2018-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3290301B1 (en) | Parking assist device | |
US9604573B2 (en) | Transmissive information display apparatus for obstacle detection outside a vehicle | |
JP5143235B2 (en) | Control device and vehicle surrounding monitoring device | |
US11520328B2 (en) | Mobile terminal and remote operation method | |
US11130489B2 (en) | Driving mode switching device | |
WO2016067544A1 (en) | Vehicle-mounted attention-attracting system and notification control device | |
JP6620527B2 (en) | Information processing apparatus and in-vehicle system | |
JP2018144526A (en) | Periphery monitoring device | |
CA3069117C (en) | Parking assistance method and parking assistance device | |
JP6413647B2 (en) | Operation input device | |
JP2018163112A (en) | Automatic parking control method and automatic parking control device and program using the same | |
JP2017058761A (en) | Driving assistance device and driving assistance program | |
JP2017208690A (en) | Image creation device, image display system, and image display method | |
JP2017007600A (en) | On-vehicle display device | |
JP6413649B2 (en) | Operation input device | |
JP2007311898A (en) | Vehicle drive support apparatus and vehicle drive support method | |
JP2010254199A (en) | Operation device for vehicle | |
JP2009298384A (en) | Device for assisting parking | |
JP6413645B2 (en) | Operation input device | |
JP6589991B2 (en) | Human interface | |
JP2017054343A (en) | Behavior detection device | |
JP6565693B2 (en) | In-vehicle camera lens abnormality detection device | |
JP2018073257A (en) | Obstacle detection system | |
JP2016177465A (en) | On-vehicle warning device | |
JP2018190275A (en) | Vehicle operation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180917 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6413647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |