JP2020107031A - Instruction gesture detection apparatus and detection method therefor - Google Patents

Instruction gesture detection apparatus and detection method therefor Download PDF

Info

Publication number
JP2020107031A
JP2020107031A JP2018244369A JP2018244369A JP2020107031A JP 2020107031 A JP2020107031 A JP 2020107031A JP 2018244369 A JP2018244369 A JP 2018244369A JP 2018244369 A JP2018244369 A JP 2018244369A JP 2020107031 A JP2020107031 A JP 2020107031A
Authority
JP
Japan
Prior art keywords
operator
gesture
detection
instruction
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018244369A
Other languages
Japanese (ja)
Inventor
佳行 津田
Yoshiyuki Tsuda
佳行 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018244369A priority Critical patent/JP2020107031A/en
Publication of JP2020107031A publication Critical patent/JP2020107031A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an instruction gesture detection apparatus which can properly correct even a large error in correcting an actually specified position for an operation object during ordinary operation, and a method therefor.SOLUTION: An instruction gesture detection apparatus which detects a specified operation object out of operation objects 11a, 11b displayed on an operation screen 11 located at a distance from an operator, on the basis of an instruction gesture made by the operator includes: a detection unit 110 which detects an instruction gesture of an operator; and a control unit 120 which executes position correction for aligning a position actually specified by the instruction gesture with a position of the operation object desired by the operator, on the basis of detection data detected by the detection unit. The control unit increases an original distance between the operation objects to be equal to or larger than a predetermined distance, in executing position correction.SELECTED DRAWING: Figure 1

Description

本発明は、入力操作に用いる指示ジェスチャによって指示された操作対象を検出する指示ジェスチャ検出装置、およびその検出方法に関するものである。 The present invention relates to an instruction gesture detection device that detects an operation target indicated by an instruction gesture used for an input operation, and a detection method thereof.

従来の指示ジェスチャ検出装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の指示ジェスチャ検出装置(視線入力装置)では、ユーザが視線入力システムを使用する最初の段階で、ユーザの視線に基づいて、操作枠に対する実際の注視点と、センサによって得られる検出点とのずれ(誤差)を補正するための初期キャリブレーションが行われるようになっている。 As a conventional pointing gesture detecting device, for example, one described in Patent Document 1 is known. In the pointing gesture detection device (eye-gaze input device) of Patent Document 1, at the first stage when the user uses the eye-gaze input system, an actual gazing point with respect to the operation frame and a detection point obtained by the sensor based on the eye-gaze of the user. Initial calibration is performed to correct the deviation (error) from the

また、システムの使用中に、目をつぶる、視線でメニュー選択をする等のイベントが発生すると、動的キャリブレーションが行われるようになっている。動的キャリブレーションでは、上記の初期キャリブレーションと同様に、操作枠に対する注視点と検出点とのずれ分が補正されるようになっている。動的キャリブレーションにて得られた補正係数は、以降の制御で使用されるようになっている。 In addition, when an event such as closing the eyes or selecting a menu with a line of sight occurs during use of the system, dynamic calibration is performed. In the dynamic calibration, the shift amount between the gazing point and the detection point with respect to the operation frame is corrected as in the initial calibration. The correction coefficient obtained by the dynamic calibration is used in the subsequent control.

特開2000−10723号公報Japanese Patent Laid-Open No. 2000-10723

上記特許文献1では、初期キャリブレーションを行う際には、キャリブレーションのための専用の操作を行うという観点から、検出点が、注視した操作枠内に入ることを前提として、誤差補正を行うものとなっている。しかしながら、初期キャリブレーションを専用の操作として設定することは、ユーザとっては手間となる。初期キャリブレーションの手間を省いて、通常の操作が行われる中でキャリブレーションを行うことを考えると、以下の問題が考えられる。つまり、複数の操作枠が隣接配置されており、実際の注視点と検出点とのずれ(誤差)が大きい場合では、例えば、検出点が操作枠の外側に位置すると、どの操作枠に対する補正を行うのかを判断することが困難となり、正しい補正ができない場合がある。 In the above-mentioned Patent Document 1, error correction is performed on the assumption that the detection point falls within the operation frame that is focused on, from the viewpoint of performing a dedicated operation for calibration when performing the initial calibration. Has become. However, setting the initial calibration as a dedicated operation is troublesome for the user. Considering that the calibration is performed during the normal operation while omitting the trouble of the initial calibration, the following problems are conceivable. That is, when a plurality of operation frames are arranged adjacent to each other and the deviation (error) between the actual gazing point and the detection point is large, for example, when the detection point is located outside the operation frame, which operation frame is corrected. It may be difficult to determine whether to perform the correction, and correct correction may not be possible.

正しく補正が行われないと、ユーザは、注視点と検出点とのズレ分を意識した操作を意図的に行うようになり、これにより、正確な検出点が得られなくなり、ますます正しい補正ができなくなってしまう。 If the correction is not performed correctly, the user intentionally performs an operation that is aware of the difference between the gazing point and the detection point, which makes it impossible to obtain an accurate detection point and corrects even more correctly. I can not do it.

本発明の目的は、上記問題に鑑み、通常の操作の中で、操作対象に対する実際の指示位置を補正するにあたって、ずれ(誤差)が大きい状態でも正しく位置補正できる指示ジェスチャ検出装置、およびその方法を提供することにある。 In view of the above problems, an object of the present invention is to provide a pointing gesture detection device and a method thereof that can correct the position correctly even in a state where a deviation (error) is large in correcting an actual pointing position with respect to an operation target in a normal operation. To provide.

本発明は上記目的を達成するために、以下の技術的手段を採用する。 The present invention adopts the following technical means in order to achieve the above object.

第1の発明では、操作者が行う指示ジェスチャに基づいて、操作者から離れた操作画面(11)に表示される複数の操作対象(11a、11b)のうち、指示された操作対象を検出する指示ジェスチャ検出装置において、
操作者の指示ジェスチャを検知する検知部(110)と、
検知部で検知された検知データを基に、指示ジェスチャによって実際に指示された位置を、操作者が所望する操作対象の位置に合せるための位置補正を行う制御部(120)と、を備え、
制御部は、位置補正を行う際に、複数の操作対象の本来の間隔を、予め定めた所定間隔以上となるように広げることを特徴としている。
In the first invention, based on an instruction gesture made by the operator, the instructed operation object is detected from among the plurality of operation objects (11a, 11b) displayed on the operation screen (11) away from the operator. In the pointing gesture detection device,
A detection unit (110) for detecting an operator's instruction gesture;
Based on the detection data detected by the detection unit, a control unit (120) for performing a position correction for aligning the position actually pointed by the pointing gesture with the position of the operation target desired by the operator,
The control unit is characterized by widening the original intervals of the plurality of operation targets to be equal to or more than a predetermined interval when performing the position correction.

また、第2の発明では、操作者が行う指示ジェスチャに基づいて、操作者から離れた操作画面(11)に表示される複数の操作対象(11a、11b)のうち、指示された操作対象を検出する指示ジェスチャ検出方法において、
操作者の指示ジェスチャを検知する検知ステップと、
検知ステップで検知された検知データを基に、指示ジェスチャによって実際に指示された位置を、操作者が所望する操作対象の位置に合せるための位置補正を行う補正ステップと、を備え、
補正ステップでは、複数の操作対象の本来の間隔を、予め定めた所定間隔以上となるように広げることを特徴としている。
Further, in the second invention, based on the instruction gesture performed by the operator, the instructed operation object is selected from among the plurality of operation objects (11a, 11b) displayed on the operation screen (11) away from the operator. In the instruction gesture detection method for detecting,
A detection step of detecting the instruction gesture of the operator,
Based on the detection data detected in the detection step, the position actually designated by the pointing gesture, a correction step for performing a position correction to match the position of the operation target desired by the operator,
The correction step is characterized in that the original intervals of the plurality of operation targets are widened to be equal to or larger than a predetermined interval.

この発明によれば、通常の操作の中で、位置補正を行う際に、複数の操作対象(11a、11b)の本来の間隔が、所定間隔以上となるように広げられることによって、それぞれの操作対象(11a、11b)の周りに、実際の指示位置のバラツキを吸収可能として、その操作対象(11a、11bのいずれか)への指示操作に対して反応する反応領域を設定することが可能となる。よって、実際の指示位置が、操作対象(11a、11b)の外側に位置するような、ずれ(誤差)の大きな場合でも、複数の操作対象(11a、11b)のうちの、どの操作対象についての位置補正を行えばよいのかが明確に分かるので、正しく位置補正することが可能となる。 According to the present invention, when the position correction is performed during the normal operation, the original intervals of the plurality of operation targets (11a, 11b) are widened to be equal to or more than the predetermined interval, so that the respective operations are performed. It is possible to absorb the variation of the actual pointing position around the object (11a, 11b) and set a reaction area that reacts to the pointing operation to the operation target (11a, 11b). Become. Therefore, even if the actual pointing position is located outside the operation target (11a, 11b) and the deviation (error) is large, which operation target among the plurality of operation targets (11a, 11b) Since it is clearly understood whether the position should be corrected, it is possible to correct the position correctly.

尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。 The reference numerals in parentheses of the above-mentioned means indicate the correspondence with the specific means described in the embodiments described later.

第1実施形態における指示ジェスチャ検出装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the instruction|indication gesture detection apparatus in 1st Embodiment. 位置補正を行う際の要領を示す説明図である(アイコン2つの例)。It is explanatory drawing which shows the point at the time of performing a position correction (example of two icons). 位置補正を行う際の要領を示す説明図である(アイコン6つの例)。It is explanatory drawing which shows the point at the time of performing a position correction (example of six icons). 第2実施形態における位置補正時の操作カーソル(画面分割部)を示す説明図である。It is explanatory drawing which shows the operation cursor (screen division part) at the time of position correction in 2nd Embodiment. 第2実施形態における位置補正時の操作カーソル(ぼかし部分)を示す説明図である。It is explanatory drawing which shows the operation cursor (blurred part) at the time of position correction in 2nd Embodiment.

以下に、図面を参照しながら本発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。 Hereinafter, a plurality of modes for carrying out the present invention will be described with reference to the drawings. In each form, parts corresponding to the items described in the preceding form may be designated by the same reference numerals, and redundant description may be omitted. In the case where only a part of the configuration is described in each mode, the other mode described above can be applied to the other part of the configuration. Not only the combination of the parts clearly showing that the respective embodiments can be specifically combined, but also the combination of the embodiments is partially combined even if the combination is not particularly specified, unless there is a problem in the combination. It is also possible.

(第1実施形態)
第1実施形態の指示ジェスチャ検出装置100について図1〜図3を用いて説明する。本実施形態の指示ジェスチャ検出装置100は、例えば、車両に搭載され、操作者(運転者)の指示ジェスチャによる指示方向や指示位置を検出して、各種車両機器における表示部11に表示される複数のアイコン11a〜11dのうち、指示されたアイコン(11a〜11d)を検出するようになっている。そして、指示されたアイコン(11a〜11d)に基づいて、各種車両機器に入力指示を行うようになっている。
(First embodiment)
The instruction gesture detection device 100 according to the first embodiment will be described with reference to FIGS. 1 to 3. The instruction gesture detection device 100 according to the present embodiment is mounted on, for example, a vehicle, detects a pointing direction and a pointing position by an instruction gesture of an operator (driver), and displays a plurality of items on the display unit 11 of various vehicle devices. The designated icons (11a to 11d) are detected from among the icons 11a to 11d. Then, based on the instructed icons (11a to 11d), an input instruction is given to various vehicle devices.

操作者による指示ジェスチャは、例えば、指、手、腕、目(視線)、および顔等によって、操作者が所望する方向や位置を指し示すジェスチャであり、ここでは、主に、指による指差しジェスチャを用いたものとして説明する。指差しジェスチャは、指の延びる方向によって、所望する方向を指し示すジェスチャであり、例えば、人差し指が使用される。 The instruction gesture by the operator is, for example, a finger, a hand, an arm, an eye (line of sight), a face, or the like that indicates a direction or position desired by the operator. Here, mainly, a finger pointing gesture is used. Will be described. The finger pointing gesture is a gesture that points in a desired direction depending on the extending direction of the finger, and for example, the index finger is used.

各種車両機器としては、例えば、車室内の空調を行う空調装置、自車の現在位置表示あるいは目的地への案内表示等を行うカーナビゲーション装置(以下、カーナビ装置)、あるいはテレビ放映、ラジオ放送、CD/DVDの再生等を行うオーディオ装置等、がある。ここでは、車両機器として空調装置を代表例として説明する。 Examples of various vehicle devices include an air conditioner for air conditioning the interior of the vehicle, a car navigation device (hereinafter, car navigation device) for displaying the current position of the vehicle or guidance to a destination, television broadcasting, radio broadcasting, There is an audio device for reproducing a CD/DVD or the like. Here, an air conditioner will be described as a typical example of the vehicle equipment.

空調装置は、例えば、液晶ディスプレイや有機ELディスプレイ等を用いた表示部11を有しており、この表示部11には、例えば、空調装置に対して入力操作を行うためのアイコン11a〜11d、および作動状態等が表示されるようになっている。表示部11は、本発明の操作者から離れた操作画面に対応し、また、アイコン11a〜11dは、本発明の複数の操作対象に対応する。 The air conditioner has, for example, a display unit 11 using a liquid crystal display, an organic EL display, or the like. On the display unit 11, for example, icons 11a to 11d for performing an input operation to the air conditioner, And the operating status is displayed. The display unit 11 corresponds to the operation screen away from the operator of the present invention, and the icons 11a to 11d correspond to the plurality of operation targets of the present invention.

アイコン11a〜11dは、入力操作用の操作ボタンに相当するものであり、例えば、それぞれが矩形状を成して、複数(ここでは4つ)設けられている。各アイコン11a〜11dは、左右方向に隣接して並ぶように配置されている。複数のアイコン11a〜11dは、例えば、空調設定温度を上げるためのアイコン11a、空調設定温度を下げるためのアイコン11b、空調風量を上げるためのアイコン11c、空調風量を下げるためのアイコン11d等がある。 The icons 11a to 11d correspond to operation buttons for input operation, and for example, each has a rectangular shape and a plurality (here, four) are provided. The icons 11a to 11d are arranged so as to be adjacent to each other in the left-right direction. The plurality of icons 11a to 11d include, for example, an icon 11a for increasing the air conditioning set temperature, an icon 11b for decreasing the air conditioning set temperature, an icon 11c for increasing the air conditioning air volume, an icon 11d for decreasing the air conditioning air volume, and the like. ..

指示ジェスチャ検出装置100は、図1に示すように、検知部110、および制御部120等を備えている。 The instruction gesture detection device 100 includes a detection unit 110, a control unit 120, and the like, as shown in FIG.

検知部110は、操作者の表示部11(複数のアイコン11a〜11d)に対する指差しジェスチャ(人差し指の方向)を時間経過と共に連続的に検知し、操作者の指の向きを指差しジェスチャのデータとして、制御部120に出力するようになっている。検知部110によって指差しジェスチャが検知される制御ステップは、本発明の検知ステップに対応する。 The detection unit 110 continuously detects a pointing gesture (direction of the index finger) with respect to the display unit 11 (the plurality of icons 11a to 11d) of the operator over time, and indicates the direction of the operator's finger with the pointing gesture data. Is output to the control unit 120. The control step in which the finger pointing gesture is detected by the detection unit 110 corresponds to the detection step of the present invention.

また、検知部110は、操作者の体位置あるいは顔を捉えることによって、操作者の着座位置データ(主にシートスライドによる前後方向着座位置)、あるいは操作者識別データ(AさんなのかBさんなのか)を制御部120に出力するようになっている。 Further, the detection unit 110 captures the operator's body position or face to detect the operator's seating position data (mainly the seating position in the front-rear direction by seat slide) or the operator identification data (for example, Mr. A or Mr. B). Is output to the control unit 120.

検知部110としては、対象物の輝度画像を形成するカメラ、距離画像を形成する距離画像センサ、あるいはそれらの組合せを用いることができる。カメラとしては、近赤外線を捉える近赤外線カメラ、あるいは可視光を捉える可視光カメラ等がある。また、距離画像センサとしては、例えば、複数のカメラで同時に撮影して視差から奥行方向の情報を計測するステレオカメラ、あるいは、光源からの光が対象物で反射して返るまでの時間で奥行きを計測するToF(Time of Flight)カメラ等がある。本実施形態では、検知部110としては、上記のように対象物の輝度画像を形成するカメラを用いたものとしている。 As the detection unit 110, a camera that forms a brightness image of an object, a range image sensor that forms a range image, or a combination thereof can be used. As the camera, there is a near infrared camera that captures near infrared rays, a visible light camera that captures visible light, or the like. Further, as the range image sensor, for example, a stereo camera that simultaneously captures images with a plurality of cameras to measure information in the depth direction from parallax, or the depth from the time when light from a light source is reflected by an object and returned. There is a ToF (Time of Flight) camera for measuring. In the present embodiment, as the detection unit 110, the camera that forms the brightness image of the target object as described above is used.

制御部120は、例えば、CPU、ROM、RAM等を備えたコンピュータである。制御部120は、検知部110で検知されたデータ、つまり、指差しジェスチャデータ、着座位置データ、操作者識別データ等、および予め設定された表示部11と検知部110との位置関係データに基づいて、操作者によって実際に指示された位置を、操作者が所望する(狙いの)アイコン(11a〜11d)の位置に合せるための位置補正(キャリブレーション)を行うようになっている(詳細後述)。尚、狙いのアイコン(11a〜11d)の位置は、例えば、各アイコン(11a〜11d)の中心位置と定義することができる。 The control unit 120 is, for example, a computer including a CPU, a ROM, a RAM, and the like. The control unit 120 is based on the data detected by the detection unit 110, that is, the finger pointing gesture data, the sitting position data, the operator identification data, and the like, and the positional relationship data between the display unit 11 and the detection unit 110 set in advance. Then, position correction (calibration) is performed to match the position actually designated by the operator with the position of the (target) icon (11a to 11d) desired by the operator (details will be described later). ). The positions of the aimed icons (11a to 11d) can be defined as the center positions of the icons (11a to 11d), for example.

制御部120が行う位置補正の制御ステップは、本発明の補正ステップに対応する。そして、制御部120は、指示されたアイコン(11a〜11d)を検出して、空調装置に対する入力指示(入力操作のための指示)を行うようになっている。 The control step of the position correction performed by the control unit 120 corresponds to the correction step of the present invention. Then, the control unit 120 detects the instructed icons (11a to 11d) and gives an input instruction (instruction for input operation) to the air conditioner.

空調装置においては、指差しジェスチャに基づいて選択決定されたアイコン(11a〜11d)に応じて、設定温度の変更、空調風の風量の変更等が行われる。尚、カーナビ装置では、現在位置表示、目的地設定、および地図の拡大縮小、等が行われ、また、オーディオ装置では、テレビ局、ラジオ局の変更、楽曲の選択、音量の変更等が行われる。 In the air conditioner, the set temperature is changed, the amount of conditioned air is changed, and the like according to the icons (11a to 11d) selected and determined based on the pointing gesture. The car navigation device displays the current position, sets the destination, enlarges/reduces the map, etc., and the audio device changes the television station, the radio station, selects the song, and changes the volume.

本実施形態の指示ジェスチャ検出装置100は、以上のような構成となっており、以下、図2、図3を加えて、制御部120が行う位置補正について説明する。 The pointing gesture detection device 100 according to the present embodiment has the above-described configuration, and the position correction performed by the control unit 120 will be described below with reference to FIGS. 2 and 3.

1.位置補正の方法
本実施形態における位置補正では、操作者に対して、位置補正のための専用の補正作業を設定することなく、指差しジェスチャに基づく通常の車両機器への操作の中で実行されていくようにしている。位置補正は、指示ジェスチャ検出装置100が初めて使用されるとき、あるいは、操作者の着座位置が変更されたとき、あるいは、操作者が変更されたとき等に実行される。位置補正は、例えば、以下のような1次式を設定して、指差しジェスチャによって順に得られるデータを用いて、段階的に実行されていく。
1. Position Correction Method In the position correction according to the present embodiment, a dedicated correction work for position correction is not set for the operator, and the position correction is performed in the normal operation to the vehicle device based on the pointing gesture. I am trying to keep going. The position correction is executed when the pointing gesture detecting device 100 is used for the first time, when the sitting position of the operator is changed, when the operator is changed, or the like. The position correction is executed stepwise using, for example, the following linear equations set and data obtained in order by the pointing gesture.

まず、操作者のアイコン(図1、11a〜11d)に対する指差しジェスチャが、1番目、2番目・・・i番目と順に行われていくものとする。 First, it is assumed that the finger pointing gesture for the operator's icon (FIG. 1, 11a to 11d) is performed in order of 1st, 2nd...ith.

操作者からアイコン(11a〜11d)を狙う方向のヨー角(左右方向の角度)をΘi、ピッチ角(上下方向の角度)をΦiとし、
操作者が実際に指示した方向のヨー角をθi、ピッチ角をφiとすると、
狙った方向と実際に指示した方向とのずれを以下の一次式で表すものとする。
Let yaw angle (horizontal angle) in the direction of aiming the icons (11a to 11d) from the operator be Θi, and pitch angle (vertical angle) be Φi,
If the yaw angle in the direction actually instructed by the operator is θi and the pitch angle is φi,
The deviation between the target direction and the actually designated direction is represented by the following linear expression.

Θi=aθi+b+εθi
Φi=cφi+d+εφi
ただし、a、b、c、dは補正パラメータ、εθi、εφiは補正残差とする。
Θi = aθi + b + ε θi
Φi=cφi+d+ε φi
However, a, b, c and d are correction parameters, and ε θi and ε φi are correction residuals.

1つのアイコン(11a〜11dのいずれか)について方程式が2つ得られ、補正パラメータが4つあるため、すべてのパラメータを補正するには、最低2つのアイコン(11a〜11dのうち2つ)を指示する必要がある。 Since two equations are obtained for one icon (any of 11a to 11d) and there are four correction parameters, at least two icons (two of 11a to 11d) should be used to correct all parameters. Need to tell.

操作開始時点では、完全に補正できないため、デフォルト値として、a=1、b=0、c=1、d=0を使用する。 At the start of the operation, the correction cannot be completely performed, and therefore a=1, b=0, c=1, d=0 are used as default values.

操作者が1つ目のアイコン(11a〜11dのいずれか)を指示した時、2つのパラメータのみ(例えばb、d)を求め、位置補正を行う。このとき、
b=Θ1−θ1
d=Φ1−φ1 である。
When the operator designates the first icon (one of 11a to 11d), only two parameters (for example, b and d) are calculated and the position is corrected. At this time,
b=Θ1-θ1
d=Φ1-Φ1.

操作者が2つ目のアイコン(11a〜11dのいずれか)を指示した時、全てのパラメータを以下のように求め、位置補正を行う。このとき、
a=(Θ2−θ1)/(θ2−θ1)
b=(θ2Θ1−θ1Θ2)/(θ2−θ1)
c=(Φ2−Φ1)/(φ2−φ1)
d=(φ2Φ1−φ1Φ2)/(φ2−φ1) である。
When the operator designates the second icon (one of 11a to 11d), all parameters are calculated as follows and position correction is performed. At this time,
a=(Θ2-θ1)/(θ2-θ1)
b=(θ2θ1-θ1θ2)/(θ2-θ1)
c=(Φ2-Φ1)/(Φ2-Φ1)
d=(φ2Φ1-φ1Φ2)/(φ2-φ1).

操作者が3つ目以降のアイコン(11a〜11dのいずれか)を指示した時は、最小二乗法で更新する。このとき、過去に指示した全ての点を使用してもよいし、直近のN個の点を使用するようにしてもよい。 When the operator designates the third and subsequent icons (one of 11a to 11d), the least squares method is used for updating. At this time, all the points designated in the past may be used, or the latest N points may be used.

誤差の合計D=Σ{(aθi+b−Θi)+(cφi+d−Φi)
を最小化する(∂D/∂a=0、∂D/∂b=0、∂D/∂c=0、∂D/∂d=0をa、b、c、dについて解く)等のように、取得したデータの量に応じて、段階的に補正が可能である。
Total error D=Σ{(aθi+b−Θi) 2 +(cφi+d−φi) 2 }
To minimize (solve ∂D/∂a=0, ∂D/∂b=0, ∂D/∂c=0, ∂D/∂d=0 for a, b, c, d), etc. In addition, it is possible to make a stepwise correction according to the amount of acquired data.

2.アイコンの間隔拡大
図2は、説明を簡単にするためにアイコン11aとアイコン11bとの2つを表示した場合を示している。図2では、3段階(補正開始時、補正途中、補正完了)で位置補正を行う場合を示しているが、これに限定されずに、例えば、2段階(補正開始、補正完了)としてもよい。
2. Enlargement of Icon Intervals FIG. 2 shows a case where two icons 11a and 11b are displayed for the sake of simplicity. Although FIG. 2 shows the case where the position correction is performed in three stages (when the correction is started, in the middle of the correction, and when the correction is completed), the present invention is not limited to this and may be performed in two stages (correction start, correction completion). ..

位置補正を行う際は、制御部120は、複数のアイコン(11a、11b)の本来の間隔を、予め定めた所定間隔以上となるように広げる(拡大する)。要するに、各アイコン(11a、11b)の位置を離して、図2中に示すように、実際に指示された位置のバラツキを吸収可能として、そのアイコン(11a、11bのいずれか)への指示操作に対して反応し得る領域(以下、反応領域)を広く設定するのである。 When performing the position correction, the control unit 120 widens (enlarges) the original interval between the plurality of icons (11a, 11b) to be a predetermined interval or more. In short, by separating the positions of the respective icons (11a, 11b), as shown in FIG. 2, it is possible to absorb the variation in the actually designated position, and perform an instruction operation for the icon (11a, 11b). The region that can react with (hereinafter, reaction region) is set to be wide.

制御部120は、位置補正の進捗に応じて、所定間隔が本来の間隔に近づくように段階的に変更してもよい(図2中の右)。 The control unit 120 may change the predetermined interval stepwise so as to approach the original interval in accordance with the progress of the position correction (right in FIG. 2).

また、図3に示すように、例えば、アイコンが6つ(11a〜11f)の場合、位置補正開始時にアイコンの表示数を減らして(2つ、11a、11b)、位置補正の進捗に合せて、アイコンの表示数を順に増やしていくようにしてもよい(4つ、11a〜11d)。アイコンの数を2つ(11a、11b)、あるいは4つ(11a〜11d)にした場合は、階層的な表示画面で残りのアイコン11c〜11fの表示が可能となるようにするとよい。 Further, as shown in FIG. 3, for example, when the number of icons is six (11a to 11f), the number of displayed icons is reduced (2, 11a, 11b) at the time of starting the position correction to match the progress of the position correction. The number of displayed icons may be increased in sequence (four, 11a to 11d). When the number of icons is two (11a, 11b) or four (11a to 11d), it is preferable that the remaining icons 11c to 11f can be displayed on the hierarchical display screen.

このように、通常の操作の中で、位置補正を行う際に、複数のアイコン(11a、11b)の本来の間隔が、所定間隔以上となるように広げられることによって、それぞれのアイコン(11a、11b)の周りに、実際の指示位置のバラツキを吸収可能として、そのアイコン(11a、11bのいずれか)への指示操作に対して反応する反応領域を設定することが可能となる。よって、実際の指示位置が、アイコン(11a、11b)の外側に位置するような、ずれ(誤差)の大きな場合でも、複数のアイコン(11a、11b)のうちの、どのアイコンについての位置補正を行えばよいのかが明確に分かるので、正しく位置補正することが可能となる。 As described above, when the position correction is performed during the normal operation, the original intervals of the plurality of icons (11a, 11b) are widened to be equal to or more than the predetermined interval, so that the respective icons (11a, 11b, It is possible to set the reaction area around 11b) to absorb the variation of the actual pointing position and to react to the pointing operation to the icon (either 11a or 11b). Therefore, even if the actual pointing position is located outside the icons (11a, 11b) and the deviation (error) is large, the position of any of the plurality of icons (11a, 11b) can be corrected. Since it is clearly understood whether or not it should be performed, it is possible to correct the position correctly.

また、位置補正の進捗に応じて、アイコン(11a、11b)の間隔を本来の間隔になるように段階的に変更する(近づけていく)ことによって、いたずらにアイコン(11a、11b)の間隔を広げてしまうことを抑制することができる。 In addition, the intervals of the icons (11a, 11b) are mischievously changed by gradually changing (approaching) the intervals of the icons (11a, 11b) to the original intervals according to the progress of the position correction. It is possible to suppress the spread.

(第2実施形態)
第2実施形態を図4、図5に示す。第2実施形態は、上記第1実施形態に対して、表示部11において、指差しジェスチャによって実際に指示された位置に、指示位置を示すためのカーソル11gが表示されるようにしたものである。カーソル11gは、例えば、リング状内に十字が設けられた意匠となっている。カーソル11gの形状は、これに限定されることなく、他にも、矢印、三角、多角形等としてもよい。
(Second embodiment)
The second embodiment is shown in FIGS. The second embodiment is different from the first embodiment in that a cursor 11g for indicating a designated position is displayed on the display unit 11 at a position actually designated by a pointing gesture. .. The cursor 11g has, for example, a design in which a cross is provided in a ring shape. The shape of the cursor 11g is not limited to this, and may be an arrow, a triangle, a polygon, or the like.

そして、制御部120は、位置補正が未完了の段階においては、カーソル11gを大まかな領域として表示するようにしている。つまり、操作者に対して、意図的にカーソル11gの位置が明確には、わからない表示とする(大体の位置が分かる程度の表示とする)。 Then, the control unit 120 displays the cursor 11g as a rough area when the position correction is not completed. In other words, the display intentionally does not clearly show the position of the cursor 11g to the operator (display is such that the position of the cursor can be roughly understood).

図4では、カーソル11gの代わりに矩形状の領域(画面分割した領域)として設定する場合を示している。矩形状の領域は、位置補正の進捗に応じて、その大きさが本来のカーソル11gの大きさに近づくように(小さくなっていくように)する。 FIG. 4 illustrates a case where a rectangular area (screen divided area) is set instead of the cursor 11g. The size of the rectangular area is made to approach (become smaller) the original size of the cursor 11g according to the progress of the position correction.

また、図5では、カーソル11gをぼかした状態で表示する場合を示している。カーソル11gをぼかすために、カーソル11gの位置をぼかす、境界をぼかす、コントラストを下げる(色を不明瞭にする)、透過度を上げる(色が薄く、透けて見えるようにする)等の方法がある。図4と同様に、位置補正の進捗に応じて、ぼかしの大きさが本来のカーソル11gの大きさに近づくように(小さくなっていくように)する。 Further, FIG. 5 shows a case where the cursor 11g is displayed in a blurred state. In order to blur the cursor 11g, there are methods such as blurring the position of the cursor 11g, blurring the boundary, lowering the contrast (making the color unclear), and increasing the transparency (making the color lighter and transparent). is there. Similar to FIG. 4, the size of the blurring is made closer to the original size of the cursor 11g (becoming smaller) according to the progress of the position correction.

これにより、位置補正の段階で、操作者が、指差しジェスチャによって指差した自身の感覚に基づく位置と、実際に表示されるカーソル11gの位置とのずれを認識してしまうことで、意図的にずれた位置に合せて指差しジェスチャを行ってしまうことを抑制できる。つまり、操作者が意図的にずれた位置に指差しジェスチャを行うと、正確な検出点が得られなくなり、いつまでも正しい位置補正ができなくなってしまうところ、そのような不具合を抑制することができる。 As a result, at the stage of position correction, the operator intentionally recognizes the deviation between the position based on his/her own sense pointed by the pointing gesture and the position of the cursor 11g actually displayed. It is possible to prevent the finger pointing gesture from being performed in accordance with the position shifted to. That is, when the operator intentionally makes a pointing gesture at a position that is displaced, an accurate detection point cannot be obtained, and correct position correction cannot be performed forever, but such a defect can be suppressed.

(その他の実施形態)
上記各実施形態では、制御部120は、指差しジェスチャとして指差しの向きに基づいて、位置補正を実行するようにしたが、これに限らず、指差しの位置に基づくものとしてもよい。
(Other embodiments)
In each of the above-described embodiments, the control unit 120 executes the position correction based on the direction of the finger pointing as the finger pointing gesture, but the present invention is not limited to this, and may be based on the position of the finger pointing.

また、上記各実施形態では、操作対象を各種車両機器としたが、これに限定されることなく、家庭用や施設用に設けられた機器に適用してもよい。家庭用機器としては、例えば、テレビや、オーディオ等、また、施設用機器としては、例えば、銀行のATMや、駅の自動券売機等が挙げられる。 Further, in each of the above-described embodiments, the operation target is various vehicle devices, but the present invention is not limited to this and may be applied to devices provided for homes and facilities. Examples of household equipment include televisions and audio equipment, and examples of equipment for facilities include ATMs at banks and automatic ticket vending machines at stations.

また、車両に搭載されるものにおいて、対象となる操作者は、運転者に限らず、助手席者としてもよい。この場合、助手席者も、指示ジェスチャを行うことで、指示ジェスチャ検出装置100によるジェスチャ検出が行われて、各種車両機器の操作が可能となる。 Further, in a vehicle-mounted type, the target operator is not limited to the driver, but may be a passenger. In this case, the passenger seat also performs the instruction gesture, whereby the gesture detection by the instruction gesture detection device 100 is performed, and various vehicle devices can be operated.

この明細書および図面等における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、請求の範囲の記載によって示され、更に請求の範囲の記載と均等の意味および範囲内での全ての変更を含むものと解されるべきである。 The disclosure in this specification and the drawings is not limited to the illustrated embodiments. The disclosure encompasses the illustrated embodiments and variations on them based on them. For example, the disclosure is not limited to the combination of parts and/or elements shown in the embodiments. The disclosure can be implemented in various combinations. The disclosure may have additional parts that may be added to the embodiments. The disclosure includes omissions of parts and/or elements of the embodiments. The disclosure includes replacements or combinations of parts and/or elements between one embodiment and another. The disclosed technical scope is not limited to the description of the embodiments. It is to be understood that some technical scopes disclosed are indicated by the description of the claims and further include meanings equivalent to the description of the claims and all modifications within the scope.

本開示に記載の制御部120、およびその手法は、コンピュータプログラムにより具体化された一つないしは複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置、およびその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置、およびその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit 120 and the method described in the present disclosure may be realized by a dedicated computer that configures a processor programmed to execute one or a plurality of functions embodied by a computer program. Alternatively, the apparatus and the method described in the present disclosure may be realized by a dedicated hardware logic circuit. Alternatively, the apparatus and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits. Further, the computer program may be stored in a computer-readable non-transition tangible recording medium as an instruction executed by the computer.

11 表示部(操作画面)
11a〜11f アイコン(操作対象)
11g 操作カーソル(カーソル)
100 指示ジェスチャ検出装置
110 検知部
120 制御部
11 Display (operation screen)
11a to 11f icons (operation target)
11g Operation cursor (cursor)
100 instruction gesture detection device 110 detection unit 120 control unit

Claims (4)

操作者が行う指示ジェスチャに基づいて、前記操作者から離れた操作画面(11)に表示される複数の操作対象(11a、11b)のうち、指示された前記操作対象を検出する指示ジェスチャ検出装置において、
前記操作者の前記指示ジェスチャを検知する検知部(110)と、
前記検知部で検知された検知データを基に、前記指示ジェスチャによって実際に指示された位置を、前記操作者が所望する前記操作対象の位置に合せるための位置補正を行う制御部(120)と、を備え、
前記制御部は、前記位置補正を行う際に、複数の前記操作対象の本来の間隔を、予め定めた所定間隔以上となるように広げる指示ジェスチャ検出装置。
An instruction gesture detection device that detects the instructed operation target from among the plurality of operation targets (11a, 11b) displayed on the operation screen (11) away from the operator based on the instruction gesture performed by the operator. At
A detection unit (110) for detecting the instruction gesture of the operator,
A control unit (120) for performing position correction for adjusting the position actually designated by the pointing gesture to the position of the operation target desired by the operator based on the detection data detected by the detection unit; ,,
The said control part is an instruction|indication gesture detection apparatus which widens the original space|interval of the said some operation target so that it may become more than a predetermined predetermined space|interval, when performing the said position correction.
前記制御部は、前記位置補正の進捗に応じて、前記所定間隔が前記本来の間隔に近づくように段階的に変更する請求項1に記載の指示ジェスチャ検出装置。 The instruction gesture detection device according to claim 1, wherein the control unit changes the predetermined interval stepwise so as to approach the original interval according to the progress of the position correction. 前記操作画面において、前記実際に指示された位置には、指示位置を示すためのカーソル(11g)が表示されるようになっており、
前記制御部は、前記位置補正が未完了の段階においては、前記カーソルを大まかな領域として表示する請求項1または請求項2に記載の指示ジェスチャ検出装置。
On the operation screen, a cursor (11g) for indicating the designated position is displayed at the actually designated position.
The pointing gesture detection device according to claim 1, wherein the control unit displays the cursor as a rough area when the position correction is not completed.
操作者が行う指示ジェスチャに基づいて、前記操作者から離れた操作画面(11)に表示される複数の操作対象(11a、11b)のうち、指示された前記操作対象を検出する指示ジェスチャ検出方法において、
前記操作者の前記指示ジェスチャを検知する検知ステップと、
前記検知ステップで検知された検知データを基に、前記指示ジェスチャによって実際に指示された位置を、前記操作者が所望する前記操作対象の位置に合せるための位置補正を行う補正ステップと、を備え、
前記補正ステップでは、複数の前記操作対象の本来の間隔を、予め定めた所定間隔以上となるように広げる指示ジェスチャ検出方法。
An instruction gesture detection method for detecting the instructed operation target among a plurality of operation targets (11a, 11b) displayed on the operation screen (11) away from the operator based on the instruction gesture performed by the operator. At
A detection step of detecting the pointing gesture of the operator,
A correction step of performing a position correction to match the position actually pointed by the pointing gesture with the position of the operation target desired by the operator based on the detection data detected in the detection step. ,
In the correction step, the instruction gesture detection method in which the original intervals of the plurality of operation targets are expanded to be a predetermined interval or more.
JP2018244369A 2018-12-27 2018-12-27 Instruction gesture detection apparatus and detection method therefor Pending JP2020107031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018244369A JP2020107031A (en) 2018-12-27 2018-12-27 Instruction gesture detection apparatus and detection method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018244369A JP2020107031A (en) 2018-12-27 2018-12-27 Instruction gesture detection apparatus and detection method therefor

Publications (1)

Publication Number Publication Date
JP2020107031A true JP2020107031A (en) 2020-07-09

Family

ID=71450825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018244369A Pending JP2020107031A (en) 2018-12-27 2018-12-27 Instruction gesture detection apparatus and detection method therefor

Country Status (1)

Country Link
JP (1) JP2020107031A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112274920A (en) * 2020-11-24 2021-01-29 智博云信息科技(广州)有限公司 Virtual reality gesture control method, platform, server and readable storage medium
JP7439699B2 (en) 2020-08-27 2024-02-28 日本精機株式会社 Vehicle display device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185117A (en) * 1995-12-28 1997-07-15 Canon Inc Display device
JP2009031914A (en) * 2007-07-25 2009-02-12 Kyocera Mita Corp Operation device and image forming apparatus
WO2010064388A1 (en) * 2008-12-04 2010-06-10 三菱電機株式会社 Display and input device
JP2015152938A (en) * 2014-02-10 2015-08-24 ソニー株式会社 information processing apparatus, information processing method, and program
JP2015152939A (en) * 2014-02-10 2015-08-24 ソニー株式会社 information processing apparatus, information processing method, and program
WO2017141540A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method, and program
JP2018018308A (en) * 2016-07-28 2018-02-01 キヤノン株式会社 Information processing device and control method and computer program therefor
JP2018136616A (en) * 2017-02-20 2018-08-30 カルソニックカンセイ株式会社 Display operation system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185117A (en) * 1995-12-28 1997-07-15 Canon Inc Display device
JP2009031914A (en) * 2007-07-25 2009-02-12 Kyocera Mita Corp Operation device and image forming apparatus
WO2010064388A1 (en) * 2008-12-04 2010-06-10 三菱電機株式会社 Display and input device
JP2015152938A (en) * 2014-02-10 2015-08-24 ソニー株式会社 information processing apparatus, information processing method, and program
JP2015152939A (en) * 2014-02-10 2015-08-24 ソニー株式会社 information processing apparatus, information processing method, and program
WO2017141540A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method, and program
JP2018018308A (en) * 2016-07-28 2018-02-01 キヤノン株式会社 Information processing device and control method and computer program therefor
JP2018136616A (en) * 2017-02-20 2018-08-30 カルソニックカンセイ株式会社 Display operation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439699B2 (en) 2020-08-27 2024-02-28 日本精機株式会社 Vehicle display device
CN112274920A (en) * 2020-11-24 2021-01-29 智博云信息科技(广州)有限公司 Virtual reality gesture control method, platform, server and readable storage medium
CN112274920B (en) * 2020-11-24 2022-05-31 亓乐(北京)文化科技有限公司 Virtual reality gesture control method, platform, server and readable storage medium

Similar Documents

Publication Publication Date Title
US10496236B2 (en) Vehicle display device and method for controlling vehicle display device
JP5467527B2 (en) In-vehicle device controller
US20160274658A1 (en) Graphic meter device
JP2017215816A (en) Information display device, information display system, information display method, and program
US20170153699A1 (en) Sight line input parameter correction apparatus, and sight line input apparatus
JP2020107031A (en) Instruction gesture detection apparatus and detection method therefor
US10705698B2 (en) Executing functions associated with icons having overlapping areas
EP3543061B1 (en) Vehicular display device
US11276378B2 (en) Vehicle operation system and computer readable non-transitory storage medium
WO2015083267A1 (en) Display control device, and display control method
US20200379558A1 (en) Method And A System For Visual Human-Machine Interaction
US11900841B2 (en) Display system of vehicle and control method thereof for adjusting projected position of augmented reality contents
WO2020137592A1 (en) Gesture detection device and gesture detection method
WO2017188098A1 (en) Vehicle-mounted information processing system
JP7293620B2 (en) Gesture detection device and gesture detection method
JP2017083308A (en) Electronic apparatus, facility specification method, and facility specification program
JP7314848B2 (en) Display control device, image correction method and program
JP2018073310A (en) Display system and display program
JP2019152957A (en) Calibration device
JP2018041219A (en) View point acquisition system and view point acquire program
JP2019008207A (en) Display control device, display device, and display control program
US20220126838A1 (en) Vehicle and Method of Controlling the Same
JP2024033934A (en) Viewpoint position estimation method and viewpoint position estimation device
JP2018101229A (en) Selection receiving system and selection receiving program
JP2018063506A (en) Operation support device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221025