JP2005321869A - Operation input device and operation input method - Google Patents

Operation input device and operation input method Download PDF

Info

Publication number
JP2005321869A
JP2005321869A JP2004137384A JP2004137384A JP2005321869A JP 2005321869 A JP2005321869 A JP 2005321869A JP 2004137384 A JP2004137384 A JP 2004137384A JP 2004137384 A JP2004137384 A JP 2004137384A JP 2005321869 A JP2005321869 A JP 2005321869A
Authority
JP
Japan
Prior art keywords
display screen
pointing
space
operation input
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004137384A
Other languages
Japanese (ja)
Other versions
JP4274997B2 (en
Inventor
Kenjiro Endo
謙二郎 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2004137384A priority Critical patent/JP4274997B2/en
Priority to US11/104,872 priority patent/US7893920B2/en
Priority to CNB2005100701267A priority patent/CN100363880C/en
Priority to EP05009784A priority patent/EP1594040A3/en
Publication of JP2005321869A publication Critical patent/JP2005321869A/en
Application granted granted Critical
Publication of JP4274997B2 publication Critical patent/JP4274997B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an "operation input device and an operation input method" capable of eliminating requirement of moving an indicator such as a finger to a determined space, and capable of enhancing using convenience for a space human interface. <P>SOLUTION: This operation input device is provided with a three-dimensional image sensor 1 for detecting a three-dimensional position of an object, a coordinate detecting part 23 for detecting coordinates of an objective point on a display screen, based on the position of the object within an imaginary pointing space, a motion detecting part 24 for detecting a three-dimensional motion of the object within the pointing space, and an operation input content determination part 25 for determining an operation content, based on the three-dimensional motion of the object or the like. A troublesome operation of of moving the indicator to the planely fixed space is eliminated by setting the pointing space operable with the indicator such as the finger in a conical shape connecting the display screen and a reference point. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は操作入力装置および操作入力方法に関し、特に、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置に用いて好適なものである。   The present invention relates to an operation input device and an operation input method, and is particularly suitable for an operation input device that gives an input command by an operator operation to a computer device or a navigation device.

従来、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置としては、キーボードやマウス、トラックボール、ジョイスティック等を備えたリモートコントローラ(リモコン)、タッチパネルなどが多用されている。これらの操作入力装置は何れも、実際に人手が触れることによって操作する必要があり、操作が面倒であった。   2. Description of the Related Art Conventionally, as an operation input device that gives an input command by an operator operation to a computer device, a navigation device, etc., a remote controller (remote controller) including a keyboard, a mouse, a trackball, a joystick, etc., a touch panel, etc. are frequently used. All of these operation input devices need to be operated by actually touching them, and the operation is troublesome.

例えば、コンピュータ機器においてアプリケーションソフトを起動して作業を行う場合、文字入力等を行うためのキーボードと、位置指定等を行うためのマウスやトラックボールとを一々使い分ける必要があり、その使い分けが非常に面倒であった。また、車載のナビゲーション装置を操作する場合、運転者は安全のために車を停車して、ハンドルから手を離して一々リモコンのジョイスティックやタッチパネルを操作する必要があり、簡単に操作することができなかった。   For example, when starting up application software on a computer device and performing work, it is necessary to use a keyboard for inputting characters and a mouse and trackball for specifying positions, etc., which are very different. It was troublesome. In addition, when operating an in-vehicle navigation device, the driver must stop the vehicle for safety, release the hand from the steering wheel, and operate the remote control joystick and touch panel one by one. There wasn't.

これに対して、空間上の指の動きを検出して操作入力を行うようにした技術も提案されている(例えば、特許文献1参照)。この特許文献1に記載の技術では、ディスプレイ画面に対応した所定の空間に赤外線を走査し、その空間内に入れられた指などの指示物に赤外線が照射されたことを赤外線センサにより検知する。そして、その指示物によって指定された空間上の位置をそのときの赤外線照射位置から求め、その空間上の位置に対応するディスプレイ画面上の箇所を位置決めして、その位置指定による所定の操作指令を出力する。
特開平8−202480号公報
On the other hand, a technique has been proposed in which operation input is performed by detecting the movement of a finger in space (see, for example, Patent Document 1). In the technique described in Patent Document 1, infrared light is scanned in a predetermined space corresponding to the display screen, and the infrared sensor detects that the pointing object such as a finger placed in the space is irradiated with infrared light. Then, the position on the space designated by the indicator is obtained from the infrared irradiation position at that time, the position on the display screen corresponding to the position on the space is positioned, and a predetermined operation command by the position designation is issued. Output.
JP-A-8-202480

しかしながら、上記特許文献1に記載の技術では、操作入力すべき空間上の位置が赤外線の走査面に特定されているため、指などの指示物をその空間面にわざわざ移動させる必要がある。特に、操作者はディスプレイ画面に対して常に同じ位置に居るとは限らないにも関わらず、操作入力可能な空間はディスプレイ画面に対応した所定の空間に常に固定されている。そのため、操作者がどこにいても、決められた位置の空間面に指などの指示物をわざわざ移動させる必要があり、非常に使いにくいという問題があった。   However, in the technique described in Patent Document 1, since the position on the space where the operation input is to be performed is specified on the infrared scanning surface, it is necessary to intentionally move an indicator such as a finger to the space surface. In particular, although the operator is not always at the same position with respect to the display screen, the space where the operation can be input is always fixed to a predetermined space corresponding to the display screen. For this reason, there is a problem that it is very difficult to use an indicator such as a finger because it is necessary to move an indicator such as a finger to a space surface at a predetermined position regardless of where the operator is.

また、操作入力装置を使用する操作者は一人であるとは限らず、体格の異なる操作者が操作を行う可能性もあるが、特許文献1に記載の技術では、上述のように操作入力可能な空間面は所定の位置に固定されている。しかし、操作者の手が届く範囲は体格によって差があり、空間面の位置によっては、小柄な操作者には操作入力が行いづらいという問題があった。また、空間面はディスプレイ画面に対して絶対的な位置関係で規定されているので、操作者の位置が変わると空間面を望む角度がまちまちとなり、操作入力に誤差が生じるという問題もあった。   Also, the number of operators who use the operation input device is not limited to one, and there is a possibility that an operator with a different physique may perform an operation. The space plane is fixed at a predetermined position. However, the range that the operator can reach varies depending on the physique, and there is a problem that it is difficult for a small operator to perform operation input depending on the position of the space. In addition, since the spatial plane is defined in an absolute positional relationship with respect to the display screen, there is a problem that when the operator's position changes, the angle at which the spatial plane is desired varies, and an error occurs in operation input.

さらに、上記特許文献1に記載の技術では、指示物の操作入力に対応する動きとそれ以外の動きとの区別がないので、空間面に指示物が入れられると全て操作入力であると判断されてしまい、ユーザの意図に反して操作入力が行われてしまうことがあるという問題もあった。   Furthermore, in the technique described in Patent Document 1, since there is no distinction between the movement corresponding to the operation input of the pointing object and the other movements, it is determined that the operation input is all when the pointing object is put in the space. Therefore, there is a problem that operation input may be performed against the user's intention.

本発明は、このような問題を解決するために成されたものであり、決められた固定の空間に指などの指示物をわざわざ移動させる必要をなくし、使い勝手を向上させることを目的とする。
また、本発明は、操作者が居る位置に関係なく、どこからでも普通に操作入力ができるようにすることを目的とする。
また、本発明は、操作者が居る位置に関係なく、どこから操作しても誤差が生じにくくなるようにすることを目的とする。
また、本発明は、ユーザの意図に反する操作入力が行われてしまうという不都合を回避できるようにすることを目的とする。
The present invention has been made to solve such problems, and it is an object of the present invention to eliminate the need to move an indicator such as a finger to a fixed space and improve usability.
It is another object of the present invention to allow normal operation input from anywhere regardless of the position of the operator.
It is another object of the present invention to make it difficult for errors to occur regardless of where the operator is located.
Another object of the present invention is to avoid the inconvenience that an operation input contrary to the user's intention is performed.

上記した課題を解決するために、本発明では、物体の3次元的な位置を検出し、ディスプレイ画面と所定の基準点とを結んで成る仮想的なポインティング空間内における物体の3次元的な動きを検出するとともに、ポインティング空間内の物体が存在する位置をディスプレイ画面に写像して得られるディスプレイ画面における対象点の座標を算出し、物体の3次元的な動きおよび物体の位置に対応するディスプレイ画面における対象点の座標に基づいて操作入力内容を判定するようにしている。   In order to solve the above-described problems, the present invention detects a three-dimensional position of an object, and moves the object in a virtual pointing space formed by connecting a display screen and a predetermined reference point. A display screen corresponding to the three-dimensional movement of the object and the position of the object by calculating the coordinates of the target point on the display screen obtained by mapping the position where the object exists in the pointing space to the display screen The operation input content is determined on the basis of the coordinates of the target point.

また、ポインティング空間内の物体が所定の指示物であることを認識し、指示物であると認識された物体について検出されるポインティング空間内における位置をもとに、当該指示物の3次元的な動きやディスプレイ画面における対象点の座標を検出するようにしても良い。   Further, it recognizes that the object in the pointing space is a predetermined indicator, and based on the position in the pointing space detected for the object recognized as the indicator, the three-dimensional You may make it detect the coordinate of the target point in a motion and a display screen.

また、上述のポインティング空間は、ディスプレイ画面と当該ディスプレイ画面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的な空間であり、所定の基準点は、例えば操作者の目の位置に設定するのが好ましい。また、所定の基準点は、ディスプレイ画面と、当該ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの物体の位置を結んで得られる面との双方を断面として持つ錐体の頂点に当たる位置を初期値とし、操作者の動きに追随して移動するようにしても良い。また、操作者の動きが小さいと仮定できる場合は、初期値で固定しても良い。   The pointing space described above is a conical virtual space formed by connecting a display screen and a predetermined reference point located away from the display screen. The predetermined reference point is, for example, an operator's The eye position is preferably set. Further, the predetermined reference point is a position corresponding to the apex of a cone having both a display screen and a plane obtained by connecting the positions of the objects when the four corners of the display screen are respectively pointed in space. The initial value may be used to move following the movement of the operator. If it can be assumed that the operator's movement is small, the initial value may be fixed.

上記のように構成した本発明によれば、指などの指示物で操作可能なポインティング空間が、ディスプレイ画面と基準点とを結ぶ円錐状に設定されるので、平面状に固定された空間面に指などの指示物をわざわざ移動させるといった操作を行う必要がなくなる。また、指示物の位置がポインティング空間内であれば、指示物はディスプレイ画面と操作者との間の何れの場所にあっても良いので、操作者の手が届く範囲内で普通に操作入力を行うことが可能となる。これにより、空間上におけるヒューマンインタフェースによる操作入力装置の使い勝手を向上させることができる。   According to the present invention configured as described above, the pointing space that can be operated with an indicator such as a finger is set in a conical shape that connects the display screen and the reference point. There is no need to perform an operation such as moving a pointing object such as a finger. In addition, if the position of the pointing object is within the pointing space, the pointing object may be located anywhere between the display screen and the operator. Can be done. Thereby, the usability of the operation input device by the human interface in space can be improved.

また、本発明によれば、ディスプレイ画面上の座標は指示物が存在する位置を写像して得られるので、操作者がディスプレイ画面に対してどのような位置にいても、操作入力に誤差が生じるという不都合を最小限にすることができる。   Further, according to the present invention, since the coordinates on the display screen are obtained by mapping the position where the indicator is present, an error occurs in the operation input regardless of the position of the operator with respect to the display screen. Can be minimized.

また、本発明によれば、ポインティング空間内で検出される物体の中から所定の指示物が認識され、この指示物のみを対象として操作入力内容の判定が行われるので、ポインティング空間内を指示物以外の物体が移動したとしても、操作入力があったと判定されることはない。また、指示物が所定の動きをしたときにのみ操作入力があったと判定されるので、指示物の操作入力に対応する動きとそれ以外の動きとが区別され、ポインティング空間内を指示物が偶然に移動したとしても、意図しない動きであれば操作入力があったと判定されることはない。これにより、ユーザの意図に反して操作入力が行われてしまうという不都合を防止することができる。   In addition, according to the present invention, a predetermined indicator is recognized from objects detected in the pointing space, and the operation input content is determined only for this pointer. Even if an object other than the object moves, it is not determined that there has been an operation input. In addition, since it is determined that there is an operation input only when the indicator moves in a predetermined manner, the movement corresponding to the operation input of the indicator is distinguished from other movements, and the indicator is accidentally moved in the pointing space. Even if it moves to, if it is an unintended movement, it will not be determined that there has been an operation input. Thereby, the inconvenience that the operation input is performed against the user's intention can be prevented.

また、ポインティング空間を規定する所定の基準点として、操作者の目の位置を設定した場合には、操作者が移動すると、移動した目の位置に合わせてポインティング空間も移動することになる。これにより、操作者がディスプレイ画面に対してどのような場所に移動しても、従来のように固定された空間面に指などの指示物をわざわざ移動させるといった操作を行う必要がなく、普通に操作入力を行うことが可能であり、空間上におけるヒューマンインタフェースの使い勝手を更に向上させることができる。   In addition, when the operator's eye position is set as a predetermined reference point that defines the pointing space, when the operator moves, the pointing space also moves according to the moved eye position. As a result, no matter where the operator moves with respect to the display screen, there is no need to perform an operation such as moving a pointing object such as a finger to a fixed space surface as in the past. Operation input can be performed, and the usability of the human interface in space can be further improved.

また、ポインティング空間を規定する所定の基準点として、ディスプレイ画面と、当該ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの指示物の位置を結んで得られる面との双方を断面として持つ錐体の頂点に当たる位置を設定した場合には、操作者がディスプレイ画面を見込んでディスプレイ画面内の位置を普通に指示したときの指示物の位置が必ずポインティング空間の中に含まれるようになる。これにより、より自然な態様で操作入力を行うことが可能であり、空間上におけるヒューマンインタフェースの使い勝手を更に向上させることができる。   In addition, as a predetermined reference point for defining the pointing space, a cone having a cross section as a cross section of both the display screen and a surface obtained by connecting the four corners of the display screen when the pointing operation is performed on the space. When the position corresponding to the apex of the body is set, the pointing space is always included in the pointing space when the operator normally indicates the position in the display screen while looking at the display screen. Thereby, operation input can be performed in a more natural manner, and the usability of the human interface in the space can be further improved.

(第1の実施形態)
以下、本発明の一実施形態を図面に基づいて説明する。図1は、第1の実施形態による操作入力装置の構成例を示す図である。図1に示すように、第1の実施形態の操作入力装置は、位置検出手段としての3次元イメージセンサ1と、CPU2a、ROM2b、RAM2cなどを備えて構成されるマイクロコンピュータ(以下、マイコンと記す)2と、ディスプレイ装置20の表示制御を行う表示制御手段としてのディスプレイコントローラ3とを備えて構成されている。
(First embodiment)
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an operation input device according to the first embodiment. As shown in FIG. 1, the operation input device of the first embodiment includes a microcomputer (hereinafter referred to as a microcomputer) that includes a three-dimensional image sensor 1 as a position detection unit, a CPU 2a, a ROM 2b, a RAM 2c, and the like. ) 2 and a display controller 3 as display control means for performing display control of the display device 20.

3次元イメージセンサ1は、空間上における物体の3次元的な位置を検出するものである。例えば、物体にビームを照射し、反射して返ってくるビームを測定することで物体までの距離(物体の相対位置)を検出する。この3次元イメージセンサ1としては、例えば米国特許第6,515,740号明細書に開示されているような公知の技術を適用することが可能である。この米国特許に記載の技術を用いれば、3次元イメージセンサ1が設置された位置に対する物体の3次元的な相対位置を検出するだけでなく、物体の3次元的な形状を検出することが可能である。すなわち、物体に凹凸があって物体の表面上に3次元イメージセンサ1からの距離差が存在する場合には、その距離差に応じた位置情報を出力することによって、物体の3次元的な形状を検出することが可能である。   The three-dimensional image sensor 1 detects a three-dimensional position of an object in space. For example, the distance to the object (the relative position of the object) is detected by irradiating the object with a beam and measuring the beam that is reflected and returned. As this three-dimensional image sensor 1, it is possible to apply a known technique as disclosed in, for example, US Pat. No. 6,515,740. By using the technology described in this US patent, it is possible not only to detect the three-dimensional relative position of the object with respect to the position where the three-dimensional image sensor 1 is installed, but also to detect the three-dimensional shape of the object. It is. That is, when the object has irregularities and there is a distance difference from the three-dimensional image sensor 1 on the surface of the object, the position information corresponding to the distance difference is output to thereby obtain the three-dimensional shape of the object. Can be detected.

マイコン2が備えるCPU2aは、操作入力装置の全体を制御する。ROM2bは、操作入力装置の動作に必要な各種プログラムを記憶する。RAM2cは、CPU2aによる各種処理の過程で得られるデータや、各種処理の結果得られるデータを一時的に格納する。すなわち、CPU2aは、ROM2bに記憶された各種プログラムに従って、RAM2cをワークメモリとして使用しながら、操作入力装置の動作を制御する。   The CPU 2a included in the microcomputer 2 controls the entire operation input device. The ROM 2b stores various programs necessary for the operation of the operation input device. The RAM 2c temporarily stores data obtained during various processes by the CPU 2a and data obtained as a result of various processes. That is, the CPU 2a controls the operation of the operation input device while using the RAM 2c as a work memory in accordance with various programs stored in the ROM 2b.

図2は、マイコン2が有する機能構成を示すブロック図である。また図3は、本実施形態のポインティング空間を説明するための概念図である。図2に示すように、本実施形態のマイコン2は、その機能構成として、ポインティング空間設定部21、指示物認識部22、座標検出部23、動き検出部24および操作入力内容判定部25を備えている。   FIG. 2 is a block diagram showing a functional configuration of the microcomputer 2. FIG. 3 is a conceptual diagram for explaining the pointing space of the present embodiment. As shown in FIG. 2, the microcomputer 2 of the present embodiment includes a pointing space setting unit 21, a pointing object recognition unit 22, a coordinate detection unit 23, a motion detection unit 24, and an operation input content determination unit 25 as its functional configuration. ing.

ポインティング空間設定部21は、図3に示すように、ディスプレイ装置20の画面(以下、ディスプレイ画面30と記す)と、当該ディスプレイ画面30から離れた場所にある所定の基準点31とを結んで成る錐体状の仮想的なポインティング空間32を設定する。   As shown in FIG. 3, the pointing space setting unit 21 connects a screen of the display device 20 (hereinafter, referred to as a display screen 30) and a predetermined reference point 31 located away from the display screen 30. A conical virtual pointing space 32 is set.

ここで、基準点31は、多くの場合に操作者が居ると予想される位置に設定する。例えば、本実施形態の操作入力装置を車載用ナビゲーション装置に適用する場合、運転席のヘッドレスト前の空間で、運転者の目の位置と想定される一点に基準点31を設定するのが好ましい。図3はそのような状態を示している。すなわち、車載用ナビゲーション装置の場合、ディスプレイ画面30はインパネの略中央に設置されるのに対し、運転席は車両の右寄り(または左寄り)に存在するので、ポインティング空間32は図3のように斜めの錐体状となる。   Here, the reference point 31 is set to a position where an operator is expected in many cases. For example, when the operation input device of the present embodiment is applied to an in-vehicle navigation device, it is preferable to set the reference point 31 at one point assumed to be the position of the driver's eyes in the space before the headrest of the driver's seat. FIG. 3 shows such a state. That is, in the case of the in-vehicle navigation device, the display screen 30 is installed at the approximate center of the instrument panel, while the driver's seat is located on the right side (or the left side) of the vehicle, the pointing space 32 is slanted as shown in FIG. It becomes the shape of a cone.

この場合、ディスプレイ画面30の位置と基準点31の位置とがあらかじめ分かっているので(例えば、RAM2cや他の図示しないメモリに情報として記憶しておく)、ポインティング空間32は一意に決まる。   In this case, since the position of the display screen 30 and the position of the reference point 31 are known in advance (for example, stored as information in the RAM 2c or other memory (not shown)), the pointing space 32 is uniquely determined.

指示物認識部22は、ポインティング空間32の内にある物体を3次元イメージセンサ1により検知して、所定の指示物34であることを認識する。本実施形態において、指示物34は、棒状の突出物であるとする。例えば、操作者の指を1本だけ立てた状態のもの、操作者が持っている筆記具や指示具などが指示物34に該当する。   The indicator recognizing unit 22 detects an object in the pointing space 32 by the three-dimensional image sensor 1 and recognizes that the object is a predetermined indicator 34. In the present embodiment, it is assumed that the indicator 34 is a rod-like protrusion. For example, the indicator 34 may be one in which only one operator's finger is raised, a writing instrument or an indicator that the operator has.

3次元イメージセンサ1をディスプレイ画面30の近傍に設置した場合、指示物34はディスプレイ画面30の方向、つまり3次元イメージセンサ1の方向に向けて操作されることになる。このとき、上述のように3次元イメージセンサ1は、物体までの距離に応じた位置情報を出力するので、棒状の物体が3次元イメージセンサ1の方向に向けられていると、当該棒状の物体の先端部分についてのみ近い位置情報が出力される。したがって、当該近い位置情報が出力されている部分を指示物34が存在する位置として検出することが可能である。   When the 3D image sensor 1 is installed in the vicinity of the display screen 30, the indicator 34 is operated in the direction of the display screen 30, that is, the direction of the 3D image sensor 1. At this time, as described above, the three-dimensional image sensor 1 outputs position information corresponding to the distance to the object. Therefore, if the rod-shaped object is directed toward the three-dimensional image sensor 1, the rod-shaped object is output. Position information that is close only to the tip portion of is output. Therefore, it is possible to detect the portion where the close position information is output as the position where the indicator 34 is present.

また、ディスプレイ画面30と基準点31との間のポインティング空間32の側方に3次元イメージセンサ1を設置した場合、指示物34は3次元イメージセンサ1から見て横方向に向けて操作されることになる。上述のように、3次元イメージセンサ1は物体の3次元的な形状に応じて位置情報を出力することができる。したがって、指示物認識部22は、3次元イメージセンサ1から出力される物体形状に応じた位置情報に基づいて、所定の長さ以上で、かつ、所定の太さ以下の物体がポインティング空間32内に存在するか否かを判断し、存在する場合にはそれを指示物34であると認識することが可能である。   When the 3D image sensor 1 is installed on the side of the pointing space 32 between the display screen 30 and the reference point 31, the indicator 34 is operated in the lateral direction as viewed from the 3D image sensor 1. It will be. As described above, the three-dimensional image sensor 1 can output position information according to the three-dimensional shape of the object. Therefore, the pointing object recognition unit 22 detects that an object having a predetermined length or more and a predetermined thickness or less in the pointing space 32 based on the position information corresponding to the object shape output from the three-dimensional image sensor 1. It is possible to recognize that it is the indicator 34 if it exists.

座標検出部23は、3次元イメージセンサ1により検出されるポインティング空間32内における指示物34の位置をもとに、写像関係を利用してディスプレイ画面30における対象点36の座標を検出する。すなわち、座標検出部23は、基準点31の位置と指示物34の位置とを通る線35がディスプレイ画面30に交差する対象点36をディスプレイ画面30の座標として、ポインティング空間32内で認識され検出される指示物34の位置から算出する。なお、3次元イメージセンサ1により検出される指示物34の位置は、3次元イメージセンサ1から見た相対位置であるが、3次元イメージセンサ1自身の位置があらかじめ分かっているので、指示物34の絶対位置も検出することが可能である。   The coordinate detection unit 23 detects the coordinates of the target point 36 on the display screen 30 using the mapping relationship based on the position of the indicator 34 in the pointing space 32 detected by the three-dimensional image sensor 1. That is, the coordinate detection unit 23 recognizes and detects in the pointing space 32 using the target point 36 where the line 35 passing through the position of the reference point 31 and the position of the indicator 34 intersects the display screen 30 as the coordinates of the display screen 30. It calculates from the position of the indicator 34 to be displayed. Note that the position of the indicator 34 detected by the three-dimensional image sensor 1 is a relative position as viewed from the three-dimensional image sensor 1. However, since the position of the three-dimensional image sensor 1 itself is known in advance, the indicator 34 Can also be detected.

座標検出部23は、検出した対象点36の座標情報をディスプレイコントローラ3に出力する。ディスプレイコントローラ3は、座標検出部23より供給される対象点36の座標情報に基づいて、ディスプレイ画面30上における対象点36の座標位置に所定のマーク(例えば、矢印マークなど)を必要に応じて表示するように制御する。   The coordinate detection unit 23 outputs the detected coordinate information of the target point 36 to the display controller 3. The display controller 3 adds a predetermined mark (for example, an arrow mark) to the coordinate position of the target point 36 on the display screen 30 as necessary based on the coordinate information of the target point 36 supplied from the coordinate detection unit 23. Control to display.

動き検出部24は、ポインティング空間32内における指示物34の3次元的な動きを検出する。上述のように、3次元イメージセンサ1はポインティング空間32内にある物体の3次元的な位置情報を随時出力しており、指示物認識部22によって物体が指示物34か否かが検出されている。したがって、指示物34に関する位置情報の変化を見ることによって、指示物34の3次元的な動きを検出することが可能である。   The motion detection unit 24 detects a three-dimensional motion of the indicator 34 in the pointing space 32. As described above, the three-dimensional image sensor 1 outputs the three-dimensional position information of the object in the pointing space 32 at any time, and the indicator recognizing unit 22 detects whether the object is the indicator 34 or not. Yes. Therefore, it is possible to detect a three-dimensional movement of the indicator 34 by observing a change in position information regarding the indicator 34.

操作入力内容判定部25は、座標検出部23により検出されるディスプレイ画面30における対象点36の座標と、動き検出部24により検出される指示物34の3次元的な動きとに基づいて、操作者によって行われた指示物34による操作入力内容を判定し、対応する操作指令を出力する。   The operation input content determination unit 25 operates based on the coordinates of the target point 36 on the display screen 30 detected by the coordinate detection unit 23 and the three-dimensional movement of the indicator 34 detected by the motion detection unit 24. The operation input content by the indicator 34 made by the person is determined and a corresponding operation command is output.

例えば、図4に示すように、ポインティング空間32内において、指示物34が、ディスプレイ画面30の所定の座標範囲内で所定の速度以上でディスプレイ画面30に近づく動きをしたとき、操作入力内容判定部25はポインティング開始動作が行われたと判定する。また、ポインティング空間32内において、指示物34が、ディスプレイ画面30の所定の座標範囲内で所定の速度以上でディスプレイ画面30から遠ざかる動きをしたときは、ポインティング解除動作が行われたと判定する。   For example, as shown in FIG. 4, when the pointing object 34 moves close to the display screen 30 at a predetermined speed or more within a predetermined coordinate range of the display screen 30 in the pointing space 32, the operation input content determination unit 25 determines that the pointing start operation has been performed. When the pointing object 34 moves away from the display screen 30 at a predetermined speed or higher within a predetermined coordinate range of the display screen 30 in the pointing space 32, it is determined that the pointing release operation has been performed.

さらに、ポインティング空間32内において、指示物34が、上述のポインティング開始動作をした後、所定の時間内にポインティング解除動作をしたときには、クリック動作が行われたと判定する。また、ポインティング空間32内において、指示物34が、上述のポインティング開始動作をした後、ポインティング解除動作をせずに、座標検出部23により検出されるディスプレイ画面30上の対象点36の座標が移動する動きをしたときには、ドラグ動作が行われたと判定し、ディスプレイ画面30での座標上の動き量をドラグ量として検出する。   Further, in the pointing space 32, when the pointing object 34 performs the pointing release operation within a predetermined time after performing the above-described pointing start operation, it is determined that the click operation has been performed. Further, in the pointing space 32, after the pointing object 34 performs the above-described pointing start operation, the coordinates of the target point 36 on the display screen 30 detected by the coordinate detection unit 23 move without performing the pointing release operation. When the movement is performed, it is determined that the drag operation has been performed, and the movement amount on the coordinates on the display screen 30 is detected as the drag amount.

操作入力内容判定部25は、検出した操作入力内容を示す情報をディスプレイコントローラ3に出力する。ディスプレイコントローラ3は、操作入力内容判定部25より供給される情報に基づいて、ディスプレイ画面30上の表示を制御する。例えば、操作入力内容判定部25によりドラグ動作が行われたと判定されたとき、座標検出部23により検出されたディスプレイ画面30上の対象点36の座標位置(矢印マークがある位置)にあるオブジェクトを、ドラグ量だけドラグされた方向に移動させるように表示を制御する。   The operation input content determination unit 25 outputs information indicating the detected operation input content to the display controller 3. The display controller 3 controls display on the display screen 30 based on the information supplied from the operation input content determination unit 25. For example, when it is determined by the operation input content determination unit 25 that the drag operation has been performed, an object at the coordinate position of the target point 36 on the display screen 30 detected by the coordinate detection unit 23 (the position where the arrow mark is present) is displayed. The display is controlled to move in the dragged direction by the drag amount.

次に、上記のように構成した本実施形態による操作入力装置の動作について説明する。図5は、本実施形態による操作入力装置の動作を示すフローチャートである。図5において、まず、3次元イメージセンサ1により空間上における物体の3次元的な位置を検出する(ステップS1)。そして、その物体がポインティング空間32の中にあるか否かを指示物認識部22により判定する(ステップS2)。物体がポインティング空間32内にあるとき、指示物認識部22は、その物体が指示物34か否かを更に判定する(ステップS3)。物体がポインティング空間32内にない場合、または、物体がポインティング空間32内にあってもそれが指示物34でない場合は、ステップS1の処理に戻る。   Next, the operation of the operation input device configured as described above according to the present embodiment will be described. FIG. 5 is a flowchart showing the operation of the operation input device according to the present embodiment. In FIG. 5, first, a three-dimensional position of an object in space is detected by the three-dimensional image sensor 1 (step S1). Then, the indicator recognition unit 22 determines whether or not the object is in the pointing space 32 (step S2). When the object is in the pointing space 32, the indicator recognition unit 22 further determines whether or not the object is the indicator 34 (step S3). If the object is not in the pointing space 32, or if the object is in the pointing space 32 but it is not the indicator 34, the process returns to step S1.

指示物認識部22によりポインティング空間32内の指示物34が認識された場合、ポインティング空間32内における指示物34の3次元的な動きを動き検出部24により検出する(ステップS4)。また、3次元イメージセンサ1により検出されたポインティング空間32内における指示物34の位置をもとに、写像関係を利用してディスプレイ画面30における対象点36の座標を座標検出部23により算出する(ステップS5)。なお、このステップS4の処理とステップS5の処理は順番が逆でも良い。   When the pointing object 34 in the pointing space 32 is recognized by the pointing object recognition unit 22, the motion detection unit 24 detects the three-dimensional movement of the pointing object 34 in the pointing space 32 (step S4). In addition, based on the position of the pointing object 34 in the pointing space 32 detected by the three-dimensional image sensor 1, the coordinate detection unit 23 calculates the coordinates of the target point 36 on the display screen 30 using the mapping relationship ( Step S5). Note that the order of the process of step S4 and the process of step S5 may be reversed.

最後に、操作入力内容判定部25は、動き検出部24により検出された指示物34の3次元的な動きと、座標検出部23により検出された指示物34の位置に対応するディスプレイ画面30における対象点36の座標とに基づいて操作入力内容を判定し、対応する操作指令を出力する(ステップS6)。すなわち、所定の動きがあったかどうかでクリック動作やドラグ動作を判定し、その動作に対応する操作指令を出力する。   Finally, the operation input content determination unit 25 is displayed on the display screen 30 corresponding to the three-dimensional movement of the indicator 34 detected by the motion detector 24 and the position of the indicator 34 detected by the coordinate detector 23. The operation input content is determined based on the coordinates of the target point 36, and a corresponding operation command is output (step S6). That is, a click operation or a drag operation is determined based on whether or not there is a predetermined movement, and an operation command corresponding to the movement is output.

例えば、操作入力内容判定部25は、対象点36の座標位置に存在するオブジェクト(例えばGUIによる操作ボタン)に向けてクリック動作が行われたと判断した場合、その操作ボタンに割り当てられている処理を実行するための操作指令を出力する。また、操作入力内容判定部25は、対象点36の座標位置に存在するオブジェクト(例えばアイコン)に対してドラグ動作が行われたと判断した場合、当該オブジェクトをドラグ量だけドラグされた方向に移動させる操作指令をディスプレイコントローラ3に出力する。地図表示を行うナビゲーション装置に本実施形態の操作入力装置を適用した場合、ポインティング開始動作によって指示された地点がドラグ量だけドラグされた方向に移動するように地図全体をスクロールするための操作指令を出力するようにしても良い。   For example, when the operation input content determination unit 25 determines that a click operation has been performed toward an object (for example, an operation button using a GUI) existing at the coordinate position of the target point 36, the process assigned to the operation button is performed. Outputs an operation command for execution. When the operation input content determination unit 25 determines that a drag operation has been performed on an object (for example, an icon) existing at the coordinate position of the target point 36, the operation input content determination unit 25 moves the object in the dragged direction by the drag amount. An operation command is output to the display controller 3. When the operation input device of the present embodiment is applied to a navigation device that displays a map, an operation command for scrolling the entire map so that the point indicated by the pointing start operation moves in the dragged direction by the drag amount is issued. You may make it output.

以上詳しく説明したように、本実施形態によれば、空間上で指などの指示物34が、従来のように平面状に固定された場所で検知されるのではなく、錐体状のポインティング空間32内において検知され、その位置と動きに応じて操作内容が判定される。これにより、平面状に固定された空間面に指などの指示物34をわざわざ移動させるといった面倒な操作を行う必要がなく、ポインティング空間32内であれば好きな場所で操作入力を行うことが可能となる。   As described above in detail, according to the present embodiment, the pointing object 34 such as a finger is not detected at a place fixed in a flat shape as in the prior art, but a cone-shaped pointing space. The operation content is detected in accordance with the position and movement. As a result, it is not necessary to perform the troublesome operation of moving the pointing object 34 such as a finger to the plane surface fixed in a flat shape, and it is possible to perform an operation input at any place within the pointing space 32. It becomes.

また、本実施形態によれば、ディスプレイ画面30上における対象点36の座標は、指示物34が存在する位置を写像して得られるので、操作者がディスプレイ画面30に対してどのような位置にいても、操作入力に誤差が生じるという不都合を最小限にできる。   Further, according to the present embodiment, the coordinates of the target point 36 on the display screen 30 are obtained by mapping the position where the indicator 34 is present, so that the operator can position the display screen 30 at any position. However, the inconvenience that an error occurs in the operation input can be minimized.

また、本実施形態によれば、ポインティング空間32内で検出される物体のうち、所定の指示物34として認識されたものだけを対象として操作入力内容の判定が行われるので、ポインティング空間32内を指示物34以外の物体が移動したとしても、操作入力があったと判定されることはない。また、操作入力内容に対応する指示物34の動きを限定しているので、指示物34の操作入力に対応する動きとそれ以外の動きとが区別され、ポインティング空間32内を指示物34が偶然に移動したとしても、意図しない動きであれば操作入力があったと判定されることはない。これにより、ユーザの意図に反して操作入力が行われてしまうという不都合を防止することができる。   Further, according to the present embodiment, since the operation input content is determined only for the objects detected as the predetermined indicator 34 among the objects detected in the pointing space 32, the inside of the pointing space 32 is determined. Even if an object other than the pointing object 34 moves, it is not determined that there has been an operation input. In addition, since the movement of the pointing object 34 corresponding to the operation input content is limited, the movement corresponding to the operation input of the pointing object 34 is distinguished from the other movements, and the pointing object 34 accidentally enters the pointing space 32. Even if it moves to, if it is an unintended movement, it will not be determined that there has been an operation input. Thereby, the inconvenience that the operation input is performed against the user's intention can be prevented.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図6は、第2の実施形態による操作入力装置の構成例を示す図である。なお、この図6において、図1に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 6 is a diagram illustrating a configuration example of the operation input device according to the second embodiment. In FIG. 6, components having the same reference numerals as those shown in FIG. 1 have the same functions, and thus redundant description is omitted here.

図6に示すように、第2の実施形態の操作入力装置は、位置検出手段として2つの3次元イメージセンサ1-1,1-2を備えている。一方の3次元イメージセンサ1-1は、第1の実施形態と同様に、ポインティング空間32内にある指示物34の3次元的な位置を検出するために使用する。他方の3次元イメージセンサ1-2は、操作者の目の3次元的な位置を検出するために使用する。 As shown in FIG. 6, the operation input device of the second embodiment, two three-dimensional image sensor 1 -1 as the position detecting means, and a 1 -2. One three-dimensional image sensor 1-1 is used to detect the three-dimensional position of the indicator 34 in the pointing space 32, as in the first embodiment. The other 3-dimensional image sensor 1 2 must be used to detect the three-dimensional position of the eyes of the operator.

図7は、第2の実施形態のポインティング空間32を説明するための概念図である。図7に示すように、第2の実施形態では、他方の3次元イメージセンサ1-2により検出される操作者の目の位置に所定の基準点31を設定している。すなわち、第2の実施形態によるポインティング空間32は、ディスプレイ画面30と操作者の目の位置31とを結んで成る錐体状の空間である。 FIG. 7 is a conceptual diagram for explaining the pointing space 32 according to the second embodiment. As shown in FIG. 7, in the second embodiment, which sets a predetermined reference point 31 to the eye position of the operator detected by the other 3-dimensional image sensor 1 -2. That is, the pointing space 32 according to the second embodiment is a conical space formed by connecting the display screen 30 and the position 31 of the operator's eyes.

図8は、第2の実施形態によるマイコン2の機能構成例を示すブロックである。なお、この図8において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。図8に示すように、第2の実施形態では、マイコン2の機能構成として、基準点認識部26を備えている。また、図2に示したポインティング空間設定部21とは異なる機能のポインティング空間設定部27を備えている。   FIG. 8 is a block diagram illustrating a functional configuration example of the microcomputer 2 according to the second embodiment. In FIG. 8, the same reference numerals as those shown in FIG. 2 have the same functions, and therefore redundant description is omitted here. As shown in FIG. 8, in the second embodiment, a reference point recognition unit 26 is provided as a functional configuration of the microcomputer 2. In addition, a pointing space setting unit 27 having a function different from that of the pointing space setting unit 21 shown in FIG. 2 is provided.

基準点認識部26は、他方の3次元イメージセンサ1-2より出力される情報に基づいて、基準点31とすべき操作者の目を認識する。また、ポインティング空間設定部27は、認識された操作者の目の位置を基準点31としたポインティング空間32を設定する。ポインティング空間32を規定するもう1つの要素であるディスプレイ画面30の位置情報は、あらかじめRAM2cなどのメモリに登録しておく。本実施形態において、指示物認識部22は、一方の3次元イメージセンサ1-1より出力されるポインティング空間32の内にある物体の位置情報に基づいて、指示物34を認識する。 Reference point recognition unit 26 based on information output from the other 3-dimensional image sensor 1 -2, recognizes the operator's eyes to be the reference point 31. The pointing space setting unit 27 sets a pointing space 32 with the recognized eye position of the operator as a reference point 31. The position information of the display screen 30, which is another element that defines the pointing space 32, is registered in advance in a memory such as the RAM 2c. In the present embodiment, an instruction object recognition unit 22 based on the position information of the object to be within the pointing space 32 which is output from one of the 3-dimensional image sensor 1 -1 recognizes the indicator 34.

以上のように、3次元イメージセンサ1-2により検出される操作者の目の位置をポインティング空間32の基準点31として設定した場合には、操作者が移動すると、移動した目の位置に合わせてポインティング空間32も移動することになる。これにより、操作者がディスプレイ画面30に対してどのような場所に移動しても、従来のように固定された空間面に指などの指示物34をわざわざ移動させるといった面倒な操作を行う必要がなく、使い勝手を更に向上させることができる。また、操作者がディスプレイ画面30に対してどのような場所に移動しても、操作者は常にディスプレイ画面30を見込んで操作することになるので、操作入力に誤差が生じるという不都合を最小限に抑えることもできる。 As described above, the position of the eyes of the operator detected by the 3-dimensional image sensor 1 -2 When configured as a reference point 31 of the pointing space 32, when the operator moves, according to the position of the moved eye Therefore, the pointing space 32 also moves. Thus, no matter where the operator moves with respect to the display screen 30, it is necessary to perform a troublesome operation such as moving the pointing object 34 such as a finger to a fixed space surface as in the past. The usability can be further improved. Further, no matter where the operator moves with respect to the display screen 30, the operator always operates while expecting the display screen 30, so that the inconvenience that an error occurs in the operation input is minimized. It can also be suppressed.

なお、基準点31として使用する操作者の目の位置は、効き目の位置であることが好ましい。図9(a)のようにディスプレイ画面30を両目で見た場合、ディスプレイ画面30と操作者との間にある指示物34は二重に見える。これは、図9(b)および(c)に示すように、指示物34と共にディスプレイ画面30を右目で見た場合と左目で見た場合とで、指示物34の見える位置が異なるためである。   The position of the operator's eye used as the reference point 31 is preferably the position of the effect. When the display screen 30 is viewed with both eyes as shown in FIG. 9A, the indicator 34 between the display screen 30 and the operator looks double. This is because, as shown in FIGS. 9B and 9C, the position where the indicator 34 can be seen differs depending on whether the display screen 30 together with the indicator 34 is viewed with the right eye or the left eye. .

一般に、視差によって像が二重に見えるとき、効き目で見た像が判断に作用すると言われる。例えば、効き目が右目の場合、両目を開いて、ある目標を指先で指したとき、左目を閉じても指先は目標からずれないが、右目を閉じると指先は目標からずれた位置になる。したがって、ポインティング空間32の錐体を、操作者の効き目からディスプレイ画面30を見込む錐体とすることにより、指示物34が二重に見えても、指示している対象点36が意図通りの点となるようにすることができる。   In general, when the image looks double due to parallax, it is said that the image viewed with effectiveness works on the judgment. For example, when the effect is the right eye, when both eyes are opened and a target is pointed with a fingertip, the fingertip does not deviate from the target even if the left eye is closed, but when the right eye is closed, the fingertip is displaced from the target. Therefore, by setting the cone of the pointing space 32 to be a cone that looks into the display screen 30 from the effect of the operator, even if the indicator 34 looks double, the target point 36 that is indicated is a point as intended. Can be.

操作者の効き目がどちらであるかは、例えばキーボードやマウス、ジョイスティックなどの入力デバイス(図示せず)を使用して事前にマイコン2のRAM2cあるいは図示しない他のメモリなどに登録しておけば良い。この場合、指示物認識部22は、事前に登録された効き目の情報に従って、他方の3次元イメージセンサ1-2より出力される情報に基づいて効き目を認識する。そして、ポインティング空間設定部27は、効き目を基準点31としたポインティング空間32を設定する。 The operator's effect may be registered in advance in the RAM 2c of the microcomputer 2 or other memory (not shown) using an input device (not shown) such as a keyboard, mouse, or joystick. . In this case, pointing object recognition unit 22, according to the information of efficacy that was previously registered to recognize the effect based on the information output from the other 3-dimensional image sensor 1 -2. Then, the pointing space setting unit 27 sets the pointing space 32 with the effect as the reference point 31.

なお、第2の実施形態では操作者の目の位置を基準点31に設定する例について説明したが、鼻の位置、口の位置、顔の中央などに基準点31を設定するようにしても良い。   In the second embodiment, the example in which the position of the operator's eyes is set as the reference point 31 has been described. However, the reference point 31 may be set at the nose position, mouth position, face center, or the like. good.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。第3の実施形態では、図1に示した第1の実施形態と同様に、位置検出手段としては1つの3次元イメージセンサ1を使用する。また、第3の実施形態によるマイコン2の機能構成は、図10に示すブロック図の通りである。なお、この図10において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the third embodiment, one three-dimensional image sensor 1 is used as the position detection means, as in the first embodiment shown in FIG. The functional configuration of the microcomputer 2 according to the third embodiment is as shown in the block diagram of FIG. In FIG. 10, components having the same reference numerals as those shown in FIG. 2 have the same functions, and thus redundant description is omitted here.

図10に示すように、第3の実施形態では、マイコン2の機能構成として、図2に示したポインティング空間設定部21とは異なる機能のポインティング空間設定部28を備えている。ポインティング空間設定部28は、操作者が指示物34を自然に操作しやすいポインティング空間32が設定されるような位置に基準点31を設定する。具体的には、ポインティング空間設定部28は、ディスプレイコントローラ3に指令を出して図11に示すような基準点31のキャリブレーション画面をディスプレイ画面30に表示する。このキャリブレーション画面の四隅には、所定のマーク40が表示されている。   As shown in FIG. 10, in the third embodiment, as a functional configuration of the microcomputer 2, a pointing space setting unit 28 having a function different from that of the pointing space setting unit 21 shown in FIG. The pointing space setting unit 28 sets the reference point 31 at a position where the pointing space 32 where the operator can easily operate the indicator 34 is set. Specifically, the pointing space setting unit 28 instructs the display controller 3 to display a calibration screen of the reference point 31 as shown in FIG. Predetermined marks 40 are displayed at the four corners of the calibration screen.

操作者は、四隅のマーク40に対して空間上でポインティング動作(例えば、ポインティング開始動作あるいはクリック動作)を行う。操作者によって四隅のマーク40に対してポインティング動作が行われたら、ポインティング空間設定部28は、四隅のマークごとに、操作者がポインティング動作を開始したときまたは終了したときの指示物34の位置を3次元イメージセンサ1によりそれぞれ検出し、それら4つの位置を結んで成る平面を特定する。さらに、ポインティング空間設定部28は、ディスプレイ画面30(より正確には、ディスプレイ画面30上の四隅のマーク40を結んで成る平面)と、ディスプレイ画面30の四隅のマーク40をそれぞれポインティング動作したときの指示物34の位置を結んで得られる平面との双方を断面として持つ錐体を想定し、その頂点に当たる位置を基準点31に設定する。こうして得られた基準点31とディスプレイ画面30とを結んで成る錐体をポインティング空間32として設定する。   The operator performs a pointing operation (for example, a pointing start operation or a click operation) on the four corner marks 40 in space. When the pointing operation is performed on the mark 40 at the four corners by the operator, the pointing space setting unit 28 determines the position of the indicator 34 when the operator starts or ends the pointing operation for each of the four corner marks. Each plane is detected by the three-dimensional image sensor 1 and a plane formed by connecting these four positions is specified. Further, the pointing space setting unit 28 performs the pointing operation on the display screen 30 (more precisely, a plane formed by connecting the four corner marks 40 on the display screen 30) and the four corner marks 40 on the display screen 30. Assuming a cone having both the cross section of the plane obtained by connecting the position of the indicator 34, the position corresponding to the apex is set as the reference point 31. A cone formed by connecting the reference point 31 thus obtained and the display screen 30 is set as a pointing space 32.

上述した第2の実施形態では、ディスプレイ画面30上で操作したい対象点36と操作者の目の位置と想定される基準点31とを結んだ直線35の上に必ず指などの指示物34を置いてポインティング動作する必要がある。これに対して、第3の実施形態によれば、図11のようなキャリブレーション画面を使ってディスプレイ画面30の四隅をポインティング動作するときに、その操作者が一番操作しやすい自然な位置に指示物34を置いてポインティング動作をすると、その四隅で規定される平面が必ず含まれるポインティング空間32が設定される。したがって、個々の操作者に合わせて、操作者が操作入力しやすい位置にポインティング空間32を設定することができ、空間上におけるヒューマンインタフェースの使い勝手を更に向上させることができる。   In the second embodiment described above, an indicator 34 such as a finger is always placed on a straight line 35 connecting the target point 36 to be operated on the display screen 30 and the assumed reference point 31 of the operator's eye position. It is necessary to put and operate. On the other hand, according to the third embodiment, when the pointing operation is performed on the four corners of the display screen 30 using the calibration screen as shown in FIG. When a pointing operation is performed with the pointing object 34 placed, a pointing space 32 that always includes planes defined by the four corners is set. Therefore, it is possible to set the pointing space 32 at a position where the operator can easily perform an operation input according to the individual operator, and the usability of the human interface in the space can be further improved.

また、四隅のマーク40のポインティング動作は、一般に、無意識的に効き目を利用して行っているので、第2の実施形態のように入力デバイスを使用して事前に効き目をメモリに登録しなくても良く、四隅のマーク40のポインティング動作時に効き目を自動的に設定することと等価になる。   In addition, since the pointing operation of the mark 40 at the four corners is generally performed unconsciously using the effect, it is not necessary to register the effect in the memory in advance using the input device as in the second embodiment. This is equivalent to automatically setting the effect during the pointing operation of the mark 40 at the four corners.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。第4の実施形態は、上記第2の実施形態と第3の実施形態とを組み合わせたものである。すなわち第4の実施形態では、一方の3次元イメージセンサ1-1を用いて、第3の実施形態と同様の動作でキャリブレーション時の指示物34の動きを検出し、基準点31を求めてこれを初期値に設定する。また、第2の実施形態と同様の動作で他方の3次元イメージセンサ1-2により操作者の目、鼻、口、顔の中央などの動きを検出し、その動きに応じて基準点31を初期値から移動させるようにする。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. The fourth embodiment is a combination of the second embodiment and the third embodiment. That is, in the fourth embodiment, using one of the three-dimensional image sensors 1-1 , the movement of the indicator 34 at the time of calibration is detected by the same operation as in the third embodiment, and the reference point 31 is obtained. Set this to the initial value. Also, the operator of the eye by the second embodiment and the other 3-dimensional image sensor 1 -2 same operation, nose, mouth, detect movement, such as the center of the face, the reference point 31 in accordance with the movement Move from the initial value.

このようにすることにより、操作者が移動すると、移動した目などの位置に合わせてポインティング空間32も移動することになる。これにより、操作者がディスプレイ画面30に対してどのような場所に移動しても、ポインティング空間32の移動が追随する限り、操作者の操作性は変化しないので、使い勝手を向上させることができる。また、操作者がディスプレイ画面30に対してどのような場所に移動しても、操作者は常にディスプレイ画面30を見込んで操作することになるので、操作入力に誤差が生じるという不都合を最小限に抑えることもできる。   In this way, when the operator moves, the pointing space 32 also moves in accordance with the position of the moved eye or the like. Thus, no matter where the operator moves with respect to the display screen 30, as long as the movement of the pointing space 32 follows, the operability of the operator does not change, so that the usability can be improved. Further, no matter where the operator moves with respect to the display screen 30, the operator always operates while expecting the display screen 30, so that the inconvenience that an error occurs in the operation input is minimized. It can also be suppressed.

なお、上記第1〜第4の実施形態では、位置検出手段として3次元イメージセンサを用いる例について説明したが、この例に限定されない。例えば、ステレオカメラを用いても良い。図12は、位置検出手段としてステレオカメラを用いた場合における物体の位置検出方法を説明するための図である。   In the first to fourth embodiments, the example in which the three-dimensional image sensor is used as the position detection unit has been described. However, the present invention is not limited to this example. For example, a stereo camera may be used. FIG. 12 is a diagram for explaining an object position detection method when a stereo camera is used as position detection means.

図12に示すように、例えばディスプレイ画面30の右側に、指示物34があるポインティング空間32の方向に向けて基準のカメラ41を設置するとともに、例えばディスプレイ画面30の左側に、指示物34があるポインティング空間32の方向に向けて補助のカメラ42を設置する。これら2台のカメラ41,42は等しい光学系を持っており、距離d、角度θを持って光軸が交差するように設置する。   As shown in FIG. 12, for example, the reference camera 41 is installed on the right side of the display screen 30 in the direction of the pointing space 32 where the indicator 34 is located, and the indicator 34 is located on the left side of the display screen 30, for example. An auxiliary camera 42 is installed in the direction of the pointing space 32. These two cameras 41 and 42 have the same optical system, and are installed so that the optical axes intersect with a distance d and an angle θ.

ここで、指示物34が基準カメラ41の撮像面に結像した結像点A1の位置を(x1,y1)、指示物34が補助カメラ42の撮像面に結像した結像点A2の位置を(x2,y2)とする。また、各カメラ41,42が持つレンズ41a,42aの焦点距離をFとすると、ディスプレイ画面30から見た指示物34の3次元的な位置(x,y,z)は、以下の式により求めることができる。
x=d・x1・G(x2)/H(x1,x2)
y=d・y1・G(y2)/H(y1,y2)
z=d・F・G(x1)/H(x1,x2)
ここで、G(x1)=F・sinθ・x1(1−cosθ)
H(x1,x2)=(F+x1・x2)sinθ+F(x1−x2)cosθ
Here, the position of the imaging point A1 where the indicator 34 forms an image on the imaging surface of the reference camera 41 is (x1, y1), and the position of the imaging point A2 where the indicator 34 forms an image on the imaging surface of the auxiliary camera 42. Is (x2, y2). When the focal length of the lenses 41a and 42a of each camera 41 and 42 is F, the three-dimensional position (x, y, z) of the indicator 34 viewed from the display screen 30 is obtained by the following equation. be able to.
x = d · x1 · G (x2) / H (x1, x2)
y = d · y1 · G (y2) / H (y1, y2)
z = d · F · G (x1) / H (x1, x2)
Here, G (x1) = F · sinθ · x1 (1-cosθ)
H (x1, x2) = (F + x1 · x2) sinθ + F (x1-x2) cosθ

また、上記第1〜第4の実施形態では、ポインティング空間32の基準点31を1箇所に設ける例について説明したが、基準点31を複数箇所に設定して複数のポインティング空間32を設定するようにしても良い。また、操作者の位置に合わせて基準点31の位置を切り替えるようにしても良い。例えば、上記第1の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席の付近に設けた所定の位置の何れかに基準点31を切り替えられるようにする。また、上記第2の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席に座っている操作者の目の位置の何れかに基準点31を切り替えられるようにする。また、上記第3の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席に座っている操作者がキャリブレーションにより設定した位置の何れかに基準点31を切り替えられるようにする。また、第4の実施形態では上述の第2の実施形態と第3の実施形態との組み合わせで基準点31を切り替えられるようにする。   In the first to fourth embodiments, the example in which the reference point 31 of the pointing space 32 is provided at one place has been described. However, the reference points 31 are set at a plurality of places and the plurality of pointing spaces 32 are set. Anyway. Further, the position of the reference point 31 may be switched according to the position of the operator. For example, when the operation input device of the first embodiment is applied to an in-vehicle navigation device, the reference point 31 can be switched to any one of predetermined positions provided in the vicinity of a driver seat, a passenger seat, and a rear seat. . Further, when the operation input device of the second embodiment is applied to an in-vehicle navigation device, the reference point 31 can be switched to any of the positions of the eyes of the operator sitting in the driver's seat, front passenger seat, and rear seat. To. Further, when the operation input device of the third embodiment is applied to an in-vehicle navigation device, the reference point 31 is set at any one of positions set by calibration by an operator sitting in a driver's seat, a passenger seat, and a rear seat. Make it switchable. In the fourth embodiment, the reference point 31 can be switched by a combination of the second embodiment and the third embodiment described above.

また、上記第2の実施形態および第4の実施形態では、指示物34を検出する一方の3次元イメージセンサ1-1と、基準点31を検出する他方の3次元イメージセンサ1-2との2つを用いているが、指示物34と基準点31とが存在する両方の領域をカバーできる1つの3次元イメージセンサで同様の動作を行うようにしても良い。 Further, in the second embodiment and the fourth embodiment, and the indicator 34 one of the three-dimensional image sensor 1 -1 for detecting the of the other 3-dimensional image sensor 1 -2 for detecting a reference point 31 Although two are used, the same operation may be performed with one three-dimensional image sensor that can cover both areas where the indicator 34 and the reference point 31 exist.

また、上記第1〜第4の実施形態において、ポインティング空間設定部21,27,28はポインティング空間32を設定しているが、このポインティング空間32内にポインティング面を更に設定するようにしても良い。図13は、その場合のポインティング空間32とポインティング面33とを説明するための概念図である。   In the first to fourth embodiments, the pointing space setting units 21, 27, and 28 set the pointing space 32. However, a pointing surface may be further set in the pointing space 32. . FIG. 13 is a conceptual diagram for explaining the pointing space 32 and the pointing surface 33 in that case.

例えば第1の実施形態を例にとって説明すると、ポインティング空間設定部21は、図13に示すように、ディスプレイ画面30と、当該ディスプレイ画面30から離れた場所にある所定の基準点31とを結んで成る錐体状の仮想的なポインティング空間32を設定するとともに、ディスプレイ画面30の座標をポインティング空間32内に写像した空間面をポインティング面33として設定する。   For example, the first embodiment will be described as an example. The pointing space setting unit 21 connects the display screen 30 and a predetermined reference point 31 located away from the display screen 30 as shown in FIG. A virtual cone-shaped pointing space 32 is set, and a space surface obtained by mapping the coordinates of the display screen 30 into the pointing space 32 is set as the pointing surface 33.

ここで、ポインティング面33は、必ずディスプレイ画面30と操作者(基準点31よりも前に居る)との間に設定される。このポインティング面33は、操作者が指示物34を使ってポインティング動作(ポインティング開始動作、ポインティング解除動作、クリック動作、ドラグ動作を含む)をしたときの当該指示物34の先端(指先など)が存在する位置を含み、操作者が指示物34を自然に動かしたときに指示物34の軌跡が形作ると想定される平面または曲面である。   Here, the pointing surface 33 is always set between the display screen 30 and the operator (located before the reference point 31). The pointing surface 33 has a tip (such as a fingertip) of the pointing object 34 when the operator performs a pointing operation (including a pointing start operation, a pointing release operation, a click operation, and a drag operation) using the pointing object 34. This is a plane or curved surface that is assumed to form a trajectory of the indicator 34 when the operator naturally moves the indicator 34.

上述したように、第1の実施形態では、ディスプレイ画面30の位置と基準点31の位置とがあらかじめ分かっているので、ポインティング空間32は一意に決まる。これに対して、ポインティング面33は、ポインティング空間32内における指示物34の動きに応じて動的に設定される。すなわち、ポインティング空間設定部21は、ポインティング動作が行われる毎に上述のようなポインティング面33を動的に設定する。   As described above, in the first embodiment, since the position of the display screen 30 and the position of the reference point 31 are known in advance, the pointing space 32 is uniquely determined. On the other hand, the pointing surface 33 is dynamically set according to the movement of the pointing object 34 in the pointing space 32. In other words, the pointing space setting unit 21 dynamically sets the pointing surface 33 as described above every time a pointing operation is performed.

その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.

本発明は、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置に有用である。   The present invention is useful for an operation input device that gives an input command by an operator operation to a computer device, a navigation device, or the like.

第1の実施形態による操作入力装置の構成例を示す図である。It is a figure which shows the structural example of the operation input apparatus by 1st Embodiment. 第1の実施形態によるマイコンが有する機能構成を示すブロック図である。It is a block diagram which shows the function structure which the microcomputer by 1st Embodiment has. 第1の実施形態によるポインティング空間を説明するための概念図である。It is a conceptual diagram for demonstrating the pointing space by 1st Embodiment. 第1〜第4の実施形態によるポインティング動作の内容を説明するための図である。It is a figure for demonstrating the content of the pointing operation | movement by 1st-4th embodiment. 第1〜第4の実施形態による操作入力装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the operation input apparatus by 1st-4th embodiment. 第2の実施形態による操作入力装置の構成例を示す図である。It is a figure which shows the structural example of the operation input apparatus by 2nd Embodiment. 第2の実施形態によるポインティング空間を説明するための概念図である。It is a conceptual diagram for demonstrating the pointing space by 2nd Embodiment. 第2の実施形態によるマイコンが有する機能構成を示すブロック図である。It is a block diagram which shows the function structure which the microcomputer by 2nd Embodiment has. 効き目について説明するための概念図である。It is a conceptual diagram for demonstrating an effect. 第3の実施形態によるマイコンが有する機能構成を示すブロック図である。It is a block diagram which shows the function structure which the microcomputer by 3rd Embodiment has. 基準点のキャリブレーション画面を示す図である。It is a figure which shows the calibration screen of a reference point. ステレオカメラを位置検出手段として用いた場合における物体の位置検出方法を説明するための図である。It is a figure for demonstrating the position detection method of the object in the case of using a stereo camera as a position detection means. 第1の実施形態の変形例に係るポインティング空間とポインティング面とを説明するための概念図である。It is a conceptual diagram for demonstrating the pointing space and pointing surface which concern on the modification of 1st Embodiment.

符号の説明Explanation of symbols

1 3次元イメージセンサ
2 マイコン
3 ディスプレイコントローラ
21,27,28 ポインティング空間設定部
22 指示物認識部
23 座標検出部
24 動き検出部
25 操作入力内容判定部
26 基準点認識部
30 ディスプレイ画面
31 基準点
32 ポインティング空間
33 ポインティング面
34 指示物
36 対象点
DESCRIPTION OF SYMBOLS 1 3D image sensor 2 Microcomputer 3 Display controller 21, 27, 28 Pointing space setting part 22 Pointer recognition part 23 Coordinate detection part 24 Motion detection part 25 Operation input content determination part 26 Reference point recognition part 30 Display screen 31 Reference point 32 Pointing space 33 Pointing surface 34 Pointer 36 Target point

Claims (26)

空間上における物体の3次元的な位置を検出する位置検出手段と、
ディスプレイ画面と当該ディスプレイ画面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間を設定するポインティング空間設定手段と、
上記位置検出手段により検出される上記ポインティング空間内における上記物体の位置をもとに、写像関係を利用して上記ディスプレイ画面における対象点の座標を検出する座標検出手段と、
上記ポインティング空間内における上記物体の3次元的な動きを検出する動き検出手段と、
上記座標検出手段により検出される上記ディスプレイ画面における対象点の座標および上記動き検出手段により検出される上記物体の3次元的な動きに基づいて操作入力内容を判定し、対応する操作指令を出力する判定手段とを備えたことを特徴とする操作入力装置。
Position detecting means for detecting a three-dimensional position of an object in space;
A pointing space setting means for setting a conical virtual pointing space formed by connecting a display screen and a predetermined reference point located away from the display screen;
Coordinate detection means for detecting the coordinates of a target point on the display screen using a mapping relationship based on the position of the object in the pointing space detected by the position detection means;
Movement detection means for detecting a three-dimensional movement of the object in the pointing space;
The operation input content is determined based on the coordinates of the target point on the display screen detected by the coordinate detection means and the three-dimensional movement of the object detected by the motion detection means, and a corresponding operation command is output. An operation input device comprising: a determination unit.
上記位置検出手段により検出される上記ポインティング空間内の物体が所定の指示物であることを認識する指示物認識手段を備え、
上記座標検出手段は、上記指示物認識手段により上記指示物であると認識された物体について上記位置検出手段により検出される上記ポインティング空間内における位置をもとに、上記ディスプレイ画面における対象点の座標を検出し、
上記動き検出手段は、上記指示物認識手段により上記指示物であると認識された物体の3次元的な動きを検出することを特徴とする請求項1に記載の操作入力装置。
Comprising an indicator recognition means for recognizing that an object in the pointing space detected by the position detection means is a predetermined indicator;
The coordinate detection means is a coordinate of a target point on the display screen based on a position in the pointing space detected by the position detection means for an object recognized as the indicator by the indicator recognition means. Detect
The operation input device according to claim 1, wherein the movement detection unit detects a three-dimensional movement of an object recognized as the pointing object by the pointing object recognition unit.
上記ポインティング空間内において、上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面に近づく動きをしたとき、上記判定手段はポインティング開始動作が行われたと判定することを特徴とする請求項2に記載の操作入力装置。 In the pointing space, when the indicator moves toward the display screen at a predetermined speed or higher within a predetermined coordinate range of the display screen, the determination means determines that a pointing start operation has been performed. The operation input device according to claim 2. 上記ポインティング空間内において、上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面から遠ざかる動きをしたとき、上記判定手段はポインティング解除動作が行われたと判定することを特徴とする請求項2に記載の操作入力装置。 In the pointing space, when the pointing object moves away from the display screen at a predetermined speed or more within a predetermined coordinate range of the display screen, the determination unit determines that the pointing release operation has been performed. The operation input device according to claim 2. 上記ポインティング空間内において、上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面に近づく動きをした後、所定の時間内に、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面から遠ざかる動きをしたとき、上記判定手段はクリック動作が行われたと判定することを特徴とする請求項2に記載の操作入力装置。 Within the pointing space, the indicator moves toward the display screen at a predetermined speed or higher within a predetermined coordinate range of the display screen, and then within a predetermined time range of the display screen within a predetermined time. The operation input device according to claim 2, wherein the determination unit determines that a click operation has been performed when the user moves away from the display screen at a predetermined speed or more. 上記ポインティング空間内において、上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面に近づく動きをした後、上記座標検出手段により検出される上記ディスプレイ画面の座標が移動する動きをしたとき、上記判定手段はドラグ動作が行われたと判定することを特徴とする請求項2に記載の操作入力装置。 In the pointing space, after the indicator moves closer to the display screen at a predetermined speed or more within a predetermined coordinate range of the display screen, the coordinates of the display screen detected by the coordinate detecting means are The operation input device according to claim 2, wherein the determination unit determines that a drag operation has been performed when a movement is made. 上記基準点は、上記位置検出手段により検出される操作者の目の位置であることを特徴とする請求項1に記載の操作入力装置。 The operation input device according to claim 1, wherein the reference point is an eye position of an operator detected by the position detection unit. 上記基準点は、上記位置検出手段により検出される操作者の効き目の位置であることを特徴とする請求項1に記載の操作入力装置。 The operation input device according to claim 1, wherein the reference point is a position of an operator's effect detected by the position detection unit. 上記基準点は、上記ディスプレイ画面と、上記ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの上記指示物の位置を結んで得られる面との双方を断面として持つ錐体の頂点に当たる位置であることを特徴とする請求項2に記載の操作入力装置。 The reference point is a position corresponding to the apex of a cone having both the display screen and a plane obtained by connecting the positions of the indicators when the four corners of the display screen are respectively pointed in space. The operation input device according to claim 2, wherein the operation input device is provided. 上記ポインティング空間設定手段は、上記ディスプレイ画面と、上記ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの上記指示物の位置を結んで得られる面との双方を断面として持つ錐体の頂点に当たる位置を上記基準点の初期値として設定し、上記位置検出手段により検出される操作者の目の位置に基づき上記動き検出手段により検出される上記操作者の目の3次元的な動きに応じて、上記基準点を上記初期値から移動させるようにしたことを特徴とする請求項2に記載の操作入力装置。 The pointing space setting means corresponds to the apex of a cone having both the display screen and a plane obtained by connecting the positions of the indicators when the four corners of the display screen are respectively pointed on the space. The position is set as an initial value of the reference point, and the three-dimensional movement of the operator's eyes detected by the movement detecting means based on the position of the operator's eyes detected by the position detecting means. 3. The operation input device according to claim 2, wherein the reference point is moved from the initial value. 上記指示物認識手段は、棒状の突出物を上記指示物であると認識することを特徴とする請求項2に記載の操作入力装置。 The operation input device according to claim 2, wherein the indicator recognizing unit recognizes a rod-like protrusion as the indicator. 上記座標検出手段により検出された上記ディスプレイ画面上の上記対象点の座標位置に所定のマークを表示するように制御する表示制御手段を備えたことを特徴とする請求項1に記載の操作入力装置。 2. The operation input device according to claim 1, further comprising display control means for controlling to display a predetermined mark at the coordinate position of the target point on the display screen detected by the coordinate detection means. . 上記判定手段により上記ドラグ動作が行われたと判定されたとき、上記座標検出手段により検出された上記ディスプレイ画面上の上記対象点の座標位置にあるオブジェクトを、ドラグ量だけドラグされた方向に移動させるように表示を制御する表示制御手段を備えたことを特徴とする請求項6に記載の操作入力装置。 When it is determined by the determination means that the drag operation has been performed, the object at the coordinate position of the target point on the display screen detected by the coordinate detection means is moved in the dragged direction by the drag amount. The operation input device according to claim 6, further comprising display control means for controlling display. 空間上における物体の3次元的な位置を検出する位置検出手段と、
ディスプレイ画面と当該ディスプレイ画面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間を設定するとともに、上記ディスプレイ画面の座標を上記ポインティング空間内の上記物体が存在する位置に写像したポインティング面を設定するポインティング空間設定手段と、
上記位置検出手段により検出される上記ポインティング面における上記物体の位置をもとに、写像関係を利用して上記ディスプレイ画面における対象点の座標を検出する座標検出手段と、
上記ポインティング空間内における上記物体の3次元的な動きを検出する動き検出手段と、
上記座標検出手段により検出される上記ディスプレイ画面における対象点の座標および上記動き検出手段により検出される上記物体の3次元的な動きに基づいて操作入力内容を判定し、対応する操作指令を出力する判定手段とを備えたことを特徴とする操作入力装置。
Position detecting means for detecting a three-dimensional position of an object in space;
A virtual cone-shaped pointing space that connects the display screen and a predetermined reference point located away from the display screen is set, and the coordinates of the display screen are set to the object in the pointing space. Pointing space setting means for setting a pointing surface mapped to a position to be
Coordinate detection means for detecting the coordinates of the target point on the display screen using a mapping relationship based on the position of the object on the pointing surface detected by the position detection means;
Movement detection means for detecting a three-dimensional movement of the object in the pointing space;
The operation input content is determined based on the coordinates of the target point on the display screen detected by the coordinate detection means and the three-dimensional movement of the object detected by the motion detection means, and a corresponding operation command is output. An operation input device comprising: a determination unit.
上記ポインティング面は、上記ディスプレイ画面と操作者との間にあり、上記操作者がポインティング動作をしたときの上記指示物の位置を含み、上記操作者が上記指示物を自然に動かしたときに上記指示物の軌跡が形作ると想定される面であり、
上記ポインティング空間設定手段は、ポインティング動作が行われる毎に上記ポインティング面を設定することを特徴とする請求項14に記載の操作入力装置。
The pointing surface is between the display screen and the operator, includes the position of the indicator when the operator performs a pointing operation, and the operator moves the indicator naturally when the operator moves the indicator naturally. It is the surface that the trajectory of the pointing object is supposed to form,
15. The operation input device according to claim 14, wherein the pointing space setting means sets the pointing surface every time a pointing operation is performed.
ディスプレイ画面と当該ディスプレイ画面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間内にある物体の3次元的な位置を検出する第1のステップと、
上記ポインティング空間内における上記物体の3次元的な動きを検出するとともに、上記第1のステップで検出された上記物体の位置をもとに、写像関係を利用して上記ディスプレイ画面における対象点の座標を算出する第2のステップと、
上記物体の3次元的な動きおよび上記物体の位置に対応する上記ディスプレイ画面における対象点の座標に基づいて操作入力内容を判定し、対応する操作指令を出力する第3のステップとを有することを特徴とする操作入力方法。
A first step of detecting a three-dimensional position of an object in a virtual cone-shaped pointing space formed by connecting a display screen and a predetermined reference point located away from the display screen;
The coordinates of the target point on the display screen are detected using the mapping relationship based on the position of the object detected in the first step while detecting the three-dimensional movement of the object in the pointing space. A second step of calculating
A third step of determining an operation input content based on the three-dimensional movement of the object and the coordinates of the target point on the display screen corresponding to the position of the object, and outputting a corresponding operation command. Characteristic operation input method.
上記第1のステップで検出される上記ポインティング空間内の物体が所定の指示物であることを認識する第4のステップを有し、
上記第2のステップでは、上記第4のステップで上記指示物であると認識された物体について上記第1のステップで検出される上記ポインティング空間内における位置をもとに、上記ディスプレイ画面における対象点の座標を算出することを特徴とする請求項16に記載の操作入力方法。
A fourth step of recognizing that the object in the pointing space detected in the first step is a predetermined indicator;
In the second step, the object point on the display screen is determined based on the position in the pointing space detected in the first step for the object recognized as the indicator in the fourth step. The operation input method according to claim 16, wherein the coordinates are calculated.
上記第2のステップにおいて、上記ポインティング空間内において上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面に近づく動きをしたことが検出されたとき、上記第3のステップではポインティング開始動作が行われたと判定することを特徴とする請求項17に記載の操作入力方法。 When it is detected in the second step that the indicator moves within the predetermined coordinate range of the display screen and approaches the display screen at a predetermined speed or higher in the pointing space, the third step is performed. 18. The operation input method according to claim 17, wherein it is determined that a pointing start operation has been performed in the step. 上記第2のステップにおいて、上記ポインティング空間内において上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面から遠ざかる動きをしたことが検出されたとき、上記第3のステップではポインティング解除動作が行われたと判定することを特徴とする請求項17に記載の操作入力方法。 In the second step, when it is detected that the indicator moves away from the display screen at a predetermined speed or more within a predetermined coordinate range of the display screen in the pointing space, the third step is performed. The operation input method according to claim 17, wherein it is determined that the pointing release operation has been performed in the step. 上記第2のステップにおいて、上記ポインティング空間内において上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面に近づく動きをした後、所定の時間内に、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面から遠ざかる動きをしたことが検出されたとき、上記第3のステップではクリック動作が行われたと判定することを特徴とする請求項17に記載の操作入力方法。 In the second step, the indicator moves within a predetermined coordinate range of the display screen and approaches the display screen at a predetermined speed or higher in the pointing space, and then the display is performed within a predetermined time. 18. When it is detected that a movement away from the display screen at a predetermined speed or more within a predetermined coordinate range of the screen is detected, it is determined in the third step that a click operation has been performed. The operation input method described in 1. 上記第2のステップにおいて、上記ポインティング空間内において上記指示物が、上記ディスプレイ画面の所定の座標範囲内で所定の速度以上で上記ディスプレイ画面に近づく動きをした後、上記ディスプレイ画面の座標が移動する動きをしたことが検出されたとき、上記第3のステップではドラグ動作が行われたと判定することを特徴とする請求項17に記載の操作入力方法。 In the second step, after the indicator moves closer to the display screen at a predetermined speed or more within a predetermined coordinate range of the display screen in the pointing space, the coordinates of the display screen move. 18. The operation input method according to claim 17, wherein when it is detected that a movement has occurred, it is determined in the third step that a drag operation has been performed. 上記基準点は操作者の目の位置に設定されることを特徴とする請求項16に記載の操作入力方法。 The operation input method according to claim 16, wherein the reference point is set at an eye position of the operator. 上記ディスプレイ画面の四隅に所定のマークを表示して操作者にポインティング動作を促す第5のステップと、
上記所定のマークをそれぞれ操作者が空間上でポインティング動作したときの上記指示物の位置を結んで得られる面と上記ディスプレイ画面との双方を断面として持つ錐体を上記ポインティング空間として設定する第6のステップとを、上記第1のステップの前に有することを特徴とする請求項17に記載の操作入力方法。
A fifth step of displaying predetermined marks at the four corners of the display screen to prompt the operator to perform a pointing operation;
A cone having both the plane obtained by connecting the position of the indicator when the operator performs a pointing operation on the space and the display screen as cross sections is set as the pointing space. The operation input method according to claim 17, further comprising the step of: before the first step.
上記ディスプレイ画面の四隅に所定のマークを表示して操作者にポインティング動作を促す第5のステップと、
上記所定のマークをそれぞれ操作者が空間上でポインティング動作したときの上記指示物の位置を結んで得られる面と上記ディスプレイ画面との双方を断面として持つ錐体の頂点に当たる位置を上記基準点の初期値に設定して上記ポインティング空間を設定する第6のステップとを、上記第1のステップの前に有し、
上記空間上における上記操作者の目の位置を検出して上記操作者の目の3次元的な動きを検出する第7のステップと、
上記操作者の目の3次元的な動きに応じて、上記基準点を上記初期値から移動させ、当該移動した上記基準点と上記ディスプレイ画面とを結んで成る錐体を上記ポインティング空間として再設定する第8のステップとを有することを特徴とする請求項17に記載の操作入力方法。
A fifth step of displaying predetermined marks at the four corners of the display screen to prompt the operator to perform a pointing operation;
The reference point is a position corresponding to the apex of a cone having both the surface obtained by connecting the position of the indicator when the operator performs a pointing operation on the space and the display screen as cross sections. A sixth step of setting the pointing space by setting an initial value before the first step;
A seventh step of detecting a position of the operator's eyes in the space to detect a three-dimensional movement of the eyes of the operator;
The reference point is moved from the initial value in accordance with the three-dimensional movement of the operator's eyes, and a cone formed by connecting the moved reference point and the display screen is reset as the pointing space. The operation input method according to claim 17, further comprising: an eighth step.
ディスプレイ画面と当該ディスプレイ画面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間内にある物体の3次元的な位置を検出する第1のステップと、
上記ポインティング空間内における上記物体の3次元的な動きを検出するとともに、上記ポインティング空間内の上記物体が存在する位置に上記ディスプレイ画面の座標を写像して成るポインティング面における上記物体の位置をもとに、写像関係を利用して上記ディスプレイ画面における対象点の座標を検出する第2のステップと、
上記物体の3次元的な動きおよび上記物体の位置に対応する上記ディスプレイ画面における対象点の座標に基づいて操作入力内容を判定し、対応する操作指令を出力する第3のステップとを有することを特徴とする操作入力方法。
A first step of detecting a three-dimensional position of an object in a virtual cone-shaped pointing space formed by connecting a display screen and a predetermined reference point located away from the display screen;
The three-dimensional movement of the object in the pointing space is detected, and the position of the object on the pointing surface obtained by mapping the coordinates of the display screen to the position where the object exists in the pointing space is determined. And a second step of detecting the coordinates of the target point on the display screen using a mapping relationship;
A third step of determining an operation input content based on the three-dimensional movement of the object and the coordinates of the target point on the display screen corresponding to the position of the object, and outputting a corresponding operation command. Characteristic operation input method.
上記ポインティング面は、上記ディスプレイ画面と操作者との間にあり、上記操作者がポインティング動作をしたときの上記指示物の位置を含み、上記操作者が上記指示物を自然に動かしたときに上記指示物の軌跡が形作ると想定される面であり、
上記第2のステップでは、ポインティング動作が行われる毎に上記ポインティング面を設定することを特徴とする請求項25に記載の操作入力方法。
The pointing surface is between the display screen and an operator, includes the position of the indicator when the operator performs a pointing operation, and the operator moves the indicator naturally when the operator moves the indicator naturally. It is the surface that the trajectory of the pointing object is supposed to form,
26. The operation input method according to claim 25, wherein, in the second step, the pointing surface is set every time a pointing operation is performed.
JP2004137384A 2004-05-06 2004-05-06 Operation input device and operation input method Expired - Fee Related JP4274997B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004137384A JP4274997B2 (en) 2004-05-06 2004-05-06 Operation input device and operation input method
US11/104,872 US7893920B2 (en) 2004-05-06 2005-04-13 Operation input device and method of operation input
CNB2005100701267A CN100363880C (en) 2004-05-06 2005-04-30 Operation input device and method of operation input
EP05009784A EP1594040A3 (en) 2004-05-06 2005-05-04 Operation input device and method of operation input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004137384A JP4274997B2 (en) 2004-05-06 2004-05-06 Operation input device and operation input method

Publications (2)

Publication Number Publication Date
JP2005321869A true JP2005321869A (en) 2005-11-17
JP4274997B2 JP4274997B2 (en) 2009-06-10

Family

ID=35353036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004137384A Expired - Fee Related JP4274997B2 (en) 2004-05-06 2004-05-06 Operation input device and operation input method

Country Status (2)

Country Link
JP (1) JP4274997B2 (en)
CN (1) CN100363880C (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176313A (en) * 2009-01-28 2010-08-12 Toshiba Corp Information-processing device and information-processing method
JP2011122867A (en) * 2009-12-09 2011-06-23 Seiko Epson Corp Optical position detection device and display device with position detection function
KR20140036859A (en) * 2012-09-18 2014-03-26 삼성전자주식회사 Method of recognizing contactless user interface motion and system there-of
JP2014523039A (en) * 2011-07-05 2014-09-08 サウジ アラビアン オイル カンパニー System, computer medium and computer-implemented method for monitoring and improving biomechanical health of employees
JP2015152973A (en) * 2014-02-10 2015-08-24 レノボ・シンガポール・プライベート・リミテッド Input device, input method, and program which computer can execute
WO2016068015A1 (en) * 2014-10-28 2016-05-06 シャープ株式会社 Coordinate acquisition device and display device
US9462977B2 (en) 2011-07-05 2016-10-11 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
US9507454B1 (en) 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
US9615746B2 (en) 2011-07-05 2017-04-11 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9693734B2 (en) 2011-07-05 2017-07-04 Saudi Arabian Oil Company Systems for monitoring and improving biometric health of employees
US9710788B2 (en) 2011-07-05 2017-07-18 Saudi Arabian Oil Company Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9722472B2 (en) 2013-12-11 2017-08-01 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for harvesting human energy in the workplace
JP2017531227A (en) * 2014-08-01 2017-10-19 スターシップ ベンディング−マシーン コーポレーション Interface providing method and apparatus for recognizing operation in consideration of user's viewpoint
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US9949640B2 (en) 2011-07-05 2018-04-24 Saudi Arabian Oil Company System for monitoring employee health
US10307104B2 (en) 2011-07-05 2019-06-04 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US10359883B2 (en) 2014-12-26 2019-07-23 Nikon Corporation Detection device, electronic apparatus, detection method and program
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US10748509B2 (en) 2014-12-26 2020-08-18 Nikon Corporation Control device, electronic apparatus, control method and program
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment
US11137857B2 (en) 2014-12-26 2021-10-05 Nikon Corporation Detection device and program

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7556204B2 (en) * 2006-04-19 2009-07-07 Nokia Corproation Electronic apparatus and method for symbol input
WO2008137708A1 (en) * 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
JP5531616B2 (en) * 2007-12-07 2014-06-25 ソニー株式会社 Control device, input device, control system, control method, and handheld device
KR101297144B1 (en) * 2008-03-19 2013-08-21 가부시키가이샤 덴소 Operation input device for vehicle
KR101646254B1 (en) 2009-10-09 2016-08-05 엘지전자 주식회사 Method for removing icon in mobile terminal and mobile terminal using the same
US20110205186A1 (en) * 2009-12-04 2011-08-25 John David Newton Imaging Methods and Systems for Position Detection
CN102033644B (en) * 2010-01-04 2015-07-15 张强 Three-dimensional touch or handwriting screen
CN101866235B (en) * 2010-02-10 2014-06-18 张强 Multi-point touch or multi-pen writing screen in three-dimensional space
KR101709497B1 (en) 2010-07-29 2017-02-23 엘지전자 주식회사 Mobile terminal and operation control method thereof
JP5494423B2 (en) * 2010-11-02 2014-05-14 ソニー株式会社 Display device, position correction method, and program
KR101781908B1 (en) * 2011-03-24 2017-09-26 엘지전자 주식회사 Mobile terminal and control method thereof
EP2700542B1 (en) * 2011-04-22 2018-05-30 Panasonic Intellectual Property Management Co., Ltd. Vehicular input device and vehicular input method
CN102755742A (en) * 2011-04-27 2012-10-31 德信互动科技(北京)有限公司 Six-dimensional somatic interaction system and method
CN109271029B (en) * 2011-08-04 2022-08-26 视力移动技术有限公司 Touchless gesture recognition system, touchless gesture recognition method, and medium
KR101533320B1 (en) * 2012-04-23 2015-07-03 주식회사 브이터치 Apparatus for acquiring 3 dimension object information without pointer
CN103941851B (en) * 2013-01-23 2017-03-15 青岛海信电器股份有限公司 A kind of method and system for realizing virtual touch calibration
KR101533319B1 (en) 2014-02-22 2015-07-03 주식회사 브이터치 Remote control apparatus and method using camera centric virtual touch
CN103941858B (en) * 2014-03-11 2017-01-25 何川丰 Electronic equipment display screen operation control system and method
CN107225407A (en) * 2017-07-07 2017-10-03 汉尼康自动化科技(苏州)有限公司 One kind automation on-line unit
US10684625B2 (en) * 2017-08-30 2020-06-16 Robert Bosch Gmbh Automated parking for virtual parking spot
JP7055762B2 (en) * 2019-03-05 2022-04-18 アルパイン株式会社 Face feature detection device, face feature detection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182058A (en) * 1998-12-18 2000-06-30 Canon Inc Three-dimensional motion input method and three- dimensional motion input system
JP2003216319A (en) * 2002-01-23 2003-07-31 Saeilo Japan Inc Coordinate inputting device for inputting coordinate on arbitrary two-dimensional plane by three-dimensional position detection
CN100377043C (en) * 2002-09-28 2008-03-26 皇家飞利浦电子股份有限公司 Three-dimensional hand-written identification process and system thereof

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176313A (en) * 2009-01-28 2010-08-12 Toshiba Corp Information-processing device and information-processing method
JP2011122867A (en) * 2009-12-09 2011-06-23 Seiko Epson Corp Optical position detection device and display device with position detection function
US9833142B2 (en) 2011-07-05 2017-12-05 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for coaching employees based upon monitored health conditions using an avatar
US10307104B2 (en) 2011-07-05 2019-06-04 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US10206625B2 (en) 2011-07-05 2019-02-19 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9844344B2 (en) 2011-07-05 2017-12-19 Saudi Arabian Oil Company Systems and method to monitor health of employee when positioned in association with a workstation
US9462977B2 (en) 2011-07-05 2016-10-11 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
US10058285B2 (en) 2011-07-05 2018-08-28 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9526455B2 (en) 2011-07-05 2016-12-27 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9615746B2 (en) 2011-07-05 2017-04-11 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9693734B2 (en) 2011-07-05 2017-07-04 Saudi Arabian Oil Company Systems for monitoring and improving biometric health of employees
US9710788B2 (en) 2011-07-05 2017-07-18 Saudi Arabian Oil Company Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US10052023B2 (en) 2011-07-05 2018-08-21 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9962083B2 (en) 2011-07-05 2018-05-08 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving biomechanical health of employees
US9808156B2 (en) 2011-07-05 2017-11-07 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving biomechanical health of employees
US9830576B2 (en) 2011-07-05 2017-11-28 Saudi Arabian Oil Company Computer mouse for monitoring and improving health and productivity of employees
US9830577B2 (en) 2011-07-05 2017-11-28 Saudi Arabian Oil Company Computer mouse system and associated computer medium for monitoring and improving health and productivity of employees
US9949640B2 (en) 2011-07-05 2018-04-24 Saudi Arabian Oil Company System for monitoring employee health
JP2014523039A (en) * 2011-07-05 2014-09-08 サウジ アラビアン オイル カンパニー System, computer medium and computer-implemented method for monitoring and improving biomechanical health of employees
US9507454B1 (en) 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
KR20140036859A (en) * 2012-09-18 2014-03-26 삼성전자주식회사 Method of recognizing contactless user interface motion and system there-of
KR101985674B1 (en) * 2012-09-18 2019-06-04 삼성전자 주식회사 Method of recognizing contactless user interface motion and System there-of
US9722472B2 (en) 2013-12-11 2017-08-01 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for harvesting human energy in the workplace
US9870061B2 (en) 2014-02-10 2018-01-16 Lenovo (Singapore) Pte. Ltd. Input apparatus, input method and computer-executable program
JP2015152973A (en) * 2014-02-10 2015-08-24 レノボ・シンガポール・プライベート・リミテッド Input device, input method, and program which computer can execute
US10365713B2 (en) 2014-08-01 2019-07-30 Starship Vending-Machine Corp. Method and apparatus for providing interface recognizing movement in accordance with user's view
JP2017531227A (en) * 2014-08-01 2017-10-19 スターシップ ベンディング−マシーン コーポレーション Interface providing method and apparatus for recognizing operation in consideration of user's viewpoint
WO2016068015A1 (en) * 2014-10-28 2016-05-06 シャープ株式会社 Coordinate acquisition device and display device
US11137857B2 (en) 2014-12-26 2021-10-05 Nikon Corporation Detection device and program
US10359883B2 (en) 2014-12-26 2019-07-23 Nikon Corporation Detection device, electronic apparatus, detection method and program
US10748509B2 (en) 2014-12-26 2020-08-18 Nikon Corporation Control device, electronic apparatus, control method and program
US10860139B2 (en) 2014-12-26 2020-12-08 Nikon Corporation Detection device, electronic apparatus, detection method and program
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment

Also Published As

Publication number Publication date
JP4274997B2 (en) 2009-06-10
CN1694056A (en) 2005-11-09
CN100363880C (en) 2008-01-23

Similar Documents

Publication Publication Date Title
JP4274997B2 (en) Operation input device and operation input method
US7893920B2 (en) Operation input device and method of operation input
JP4351599B2 (en) Input device
US8743089B2 (en) Information processing apparatus and control method thereof
US20110157236A1 (en) Head-mounted display
JP6027328B2 (en) Display device and object display method thereof
JP2009181423A (en) Operation input device
JP4244202B2 (en) Operation input device and operation input method
US9703410B2 (en) Remote sensing touchscreen
JPWO2012153536A1 (en) Coordinate input device and coordinate input method
JP4548614B2 (en) Input device
JP6966777B2 (en) Input system
KR101550132B1 (en) Operating element
JP2009237746A (en) Operation device for vehicle
JP5005585B2 (en) Operating device and method
JP4962466B2 (en) Input device and input method
KR20200034348A (en) Touchscreen device and method for controlling the same and display apparatus
KR101652973B1 (en) Digitizer using gradient of stylus pen
KR102254091B1 (en) Touchscreen device and method for controlling the same and display apparatus
JP2017228216A (en) Information processing apparatus, control method therefor, program, and storage medium
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
JP4962467B2 (en) Input device and input method
JP2013045416A (en) Driving support device
US20230005098A1 (en) Information processing device, method, and program
WO2021241038A1 (en) Information processing device, information processing method based on input operation by user, and computer program for executing said method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090303

R150 Certificate of patent or registration of utility model

Ref document number: 4274997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees