JP2012068854A - Operation input device and operation determination method and program - Google Patents

Operation input device and operation determination method and program Download PDF

Info

Publication number
JP2012068854A
JP2012068854A JP2010212582A JP2010212582A JP2012068854A JP 2012068854 A JP2012068854 A JP 2012068854A JP 2010212582 A JP2010212582 A JP 2010212582A JP 2010212582 A JP2010212582 A JP 2010212582A JP 2012068854 A JP2012068854 A JP 2012068854A
Authority
JP
Japan
Prior art keywords
operator
display
determination
range
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010212582A
Other languages
Japanese (ja)
Other versions
JP5167523B2 (en
Inventor
Kenji Izumi
賢二 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010212582A priority Critical patent/JP5167523B2/en
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to PCT/JP2011/005354 priority patent/WO2012039140A1/en
Priority to CN201180045563.7A priority patent/CN103154858B/en
Priority to US13/824,955 priority patent/US9329691B2/en
Priority to CA2811868A priority patent/CA2811868C/en
Priority to EP11826586.7A priority patent/EP2620849B1/en
Priority to KR1020137007392A priority patent/KR101522991B1/en
Publication of JP2012068854A publication Critical patent/JP2012068854A/en
Application granted granted Critical
Publication of JP5167523B2 publication Critical patent/JP5167523B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately determine and infrequently misrecognize a motion input from intuitive and simple operations, without putting much burden on operators even during long-time operations.SOLUTION: A display 111 is placed in front of an operator 102. The operator 102 can perform operations by keeping in mind that shapes of a finger, etc. are relevant to an operation determination, in a range set at fixed positions at the right and the left between the operator 102 and the display 111. The present invention allows input of a position decision and an operation determination into a system by independently moving a right hand 114 and a left hand 115 on right- and left-hand sides of the display 111, viewing from the operator 102. Misrecognition as well as a physical burden accompanying the input can be both reduced by separately recognizing two motions, i.e., selection and determination.

Description

本発明は、操作入力装置および操作判定方法に関し、より詳細には、ビデオカメラ等により撮影した画像から測定対象の動作の判定を行う操作入力装置および操作判定方法に関する。   The present invention relates to an operation input device and an operation determination method, and more particularly to an operation input device and an operation determination method for determining an operation of a measurement target from an image captured by a video camera or the like.

コンピュータでの操作は、基本的に出力装置であるディスプレイと、入力装置であるキーボードおよびマウスとを用いて行われる。すなわち、操作者は、マウスを動かすことによって、ディスプレイに表示されたボタンや入力フィールドなどの所定の位置にポインタを合わせ、クリック等により、「ボタンを押下する」あるいは「入力フィールドの入力を開始する」といった操作内容を確定させる。このように、従来、マウスを用いることにより、ポインティングあるいはフォーカス(選択)、所定の位置でクリックボタンを1度押すことによりその場所の選択等をするクリック、クリックボタンを連続して2度押下することによりポインティングされた位置に関連付けされた様々なアプリケーションを実行させるダブルクリック、ポインティングされた位置と移動先とを紐付けるドラッグなどの操作が可能となっている。入力キーボードは通常、数値や文字などの具体的な情報の入力に用いられ、したがって、操作者は所望の情報を出力させたり、必要な情報を入力したりするため、マウスによる移動とキーボードによる入力を繰り返し行うこととなる。   The operation on the computer is basically performed using a display which is an output device and a keyboard and a mouse which are input devices. That is, the operator moves the mouse to move the pointer to a predetermined position such as a button or an input field displayed on the display, and by clicking or the like, “presses the button” or “input field input” starts. ”Is confirmed. As described above, conventionally, using a mouse, pointing or focusing (selection), clicking a click button once at a predetermined position to select the location, etc., clicking the click button twice in succession. Thus, operations such as a double click for executing various applications associated with the pointed position and a drag for linking the pointed position and the movement destination can be performed. Input keyboards are usually used to input specific information such as numerical values and characters. Therefore, the operator can move the mouse and input using the keyboard to output the desired information or input the necessary information. Will be repeated.

このような基本的な操作入力方法に加え、近年では従来のマウスおよびキーボードとは別にタッチパネルにより直接表示面を指示したり、手書き文字によりデータを入力したりする方法の他、カメラで操作者全体、あるいは一部を撮影し、その画像に応じて操作者の意志を判断して動作する技術が提案されてきている。例えば、特許文献1には、CCDカメラで撮像した画像中の物体の形状、動きを認識するホストコンピュータと、ホストコンピュータによって認識した物体の形状、動きを表示するディスプレイとを備え、CCDカメラにユーザが向い、手振り等によって指示を与えると、与えた手振りがディスプレイの表示画面上に表示され、表示画面上に表示した仮想スイッチ等を手振りによって矢印カーソルのアイコンで選択でき、マウス等の入力装置を必要とせず、非常に簡便な機器の操作が可能となる技術が提案されている。このような、マウスおよびキーボード以外の操作入力方法として、手指の動きや形状を撮像した画像から、ある種のジェスチャとして認識して操作内容を判断する等様々な入力システムも提案され、PC環境において、マウスやキーボード、タッチパネル等のデバイスを不要とする方法が模索されている。   In addition to these basic operation input methods, in addition to the conventional method of directing the display surface with a touch panel separately from a conventional mouse and keyboard, or inputting data with handwritten characters, the entire operator with a camera Alternatively, a technique has been proposed in which a part is photographed and the operation is performed by determining the will of the operator according to the image. For example, Patent Document 1 includes a host computer that recognizes the shape and movement of an object in an image captured by a CCD camera, and a display that displays the shape and movement of the object recognized by the host computer. If you give an instruction by hand gesture or the like, the given hand gesture will be displayed on the display screen of the display, you can select the virtual switch etc. displayed on the display screen with the arrow cursor icon by hand gesture, and input devices such as a mouse There has been proposed a technique that enables operation of a very simple device without being required. As such an operation input method other than a mouse and a keyboard, various input systems such as recognizing operation contents by recognizing as a kind of gesture from an image obtained by capturing the movement and shape of fingers are proposed. A method for eliminating the need for devices such as a mouse, a keyboard, and a touch panel is being sought.

また、操作者が特別な機器を装着することなく、操作者の操作に関する利便性をより向上させることを目的とし、操作者に対して、キーボードやマウス等に相当する操作手段を適切な空間部分に、例えば仮想平面Gや仮想キーボードHを定義することで、操作者が表示画像に対して、マウス操作であるクリック操作、ドラック操作、ダブルクリック操作等を行うことや、所望する線、図形、或いは、文字等を描画、入力することを可能にする技術が提案されている(例えば特許文献2を参照)。   In addition, with the aim of further improving convenience related to the operation of the operator without wearing special equipment, the operator is provided with an operation means corresponding to a keyboard, a mouse, etc. For example, by defining a virtual plane G or a virtual keyboard H, an operator can perform a click operation, a drag operation, a double click operation, or the like as a mouse operation on a display image, a desired line, figure, Alternatively, a technique that enables drawing and inputting of characters and the like has been proposed (see, for example, Patent Document 2).

特開2004−078977号公報JP 2004-079777 A 特開2004−258714号公報JP 2004-258714 A

しかしながら、マウスやキーボード、タッチパネル等のデバイスを使用しないジェスチャ操作等は、非直感的で複雑な動作を要するものや、大振りな動作により身体的負担を強いられるもの、特許文献2の発明のような操作する手で操作対象画面を自ら見えにくくするもの、ジェスチャ操作の動作間の「つなぎ」の曖昧さに起因する誤認識の問題等により、実既存の技術では満足されていなかった。特に、特許文献2の発明は、特別な機器等を装着せずに操作入力ができ、一見有効な技術と思われる。しかし、操作する手自体が対象画面を覆い隠してしまうといった視認性の問題と、「選択」から「決定」へ至る2つの操作ステップが明確に区別されていない問題とから、その実施は非常に困難と言える。   However, gesture operations, etc. that do not use a device such as a mouse, keyboard, touch panel, etc., are those that require non-intuitive and complicated operations, those that require physical burdens due to large-scale operations, such as the invention of Patent Document 2 Actually existing technologies have not been satisfied due to the fact that the operation target screen is difficult to see with the operating hand, and the problem of misrecognition caused by the ambiguity of the “connection” between gesture operations. In particular, the invention of Patent Document 2 can be input without attaching a special device or the like, and seems to be an effective technique at first glance. However, the implementation is very difficult due to the visibility problem that the operating hand itself covers the target screen and the problem that the two operation steps from “select” to “decision” are not clearly distinguished. It can be said that it is difficult.

本発明は、このような問題に鑑みてなされたもので、直感的かつ簡素でありながら、操作対象画面に対する視野を十分に確保でき、誤認識の発生率が低く、長時間の操作においても操作者に負担が少ない動作入力を的確に判定することが可能な操作入力装置および操作判定方法並びにプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and while being intuitive and simple, it can secure a sufficient field of view for the operation target screen, has a low incidence of erroneous recognition, and can be operated even for a long time operation. It is an object of the present invention to provide an operation input device, an operation determination method, and a program that can accurately determine an operation input with less burden on the user.

このような目的を達成するために、請求項1に記載の発明は、操作入力装置であって、操作者が閲覧する画像を表示する表示手段と、操作者に向けて表示手段の近傍に配置され、操作者の画像データを生成する撮像手段と、撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、操作者の一部が標示を制御することができる範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定手段と、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御範囲内にあるとき、操作者の一部と表示手段との位置関係に応じて表示手段に表示された所定の標示を移動する制御手段と、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定手段と、操作判定手段により操作が行われたと判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。   In order to achieve such an object, the invention according to claim 1 is an operation input device, which is arranged in the vicinity of a display means for displaying an image to be viewed by an operator and a display means for the operator. Including an imaging unit that generates image data of the operator and a range indicated by a predetermined series of operations of the operator read by the imaging unit, and a part of the operator controls the marking. A control range setting means for preliminarily setting a control range that is a range that does not cover an area defined by connecting the operator's viewpoint and each vertex of the display surface of the display means; When a part of the operator is extracted and the part of the operator is within the set control range, the predetermined sign displayed on the display means is moved according to the positional relationship between the part of the operator and the display means. On the display surface of the control means and the display means of the indication An operation determination unit that determines whether or not an operation related to a position has been performed, and a signal output unit that outputs a predetermined signal when the operation determination unit determines that the operation has been performed. To do.

請求項2に記載の発明は、請求項1に記載の操作入力装置において、撮像手段は、操作者の立体画像データを生成する三次元撮像手段であり、制御範囲設定手段は、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、制御範囲として、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域に重ならないように、表示手段の表示面に対応付けられた位置決定面を予め設定し、制御手段は、操作者の一部の設定された位置決定面上の位置に対応する表示面上の位置に、標示を移動することを特徴とする。   According to a second aspect of the present invention, in the operation input device according to the first aspect, the imaging unit is a three-dimensional imaging unit that generates stereoscopic image data of the operator, and the control range setting unit is read by the imaging unit. Display of the display means based on a predetermined series of actions of the given operator so that the control range does not overlap the area defined by connecting the operator's viewpoint and each vertex of the display surface of the display means A position determination surface associated with the surface is set in advance, and the control means moves the sign to a position on the display surface corresponding to a position on the position determination surface that is part of the operator. And

請求項3に記載の発明は、請求項2に記載の操作入力装置において、位置決定面は、表示手段と操作者との間に形成されることを特徴とする。   According to a third aspect of the present invention, in the operation input device according to the second aspect, the position determination surface is formed between the display means and the operator.

請求項4に記載の発明は、請求項1ないし3のいずれかに記載の操作入力装置において、操作判定手段は、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部による一連の動作に基づいて、一連の動作に関連付けられ、予め定められた操作が行われたと判定することを特徴とする。   According to a fourth aspect of the present invention, in the operation input device according to any one of the first to third aspects, the operation determination means extracts a part different from the part of the operator from the operator's image, and operates It is characterized in that it is determined that a predetermined operation associated with the series of actions has been performed based on a series of actions by a part different from a part of the person.

請求項5に記載の発明は、請求項4に記載の操作入力装置において、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、操作者の一部と異なる一部により判定を行うことができる範囲である判定範囲を予め設定する判定範囲設定手段をさらに備え、操作判定手段は、操作者の一部と異なる一部が設定された判定範囲内にあるとき、操作者の一部と異なる一部の一連の動作に基づいて、一連の動作に関連付けられ、予め定められたた操作が行われたと判定することを特徴とする。   According to a fifth aspect of the present invention, in the operation input device according to the fourth aspect, based on a predetermined series of operations of the operator read by the imaging means, a part different from the part of the operator is used. A determination range setting unit that presets a determination range that is a range in which the determination can be performed is further provided, and the operation determination unit is configured to operate the operator when a part different from a part of the operator is within the set determination range. It is characterized in that it is determined that a predetermined operation associated with the series of operations has been performed based on a series of operations different from a part of the operations.

請求項6に記載の発明は、請求項5に記載の操作入力装置において、撮像手段は、操作者の立体画像データを生成する三次元撮像手段であり、判定範囲設定手段は、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、判定範囲として、操作者の視点と表示手段の表示面の各頂点とを結んで定められる排除領域にかからず、かつ制御範囲と重ならないように、表示手段の表示面に対応付けられた操作判定面を予め設定し、操作判定手段は、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が設定された操作判定面と表示手段との間にあるとき、一連の動作に関連付けられた操作が行われたと判定することを特徴とする。   According to a sixth aspect of the present invention, in the operation input device according to the fifth aspect, the imaging unit is a three-dimensional imaging unit that generates stereoscopic image data of the operator, and the determination range setting unit is read by the imaging unit. Based on a predetermined series of operations of the given operator, the determination range does not cover the exclusion area determined by connecting the operator's viewpoint and each vertex of the display surface of the display means, and the control range An operation determination surface associated with the display surface of the display unit is set in advance so as not to overlap, and the operation determination unit extracts a part different from the part of the operator from the operator's image, and It is characterized in that it is determined that an operation associated with a series of actions has been performed when a part different from the part is between the set operation determination surface and the display means.

請求項7に記載の発明は、請求項6に記載の操作入力装置において、操作判定面は、表示手段と操作者との間に形成されることを特徴とする。   According to a seventh aspect of the present invention, in the operation input device according to the sixth aspect, the operation determination surface is formed between the display means and the operator.

請求項8に記載の発明は、請求項2または3に記載の操作入力装置において、撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからず、かつ位置決定面と重ならない範囲を、操作者の一部と異なる一部により判定を行うことができる範囲である判定範囲を予め設定する判定範囲設定手段をさらに備え、操作判定手段は、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が設定された判定範囲内にあるとき、操作者の一部と異なる一部による一連の動作に基づいて、一連の動作に関連付けられ、予め定められた操作が行われたと判定することを特徴とする。   The invention according to claim 8 is the range indicated by the operator's predetermined series of operations read by the imaging means in the operation input device according to claim 2 or 3, wherein The range that does not cover the area defined by connecting the viewpoint and each vertex of the display surface of the display means and does not overlap the position determination plane is a range that can be determined by a part different from the part of the operator. The apparatus further comprises a determination range setting means for setting a certain determination range in advance, and the operation determination means extracts a part different from the part of the operator from the operator image and sets a part different from the part of the operator. When it is within the determined determination range, it is determined that a predetermined operation associated with the series of actions is performed based on a series of actions by a part different from a part of the operator.

請求項9に記載の発明は、請求項8に記載の操作入力装置において、判定範囲設定手段は、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、判定範囲として、操作者の視点と表示手段の表示面の各頂点とを結んで定められる排除領域にかからず、かつ制御範囲と重ならないように、表示手段の表示面に対応付けられた操作判定面を予め設定し、操作判定手段は、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が設定された操作判定面と表示手段との間にあるとき、一連の動作に関連付けられた操作が行われたと判定することを特徴とする。   According to a ninth aspect of the present invention, in the operation input device according to the eighth aspect, the determination range setting means is configured as a determination range based on a predetermined series of operations of the operator read by the imaging means. The operation determination surface associated with the display surface of the display unit is previously set so as not to cover the exclusion area determined by connecting the operator's viewpoint and each vertex of the display surface of the display unit and to overlap the control range. The operation determining means extracts a part different from the operator part from the operator image, and between the operation determination surface on which the part different from the operator part is set and the display means. In some cases, it is determined that an operation associated with a series of operations has been performed.

請求項10に記載の発明は、請求項9に記載の操作入力装置において、操作判定面は、表示手段と操作者との間に形成されることを特徴とする。   According to a tenth aspect of the present invention, in the operation input device according to the ninth aspect, the operation determination surface is formed between the display means and the operator.

請求項11に記載の発明は、請求項2または3に記載の操作入力装置において、位置決定面の、操作者側における操作者の一部と位置決定面との位置関係から距離を算出して距離に応じ標示を変化させて、標示を移動する位置を示すことを特徴とする。   According to an eleventh aspect of the present invention, in the operation input device according to the second or third aspect, the distance is calculated from a positional relationship between a part of the operator on the operator side and the position determining surface of the position determining surface. The sign is changed according to the distance to indicate the position to move the sign.

請求項12に記載の発明は、請求項6、7、9または10に記載の操作入力装置において、判定範囲設定手段は、判定範囲として操作判定面との位置関係に基づいて定められる2つ以上の仮想操作階層を設定し、操作判定手段は、2つ以上の仮想操作階層のいずれかの領域内で操作者の一部と異なる一部が読取られると、仮想操作階層に予め割当てられた操作種別および仮想操作階層内での操作者の一部と異なる一部による一連の動作に基づいて操作の内容を判定することを特徴とする。   According to a twelfth aspect of the present invention, in the operation input device according to the sixth, seventh, ninth, or tenth aspect, the determination range setting means includes two or more determination ranges that are determined based on a positional relationship with the operation determination plane as a determination range. When a part different from the part of the operator is read in any region of the two or more virtual operation hierarchies, the operation determining means sets the operation previously assigned to the virtual operation hierarchies. The content of the operation is determined based on a series of actions by a type and a part different from a part of the operator in the virtual operation hierarchy.

請求項13に記載の発明は、請求項1ないし3のいずれかに記載の操作入力装置において、操作者の音声を認識する音声認識手段をさらに備え、操作判定手段は、音声手段により認識された音声が予め定めた音声のときは、予め定めた音声に対応する操作が行われたと判定することを特徴とする。   The invention according to claim 13 is the operation input device according to any one of claims 1 to 3, further comprising voice recognition means for recognizing an operator's voice, wherein the operation determination means is recognized by the voice means. When the voice is a predetermined voice, it is determined that an operation corresponding to the predetermined voice is performed.

請求項14に記載の発明は、請求項1ないし13のいずれかに記載の操作入力装置において、撮像手段は、表示手段の1つの撮像手段により構成されることを特徴とする。   According to a fourteenth aspect of the present invention, in the operation input device according to any one of the first to thirteenth aspects, the imaging means is constituted by one imaging means of the display means.

請求項15に記載の発明は、請求項1ないし13のいずれかに記載の操作入力装置において、撮像手段は、表示手段の左右に各々配置された撮像手段により構成され、それぞれ操作者の一部と異なる一部、および操作者の一部の像を撮像することを特徴とする。   According to a fifteenth aspect of the present invention, in the operation input device according to any one of the first to thirteenth aspects, the imaging means is constituted by imaging means respectively arranged on the left and right sides of the display means, each of which is part of the operator. It is characterized in that images of a part different from the above and a part of the operator are taken.

請求項16に記載の発明は、請求項1ないし15のいずれかに記載の操作入力装置において、操作者の一部は、操作者の手であることを特徴とする。   According to a sixteenth aspect of the present invention, in the operation input device according to any one of the first to fifteenth aspects, a part of the operator is a hand of the operator.

請求項17に記載の発明は、請求項4ないし10のいずれかに記載の操作入力装置において、操作者の一部は、操作者の手であり、操作者の一部と異なる一部は、操作者のもう一方の手であることを特徴とする。   The invention according to claim 17 is the operation input device according to any one of claims 4 to 10, wherein a part of the operator is a hand of the operator, and a part different from the part of the operator is It is the other hand of the operator.

請求項18に記載の発明は、操作者が閲覧する画像を表示する表示手段と、表示手段の操作者に向けて表示手段の近傍に配置され、表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置により操作判定をする方法であって、記撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、操作者の一部が標示を制御することができる範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定ステップと、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御範囲内にあるとき、操作者の一部と表示手段との位置関係に応じて表示手段に表示された所定の標示を移動する制御ステップと、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと、操作判定ステップにおいて操作が行われたと判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。   The invention according to claim 18 is a display means for displaying an image viewed by the operator, and is arranged in the vicinity of the display means for the operator of the display means, and generates image data of the operator who views the display means. A method of performing operation determination by an operation input device including an imaging unit, including a range indicated by a predetermined series of operations of an operator read by the imaging unit, and a part of the operator A control range setting step for presetting a control range that is a range in which the marking can be controlled and does not cover an area determined by connecting the viewpoint of the operator and each vertex of the display surface of the display means; When a part of the operator is extracted from the operator's image and the part of the operator is within the set control range, it is displayed on the display means according to the positional relationship between the part of the operator and the display means. Controls that move a given sign And an operation determination step for determining whether or not an operation related to the position of the display means on the display surface has been performed, and if it is determined that the operation has been performed in the operation determination step, a predetermined signal is And a signal output step of outputting.

請求項19に記載の発明は、操作者が閲覧する画像を表示する表示手段と、表示手段の操作者に向けて表示手段の近傍に配置され、表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置に操作判定方法を実行させるプログラムであって、操作判定方法は、撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、操作者の一部が標示を制御することができる範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定ステップと、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御範囲内にあるとき、操作者の一部と表示手段との位置関係に応じて表示手段に表示された所定の標示を移動する制御ステップと、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと、操作判定ステップにおいて操作が行われたと判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。   According to a nineteenth aspect of the present invention, there is provided display means for displaying an image viewed by the operator, and image data of the operator who is arranged in the vicinity of the display means for the operator of the display means and who views the display means. A program for causing an operation input device including an imaging unit to execute an operation determination method, the operation determination method including a range indicated by a predetermined series of operations of an operator read by the imaging unit, Control in which a part of the operator can control the labeling and sets a control range in advance that does not cover the region defined by connecting the operator's viewpoint and each vertex of the display surface of the display means When a part of the operator is extracted from the range setting step and the operator's image and the part of the operator is within the set control range, depending on the positional relationship between the part of the operator and the display means Displayed on the display means It is determined that an operation has been performed in a control step for moving a fixed sign, an operation determination step for determining whether or not an operation related to the position of the display means on the display surface has been performed, and an operation determination step And a signal output step for outputting a predetermined signal.

本実施形態の操作入力システムの一例を示す図である。It is a figure which shows an example of the operation input system of this embodiment. 本実施形態の操作入力システムのコンピュータとの関係を模式的に示すブロック図である。It is a block diagram which shows typically the relationship with the computer of the operation input system of this embodiment. 本実施形態のコンピュータのCPU内で処理されるプログラムの機能モジュールの一例を示すブロック図である。It is a block diagram which shows an example of the functional module of the program processed within CPU of the computer of this embodiment. 本実施形態の処理のフローチャートである。It is a flowchart of the process of this embodiment. 本発明の一実施形態にかかる左右の仮想的な操作面を説明するための図である。It is a figure for demonstrating the left and right virtual operation surface concerning one Embodiment of this invention. 本発明の一実施形態にかかる指定された操作面の位置の抽出する処理を示すフローチャートである。It is a flowchart which shows the process which extracts the position of the designated operation surface concerning one Embodiment of this invention. 本発明の一実施形態の仮想的な操作面の側面図である。It is a side view of the virtual operation surface of one embodiment of the present invention. 本発明の一実施形態の仮想的な操作面の上面図である。It is a top view of the virtual operation surface of one embodiment of the present invention. 本発明の一実施形態にかかる左右2つの操作面の機能例を説明するための図である。It is a figure for demonstrating the function example of two right and left operation surfaces concerning one Embodiment of this invention. 本発明の一実施形態にかかる左右2つの操作面の別の機能例を説明するための図である。It is a figure for demonstrating another example of a function of two right and left operation surfaces concerning one Embodiment of this invention. 本発明の一実施形態にかかる操作入力システムによる入力操作の一例を示す図である。It is a figure which shows an example of input operation by the operation input system concerning one Embodiment of this invention. 本発明の一実施形態にかかる画面および対応する操作面の機能を模式的に示す図である。It is a figure which shows typically the function of the screen concerning one Embodiment of this invention, and a corresponding operation surface. 本発明の一実施形態にかかる画面および対応する操作面の機能を模式的に示す図である。It is a figure which shows typically the function of the screen concerning one Embodiment of this invention, and a corresponding operation surface. 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。It is a figure which shows the relationship between the operator's movement concerning one Embodiment of this invention, and the icon displayed on a screen. 本発明の一実施形態にかかる操作入力画面の具体的な表示の一例を示す図である。It is a figure which shows an example of the concrete display of the operation input screen concerning one Embodiment of this invention. 本発明の一実施形態にかかる操作入力画面で使用可能な種々のアイコンの例を示す図である。It is a figure which shows the example of the various icons which can be used on the operation input screen concerning one Embodiment of this invention. 本発明の一実施形態にかかる操作者の動きと画面に表示されるアイコンとの関係を示す図である。It is a figure which shows the relationship between the operator's movement concerning one Embodiment of this invention, and the icon displayed on a screen. 本実施形態の操作入力システムの別の一例を示す図である。It is a figure which shows another example of the operation input system of this embodiment. 本実施形態の操作入力システムの操作姿勢の一例を示す図である。It is a figure which shows an example of the operation attitude | position of the operation input system of this embodiment. 本実施形態の操作入力システムの一例を示す図である。It is a figure which shows an example of the operation input system of this embodiment.

以下、図面を参照しながら本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1実施形態)
図1は、本実施形態の操作入力システムの一例を示す図である。本実施形態のディスプレイ111は、操作者102の前面に配置され、操作者102は、ディスプレイ111との間の左右の一定の位置に設定された範囲で、指などの形状が操作判定の対象になることを意識して操作を行うことができる。本願発明は、後述するように操作者102から見てディスプレイ111の左右で位置決定と操作判定とを右手114および左手115を別々に動かしてシステムに入力することができる。ここで、ディスプレイ111には、通常パソコンで使用される様々なアプリケーション用の種々の映像が表示されるが、これに加え操作入力を支援、すなわち例えば対象となる操作者102の部位などを画面の隅の方に表示して、操作者102に、現時点でシステムがどのような操作が行われていると認識しているかを表示することができる。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an operation input system according to the present embodiment. The display 111 according to the present embodiment is arranged in front of the operator 102, and the operator 102 has a shape such as a finger as an operation determination target within a range set at a certain left and right position with the display 111. The operation can be performed with awareness of In the present invention, as will be described later, position determination and operation determination can be input to the system by moving the right hand 114 and the left hand 115 separately on the left and right of the display 111 as viewed from the operator 102. Here, various images for various applications normally used on a personal computer are displayed on the display 111. In addition to this, operation input is supported, that is, for example, the region of the target operator 102 is displayed on the screen. It can be displayed near the corner to display to the operator 102 what operation the system is currently recognizing.

ここで、本実施形態では操作者が視聴するモニタとして、通常のパソコン用ディスプレイを使用することができるが、後述するようにアイコンを立体表示させて、より操作性を高めるため三次元ディスプレイを用いることもできる。この場合、本技術分野で知られたいずれの三次元ディスプレイも使用することもできる。また、本実施形態では、右手で位置決定を、左手で操作判定を行うシステムを用いて説明するが、これに限られず、利き手や操作者の嗜好などにより左右を逆にすることもできる。さらに、操作判定については、このような手の動きを用いずに、他の方法により操作の判定あるいはトリガを実現することもできる。例えば、何らかのスイッチを設け、手による位置決定に基づいて位置を決定した後操作を確定させたり、音声認識装置を設けて操作者の声により操作のトリガとしたり操作内容を特定したりすることができる。また、本実施形態では基本的に左右の手を各々ディスプレイから見て左側及び右側の一定の範囲で動かして操作を判定するが、これに限らず、手が自然に届く範囲の位置で手を動かすことにより操作判定に使用することもできる。例えば、図1に示す視点501と表示面520とで形成される四角錐の下側をスペースキーとして使用するなど、種々の機能を設定することができる。   Here, in this embodiment, a normal personal computer display can be used as a monitor that the operator views. However, as will be described later, a three-dimensional display is used in order to improve the operability by displaying icons three-dimensionally. You can also. In this case, any three-dimensional display known in the art can also be used. Further, in the present embodiment, the position determination is performed using the right hand and the operation determination is performed using the left hand. However, the present invention is not limited to this, and the left and right can be reversed depending on the dominant hand or the preference of the operator. Further, for operation determination, operation determination or trigger can be realized by other methods without using such hand movement. For example, some switches may be provided to determine the operation after determining the position based on the position determination by hand, or a voice recognition device may be provided to trigger an operation or specify the operation content by the operator's voice. it can. In this embodiment, the operation is determined by moving the left and right hands in a certain range on the left and right sides when viewed from the display. However, the present invention is not limited to this, and the hand is placed in a range where the hand can reach naturally. It can also be used for operation determination by moving. For example, various functions such as using the lower side of the quadrangular pyramid formed by the viewpoint 501 and the display surface 520 shown in FIG. 1 as a space key can be set.

本実施形態では図5に示すように、画像を取得するためにビデオカメラ511ないし514のいずれかの位置のカメラを使用する。ここで、図5では、4つのカメラが示されているが、いずれか1つあるいは2つ以上を設けることができる。複数カメラを使用するときは、左右のカメラで左右の手の動きを別々に撮影して、画像の精度を上げることもできる。また、カメラとしては赤外線カメラ等、本技術分野で知られたいずれの撮像手段を用いることもでき、図5のような4つの位置以外でも設置場所としてモニタの付近の何処を選択することもできる。したがって、カメラ511等は対象の画像を撮影できるものであればいずれのタイプのものでも良く、例えばRGB2眼ステレオ配置方式でも良いし、TOF方式のような単眼の三次元測定カメラであっても良く、その方式については問わないが、設置レイアウト上、広角範囲を取得できるカメラであるのが好ましい。   In this embodiment, as shown in FIG. 5, a camera at any one of the video cameras 511 to 514 is used to acquire an image. Here, although four cameras are shown in FIG. 5, any one or two or more can be provided. When using multiple cameras, the left and right cameras can be used to capture the movements of the left and right hands separately to improve the accuracy of the image. Further, any imaging means known in this technical field such as an infrared camera can be used as the camera, and it is possible to select anywhere near the monitor as an installation place other than the four positions as shown in FIG. . Therefore, the camera 511 or the like may be of any type as long as it can capture the target image, for example, an RGB binocular stereo arrangement method or a monocular three-dimensional measurement camera such as the TOF method. The method is not limited, but a camera that can acquire a wide-angle range is preferable in terms of installation layout.

また、近年パソコン等で使用されている安価なウェブカメラなども使用することができる。高価なカメラに代え、安価なウェブカメラを利用して、カメラ512及び514の様に、各カメラを対象画面の両端に設置し、上述のように左右カメラそれぞれに左操作、右操作のセンシングを独立して担当させる方法によりセンシング精度を高めることもできる。この場合、対象とする手の奥行き情報までの取得は難しいが、二次元的な画像情報は取得できるため、利き腕でカーソル移動(指先の画像認識)、もう片方の腕のジェスチャの輪郭画像認識で意志決定といった本技術分野で知られた方法で、操作を二段階にしたPC操作が可能となる。   In addition, an inexpensive web camera or the like that has been recently used in personal computers can also be used. Instead of an expensive camera, using an inexpensive web camera, each camera is installed at both ends of the target screen like the cameras 512 and 514, and left and right operation sensing is performed on each of the left and right cameras as described above. Sensing accuracy can also be improved by the method of taking charge independently. In this case, it is difficult to obtain the depth information of the target hand, but since two-dimensional image information can be obtained, it is possible to move the cursor with the dominant arm (image recognition of the fingertip), and to recognize the contour image of the gesture of the other arm. By a method known in this technical field such as decision making, a PC operation with two stages of operation becomes possible.

次に、本実施形態の操作入力方法を図20を参照してより具体的に説明する。図20は、本実施形態の操作入力システムの一例を示す図である。図20を参照すると、本実施形態の操作は、上述の視点501と操作対象画面520の四隅を結ぶ四角錐を隔てて左右に分かれた範囲2001、2002内で手を動かしたときのみ操作対象にするので、操作入力動作で操作者が手を動かしてもディスプレイ111に表示された画面を遮ることはなく、通常のパソコン操作時の視認性を確保することができる。また、同様に左右の動作する範囲2001、2002は上述の四角錐によって分割配置されていることから、それぞれの範囲における動作を操作者の左手、右手と正確に分別しての判定が可能となる。従来の通常のジェスチャ認識においては、操作者の両腕の交差や身体と腕との重なり等で、誤認識が生ずることが多かったが、これにより、操作者による操作領域設定や中央の非センシングエリアによって分割された左右の手の操作領域をそれぞれ制限し区別することが可能となり、安定した操作が実現できることとなる。   Next, the operation input method of the present embodiment will be described more specifically with reference to FIG. FIG. 20 is a diagram illustrating an example of the operation input system according to the present embodiment. Referring to FIG. 20, the operation of the present embodiment is set as an operation target only when the hand is moved in the ranges 2001 and 2002 divided into the left and right with the quadrangular pyramid connecting the above-described viewpoint 501 and the four corners of the operation target screen 520. Therefore, even if the operator moves his / her hand in the operation input operation, the screen displayed on the display 111 is not blocked, and visibility during normal personal computer operation can be ensured. Similarly, since the left and right movement ranges 2001 and 2002 are divided and arranged by the above-described quadrangular pyramids, it is possible to accurately determine the movement in each range from the left hand and right hand of the operator. In conventional normal gesture recognition, misrecognition often occurs due to the intersection of the operator's arms or the overlap of the body and arms. It becomes possible to restrict and distinguish the operation areas of the left and right hands divided by the area, and a stable operation can be realized.

本実施形態では、左右いずれかの手をXY座標のポインティングあるいはフォーカス(従来のマウスによるカーソル移動に相当)機能のみに使用するようにし(仮想トラックパッドの機能)、もう片方の手をフォーカスに対する決定動作、例えばクリック、ダブルクリック、ドラッグのトリガを受け付ける機能のみに使用する。このようにして、左右それぞれに完全に機能を分担し、二段階で操作を判断することでジェスチャ操作に多く見られる入力ミスや誤認識を圧倒的に低減することができる。なお、具体的なジェスチャとしては、手のひらを開いて(じゃんけんのパーの形)「クリック、ダブルクリック操作」としたり、人差し指を立ててクリック、二本の指を立ててダブルクリック等としたりすることができる。   In this embodiment, either the left or right hand is used only for the XY coordinate pointing or focus (equivalent to cursor movement by a conventional mouse) function (virtual trackpad function), and the other hand is determined for the focus. Used only for functions that accept actions, such as click, double-click, and drag triggers. In this way, it is possible to overwhelmly reduce input mistakes and misrecognitions frequently seen in gesture operations by assigning the functions to the left and right completely and judging the operations in two stages. Specific gestures include opening the palm (Janken par) and clicking and double-clicking, raising the index finger and clicking, and double-clicking with two fingers. Can do.

(本実施形態のシステム構成)
図2は、本実施形態の操作入力装置のコンピュータ110の構造を模式的に示すブロック図である。コンピュータ110には、ディスプレイ111に取り付けられ、操作者102などを撮影するビデオカメラ511などが接続され、撮影した画像をコンピュータ110に取り込む。撮影により得られた画像は、CPU210において本実施形態の特徴である操作者の一部、あるいは操作所の一部と異なる一部である右左の手の画像を抽出する。コンピュータ110は、一般にCPU210を備え、ROM211等に記憶されたプログラムをRAM212上で実行して、操作入力装置から入力した画像に基づいた処理結果をディスプレイ111等に出力する。本実施形態では、ディスプレイ111は、上述の操作者の手の動作により表示されるアイコンなどのほか操作者が体験しようとする様々なアプリケーションにより提供される種々の映像を出力することができ、また後述するように操作入力の支援となるような情報も表示する。
(System configuration of this embodiment)
FIG. 2 is a block diagram schematically showing the structure of the computer 110 of the operation input device of this embodiment. A video camera 511 or the like that is attached to the display 111 and captures the operator 102 or the like is connected to the computer 110, and the captured image is taken into the computer 110. The CPU 210 extracts an image of right and left hands that is a part of the operator, which is a feature of the present embodiment, or a part different from a part of the operation place, from the CPU 210. The computer 110 generally includes a CPU 210, executes a program stored in the ROM 211 or the like on the RAM 212, and outputs a processing result based on an image input from the operation input device to the display 111 or the like. In the present embodiment, the display 111 can output various images provided by various applications that the operator wants to experience, in addition to the icons displayed by the operation of the above-described operator's hand, As will be described later, information that assists operation input is also displayed.

図3は、本実施形態のコンピュータ110のCPU210内で処理されるプログラムの機能モジュールの一例を示すブロック図である。図3に示すように、本システムにおける処理は、画像読取部301、画像抽出部302、画像位置算出部303、操作判定部304および標示制御部305により実行される。なお、本実施形態では、ビデオカメラ511からの画像を受取ってからデータの出力を行うまでの処理をこの5つのモジュールにより実行するが、これに限られることなく、その他のモジュールを用い、あるいはより少ないモジュールで処理することもできる。   FIG. 3 is a block diagram illustrating an example of functional modules of a program processed in the CPU 210 of the computer 110 according to the present embodiment. As shown in FIG. 3, the processing in this system is executed by an image reading unit 301, an image extraction unit 302, an image position calculation unit 303, an operation determination unit 304, and a sign control unit 305. In this embodiment, processing from receiving an image from the video camera 511 to outputting data is executed by these five modules. However, the present invention is not limited to this, and other modules can be used. It can be processed with few modules.

また、本実施形態では、ディスプレイ111として立体表示可能な3Dディスプレイを使用して、操作者102から見て操作面が設定あるいは調整された位置に存在するように見えるようにアイコンを表示することもできる。これにより、操作者102は、あたかもアイコンなどがそこに存在するように立体映像として認識して、認識した立体映像に対し手や指を用いて操作を実行することができる。操作者102は、その右目と左目とによりディスプレイ111上に表示された画像およびアイコンなどを見るが、アイコンなどは立体表示させるため、例えば視差を含んだ2枚の画像からなっており、それぞれ右目及び左目で見ることによりディスプレイ111から操作者の前面にあるように立体表示されるような面を形成することができる。なお、立体表示される面の位置は、操作者の操作感として実際にアイコンなどが形成される位置とは若干異なる位置に表示させる場合もあるが必ずしも一致する必要はない。   In the present embodiment, a 3D display capable of stereoscopic display is used as the display 111, and an icon is displayed so that the operation surface appears to exist at the set or adjusted position as viewed from the operator 102. it can. As a result, the operator 102 can recognize an icon or the like as a 3D image as if it exists, and can perform an operation on the recognized 3D image using a hand or a finger. The operator 102 looks at an image and an icon displayed on the display 111 with the right eye and the left eye, and the icon or the like is composed of two images including parallax, for example, in order to display the icon in three dimensions. Further, when viewed with the left eye, it is possible to form a surface that is stereoscopically displayed from the display 111 so as to be in front of the operator. Note that the position of the three-dimensionally displayed surface may be displayed at a slightly different position from the position where an icon or the like is actually formed as an operator's operational feeling, but it is not always necessary to match.

(操作範囲の設定)
本実施形態では、操作範囲設定処理を行う前提として、本技術分野で知られた初期設定、例えば本実施形態の操作入力装置が新たに設置された場合を想定すると、事前準備として利用するビデオカメラ511の利用レンズの歪み、ディスプレイ111とレンズとの距離等の情報を装置に入力しておく必要がある。さらに閾値設定等を予め調整しておく。システムの初期設定が終了すると、本実施形態の処理を行うが、図1を参照して、本実施形態にかかる操作者のジェスチャにより左右の動作範囲を設定する処理を説明する。図1に示す例のように、カメラで撮影された操作者の画像の手114、115により動作範囲の位置、大きさが決定される。具体的には、図1に示すように、操作者が手114、115で示した位置を含む一定の範囲が有効な動作範囲として設定される。動作範囲の例として、図20に範囲2001、2002を示す。ここで、上述の四角錐によって左右の有効な範囲を分割配置するため、設定された範囲が上述の四角錐にかかる部分は有効な動作とはみなされず、したがって、有効な動作範囲から除かれる。
(Operation range setting)
In the present embodiment, as a premise for performing the operation range setting process, assuming that the initial setting known in the art, for example, the operation input device of the present embodiment is newly installed, a video camera that is used as a preliminary preparation It is necessary to input information such as the distortion of the used lens 511 and the distance between the display 111 and the lens to the apparatus. Further, the threshold setting or the like is adjusted in advance. When the initial setting of the system is completed, the processing of the present embodiment is performed. With reference to FIG. 1, processing for setting the left and right operation ranges by the operator's gesture according to the present embodiment will be described. As in the example shown in FIG. 1, the position and size of the operation range are determined by the hands 114 and 115 of the operator's image taken by the camera. Specifically, as shown in FIG. 1, a certain range including the position indicated by the operator with the hands 114 and 115 is set as an effective operation range. As examples of the operation range, ranges 2001 and 2002 are shown in FIG. Here, since the left and right effective ranges are divided and arranged by the above-described quadrangular pyramids, a portion where the set range covers the above-described quadrangular pyramids is not regarded as an effective operation, and is therefore excluded from the effective operation range.

本実施形態では、このような有効な動作範囲の設定処理は、システムの電源投入後や特定の操作、例えばリモコンで指示するなどにより開始されるが、これに限られず本技術分野で知られたいずれの方法、タイミングで開始することができる。   In the present embodiment, such an effective operation range setting process is started after the system is turned on or by a specific operation, for example, an instruction by a remote controller, but is not limited thereto, and is known in the art. It can be started with any method and timing.

また、本実施形態においては、通常のPC操作で図19に示すような両肘をついてのジェスチャ入力が一般的な形態となるので、動作範囲の設定に当たっては、このような操作姿勢を考慮して操作者の身体に適合した位置に範囲設定することが有用である。なお、このような両肘をついた操作姿勢によると、従来のPC操作におけるマウスやキーボードに比して、両腕の重みによる両肩への筋負担が、かなり軽減されること、必要最小限の小振りなジェスチャ操作のみで済むことから、身体的な負担が大幅に軽減される上、マウス、キーボードをカメラ一台で置き換えることが可能となるため大きなメリットとなる。加えて、両肘を机面につくことで、右手114によるカーソル移動(フォーカス)や、左手115による操作判定の際も、常に安定したジェスチャ位置が確保できる。   Further, in the present embodiment, gesture input with both elbows as shown in FIG. 19 is a general form in normal PC operation. Therefore, in setting the operation range, such an operation posture is taken into consideration. Thus, it is useful to set the range to a position that fits the operator's body. In addition, according to such an operation posture with both elbows, the muscle load on both shoulders due to the weight of both arms is considerably reduced compared to the conventional mouse and keyboard in PC operation, and the minimum necessary Since only a small gesture operation is required, the physical burden is greatly reduced, and the mouse and keyboard can be replaced with a single camera, which is a great advantage. In addition, by placing both elbows on the desk surface, it is possible to always ensure a stable gesture position even when the cursor is moved (focused) by the right hand 114 or when the operation is determined by the left hand 115.

さらに、図18に示すように、机上を有効な動作範囲とすることもできる。すなわち、右手114で机上を移動させてアイコンを移動させ、左手115は通常机上に浮かしておいて、机面に触れると操作と判定するようにすることもできる。   Furthermore, as shown in FIG. 18, the desk can be set to an effective operating range. In other words, the icon can be moved by moving the desk with the right hand 114, and the left hand 115 is usually floated on the desk, and the operation can be determined by touching the desk.

(本実施形態の操作判定処理)
本実施形態では、図5および図20を参照すると、ビデオカメラ511等で撮影した操作者102の一部である手や指114、115の位置を定めるとともに、これらの位置とディスプレイとの相対的な位置や、形状に基づいて、ディスプレイ上のアイコンを移動させたり、一定の操作と判定したりする。まず、画像読取部301においてビデオカメラ511等で撮影されたデータを読取り、そのデータから操作者の手の画像を、画像抽出部302により抽出する。
(Operation determination process of this embodiment)
In this embodiment, referring to FIGS. 5 and 20, the positions of the hands and fingers 114 and 115 that are part of the operator 102 photographed by the video camera 511 and the like are determined, and the relative positions of these positions and the display are determined. The icon on the display is moved or determined as a certain operation based on the correct position or shape. First, data captured by the video camera 511 or the like is read by the image reading unit 301, and an image of the operator's hand is extracted from the data by the image extracting unit 302.

このような準備の結果、上述の動作範囲の設定で予め設定し、記憶手段などに記憶していた有効な動作範囲2001、2002の位置、大きさを読み出す。ここで、右手の操作開始位置を適当に定めておき、本技術分野で知られたいずれかの方法で、右手114の位置に対応するディスプレイ111上の位置にアイコン等が標示制御部305により表示され、手の動きとともに移動するよう制御される。したがって、操作者は表示されたアイコンの動きに合わせて有効な動作範囲2001内で的確に指や手を動かすことにより、表示面に表示されたアイコンを移動するなどの操作を行うことができる。   As a result of such preparation, the positions and sizes of the effective operation ranges 2001 and 2002 that have been set in advance by the above-described operation range setting and stored in the storage means are read out. Here, the operation start position of the right hand is appropriately determined, and an icon or the like is displayed on the display control unit 305 at a position on the display 111 corresponding to the position of the right hand 114 by any method known in the art. And controlled to move with the movement of the hand. Therefore, the operator can perform an operation such as moving the icon displayed on the display surface by accurately moving a finger or hand within the effective operation range 2001 in accordance with the movement of the displayed icon.

操作判定部304は、操作者102の動作範囲2002内の左手115の形状や動きにより、予め定めた操作が行われた判断し、右手114の位置に基づいて、左手の形状あるいは動きに関連付けて予め定められた操作内容とともに、操作が実行されたことをシステムに通知する。   The operation determination unit 304 determines that a predetermined operation has been performed based on the shape and movement of the left hand 115 within the operation range 2002 of the operator 102, and relates to the shape or movement of the left hand based on the position of the right hand 114. Along with a predetermined operation content, the system is notified that the operation has been executed.

ここで、どのような形状、動きがどのような操作に対応するかは、システム独自に取り決めることもできるし、本技術分野で知られたいずれかの手法を取り入れて決定することもでき、あるいはまた、単にその位置が操作者により触れられた、例えばアイコンが選択され、若しくはボタンが押されたと判定することができる。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行される。操作内容の判定はここで説明した手法に限られることなく本実施形態で知られたいずれの方法も用いることができる。また、具体的な判定方法も省略したが、一般には予め定めたジェスチャなどの操作者の身体の形状、動きと、それが意味する操作内容とをデータベース等に格納しておいて、画像抽出後、このデータベースにアクセスして、操作内容を判定する。この際にももちろん、画像認識技術や人工知能などを本技術分野で知られた手法により利用し、判定精度を向上させることもできる。ここで、手が有効な動作範囲2001、2002にない場合は操作とは判定されない。例えば、右手が有効な範囲2001を外れると、その位置でアイコンが停止するか、初期の位置に戻る。また、左手が有効な範囲2002を外れると、予め定めた形状や動きであっても操作とは判定されない。   Here, what kind of shape and movement corresponds to what kind of operation can be determined independently by the system, can be determined by adopting any method known in this technical field, or It can also be determined that the position has been touched by the operator, for example, that an icon has been selected or a button has been pressed. The result of the determination is executed by the computer 110 assuming that such an operation has been input. The determination of the operation content is not limited to the method described here, and any method known in the present embodiment can be used. Although a specific determination method has also been omitted, generally, the shape and movement of the operator's body, such as a predetermined gesture, and the operation content meaning the same are stored in a database or the like, and after image extraction Then, this database is accessed to determine the operation content. Also in this case, of course, it is possible to improve the determination accuracy by using an image recognition technique, artificial intelligence, or the like by a method known in the technical field. Here, if the hand is not in the effective operation range 2001, 2002, it is not determined as an operation. For example, when the right hand is out of the effective range 2001, the icon stops at that position or returns to the initial position. If the left hand is out of the effective range 2002, it is not determined that the operation is performed even if the shape and movement are predetermined.

以上、本実施形態によれば、表示画面の視界、すなわち上述の四角錐により明確に分離される左右の動作範囲2001、2002を定め、左右の手で異なる機能、例えばアイコンの移動あるいは選択と、クリック、ドラッグなどの操作内容とに分別して実行することにより、ジェスチャのみの入力にもかかわらず、操作者に負担をかけることなく、パソコン等でキーボードを使用しない正確な操作入力が可能となる。   As described above, according to the present embodiment, the field of view of the display screen, that is, the left and right operation ranges 2001 and 2002 that are clearly separated by the above-described quadrangular pyramids are defined, and different functions, for example, movement or selection of icons, By performing the operation separately from the operation contents such as click and drag, it is possible to perform an accurate operation input without using a keyboard on a personal computer or the like without burdening the operator, despite the input of only the gesture.

(第2実施形態)
上述の第1実施形態では、操作者とディスプレイとの間で左右で機能を分担して手を動かすことによる操作入力について説明したが、本実施形態では基本的に同じシステム構成を使用して、さらに精度の高い操作入力を可能とする。すなわち、本実施形態では、仮想的な操作面の概念を導入して、操作面に対する手の動きや操作面により形成される領域を用いて、操作のトリガや操作内容を判定する。このため、本実施形態では第1実施形態のカメラの代わりに三次元カメラを使用することにより、操作者自身、手あるいは指のz方向の位置も取得して、仮想的な操作面上の手の位置を正確に取得したり、操作面を横切ったか否かを判定したりすることができる。したがって、三次元カメラを使用する点を除きシステム構成は第1実施形態と同様なので、以下重複する点は省略する。なお、本実施形態の仮想的な操作面を使用した処理は、左右の操作の双方に適用することができるが、右または左のいずれかの操作に上述の第1実施形態の処理を適用し、もう片方に本実施形態の処理を適用することもでき、システムの構成や使用状況に合わせて適宜選択することができる。
(Second Embodiment)
In the first embodiment described above, the operation input by sharing the function between the operator and the display on the left and right and moving the hand has been described. In this embodiment, basically the same system configuration is used, Furthermore, highly accurate operation input is enabled. That is, in this embodiment, the concept of a virtual operation surface is introduced, and the operation trigger and the operation content are determined using the movement of the hand with respect to the operation surface and the region formed by the operation surface. For this reason, in this embodiment, by using a three-dimensional camera instead of the camera of the first embodiment, the operator himself / herself or the position of the hand or finger in the z direction is also acquired, and the hand on the virtual operation surface is obtained. It is possible to accurately acquire the position of and to determine whether or not the operation surface has been crossed. Accordingly, the system configuration is the same as that of the first embodiment except that a three-dimensional camera is used, and therefore, overlapping points are omitted. The process using the virtual operation surface of the present embodiment can be applied to both the left and right operations. However, the process of the first embodiment described above is applied to either the right or left operation. The processing of this embodiment can also be applied to the other side, and can be selected as appropriate according to the system configuration and usage status.

図5は、本発明の一実施形態にかかる左右の仮想的な操作面を説明するための図である。図5に示すビデオカメラ511ないし514のうち、実際にシステムで使用する場合は、基本的に三次元カメラ1台あればいい。本実施形態ではビデオカメラ511として三次元(あるいは3D)カメラを用いることにより、操作者を含め立体画像が作成できるようにする。もちろん、左右に通常の二次元カメラを配置して使用することもできる。例えば、ビデオカメラ512および514の両方を備えるようにし、この場合カメラとしては二次元カメラを使用してビデオカメラ512および514の2つで立体画像を生成するようにすることもできる。   FIG. 5 is a diagram for explaining the left and right virtual operation surfaces according to the embodiment of the present invention. Of the video cameras 511 to 514 shown in FIG. 5, when actually used in the system, basically one three-dimensional camera is sufficient. In this embodiment, a three-dimensional (or 3D) camera is used as the video camera 511 so that a stereoscopic image including the operator can be created. Of course, a normal two-dimensional camera can be arranged on the left and right. For example, both the video cameras 512 and 514 may be provided, and in this case, a two-dimensional camera may be used as the camera, and the two video cameras 512 and 514 may generate a stereoscopic image.

図7および8は、操作面を側面から見た図および上面から見た図である。図7および8を参照すると理解できるように、操作面104、105は、操作者の視点501と操作対象画面520の四隅を結ぶ四角錐を避けるように左右に配置する。ここで、位置決定面104および操作判定面105の位置は、後述するPC設置段階の初期設定ステップで操作者が利用環境に合わせ、入力操作に最適な位置で両手を広げて設定する。この際に、例えば、カメラ側で操作者の頭部両肩等の上半身の位置情報や両眼の位置等も補足し、机に向かった操作者が肘をついたまま両手の操作がしやすい左右の対照位置に配置設定するが、これに限られず操作者の操作環境に最適に設定することができる。なお、図7及び8に示す位置決定面104及び操作判定面105は、上述の四角錐を避けるように左右に配置されているが、これは、上述のように操作者の視界を操作時の手114、115が遮らないようにするためであり、したがって、この目的を達成することができる限り、位置決定面104及び操作判定面105は概ね左右に配置されていれば良く、四角錐に多少かかっても問題はない。   7 and 8 are a view of the operation surface seen from the side and a view seen from the top. As can be understood with reference to FIGS. 7 and 8, the operation surfaces 104 and 105 are arranged on the left and right sides so as to avoid a quadrangular pyramid connecting the operator's viewpoint 501 and the four corners of the operation target screen 520. Here, the positions of the position determination surface 104 and the operation determination surface 105 are set by an operator with both hands extended at an optimal position for the input operation in accordance with the use environment in an initial setting step of the PC installation stage described later. At this time, for example, the camera side supplements the position information of the upper body of the operator's head and shoulders, the position of both eyes, etc., so that the operator facing the desk can easily operate both hands with the elbows on. The arrangement is set at the left and right contrast positions, but is not limited to this, and can be optimally set for the operating environment of the operator. Note that the position determination surface 104 and the operation determination surface 105 shown in FIGS. 7 and 8 are arranged on the left and right sides so as to avoid the above-described quadrangular pyramids. This is to prevent the hands 114 and 115 from being obstructed. Therefore, as long as this purpose can be achieved, the position determination surface 104 and the operation determination surface 105 need only be arranged substantially on the left and right sides. There is no problem even if it takes.

図9および10は、本発明の一実施形態にかかる左右2つの操作面の典型的な機能の例を説明するための図である。図9および10とも位置決定面104は、ポインティングあるいはフォーカスの機能を担い、例えば図12に示すように位置決定面104に対応する領域1202をディスプレイ111の適当な場所に表示、現在、手114がフォーカスしている対応する箇所の色を変えたり、図示しないアイコンなどを表示したりすることができる。このように位置決定面104上の手114の動きに連動して、ディスプレイ111上の画像を変化させることにより、操作者は直感的にディスプレイ111を見ながら手114でフォーカスすることができるようになる。   9 and 10 are diagrams for explaining examples of typical functions of the left and right operation surfaces according to the embodiment of the present invention. 9 and 10, the position determination surface 104 has a function of pointing or focusing. For example, as shown in FIG. 12, an area 1202 corresponding to the position determination surface 104 is displayed at an appropriate place on the display 111. It is possible to change the color of the corresponding part that is focused, or to display an icon (not shown). In this manner, by changing the image on the display 111 in conjunction with the movement of the hand 114 on the position determination surface 104, the operator can focus with the hand 114 while looking at the display 111 intuitively. Become.

また、操作判定面105は、図9に示すように一定の領域901を持たせて、操作判定面105を手115が超えると操作が開始されたと判定し、領域901内の手115の形状やジェスチャに基づいて、操作内容を判定することができる。すなわち、本実施形態の操作面は、操作者102の身長や腕の長さ、あるいは身長や肩幅等の身体寸法情報に基づいて設定され、操作者102は、予め設定した操作判定面105が仮想的に存在すると捉え、種々の操作をしようとする場合は操作判定面105を基準に手115を前にある操作領域901に突き出してジェスチャを示したりすることができる。   Further, the operation determination surface 105 has a certain area 901 as shown in FIG. 9, and it is determined that the operation is started when the hand 115 exceeds the operation determination surface 105, and the shape of the hand 115 in the area 901 The operation content can be determined based on the gesture. That is, the operation surface of the present embodiment is set based on the height and arm length of the operator 102, or body dimension information such as the height and shoulder width. If the user wants to perform various operations, the user can project the hand 115 to the operation area 901 in front of the operation determination surface 105 to show a gesture.

あるいは、図10に示すように、操作判定面を、例えば2階層902、1001として手115が1階層目1001までしか貫いていないとクリックと判定し、2階層目902まで到達しているとダブルクリックと判定するようにすることができる。本実施形態では、操作判定面として2階層を有する例を示したが、これに限られることなく3階層やそれ以上の階層を設定して、各々種々の機能を対応させることができる。   Alternatively, as shown in FIG. 10, for example, if the hand 115 has penetrated only the first layer 1001 as the second layer 902, 1001 as the operation determination surface, it is determined that the click has been reached. A click can be determined. In the present embodiment, an example having two hierarchies as an operation determination surface has been described. However, the present invention is not limited to this, and three hierarchies or higher hierarchies can be set to correspond to various functions.

また、上述の例えば図12に示すような例では、本実施形態の操作入力システムは、簡易的なキーボードの機能を有することとなるが、図13に示すように、通常のキーボードの機能を有するようにすることもできる。すなわち、右操作面104は通常のキーボードの右半分を割当て、左操作面は通常のキーボードの左半分を割当てることにより、操作者はディスプレイ111上のキーボードレイアウト1202、1301を見ながらフォーカスさせて、操作を決定することができる。なお、この場合の操作の決定には、通常は利用しない操作画面下にもう1つの操作面を設定するなどして、操作判定面とすることもできる。また、このような操作画面下に操作面を設ける場合、単にスペースキーを割り当てる等することもできる。   Further, in the example as shown in FIG. 12, for example, the operation input system of the present embodiment has a simple keyboard function, but has a normal keyboard function as shown in FIG. It can also be done. That is, by assigning the right half of the normal keyboard to the right operation surface 104 and the left half of the normal keyboard to the left operation surface, the operator can focus while looking at the keyboard layouts 1202 and 1301 on the display 111, The operation can be determined. In this case, the operation can be determined as an operation determination surface by setting another operation surface under an operation screen that is not normally used. Further, when an operation surface is provided below such an operation screen, a space key can be simply assigned.

(操作面の設定)
本実施形態では、システムの初期設定が終了すると、本実施形態にかかる操作面の設定処理を行う。図1に示す例のように、三次元カメラで撮影された操作者の画像の手114、115により操作面の形状(大きさ、ディスプレイに対する角度を含む)が決定され、例えばz方向のディスプレイから手114、115までの距離により操作面104、105の位置を決定する。具体的には、図1に示すように、操作者が手114、115で示した位置に操作面104、105を形成すれば良いことが理解される。
(Operation side settings)
In the present embodiment, when the initial setting of the system is completed, the operation surface setting process according to the present embodiment is performed. As in the example shown in FIG. 1, the shape (including size and angle with respect to the display) of the operation surface is determined by the hands 114 and 115 of the operator's image taken by the three-dimensional camera. The positions of the operation surfaces 104 and 105 are determined based on the distance to the hands 114 and 115. Specifically, as shown in FIG. 1, it is understood that the operator may form the operation surfaces 104 and 105 at the positions indicated by the hands 114 and 115.

次に、図6を参照して操作面抽出処理を説明する。図6は、本実施形態にかかる指定された操作面の位置を抽出する処理を示すフローチャートである。まず、データ、すなわち操作者の立体画像データの入力がなされると(S601)、手の形状および頭部を認識して(S602、S603)、操作面を形成するか否かを判定する(S604)。具体的には、例えば肘を机上について手をかざすジェスチャを一定時間維持していたときは、操作面の設定処理であると判断して、操作者が手により指示した位置に操作面を、取得した立体画像から抽出して操作面を形成し(S605)、必要なときは操作者の身体の測定値、例えば腕の長さ、胴や頭部の位置に基づいて操作領域を設定し(S606)データを出力して終了する(S609)。ここで、本実施形態では肘を机上について手をかざす動きを一定時間静止することにより、操作面の設定指示と判断するようにしているが、これに限らず種々のジェスチャ、リモコン操作等で指示するなど本技術分野で知られたいずれの手法により指示を判断させることができる。なお、本実施形態では基本的に手により形づくられた形状、位置に操作面を形成するが、操作者の身体的特徴やディスプレイの位置、使用状況等に合わせて調整することもできる。   Next, the operation surface extraction process will be described with reference to FIG. FIG. 6 is a flowchart showing processing for extracting the position of the designated operation surface according to the present embodiment. First, when data, that is, the operator's stereoscopic image data is input (S601), the hand shape and head are recognized (S602, S603), and it is determined whether or not an operation surface is to be formed (S604). ). Specifically, for example, when a gesture of holding the elbow on the desk is maintained for a certain period of time, it is determined that the operation surface setting processing is performed, and the operation surface is acquired at the position indicated by the operator by hand. An operation surface is formed by extracting from the three-dimensional image (S605), and when necessary, an operation region is set based on measurement values of the operator's body, for example, arm length, torso and head positions (S606). ) The data is output and the process ends (S609). Here, in the present embodiment, the movement of holding the hand on the desk on the desk is determined to be a setting instruction for the operation surface by resting for a certain period of time, but this is not a limitation, and instructions are given by various gestures, remote control operations, etc. The instruction can be determined by any method known in the art. In the present embodiment, the operation surface is basically formed in the shape and position formed by the hand. However, the operation surface can be adjusted according to the physical characteristics of the operator, the position of the display, the usage situation, and the like.

頭部の認識や手のジェスチャから操作面の設定処理ではないと判断すると、既に操作面が設定された状態か否かを判定し(S607)、操作面が設定されている場合は通常の操作と判断して操作領域内の手の位置を取得する(S608)。以上により、操作者の指示に基づく操作面の設定処理を行う。   If it is determined from the recognition of the head or the gesture of the hand that the operation surface is not set, it is determined whether or not the operation surface is already set (S607). If the operation surface is set, normal operation is performed. And the position of the hand in the operation area is acquired (S608). As described above, the operation surface setting process based on the operator's instruction is performed.

ここで、操作面の形状は図1などを参照すると垂直に立てた長方形となっているが、これに限られず、操作者の操作態様に応じて様々な形状(大きさ、ディスプレイに対する角度を含む)の操作面を形成することができる。例えば、図18に示すように、机上に位置決定面1801および操作判定面1802を配置することもでき、キーボードやマウスを使用する感覚で操作入力することもできる。もちろん、このような操作面の配置とするためには、操作面の設定時に机上に手を置いたり、予め定めたジェスチャをしたりして操作面を設定しておけばよい。   Here, the shape of the operation surface is a vertically standing rectangle with reference to FIG. 1 and the like, but is not limited to this, and includes various shapes (sizes, angles with respect to the display) according to the operation mode of the operator. ) Operation surface can be formed. For example, as shown in FIG. 18, a position determination surface 1801 and an operation determination surface 1802 can be arranged on a desk, and an operation can be input as if using a keyboard or a mouse. Of course, in order to achieve such an operation surface arrangement, the operation surface may be set by placing a hand on the desk or setting a predetermined gesture when setting the operation surface.

(本実施形態の操作判定処理)
本実施形態では、ビデオカメラ511等で撮影した操作者102の一部である手や指114、115の位置を定めるとともに、操作面104、105と操作者102の手指114、115との位置関係を算出する処理を行う。この処理については図4を参照して以下に説明する。
(Operation determination process of this embodiment)
In the present embodiment, the positions of the hands and fingers 114 and 115 that are part of the operator 102 photographed by the video camera 511 and the like are determined, and the positional relationship between the operation surfaces 104 and 105 and the fingers 114 and 115 of the operator 102 is determined. The process which calculates is performed. This process will be described below with reference to FIG.

図4は、本実施形態の操作判定処理のフローチャートである。まず、画像読取部301においてビデオカメラ511等で撮影されたデータを読取り(S401)、そのデータから操作者の像を、画像抽出部302により抽出する(S402)。   FIG. 4 is a flowchart of the operation determination process of the present embodiment. First, data captured by the video camera 511 or the like is read by the image reading unit 301 (S401), and an image of the operator is extracted from the data by the image extracting unit 302 (S402).

このような準備の結果、上述の操作面の設定で予め設定し、記憶手段などに記憶していた操作面の位置、形状を読み出す(S403)。このように、操作面の形状及び位置が読み出されると、本技術分野で知られたいずれかの方法で、操作面104上の手114位置に対応するディスプレイ111上の位置にアイコン等が標示制御部305により表示され、手の動きとともに移動するよう制御される。したがって、操作者は表示されたアイコンに対応する操作面上の位置に的確に指や手を触れさせることができるようになるため、表示面に表示されたアイコンをタッチするなどの操作を行うことができる。   As a result of such preparation, the position and shape of the operation surface preset in the above-described operation surface setting and stored in the storage means are read (S403). As described above, when the shape and position of the operation surface are read out, an icon or the like is displayed and controlled at a position on the display 111 corresponding to the position of the hand 114 on the operation surface 104 by any method known in the art. Displayed by the unit 305 and controlled to move with the movement of the hand. Therefore, the operator can accurately touch the position on the operation surface corresponding to the displayed icon with a finger or a hand, so that the operator performs an operation such as touching the icon displayed on the display surface. Can do.

操作判定部304は、操作入力システムが形成した操作面と、操作者102との相対的な位置関係を用い(S404)、操作者102の一部が操作面のビデオカメラ511などから見て手前に来ると、操作が開始されたと判断し(S405)、位置決定面104上での手114の位置を決定して、表示部の対応する位置にアイコンを移動するとともに、一方操作判定面105を基準として手115の形状(手を開いている、あるいは指を2本立てているなど)や動きから、その形状、動きが予め想定されたいずれの操作であるかを判定する(S406)。判定した結果は、そのような操作の入力があったものとしてコンピュータ110で実行され(S407)、もともと操作面から手前側に手が出ていない場合、操作は行われていないと判定して終了する(S408)。操作内容の判定はここで説明した手法に限られることなく本実施形態で知られたいずれの方法も用いることができる。   The operation determination unit 304 uses a relative positional relationship between the operation surface formed by the operation input system and the operator 102 (S404), and a part of the operator 102 is in front of the operation surface viewed from the video camera 511 or the like. , It is determined that the operation has been started (S405), the position of the hand 114 on the position determination surface 104 is determined, the icon is moved to the corresponding position on the display unit, and the operation determination surface 105 is displayed. Based on the shape of the hand 115 (open hand or two fingers etc.) and movement as a reference, it is determined which operation the shape and movement are assumed in advance (S406). The result of the determination is executed by the computer 110 as if there was an input of such an operation (S407), and if the hand is not released from the operation surface to the near side, it is determined that the operation has not been performed, and the process ends. (S408). The determination of the operation content is not limited to the method described here, and any method known in the present embodiment can be used.

(操作面の手前側の操作支援)
本実施形態では、操作者が空間上に仮想的に設定した操作面を基準に、そこにあたかもマウスの代替となるような入力機器が存在するかのように操作することにより、その操作内容を確実に判定しようとするものであるが、操作者の一部である手または指などが操作面に至るまで、つまり操作者が何らかの操作を実行しようと手または指を動かし始めてから、操作面を押下するまでの間も操作支援することにより、さらに操作入力を容易に、より高精度に行うようにすることができる。本機能は、特にポインティングあるいはフォーカスの機能において有効であるが、操作判定面を使用した操作判定においても有効な場合が少なくないため、一般的な仮想的に設定される操作面として位置決定面を例に説明する。
(Operation support on the front side of the operation surface)
In the present embodiment, the operation content is controlled by operating as if there is an input device that can substitute for the mouse on the basis of the operation surface virtually set in the space by the operator. Although it is to be judged reliably, until the hand or finger that is part of the operator reaches the operation surface, that is, after the operator starts moving the hand or finger to perform some operation, By supporting the operation until the button is pressed, the operation input can be performed more easily and with higher accuracy. This function is particularly effective for the pointing or focusing function, but it is often effective for operation determination using the operation determination surface. Explained as an example.

基本的には、このような操作支援の原理は操作面に対する操作者の部位、例えば手あるいは指の位置の動きにあわせて、ディスプレイ111上に操作者がどのような操作をしようとしているかをビジュアルに表示させることにより、操作者を誘導して的確な操作入力を可能にするというものである。   Basically, the principle of such operation support is a visual indication of what operation the operator is trying to perform on the display 111 in accordance with the movement of the position of the operator, for example, the hand or finger relative to the operation surface. By displaying on the screen, the operator is guided to enable accurate operation input.

この点について、図14を参照して説明すると、本実施形態では予め操作者が操作面への操作が適した位置に操作面104設定する。図14に示すように、操作者はシステムに対し何らかの操作を行おうとする場合、本例ではディスプレイ111に対し、腕2401を前後に動かすことにより、手あるいは指114の位置が変化するため、その様子をディスプレイ111に表示すると、突き出した指114が一定の位置まで来ると、そのときディスプレイ111の画面上で指示された項目が実行される等、システムとして一定の処理が行われる。図14の例では、操作面104に対する指114の位置(深さ)によってアイコンの大きさが変化するようになっており、操作面に近づくほどアイコンが小さくなって操作者には自己の操作により一定の場所にフォーカスされていることが認識できるようになっている。そして、最もアイコンが小さくなった位置で、操作が確定し、それに応じた処理が実行される。   This point will be described with reference to FIG. 14. In this embodiment, the operator sets the operation surface 104 in advance to a position suitable for operation on the operation surface. As shown in FIG. 14, when an operator wants to perform any operation on the system, the position of the hand or finger 114 changes in this example by moving the arm 2401 back and forth with respect to the display 111. When the state is displayed on the display 111, when the protruding finger 114 reaches a certain position, a certain process is performed as a system, for example, an item instructed on the screen of the display 111 is executed. In the example of FIG. 14, the size of the icon changes depending on the position (depth) of the finger 114 with respect to the operation surface 104. It is possible to recognize that focus is on a certain place. Then, the operation is confirmed at the position where the icon becomes the smallest, and processing corresponding to that is executed.

以上の操作の結果、アイコンがディスプレイ111の画面2501上でどのように変化するかを示したのが図15である。図15を参照すると、ディスプレイ111の画面2501には例えばテレビ番組表が表示されており、ある番組に関する操作を行おうとしている。このような状態で、例えば操作者が「設定変更」のメニューボタンを選択しようとする場合、操作者は上述のようにディスプレイ111に向かって指114を突き出して選択しようとする。本実施形態では、指114が操作面であるテレビ番組表に対し一定の距離まで近づくと、画面2501にアイコン2503が表示される。このアイコンは指の位置がまだ遠いため図14に示すアイコンのうち右の方にある比較的大きなものが表示される。操作者がさらに腕2401を伸ばすと、このアイコンは目標である選択項目「設定変更」に近づきつつ、小さくなり一定の大きさのアイコン2502のときに特別なアイコンとなる。ここで、本実施形態の操作判定面105によりいずれかの操作であると判定されるとアイコンを異なる形状や色などに変化させて、操作が判定されたことを示すことが出来る。   FIG. 15 shows how the icon changes on the screen 2501 of the display 111 as a result of the above operation. Referring to FIG. 15, for example, a television program guide is displayed on a screen 2501 of the display 111, and an operation regarding a certain program is about to be performed. In such a state, for example, when the operator wants to select the “change setting” menu button, the operator tries to select by pushing the finger 114 toward the display 111 as described above. In this embodiment, an icon 2503 is displayed on the screen 2501 when the finger 114 approaches a certain distance from the television program guide on the operation surface. Since this finger is still far away, a relatively large icon on the right side of the icon shown in FIG. 14 is displayed. When the operator further extends the arm 2401, this icon approaches the target selection item “setting change” and becomes smaller and becomes a special icon when the icon 2502 has a certain size. Here, when it is determined that any operation is performed by the operation determination surface 105 of the present embodiment, the icon can be changed to a different shape or color to indicate that the operation has been determined.

このように、図15の例では、指114の位置に応じて画面2501に表示されるアイコンの大きさを変化させることにより、操作者は自己の動作がシステムでどのように認識されているかを把握することができ、操作面の位置をより認識し易くして、メニューの選択などの操作を行うことができる。ここで、指114、腕2401を含む操作者全体及び各部位の位置や大きさは、操作者の全体像と同様三次元カメラを用いることにより抽出することができる。これにより画面内の物体は奥行きも含めて把握することができるから、これらの情報に基づき操作面との距離や位置関係を算出することができる。ただし、本実施形態で使用する三次元カメラや位置の抽出、距離の算出などは本技術分野で知られたいずれの方法も用いることができるので、ここではその説明を省略する。   As described above, in the example of FIG. 15, by changing the size of the icon displayed on the screen 2501 according to the position of the finger 114, the operator can see how his / her movement is recognized by the system. It can be grasped, the position of the operation surface can be recognized more easily, and operations such as menu selection can be performed. Here, the whole operator including the finger 114 and the arm 2401 and the position and size of each part can be extracted by using a three-dimensional camera as in the whole image of the operator. Thereby, since the object in the screen can be grasped including the depth, the distance and the positional relationship with the operation surface can be calculated based on such information. However, since any method known in this technical field can be used for the three-dimensional camera used in the present embodiment, position extraction, distance calculation, and the like, description thereof is omitted here.

ここで画面に表示されるアイコンは円形で操作者の動作に合わせて大きさが変化するが、これに限られず図16に示すように様々な形態のアイコンを用い、様々な変化をさせることができる。すなわち、図16を参照すると、(1)は指の形態のアイコンであり、上述の例と同様に操作面に近づくほどに小さくするようになっている。(2)は、円形で次第に小さくなるようになっているが、操作判定面により入力あるいは選択が確定すると特別な形状に変化して確定したことが示される。このアイコンや他のアイコンの場合も形状(大きさ、ディスプレイに対する角度を含む)の変化に代えて、あるいは合わせてアイコンの色を変化させることもできる。例えば、青、緑、黄、赤等、寒色系から暖色系に変化させることにより、直感的に操作がフォーカスされ確定することを操作者は認識することができる。(3)は、Xのような形状で、遠くにある場合は大きいだけでなくぼかしが入っており、近づくにしたがって、アイコンの大きさが小さくなるとともに、ぼかしが消えシャープな形状になる。(4)はアイコン全体の大きさは変化することなく、中に描かれた図形が形状変化を起こしてフォーカスされる様子を認識するようになっている。この場合、図形の色も変化させることができる。図16に示す(5)も、形状を変化させるものである。図23において、指の動きに応じてアイコンの形状や色などが変化していき、操作面を越えるとその瞬間に、欄2601に示すように種々の形状や色に変化させたり、点滅させたりして操作として判定されたことを操作者に認識させるようにすることもできる。また、図示しないがこの他のアイコンの変化としては最初透明で、指が操作面に近づくほどに不透明になるような変化も効果的である。さらに図示しないが、後述するようにディスプレイの立体表示機能を別途設けて、フォーカスしていくとアイコンが画面から飛び出すように見せるような画像を作成し、操作者にフォーカスの状況を知らせることもできる。   The icons displayed on the screen are circular and change in size according to the operation of the operator. However, the present invention is not limited to this, and various forms of icons can be used as shown in FIG. it can. That is, referring to FIG. 16, (1) is an icon in the form of a finger, which is made smaller as the operation surface is approached as in the above example. Although (2) is circular and gradually smaller, it is indicated that the input has changed to a special shape when input or selection is confirmed by the operation determination surface. In the case of this icon and other icons, the color of the icon can be changed instead of or in combination with the change in shape (including size and angle with respect to the display). For example, by changing from a cold color system to a warm color system such as blue, green, yellow, and red, the operator can intuitively recognize that the operation is focused and determined. (3) is a shape like X, and when it is far away, it is not only large but also blurred. As it gets closer, the size of the icon becomes smaller and the blur disappears and becomes a sharp shape. In (4), the size of the entire icon is not changed, and the figure drawn therein is recognized to change its shape and become focused. In this case, the color of the figure can also be changed. (5) shown in FIG. 16 also changes the shape. In FIG. 23, the shape and color of the icon change according to the movement of the finger, and when the operation surface is exceeded, the shape or color is changed or flashed as shown in a column 2601 at that moment. Thus, the operator can recognize that the operation is determined. In addition, although not shown in the figure, as other icon changes, a change that is transparent at first and becomes opaque as the finger approaches the operation surface is also effective. Although not shown in the drawing, a stereoscopic display function of the display is separately provided as will be described later, and an image can be created so that the icon pops out from the screen when the focus is focused, and the focus status can be notified to the operator. .

ここで、アイコンのバリエーションのうち特に形状をあまり変化させず色や濃さを変化させる場合は、図16に示すようにアイコンはあまり移動せず指114を近づけていくと、色が暖色系になったり濃くなったりして、入力を確定することができる。   Here, in the case of changing the color and the darkness without changing the shape so much among the variations of the icons, as shown in FIG. 16, if the icon 114 does not move so much and the finger 114 is brought closer, the color becomes a warm color system. The input can be confirmed by becoming darker or darker.

また、以上の例では操作の判定状況を確認するためアイコンを操作面の位置に表示させ、操作者の動作に応じて色や形状を変化させたが、例えば元々メニューのように予め指示する位置が固定されているような場合は、わざわざアイコンを表示しなくても、指が指し示す位置が表示されたメニューのどの項目ボタンに最も近いかにより決定し、指の動き、特に操作面からの距離に応じて指し示されている項目ボタンを塗りつぶす色または塗りつぶす濃さを変化させることにより、操作面の位置をより分かりやすくし、操作入力を容易にすることができる。   In the above example, the icon is displayed at the position on the operation surface to check the operation determination status, and the color and shape are changed according to the operation of the operator. If the icon is fixed, even if you do not bother to display the icon, the position that the finger points to is determined by the closest item button on the displayed menu, and the finger movement, especially the distance from the operation surface The position of the operation surface can be made easier to understand and the operation input can be facilitated by changing the color or darkness of filling the item button pointed to.

以上、操作面が操作者の水平方向前面にほぼ垂直に形成される場合について、本実施形態の原理を説明してきたが、この原理はこのような操作者とディスプレイとの位置関係や形状には影響されることはなく、種々の配置や構成が可能である。   As described above, the principle of the present embodiment has been described for the case where the operation surface is formed substantially perpendicular to the front surface in the horizontal direction of the operator. However, this principle is based on the positional relationship and shape between the operator and the display. Various arrangements and configurations are possible without being affected.

このような目的を達成するために、請求項1に記載の発明は、操作入力装置であって、操作者が閲覧する画像を表示する表示手段と、操作者に向けて表示手段の近傍に配置され、操作者の画像データを生成する撮像手段と、撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、操作者の一部が標示を制御することができる範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定手段と、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する範囲である判定範囲を予め設定する判定範囲設定手段と、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御範囲内にあるとき、操作者の一部と表示手段との位置関係に応じて表示手段に表示された所定の標示を移動する制御手段と、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が判定範囲内で所定の態様になると、操作者の一部の一連の動作に基づいて、標示の表示手段の表示面上の位置に関連する操作が行われたと判定する操作判定手段と、操作判定手段により操作が行われたと判定されると、所定の信号を出力する信号出力手段とを備えたことを特徴とする。   In order to achieve such an object, the invention according to claim 1 is an operation input device, which is arranged in the vicinity of a display means for displaying an image to be viewed by an operator and a display means for the operator. Including an imaging unit that generates image data of the operator and a range indicated by a predetermined series of operations of the operator read by the imaging unit, and a part of the operator controls the marking. A control range setting means for preliminarily setting a control range that is a range that does not cover an area defined by connecting the viewpoint of the operator and each vertex of the display surface of the display means, and a display surface of the display means of the indication A determination range setting means for presetting a determination range that is a range for determining whether or not an operation related to the upper position has been performed, and extracting a part of the operator from the operator's image, If the part is within the set control range A control unit that moves a predetermined mark displayed on the display unit according to a positional relationship between a part of the operator and the display unit, and a part that is different from the part of the operator is extracted from the operator image. When a part different from the part of the operator becomes a predetermined mode within the determination range, an operation related to the position on the display surface of the display means of the sign is performed based on a series of actions of the part of the operator. It is characterized by comprising an operation determining means for determining that the operation has been performed, and a signal output means for outputting a predetermined signal when the operation determining means determines that an operation has been performed.

請求項2に記載の発明は、請求項1に記載の操作入力装置において、判定範囲設定手段は、制御範囲と重ならないように、定面範囲を設定することを特徴とする。   According to a second aspect of the present invention, in the operation input device according to the first aspect, the determination range setting means sets the constant surface range so as not to overlap the control range.

請求項3に記載の発明は、請求項2に記載の操作入力装置において、制御範囲と判定範囲とは、操作者の左右のいずれかに設定されることを特徴とする。   According to a third aspect of the present invention, in the operation input device according to the second aspect, the control range and the determination range are set to either the left or right of the operator.

請求項4に記載の発明は、請求項1ないし3のいずれかに記載の操作入力装置において、判定範囲設定手段は、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、判定範囲を設定することを特徴とする。   According to a fourth aspect of the present invention, in the operation input device according to any one of the first to third aspects, the determination range setting means is based on a predetermined series of operations of the operator read by the imaging means. The determination range is set.

請求項5に記載の発明は、請求項2ないし4のいずれかに記載の操作入力装置において、撮像手段は、操作者の立体画像データを生成する三次元撮像手段であり、制御範囲設定手段は、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、制御範囲内に、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域に重ならないように、表示手段の表示面に対応付けられた位置決定面を予め設定し、制御手段は、操作者の一部の設定された位置決定面上の位置に対応する表示面上の位置に、標示を移動することを特徴とする。   According to a fifth aspect of the present invention, in the operation input device according to any one of the second to fourth aspects, the imaging unit is a three-dimensional imaging unit that generates stereoscopic image data of the operator, and the control range setting unit is Based on a predetermined series of operations of the operator read by the imaging unit, the control range does not overlap with a region defined by connecting the operator's viewpoint and each vertex of the display surface of the display unit. In addition, a position determination surface associated with the display surface of the display means is set in advance, and the control means displays a sign at a position on the display surface corresponding to a position on the position determination surface of a part of the operator. It is characterized by moving.

請求項6に記載の発明は、請求項5に記載の操作入力装置において、位置決定面は、表示手段と操作者との間に形成されることを特徴とする。   According to a sixth aspect of the present invention, in the operation input device according to the fifth aspect, the position determination surface is formed between the display means and the operator.

請求項7に記載の発明は、請求項1ないし6のいずれかに記載の操作入力装置において、撮像手段は、操作者の立体画像データを生成する三次元撮像手段であり、判定範囲設定手段は、撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、判定範囲内に、操作者の視点と表示手段の表示面の各頂点とを結んで定められる排除領域にかからないように、表示手段の表示面に対応付けられた操作判定面を予め設定し、操作判定手段は、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が設定された操作判定面と表示手段との間にあると、一連の動作に関連付けられた操作が行われたと判定することを特徴とする。   According to a seventh aspect of the present invention, in the operation input device according to any of the first to sixth aspects, the imaging unit is a three-dimensional imaging unit that generates stereoscopic image data of the operator, and the determination range setting unit is Based on a series of predetermined operations of the operator read by the imaging means, the exclusion range determined by connecting the operator's viewpoint and each vertex of the display surface of the display means within the determination range is not covered. In addition, an operation determination surface associated with the display surface of the display unit is set in advance, and the operation determination unit extracts a part different from the part of the operator from the operator image, It is characterized in that it is determined that an operation associated with a series of operations has been performed if the different part is between the set operation determination surface and the display means.

請求項8に記載の発明は、請求項7に記載の操作入力装置において、操作判定面は、表示手段と操作者との間に形成されることを特徴とする。   The invention according to claim 8 is the operation input device according to claim 7, wherein the operation determination surface is formed between the display means and the operator.

請求項9に記載の発明は、請求項5または6に記載の操作入力装置において、位置決定面の、操作者側における操作者の一部と位置決定面との位置関係から距離を算出して距離に応じ標示を変化させて、標示を移動する位置を示すことを特徴とする。   According to a ninth aspect of the present invention, in the operation input device according to the fifth or sixth aspect, the distance is calculated from the positional relationship between a part of the operator on the operator side and the position determining surface of the position determining surface. The sign is changed according to the distance to indicate the position to move the sign.

請求項10に記載の発明は、請求項7または8に記載の操作入力装置において、判定範囲設定手段は、判定範囲として操作判定面との位置関係に基づいて定められる2つ以上の仮想操作階層を設定し、操作判定手段は、2つ以上の仮想操作階層のいずれかの領域内で操作者の一部と異なる一部が読取られると、仮想操作階層に予め割当てられた操作種別および仮想操作階層内での操作者の一部と異なる一部による一連の動作に基づいて操作の内容を判定することを特徴とする。   According to a tenth aspect of the present invention, in the operation input device according to the seventh or eighth aspect, the determination range setting means includes two or more virtual operation hierarchies determined as a determination range based on a positional relationship with the operation determination plane. The operation determination means reads an operation type and a virtual operation previously assigned to the virtual operation hierarchy when a part different from the operator's part is read in any region of the two or more virtual operation hierarchies. The content of the operation is determined based on a series of actions by a part different from the part of the operator in the hierarchy.

請求項11に記載の発明は、請求項1ないし10のいずれかに記載の操作入力装置において、撮像手段は、表示手段の1つの撮像手段により構成されることを特徴とする。   According to an eleventh aspect of the present invention, in the operation input device according to any one of the first to tenth aspects, the imaging means is constituted by one imaging means of the display means.

請求項12に記載の発明は、請求項1ないし10のいずれかに記載の操作入力装置において、撮像手段は、表示手段の左右に各々配置された撮像手段により構成され、それぞれ操作者の一部と異なる一部、および操作者の一部の像を撮像することを特徴とする。   According to a twelfth aspect of the present invention, in the operation input device according to any one of the first to tenth aspects of the present invention, the imaging means is constituted by imaging means respectively arranged on the left and right sides of the display means, each of which is part of the operator. It is characterized in that images of a part different from the above and a part of the operator are taken.

請求項13に記載の発明は、請求項1ないし12のいずれかに記載の操作入力装置において、操作者の一部は、操作者の手であることを特徴とする。   According to a thirteenth aspect of the present invention, in the operation input device according to any one of the first to twelfth aspects, the part of the operator is the hand of the operator.

請求項14に記載の発明は、請求項1ないし12のいずれかに記載の操作入力装置において、操作者の一部は、操作者の手であり、操作者の一部と異なる一部は、操作者のもう一方の手であることを特徴とする。   The invention described in claim 14 is the operation input device according to any one of claims 1 to 12, wherein a part of the operator is a hand of the operator, and a part different from the part of the operator is It is the other hand of the operator.

請求項15に記載の発明は、操作者が閲覧する画像を表示する表示手段と、表示手段の操作者に向けて表示手段の近傍に配置され、表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置により操作判定をする方法であって、撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、操作者の一部が標示を制御することができる範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定ステップと、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する範囲である判定範囲を予め設定する判定範囲設定ステップと、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御範囲内にあるとき、操作者の一部と表示手段との位置関係に応じて表示手段に表示された所定の標示を移動する制御ステップと、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が設定された判定範囲内で所定の態様になると、操作者の一部の一連の動作に基づいて、標示の表示手段の表示面上の位置に関連する操作が行われたと判定する操作判定ステップと、操作判定ステップにおいて操作が行われたと判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。   According to the fifteenth aspect of the present invention, there is provided display means for displaying an image viewed by the operator, and image data of the operator who is disposed in the vicinity of the display means for the operator of the display means and who views the display means. A method for performing an operation determination by an operation input device including an imaging unit, including a range indicated by a predetermined series of operations of an operator read by the imaging unit, wherein a part of the operator is labeled A control range setting step for presetting a control range that is a range that can be controlled and that does not cover a region defined by connecting the operator's viewpoint and each vertex of the display surface of the display means; A determination range setting step for presetting a determination range, which is a range for determining whether or not an operation related to the position on the display surface of the display means has been performed, and extracting a part of the operator from the operator's image One of the operators Is within the set control range, a control step of moving a predetermined mark displayed on the display unit according to the positional relationship between a part of the operator and the display unit, and the operator's image from the operator's image When a part that is different from the part is extracted, and a part that is different from the part of the operator is set in a predetermined mode, the indication is displayed based on a series of actions of the part of the operator. An operation determining step for determining that an operation related to a position on the display surface of the means has been performed, and a signal output step for outputting a predetermined signal when it is determined that an operation has been performed in the operation determining step. It is characterized by.

請求項16に記載の発明は、操作者が閲覧する画像を表示する表示手段と、表示手段の操作者に向けて表示手段の近傍に配置され、表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置に操作判定方法を実行させるプログラムであって、操作判定方法は、撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、操作者の一部が標示を制御することができる範囲であって、操作者の視点と表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定ステップと、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する範囲である判定範囲を予め設定する判定範囲設定ステップと、操作者の画像から操作者の一部を抽出して、操作者の一部が設定された制御範囲内にあるとき、操作者の一部と表示手段との位置関係に応じて表示手段に表示された所定の標示を移動する制御ステップと、操作者の画像から操作者の一部と異なる一部を抽出して、操作者の一部と異なる一部が設定された判定範囲内で所定の態様になると、操作者の一部の一連の動作に基づいて、標示の表示手段の表示面上の位置に関連する操作が行われたと判定する操作判定ステップと、標示の表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと、操作判定ステップにおいて操作が行われたと判定されると、所定の信号を出力する信号出力ステップとを備えたことを特徴とする。   According to a sixteenth aspect of the present invention, there is provided display means for displaying an image viewed by an operator, and image data of an operator who is disposed in the vicinity of the display means for the operator of the display means and who views the display means. A program for causing an operation input device including an imaging unit to execute an operation determination method, the operation determination method including a range indicated by a predetermined series of operations of an operator read by the imaging unit, Control in which a part of the operator can control the labeling and sets a control range in advance that does not cover the region defined by connecting the operator's viewpoint and each vertex of the display surface of the display means A range setting step, a determination range setting step for presetting a determination range that is a range for determining whether or not an operation related to the position of the display means on the display surface has been performed, and an operator's image based on the operator's image When a part is extracted and a part of the operator is within the set control range, a predetermined sign displayed on the display means is moved according to the positional relationship between the part of the operator and the display means. When a part different from the operator's part is extracted from the control step and the operator's image, and a part different from the part of the operator is set in a predetermined range, the operator's image An operation determination step for determining that an operation related to the position on the display surface of the sign display means has been performed based on a series of operations of the unit, and an operation related to the position on the display surface of the sign display means. An operation determination step for determining whether or not the operation has been performed, and a signal output step for outputting a predetermined signal when it is determined that the operation has been performed in the operation determination step.

Claims (19)

操作者が閲覧する画像を表示する表示手段と、
前記操作者に向けて前記表示手段の近傍に配置され、前記操作者の画像データを生成する撮像手段と、
前記撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、前記操作者の一部が前記標示を制御することができる範囲であって、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定手段と、
前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御範囲内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記表示手段に表示された所定の標示を移動する制御手段と、
前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定手段と、
前記操作判定手段により操作が行われたと判定されると、所定の信号を出力する信号出力手段と
を備えたことを特徴とする操作入力装置。
Display means for displaying an image viewed by the operator;
An imaging unit that is arranged in the vicinity of the display unit toward the operator and generates image data of the operator;
Including a range indicated by a predetermined series of operations of the operator read by the imaging means, a range in which a part of the operator can control the marking, and the viewpoint of the operator And a control range setting means for presetting a control range that is a range that does not cover a region defined by connecting each vertex of the display surface of the display means;
When a part of the operator is extracted from the image of the operator and the part of the operator is within the set control range, depending on the positional relationship between the part of the operator and the display means Control means for moving a predetermined sign displayed on the display means,
Operation determining means for determining whether or not an operation related to the position of the display on the display surface of the display means has been performed;
An operation input device comprising: signal output means for outputting a predetermined signal when the operation determination means determines that an operation has been performed.
前記撮像手段は、前記操作者の立体画像データを生成する三次元撮像手段であり、
前記制御範囲設定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、前記制御範囲として、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域に重ならないように、前記表示手段の表示面に対応付けられた位置決定面を予め設定し、
前記制御手段は、前記操作者の一部の前記設定された位置決定面上の位置に対応する前記表示面上の位置に、前記標示を移動することを特徴とする請求項1に記載の操作入力装置。
The imaging means is a three-dimensional imaging means for generating the operator's stereoscopic image data,
The control range setting means determines the operator's viewpoint and each vertex of the display surface of the display means as the control range based on a predetermined series of operations of the operator read by the imaging means. In order not to overlap the area determined by tying, a position determination surface associated with the display surface of the display means is set in advance,
The operation according to claim 1, wherein the control unit moves the sign to a position on the display surface corresponding to a position on the set position determination surface of a part of the operator. Input device.
前記位置決定面は、前記表示手段と前記操作者との間に形成されることを特徴とする請求項2に記載の操作入力装置。   The operation input device according to claim 2, wherein the position determination surface is formed between the display unit and the operator. 前記操作判定手段は、前記操作者の画像から前記操作者の一部と異なる一部を抽出して、該操作者の一部と異なる一部による一連の動作に基づいて、該一連の動作に関連付けられ、予め定められた操作が行われたと判定することを特徴とする請求項1ないし3のいずれかに記載の操作入力装置。   The operation determining means extracts a part different from the part of the operator from the image of the operator, and based on a series of actions by a part different from the part of the operator, The operation input device according to claim 1, wherein the operation input device determines that an associated and predetermined operation has been performed. 前記撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、前記操作者の一部と異なる一部により判定を行うことができる範囲である判定範囲を予め設定する判定範囲設定手段をさらに備え、
前記操作判定手段は、前記操作者の一部と異なる一部が前記設定された判定範囲内にあるとき、前記操作者の一部と異なる一部の一連の動作に基づいて、該一連の動作に関連付けられ、予め定められたた操作が行われたと判定することを特徴とする請求項4に記載の操作入力装置。
Determination range setting for presetting a determination range that can be determined by a part different from a part of the operator based on a predetermined series of operations of the operator read by the imaging unit Further comprising means,
The operation determining means, when a part different from the part of the operator is within the set determination range, the series of operations based on a part of the series of operations different from the part of the operator. The operation input device according to claim 4, wherein the operation input device determines that a predetermined operation is performed.
前記撮像手段は、前記操作者の立体画像データを生成する三次元撮像手段であり、
前記判定範囲設定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、前記判定範囲として、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる排除領域にかからず、かつ前記制御範囲と重ならないように、前記表示手段の表示面に対応付けられた操作判定面を予め設定し、
前記操作判定手段は、前記操作者の画像から前記操作者の一部と異なる一部を抽出して、前記操作者の一部と異なる一部が前記設定された操作判定面と前記表示手段との間にあるとき、前記一連の動作に関連付けられた操作が行われたと判定することを特徴とする請求項5に記載の操作入力装置。
The imaging means is a three-dimensional imaging means for generating the operator's stereoscopic image data,
The determination range setting means determines the operator's viewpoint and each vertex of the display surface of the display means as the determination range based on a predetermined series of operations of the operator read by the imaging means. The operation determination surface associated with the display surface of the display means is set in advance so as not to be in the excluded area determined by tying and to overlap the control range,
The operation determining means extracts a part different from the part of the operator from the operator's image, and a part different from the operator's part is set to the operation determination surface and the display means. The operation input device according to claim 5, wherein the operation input device determines that an operation associated with the series of operations has been performed.
前記操作判定面は、前記表示手段と前記操作者との間に形成されることを特徴とする請求項6に記載の操作入力装置。   The operation input device according to claim 6, wherein the operation determination surface is formed between the display unit and the operator. 前記撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲であって、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域にかからず、かつ前記位置決定面と重ならない範囲を、前記操作者の一部と異なる一部により判定を行うことができる範囲である判定範囲を予め設定する判定範囲設定手段をさらに備え、
前記操作判定手段は、前記操作者の画像から前記操作者の一部と異なる一部を抽出して、前記操作者の一部と異なる一部が前記設定された判定範囲内にあるとき、該操作者の一部と異なる一部による一連の動作に基づいて、該一連の動作に関連付けられ、予め定められた操作が行われたと判定することを特徴とする請求項2または3に記載の操作入力装置。
It is a range indicated by a predetermined series of operations of the operator read by the imaging means, and is in an area determined by connecting the operator's viewpoint and each vertex of the display surface of the display means. And a determination range setting means for presetting a determination range that is a range that can be determined by a part different from a part of the operator, and a range that does not overlap the position determination plane.
The operation determining means extracts a part different from the part of the operator from the image of the operator, and when a part different from the part of the operator is within the set determination range, 4. The operation according to claim 2, wherein it is determined that a predetermined operation associated with the series of operations has been performed based on a series of operations by a part different from a part of the operator. Input device.
前記判定範囲設定手段は、前記撮像手段により読取られた操作者の予め定められた一連の動作に基づいて、前記判定範囲として、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる排除領域にかからず、かつ前記制御範囲と重ならないように、前記表示手段の表示面に対応付けられた操作判定面を予め設定し、
前記操作判定手段は、前記操作者の画像から前記操作者の一部と異なる一部を抽出して、前記操作者の一部と異なる一部が前記設定された操作判定面と前記表示手段との間にあるとき、前記一連の動作に関連付けられた操作が行われたと判定することを特徴とする請求項8に記載の操作入力装置。
The determination range setting means determines the operator's viewpoint and each vertex of the display surface of the display means as the determination range based on a predetermined series of operations of the operator read by the imaging means. The operation determination surface associated with the display surface of the display means is set in advance so as not to be in the excluded area determined by tying and to overlap the control range,
The operation determining means extracts a part different from the part of the operator from the operator's image, and a part different from the operator's part is set to the operation determination surface and the display means. The operation input device according to claim 8, wherein the operation input device determines that an operation associated with the series of operations has been performed.
前記操作判定面は、前記表示手段と前記操作者との間に形成されることを特徴とする請求項9に記載の操作入力装置。   The operation input device according to claim 9, wherein the operation determination surface is formed between the display unit and the operator. 前記位置決定面の、前記操作者側における前記操作者の一部と前記位置決定面との位置関係から距離を算出して距離に応じ前記標示を変化させて、該標示を移動する位置を示すことを特徴とする請求項2または3に記載の操作入力装置。   A position of the position determination plane is calculated from a positional relationship between a part of the operator on the operator side and the position determination plane, and the position is changed according to the distance to indicate a position to move the label. The operation input device according to claim 2 or 3, wherein 前記判定範囲設定手段は、前記判定範囲として前記操作判定面との位置関係に基づいて定められる2つ以上の仮想操作階層を設定し、
前記操作判定手段は、前記2つ以上の仮想操作階層のいずれかの領域内で前記操作者の一部と異なる一部が読取られると、該仮想操作階層に予め割当てられた操作種別および前記仮想操作階層内での前記操作者の一部と異なる一部による一連の動作に基づいて前記操作の内容を判定することを特徴とする請求項6、7、9または10に記載の操作入力装置。
The determination range setting means sets two or more virtual operation hierarchies determined based on a positional relationship with the operation determination surface as the determination range,
When a part different from the part of the operator is read in any region of the two or more virtual operation hierarchies, the operation determining means reads the operation type assigned to the virtual operation hierarchies and the virtual 11. The operation input device according to claim 6, 7, 9 or 10, wherein the content of the operation is determined based on a series of actions by a part different from the part of the operator in the operation hierarchy.
前記操作者の音声を認識する音声認識手段をさらに備え、
前記操作判定手段は、前記音声手段により認識された音声が予め定めた音声のときは、該予め定めた音声に対応する操作が行われたと判定することを特徴とする請求項1ないし3のいずれかに記載の操作入力装置。
Voice recognition means for recognizing the voice of the operator,
The operation determining means determines that an operation corresponding to the predetermined sound is performed when the sound recognized by the sound means is a predetermined sound. An operation input device according to any one of the above.
前記撮像手段は、前記表示手段の1つの撮像手段により構成されることを特徴とする請求項1ないし13のいずれかに記載の操作入力装置。   The operation input device according to claim 1, wherein the imaging unit is configured by one imaging unit of the display unit. 前記撮像手段は、前記表示手段の左右に各々配置された撮像手段により構成され、それぞれ前記操作者の一部と異なる一部、および前記操作者の一部の像を撮像することを特徴とする請求項1ないし13のいずれかに記載の操作入力装置。   The imaging means includes imaging means arranged on the left and right sides of the display means, respectively, and picks up images of a part different from a part of the operator and a part of the operator. The operation input device according to claim 1. 前記操作者の一部は、前記操作者の手であることを特徴とする請求項1ないし15のいずれかに記載の操作入力装置。   The operation input device according to claim 1, wherein a part of the operator is a hand of the operator. 前記操作者の一部は、前記操作者の手であり、前記操作者の一部と異なる一部は、前記操作者のもう一方の手であることを特徴とする請求項4ないし10のいずれかに記載の操作入力装置。   The part of the operator is the hand of the operator, and a part different from the part of the operator is the other hand of the operator. An operation input device according to any one of the above. 操作者が閲覧する画像を表示する表示手段と、前記表示手段の操作者に向けて前記表示手段の近傍に配置され、前記表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置により操作判定をする方法であって、
前記撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、前記操作者の一部が前記標示を制御することができる範囲であって、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定ステップと、
前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御範囲内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記表示手段に表示された所定の標示を移動する制御ステップと、
前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと、
前記操作判定ステップにおいて操作が行われたと判定されると、所定の信号を出力する信号出力ステップと
を備えたことを特徴とする操作入力方法。
Display means for displaying an image browsed by an operator, and imaging means arranged near the display means for the operator of the display means and generating image data of an operator who views the display means A method for determining operation by an operation input device,
Including a range indicated by a predetermined series of operations of the operator read by the imaging means, a range in which a part of the operator can control the marking, and the viewpoint of the operator And a control range setting step for presetting a control range that is a range that does not cover a region defined by connecting each vertex of the display surface of the display means;
When a part of the operator is extracted from the image of the operator and the part of the operator is within the set control range, depending on the positional relationship between the part of the operator and the display means A control step of moving a predetermined sign displayed on the display means;
An operation determination step for determining whether an operation related to a position on the display surface of the display means of the indication has been performed;
An operation input method comprising: a signal output step of outputting a predetermined signal when it is determined that an operation is performed in the operation determination step.
操作者が閲覧する画像を表示する表示手段と、前記表示手段の操作者に向けて前記表示手段の近傍に配置され、前記表示手段を見る操作者の画像データを生成する撮像手段とを備えた操作入力装置に操作判定方法を実行させるプログラムであって、該操作判定方法は、
前記撮像手段により読取られた操作者の予め定められた一連の動作により示された範囲を含み、前記操作者の一部が前記標示を制御することができる範囲であって、前記操作者の視点と前記表示手段の表示面の各頂点とを結んで定められる領域にかからない範囲である制御範囲を予め設定する制御範囲設定ステップと、
前記操作者の画像から操作者の一部を抽出して、前記操作者の一部が前記設定された制御範囲内にあるとき、該操作者の一部と前記表示手段との位置関係に応じて前記表示手段に表示された所定の標示を移動する制御ステップと、
前記標示の前記表示手段の表示面上の位置に関連する操作が行われたか否かを判定する操作判定ステップと、
前記操作判定ステップにおいて操作が行われたと判定されると、所定の信号を出力する信号出力ステップと
を備えたことを特徴とするプログラム。
Display means for displaying an image browsed by an operator, and imaging means arranged near the display means for the operator of the display means and generating image data of an operator who views the display means A program for causing an operation input device to execute an operation determination method, wherein the operation determination method includes:
Including a range indicated by a predetermined series of operations of the operator read by the imaging means, a range in which a part of the operator can control the marking, and the viewpoint of the operator And a control range setting step for presetting a control range that is a range that does not cover a region defined by connecting each vertex of the display surface of the display means;
When a part of the operator is extracted from the image of the operator and the part of the operator is within the set control range, depending on the positional relationship between the part of the operator and the display means A control step of moving a predetermined sign displayed on the display means;
An operation determination step for determining whether an operation related to a position on the display surface of the display means of the indication has been performed;
A program comprising: a signal output step of outputting a predetermined signal when it is determined that an operation has been performed in the operation determination step.
JP2010212582A 2010-09-22 2010-09-22 Operation input device, operation determination method, and program Expired - Fee Related JP5167523B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010212582A JP5167523B2 (en) 2010-09-22 2010-09-22 Operation input device, operation determination method, and program
CN201180045563.7A CN103154858B (en) 2010-09-22 2011-09-22 Input device and method and program
US13/824,955 US9329691B2 (en) 2010-09-22 2011-09-22 Operation input apparatus and method using distinct determination and control areas
CA2811868A CA2811868C (en) 2010-09-22 2011-09-22 Operation input apparatus, operation input method, and program
PCT/JP2011/005354 WO2012039140A1 (en) 2010-09-22 2011-09-22 Operation input apparatus, operation input method, and program
EP11826586.7A EP2620849B1 (en) 2010-09-22 2011-09-22 Operation input apparatus, operation input method, and program
KR1020137007392A KR101522991B1 (en) 2010-09-22 2011-09-22 Operation Input Apparatus, Operation Input Method, and Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010212582A JP5167523B2 (en) 2010-09-22 2010-09-22 Operation input device, operation determination method, and program

Publications (2)

Publication Number Publication Date
JP2012068854A true JP2012068854A (en) 2012-04-05
JP5167523B2 JP5167523B2 (en) 2013-03-21

Family

ID=46166075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010212582A Expired - Fee Related JP5167523B2 (en) 2010-09-22 2010-09-22 Operation input device, operation determination method, and program

Country Status (1)

Country Link
JP (1) JP5167523B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
JP2013200815A (en) * 2012-03-26 2013-10-03 Yahoo Japan Corp Operation input device, operation input method, and program
JP2013242845A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
JP5401675B1 (en) * 2012-09-28 2014-01-29 島根県 Information input device and information input method
KR101394604B1 (en) * 2012-05-21 2014-05-13 주식회사 에스원 method for implementing user interface based on motion detection and apparatus thereof
WO2014119258A1 (en) * 2013-01-31 2014-08-07 パナソニック株式会社 Information processing method and information processing device
JP2014186361A (en) * 2013-03-21 2014-10-02 Sony Corp Information processing device, operation control method, and program
WO2014162762A1 (en) 2013-04-02 2014-10-09 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2014219938A (en) * 2013-05-10 2014-11-20 株式会社ゲッシュ Input assistance device, input assistance method, and program
JP2015152973A (en) * 2014-02-10 2015-08-24 レノボ・シンガポール・プライベート・リミテッド Input device, input method, and program which computer can execute
JP5896578B2 (en) * 2012-11-22 2016-03-30 シャープ株式会社 Data input device
WO2016113969A1 (en) * 2015-01-13 2016-07-21 三菱電機株式会社 Gesture recognition device and method, program, and recording medium
KR20160091889A (en) * 2013-10-01 2016-08-03 퀀텀 인터페이스, 엘엘씨 Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2017062813A (en) * 2016-11-01 2017-03-30 日立マクセル株式会社 Video display and projector
US9652119B2 (en) 2013-05-23 2017-05-16 Samsung Electronics Co., Ltd. Method and apparatus for user interface based on gesture
JP2017531227A (en) * 2014-08-01 2017-10-19 スターシップ ベンディング−マシーン コーポレーション Interface providing method and apparatus for recognizing operation in consideration of user's viewpoint
JP2017211739A (en) * 2016-05-24 2017-11-30 株式会社エクスビジョン User interface device and user interface program
JP2019003683A (en) * 2014-06-03 2019-01-10 グーグル エルエルシー Radar-based gesture-recognition through wearable device
WO2019039065A1 (en) * 2017-08-25 2019-02-28 ソニー株式会社 Information processing device, information processing method, and program
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11205075B2 (en) 2018-01-10 2021-12-21 Quantum Interface, Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11221748B2 (en) 2014-06-04 2022-01-11 Quantum Interface, Llc Apparatuses for selection objects in Virtual or Augmented Reality environments
US11226714B2 (en) 2018-03-07 2022-01-18 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11775074B2 (en) 2014-10-01 2023-10-03 Quantum Interface, Llc Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
JP7467929B2 (en) 2020-01-20 2024-04-16 コニカミノルタ株式会社 Method, program and device for automating device testing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386248B1 (en) 2013-09-09 2014-04-17 재단법인 실감교류인체감응솔루션연구단 Spatial gesture recognition apparatus and method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2008015942A (en) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc User interface program, device and method, and information processing system
WO2009018161A1 (en) * 2007-07-27 2009-02-05 Gesturetek, Inc. Enhanced camera-based input
JP2009087095A (en) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd Electronic device control device, control method and control program
JP2009151424A (en) * 2007-12-19 2009-07-09 Sony Ericsson Mobilecommunications Japan Inc Information processor, information processing method, information processing program, and portable terminal equipment
US20090296991A1 (en) * 2008-05-29 2009-12-03 Anzola Carlos A Human interface electronic device
JP2010015553A (en) * 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2008015942A (en) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc User interface program, device and method, and information processing system
WO2009018161A1 (en) * 2007-07-27 2009-02-05 Gesturetek, Inc. Enhanced camera-based input
JP2010534895A (en) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド Advanced camera-based input
JP2009087095A (en) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd Electronic device control device, control method and control program
JP2009151424A (en) * 2007-12-19 2009-07-09 Sony Ericsson Mobilecommunications Japan Inc Information processor, information processing method, information processing program, and portable terminal equipment
US20090296991A1 (en) * 2008-05-29 2009-12-03 Anzola Carlos A Human interface electronic device
JP2010015553A (en) * 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6012004824; 中村卓他: 'ハンドジェスチャを用いた公共大画面向けインタフェース' DICOMO2006論文集 , 200607, 833-836, 情報処理学会 *
JPN6012004825; 山本豪志朗他: 'PALMbit-Silhouette : 掌シルエットの重畳表示による分散大型ディスプレイへのアクセス' 映像情報メディア学会誌 Vol.62,No.12, 20081201, 1988-1996, 社団法人映像情報メディア学会 *

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8842890B2 (en) 2010-09-07 2014-09-23 Sony Corporation Method and device for detecting a gesture from a user and for performing desired processing in accordance with the detected gesture
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
JP2013200815A (en) * 2012-03-26 2013-10-03 Yahoo Japan Corp Operation input device, operation input method, and program
JP2016048588A (en) * 2012-04-26 2016-04-07 株式会社三菱東京Ufj銀行 Information processing apparatus
JP2013242845A (en) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
KR101394604B1 (en) * 2012-05-21 2014-05-13 주식회사 에스원 method for implementing user interface based on motion detection and apparatus thereof
JP5401675B1 (en) * 2012-09-28 2014-01-29 島根県 Information input device and information input method
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JPWO2014080829A1 (en) * 2012-11-22 2017-01-05 シャープ株式会社 Data input device
JP5896578B2 (en) * 2012-11-22 2016-03-30 シャープ株式会社 Data input device
US9323343B2 (en) 2013-01-31 2016-04-26 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
JPWO2014119258A1 (en) * 2013-01-31 2017-01-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method and information processing apparatus
WO2014119258A1 (en) * 2013-01-31 2014-08-07 パナソニック株式会社 Information processing method and information processing device
JP2014186361A (en) * 2013-03-21 2014-10-02 Sony Corp Information processing device, operation control method, and program
WO2014162762A1 (en) 2013-04-02 2014-10-09 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2019175510A (en) * 2013-04-02 2019-10-10 ソニー株式会社 Head mounted display, information processing method, and program
US10514767B2 (en) 2013-04-02 2019-12-24 Sony Corporation Information processing apparatus and information processing method
JPWO2014162762A1 (en) * 2013-04-02 2017-02-16 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2014219938A (en) * 2013-05-10 2014-11-20 株式会社ゲッシュ Input assistance device, input assistance method, and program
US9652119B2 (en) 2013-05-23 2017-05-16 Samsung Electronics Co., Ltd. Method and apparatus for user interface based on gesture
JP2017500673A (en) * 2013-10-01 2017-01-05 クアンタム インターフェイス エルエルシー Selective attraction interface, systems and devices having such an interface, and methods of making and using the same
US10901578B2 (en) 2013-10-01 2021-01-26 Quantum Interface Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
KR20160091889A (en) * 2013-10-01 2016-08-03 퀀텀 인터페이스, 엘엘씨 Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
KR102352556B1 (en) * 2013-10-01 2022-01-18 퀀텀 인터페이스, 엘엘씨 Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US9870061B2 (en) 2014-02-10 2018-01-16 Lenovo (Singapore) Pte. Ltd. Input apparatus, input method and computer-executable program
JP2015152973A (en) * 2014-02-10 2015-08-24 レノボ・シンガポール・プライベート・リミテッド Input device, input method, and program which computer can execute
JP2019003683A (en) * 2014-06-03 2019-01-10 グーグル エルエルシー Radar-based gesture-recognition through wearable device
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11221748B2 (en) 2014-06-04 2022-01-11 Quantum Interface, Llc Apparatuses for selection objects in Virtual or Augmented Reality environments
JP2017531227A (en) * 2014-08-01 2017-10-19 スターシップ ベンディング−マシーン コーポレーション Interface providing method and apparatus for recognizing operation in consideration of user's viewpoint
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11775074B2 (en) 2014-10-01 2023-10-03 Quantum Interface, Llc Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
WO2016113969A1 (en) * 2015-01-13 2016-07-21 三菱電機株式会社 Gesture recognition device and method, program, and recording medium
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
JP2017211739A (en) * 2016-05-24 2017-11-30 株式会社エクスビジョン User interface device and user interface program
JP2017062813A (en) * 2016-11-01 2017-03-30 日立マクセル株式会社 Video display and projector
WO2019039065A1 (en) * 2017-08-25 2019-02-28 ソニー株式会社 Information processing device, information processing method, and program
US11663820B2 (en) 2018-01-10 2023-05-30 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11205075B2 (en) 2018-01-10 2021-12-21 Quantum Interface, Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11972609B2 (en) 2018-01-10 2024-04-30 Quantum Interface Llc Interfaces, systems and apparatuses for constructing 3D AR environment overlays, and methods for making and using same
US11550444B2 (en) 2018-03-07 2023-01-10 Quantum Interface Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
US11226714B2 (en) 2018-03-07 2022-01-18 Quantum Interface, Llc Systems, apparatuses, interfaces and implementing methods for displaying and manipulating temporal or sequential objects
JP7467929B2 (en) 2020-01-20 2024-04-16 コニカミノルタ株式会社 Method, program and device for automating device testing

Also Published As

Publication number Publication date
JP5167523B2 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5167523B2 (en) Operation input device, operation determination method, and program
JP5515067B2 (en) Operation input device, operation determination method, and program
WO2012039140A1 (en) Operation input apparatus, operation input method, and program
JP4701424B2 (en) Image recognition apparatus, operation determination method, and program
JP5604739B2 (en) Image recognition apparatus, operation determination method, and program
CN107615214B (en) Interface control system, interface control device, interface control method, and program
US20120113223A1 (en) User Interaction in Augmented Reality
JP6165485B2 (en) AR gesture user interface system for mobile terminals
JP2006209563A (en) Interface device
JP6390799B2 (en) Input device, input method, and program
US9544556B2 (en) Projection control apparatus and projection control method
EP3262505B1 (en) Interactive system control apparatus and method
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
JP6344530B2 (en) Input device, input method, and program
JP5921981B2 (en) Video display device and video display method
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
EP2590060A1 (en) 3D user interaction system and method
KR20120126508A (en) method for recognizing touch input in virtual touch apparatus without pointer
JP2013114647A (en) Gesture input system
KR101708455B1 (en) Hand Float Menu System
JP2013171529A (en) Operation input device, operation determination method, and program
JP2014071672A (en) Information input device, and information input method
JP6008904B2 (en) Display control apparatus, display control method, and program
KR20130129775A (en) Method for implementing user interface based on motion detection and apparatus thereof
TW201925989A (en) Interactive system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20120810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120912

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120919

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20121003

TRDD Decision of grant or rejection written
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121003

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121205

R150 Certificate of patent or registration of utility model

Ref document number: 5167523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees