JP2010067143A - Operation and control device for graphical user interface - Google Patents

Operation and control device for graphical user interface Download PDF

Info

Publication number
JP2010067143A
JP2010067143A JP2008234640A JP2008234640A JP2010067143A JP 2010067143 A JP2010067143 A JP 2010067143A JP 2008234640 A JP2008234640 A JP 2008234640A JP 2008234640 A JP2008234640 A JP 2008234640A JP 2010067143 A JP2010067143 A JP 2010067143A
Authority
JP
Japan
Prior art keywords
image
user
user interface
graphical user
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008234640A
Other languages
Japanese (ja)
Other versions
JP5028676B2 (en
Inventor
Zhou Ye
テュウ イェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BRITISH VIRGIN ISLANDS CYWEE G
British Virgin Islands CyWee Group Ltd
Original Assignee
BRITISH VIRGIN ISLANDS CYWEE G
British Virgin Islands CyWee Group Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BRITISH VIRGIN ISLANDS CYWEE G, British Virgin Islands CyWee Group Ltd filed Critical BRITISH VIRGIN ISLANDS CYWEE G
Priority to JP2008234640A priority Critical patent/JP5028676B2/en
Publication of JP2010067143A publication Critical patent/JP2010067143A/en
Application granted granted Critical
Publication of JP5028676B2 publication Critical patent/JP5028676B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation and control device for a graphical user interface. <P>SOLUTION: The operation and control device includes an image sensor unit and the graphical user interface. An image sensor has an infrared light emission device, an image intake device, and an arithmetic control module, and the infrared light emission device emits infrared light toward a user. The image intake device makes light rays including the infrared light reflected from the user pass, optically forms an image, and outputs a digital image signal. The arithmetic control module receives the digital image signal, performs arithmetic processing, and generates an operation/control signal according to diverse body movement of the user. The graphical user interface is displayed on a screen, and is connected to the image sensor unit. By the operation/control signal generated from the image sensor unit, the user can operate/control the graphical user interface by use of one's own body movement. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明はグラフィカルユーザーインターフェース(graphical user interface、GUI)の操作/制御装置に関し、特に、ユーザーの体の様々な動きを感知することで、ユーザーに自分の体の動きによりグラフィカルユーザーインターフェースを操作/制御させる操作制御装置に関する。   The present invention relates to a graphical user interface (GUI) operation / control device, and in particular, by sensing various movements of the user's body, the user can operate / control the graphical user interface according to the movement of his / her body. It is related with the operation control apparatus to make.

まず、グラフィカルユーザーインターフェース(graphical user interface)はグラフィックスを基礎としたユーザーインターフェースであり、一定な図形と操作方式を利用して、例えば、ウィンドウズ、メニューとカーソルを組み合わせて、ユーザーとコンピュータシステム間のインタラクションの根拠とする。このように、コマンド入力が下手なユーザーもコンピュータシステムへ入力することができる。そして、ユーザーに一般的なファンクションの了解と検索に寄与し、且つユーザーに同様な方式により速やかに他のプログラム又はファンクションの操作を熟知させることができる。   First, a graphical user interface is a graphics-based user interface that uses certain graphics and operating methods, for example, combining windows, menus, and cursors, between a user and a computer system. The basis for interaction. In this way, a user who is poor at command input can also input to the computer system. The user can contribute to understanding and searching for a general function, and can make the user know the operation of another program or function quickly by a similar method.

1980年代の後半から、グラフィカルユーザーインターフェースの応用は既に成熟するようになって来ている。様々な電子用品に、例えばデスクトップコンピュータ、ノートパソコン、移動通信(mobile communication)装置、パーソナルデジタルアシスタント、衛星ナビゲーションシステム装置等に見られており、ユーザーに便利で使いやすい且つ迅速な操作方式を提供している。しかし、ユーザーはグラフィカルユーザーインターフェースを利用してコンピュータシステムを操作する場合、またはコンピュータシステムとインタラクションを行う場合、やはりキーボード、マウス、タッチパネルまたは他の操作/制御装置と協同して入力しなければならず、グラフィカルユーザーインターフェースの発展を制限するだけでなく、シナリオ式の操作環境を提供することもできない。   Since the late 1980s, the application of graphical user interfaces has already matured. It is found in various electronic products such as desktop computers, notebook computers, mobile communication devices, personal digital assistants, satellite navigation system devices, etc., providing users with convenient, easy-to-use and quick operation methods. ing. However, when operating a computer system using a graphical user interface or interacting with a computer system, the user must still input in cooperation with a keyboard, mouse, touch panel or other operating / control device. In addition to limiting the development of graphical user interfaces, it is also not possible to provide a scenario-type operating environment.

現有のユーザーの身体動作を感知して操作/制御するグラフィカルユーザーインターフェースでは、ユーザーはやはり特定の入力装置、例えば、コントローラ或いはリモコン等を着用するか、その装置を使用する必要がある。そのゆえ、ユーザーの特定の動作を精確に反応することができなくなり、コンピュータシステムまたはコンピュータゲームの表示画面上の特定のカーソルがユーザーの身体動作に対する応答が鋭敏でなく、または遅延してしまうことがある。   In a graphical user interface that senses and operates / controls existing user's physical movements, the user still needs to wear or use a specific input device, such as a controller or a remote control. Therefore, the user's specific movement cannot be accurately reacted, and the specific cursor on the display screen of the computer system or the computer game may not be sensitive to the user's physical movement or may be delayed. is there.

これにより、本発明人は、前記の欠点を鑑みて、鋭意研究を重ね、そして学理の運用を配合した結果、設計が合理で上記の問題を効果的に改善できる本発明を完成した。   As a result, the present inventor has intensively studied in view of the above-mentioned drawbacks, and as a result of blending the operation of science, the present invention has been completed, which has a rational design and can effectively improve the above problems.

本発明の目的は、グラフィカルユーザーインターフェース(graphical user interface、GUI)の操作/制御装置を提供する旨であり、ユーザーの身体動作を感知することによって、それに対応したグラフィカルユーザーインターフェースを操作することである。   An object of the present invention is to provide a graphical user interface (GUI) operation / control device, and to operate a corresponding graphical user interface by sensing a user's physical movement. .

上記目的を達成するために、本発明によるグラフィカルユーザーインターフェースの操作/制御装置は、イメージセンサーユニットとグラフィカルユーザーインターフェースとを備える。前記イメージセンサーは、赤外線発光装置と、イメージ取り込み装置と、演算制御モジュールとを備える。前記赤外線発光装置はユーザに向けて赤外線を発射するためのものである。前記イメージ取り込み装置はユーザから反射された赤外線を含んだ光線を通過させて光学的に画像形成してなることで赤外線画像を受信し、さらに該赤外線画像をデジタル化してからデジタル画像信号を出力する。前記演算制御モジュールはイメージ取り込み装置に接続し、前記デジタル画像信号を受信し該ユーザ画像が平面参照座標における時間軸に対する変化を認識することで、ユーザの様々な身体動作に応じて操作/制御信号を生成する。前記グラフィカルユーザーインターフェースは画面に表示され、且つ前記イメージセンサーユニットに接続することによって、操作/制御信号を受信しそれに応じて特定の出力反応を表示する。   In order to achieve the above object, a graphical user interface operation / control apparatus according to the present invention includes an image sensor unit and a graphical user interface. The image sensor includes an infrared light emitting device, an image capturing device, and an arithmetic control module. The infrared light emitting device is for emitting infrared rays toward a user. The image capturing device receives an infrared image by optically forming a light beam including infrared rays reflected from a user, and further digitizes the infrared image and then outputs a digital image signal. . The arithmetic control module is connected to an image capturing device, receives the digital image signal, recognizes a change of the user image with respect to the time axis in the plane reference coordinates, and operates / controls the signal according to various body movements of the user. Is generated. The graphical user interface is displayed on the screen and connected to the image sensor unit to receive operation / control signals and display specific output responses accordingly.

本発明は以下のような顕著な効果を有する:
一、本発明によるイメージセンサーユニットは精確にユーザーの身体画像を認識でき、好ましい高感度を有している。
The present invention has the following remarkable effects:
First, the image sensor unit according to the present invention can accurately recognize a user's body image and has a preferable high sensitivity.

二、イメージセンサーユニットは更にユーザーの身体画像に対して焦点深度(depth of field)を算出する処理を行い、ユーザーの身体寸法或いは前後に移動する情報を得ることによって、ユーザーは十分に自己の身体動作を利用してグラフィカルユーザーインターフェースを操作/制御することができる。   Second, the image sensor unit further calculates the depth of field for the user's body image and obtains the user's body dimensions or information that moves back and forth, so that the user can fully Operations can be used to control / control the graphical user interface.

三、ユーザーは別途の入力装置、例えば、キーボード、マウス、タッチパネル、ジョイスティック(joystick)等の装置を利用する必要がなく、既に自然にグラフィカルユーザーインターフェースに現れたシナリオに溶け込んで、自己の身体動作を利用して操作することができる。   The user does not need to use a separate input device, such as a keyboard, mouse, touch panel, joystick, etc. Can be operated using.

四、本発明は各種のグラフィカルユーザーインターフェースの操作を十分に提供することができる。たとえグラフィカルユーザーインターフェースは平面画像式でまたは三次元のシナリオ式で現れても、豊かな仮想現実(virtual reality)の効果を達成することができる。   4. The present invention can sufficiently provide various graphical user interface operations. Even if the graphical user interface appears as a planar image or as a three-dimensional scenario, it can achieve the effect of rich virtual reality.

本発明の特徴及び技術内容を更に了解させるために、下記の本発明に関る詳細な説明及び図面を参照できる。しかし、添付した図面は参照と説明するために使用されるのみで、本発明を制限するものではない。   For a fuller understanding of the features and technical contents of the present invention, reference may be made to the following detailed description and drawings related to the invention. However, the attached drawings are only used for reference and description and do not limit the present invention.

図1及び図2は、それぞれ本発明によるグラフィカルユーザーインターフェース(graphical user interface、GUI)の操作/制御装置の実施例の構造ブロック図及び使用状態図である。本発明によるグラフィカルユーザーインターフェースは、イメージセンサーユニット1とグラフィカルユーザーインターフェース2とを含み、前記グラフィカルユーザーインターフェース2は前記イメージセンサーユニット1と接続し、且つスクリーン20に表示されるものである。   FIG. 1 and FIG. 2 are a structural block diagram and a usage state diagram of an embodiment of a graphical user interface (GUI) operation / control apparatus according to the present invention, respectively. The graphical user interface according to the present invention includes an image sensor unit 1 and a graphical user interface 2, and the graphical user interface 2 is connected to the image sensor unit 1 and displayed on the screen 20.

イメージセンサーユニット1は、赤外線発光装置11、イメージ取り込み装置12及び演算制御モジュール13を含む。赤外線発光装置11はユーザーに向けて赤外線を発射するためのものであり、複数の赤外線発光ユニット111を備え、例えば波長が750〜1300nmm間の赤外線を発射できる発光ダイオード(light-emitting diode)である。本実施例において好ましい赤外線波長は約850nmである。図2のように、該赤外線発光装置11はイメージ取り込み装置12の外側に配置している。該赤外線発光ユニット11が当該イメージ取り込み装置12を取り囲む。本実施例において、当該赤外線発光ユニット11は環状に配列されているが、本発明はこの例に制限することなく、矩形、または特定の曲線のように配列することによって、ユーザーに向けて均一に赤外線を発射することもできる。該赤外線発光装置11は表示スクリーン20の上側に配置してもよく、そのグラフィカルユーザーインターフェース2を操作しているユーザーに向けて均一に赤外線を発射する。   The image sensor unit 1 includes an infrared light emitting device 11, an image capturing device 12, and a calculation control module 13. The infrared light emitting device 11 is for emitting infrared rays toward a user. The infrared light emitting device 11 includes a plurality of infrared light emitting units 111 and is, for example, a light-emitting diode that can emit infrared rays having a wavelength of 750 to 1300 nm. . The preferred infrared wavelength in this example is about 850 nm. As shown in FIG. 2, the infrared light emitting device 11 is disposed outside the image capturing device 12. The infrared light emitting unit 11 surrounds the image capturing device 12. In the present embodiment, the infrared light emitting units 11 are arranged in a ring shape, but the present invention is not limited to this example, and the infrared light emitting units 11 are arranged in a rectangular shape or a specific curve so as to be uniform for the user. It can also emit infrared rays. The infrared light emitting device 11 may be arranged on the upper side of the display screen 20 and emits infrared rays uniformly toward the user who is operating the graphical user interface 2.

該イメージ取り込み装置12は、赤外線濾波モジュール121及びイメージセンサーモジュール122を含む。該赤外線濾波モジュール121はカラーフィルタを含み、これは赤外線波長以外の光線を濾過して、赤外線のみを通過させるためのものである。該イメージ取り込み装置12は、該赤外線濾波モジュール121によりユーザーから反射した赤外線を含んだ光線を通過させ、光学的に画像形成してなることで赤外線画像を受信する。該イメージセンサーモジュール122は該赤外線画像を受信して該赤外線画像におけるユーザーの画像と背景画像間のコントラストを高め、更に該赤外線画像をデジタル化してからデジタル画像信号を出力する。該デジタル画像信号はユーザー画像及び背景画像を含む。本実施例において、該ユーザー画像と背景画像間のコントラストを高めるには、ユーザー画像の輝度を背景画像の輝度よりも高くし、またはユーザー画像の輝度を背景画像の輝度よりも低くするように設定することができる。又は、事前に追加情報(additional information)を提供することができる。例えば、一つの画像基本値(basic value)を設定し、該デジタル画像信号を局所化(localize)させる。局所化したデジタル画像信号における変化率(variation)が基本値より高い場合にはユーザー画像(前景)と設定し、そうでない場合には背景画像と設定する。このようにして、ユーザー画像を取り込み、ロックさせて、背景画像を除去することによって、更にユーザーの身体動作を認識(recognition)できる。   The image capturing device 12 includes an infrared filtering module 121 and an image sensor module 122. The infrared filtering module 121 includes a color filter, which filters light rays other than infrared wavelengths and allows only infrared rays to pass through. The image capturing device 12 receives an infrared image by passing a light beam including infrared rays reflected from a user by the infrared filtering module 121 and optically forming an image. The image sensor module 122 receives the infrared image to increase the contrast between the user image and the background image in the infrared image, and further digitizes the infrared image before outputting a digital image signal. The digital image signal includes a user image and a background image. In this embodiment, in order to increase the contrast between the user image and the background image, the brightness of the user image is set higher than the brightness of the background image, or the brightness of the user image is set lower than the brightness of the background image. can do. Alternatively, additional information can be provided in advance. For example, one basic value is set, and the digital image signal is localized. If the variation in the localized digital image signal is higher than the basic value, the user image (foreground) is set, and if not, the background image is set. In this way, the user's physical motion can be further recognized by capturing and locking the user image and removing the background image.

ユーザーと環境背景(environment background)は、該イメージ取り込み装置12に対する距離が異なっているので、違った焦点深度を有している。そこで、該演算制御モジュール13を該イメージ取り込み装置12と接続し、該デジタル画像信号を受信し、該デジタル画像信号におけるユーザー画像の焦点深度を算出することによって、該環境背景画像を該デジタル画像信号から除去した追加情報を提供する。そして、ユーザー画像のみをロックすることで追跡し、更にロックされたユーザー画像以外の該ユーザー画像と同じ焦点深度の画像をフィルタリングして、そして、ロックされたユーザー画像を平面参照座標に定義して演算処理することによって、該ユーザー画像がその平面参照座標で時間軸に対する変化を認識し、ユーザーのさまざまな体の動きに応して操作/制御信号を生成する。図2のように、二つのイメージ取り込みモジュール12を該演算制御モジュール13と接続した場合、該演算制御モジュール13は更に異なったイメージ取り込み装置12からのデジタル画像信号を受信することができ、ユーザー画像の焦点深度の比較と算出処理を行われ、ユーザー身体の輪郭の立体寸法という情報を更に容易に得ることで、ユーザーの肢体は重なった状態であるかどうかを精確に区別させることができ、並びにユーザーを該イメージセンサーユニット1、又は該スクリーン20前後の移動又は加速度に対して認識することができる。   The user and the environment background have different depths of focus because the distance to the image capture device 12 is different. Therefore, the arithmetic control module 13 is connected to the image capturing device 12, receives the digital image signal, and calculates the depth of focus of the user image in the digital image signal, thereby converting the environment background image into the digital image signal. Provide additional information removed from. Then, tracking is performed by locking only the user image, filtering an image having the same depth of focus as the user image other than the locked user image, and defining the locked user image as a plane reference coordinate. By performing arithmetic processing, the user image recognizes a change with respect to the time axis in the plane reference coordinates, and generates an operation / control signal in accordance with various movements of the user's body. As shown in FIG. 2, when two image capturing modules 12 are connected to the arithmetic control module 13, the arithmetic control module 13 can receive digital image signals from different image capturing devices 12, and the user image The depth of focus of the user is compared and calculated, and the information of the three-dimensional dimensions of the contour of the user's body can be obtained more easily, so that the user's limbs can be accurately distinguished whether they are in an overlapping state, The user can be recognized with respect to the movement or acceleration of the image sensor unit 1 or the front and back of the screen 20.

グラフィカルユーザーインターフェース2は、該演算制御モジュール13から生成した操作/制御信号を受信し、該操作/制御信号に応じて特定の出力反応を表示する。その中、該スクリーン20は、平面型表示装置(Flat Panel Display)であってもよく、又はプロジェクタ(projector)によって画面に投映することで表示さらてもよい。図3のように、該グラフィカルユーザーインターフェース2は二次元の平面画像式の操作インターフェースで表される。例えば、ウィンドウズ(windows)、アイコン(icons)、フレーム(frame)、メニュー(menu)及びポインタ(pointer)21等のオブジェクトを含むユーザーインタフェースである。その中に、該ポインタ21はユーザーの特定の身体動作に応じて特定の反応をすることができ、例えば、上、下、左、右の移動、選定、オープン(open)等の動作をする。   The graphical user interface 2 receives the operation / control signal generated from the arithmetic control module 13 and displays a specific output reaction in accordance with the operation / control signal. Among them, the screen 20 may be a flat panel display or may be displayed by being projected on a screen by a projector. As shown in FIG. 3, the graphical user interface 2 is represented by a two-dimensional planar image type operation interface. For example, the user interface includes objects such as windows, icons, frames, menus, and pointers 21. Among them, the pointer 21 can perform a specific reaction according to a specific body movement of the user, for example, move up, down, left, right, select, open, and the like.

その他の実施例において、図4のように、該グラフィカルユーザーインターフェース2は二次元の平面画像式だけでなく、仮想現実(virtual reality)であるシナリオ式の操作環境として現れることができる。該グラフィカルユーザーインターフェース2のオブジェクトは三次元(3-dimension)の立体画像形式で表示でき、ユーザーの体の全身又は特定部位を代表する画像ポインタ22を含む。ユーザーの身体動作に応じて、ポインタとしての機能を遂げる。例えば、該画像ポインタ22は、ユーザーの身体の移動、又は四肢の動きに応じて、その移動または動く動作に対応して表示される。特にユーザーが該イメージセンサーユニット1または該スクリーン20に対して前後に移動し、又は、特に肢体を前後に移動する場合、例えば、手のひらを前方に叩くことや、パンチ(punch)すること等である、該グラフィカルユーザーインターフェース2においてユーザーの体に応じた画像ポインタ22は既に受信された該イメージセンサーユニット1から生成された操作/制御信号によって特定の出力反応、例えば選定、クリック、オープン等を表示できる。   In another embodiment, as shown in FIG. 4, the graphical user interface 2 can appear not only as a two-dimensional planar image type but also as a scenario type operating environment that is a virtual reality. The object of the graphical user interface 2 can be displayed in a three-dimensional (3-dimension) stereoscopic image format, and includes an image pointer 22 representing the whole body or a specific part of the user's body. It functions as a pointer according to the user's physical movements. For example, the image pointer 22 is displayed corresponding to the movement or movement of the user according to the movement of the user's body or the movement of the limbs. In particular, when the user moves back and forth with respect to the image sensor unit 1 or the screen 20, or particularly when the limb moves forward and backward, for example, hitting the palm forward or punching. In the graphical user interface 2, the image pointer 22 corresponding to the user's body can display a specific output reaction, for example, selection, click, open, etc., by the operation / control signal generated from the image sensor unit 1 already received. .

上記の実施例において、該グラフィカルユーザーインターフェース2は、各種の特定のシナリオ、例えば、居間、会議、宴会等が現れることができる。図5のように、更にパソコンまたはインタネートサーバーによって複数のイメージセンサーユニット1を接続して複数のユーザーを対応することができる。複数のユーザーは該グラフィカルユーザーインターフェース2における対応したそれぞれのユーザーの画像ポインタ22によってインタラクションを行うことができ、ユーザーにとって臨場感(be personally on the scene)の溢れる感じが強まり、より豊かな仮想現実の効果を達成できる。   In the above embodiment, the graphical user interface 2 can appear in various specific scenarios, such as a living room, a meeting, a banquet, and the like. As shown in FIG. 5, a plurality of image sensor units 1 can be further connected by a personal computer or an internet server to support a plurality of users. Multiple users can interact with the corresponding image pointers 22 in the graphical user interface 2 to enhance the user's feeling of overflowing be personally on the scene and to enrich the virtual reality. The effect can be achieved.

以上を纏めれば、本発明は下記の好ましい効果を有する。   In summary, the present invention has the following preferable effects.

一、本発明によるイメージセンサーユニット1は優れた背景画像の濾過効果を有していし、精確にユーザーの身体画像を認識でき、好ましい高感度を有する。   1. The image sensor unit 1 according to the present invention has an excellent background image filtering effect, can accurately recognize a user's body image, and has a preferable high sensitivity.

二、該イメージセンサーユニット1は、更にユーザー身体画像の焦点深度に対して算出処理し、ユーザーの身体の寸法又は前後に移動した場合の情報を得ることで、ユーザーは自己の身体動作を十分に利用して該グラフィカルユーザーインターフェースを操作/制御する。   Second, the image sensor unit 1 further performs calculation processing on the depth of focus of the user body image, and obtains information on the size of the user's body or moving back and forth, so that the user can fully perform his / her body movement. It is used to operate / control the graphical user interface.

三、ユーザーは別途の入力装置、例えばキーボード、マウス、タッチパネル、ジョイスティック(joystick)等のような装置の助けが必要なく、自然に該グラフィカルユーザーインターフェースで現れたシナリオに溶け込め、自己の身体動作によって操作することができる。   3. The user does not need the assistance of a separate input device, such as a keyboard, mouse, touch panel, joystick, etc., and naturally blends into the scenario that appears in the graphical user interface and operates by his / her own body movement can do.

四、本発明は各種のグラフィカルユーザーインターフェースの操作を十分に提供することができ、たとえ該グラフィカルユーザーインターフェースは平面画像式で、または立体的シナリオ式で現れたとしても、より豊かな仮想現実効果も達成することができる。   4. The present invention can sufficiently provide various types of graphical user interface operations, and even if the graphical user interface appears as a planar image type or a three-dimensional scenario type, a richer virtual reality effect can be obtained. Can be achieved.

上記の内容は本発明の好ましい実施例のみであり、これによって本発明の請求の範囲を制限するものではなく、本発明の明細書及び図面の内容を運用してなされた同等効果の技術変更は、いずれも本発明の権利保護範囲に包含されるもので、ここに併せて説明する。   The above description is only a preferred embodiment of the present invention, and is not intended to limit the scope of the claims of the present invention. Technical changes of equivalent effects made by operating the contents of the specification and drawings of the present invention are not limited thereto. These are all included in the scope of protection of the rights of the present invention, and will be described together here.

本発明によるグラフィカルユーザーインターフェースの操作/制御装置の実施例の構造ブロック図である。1 is a structural block diagram of an embodiment of an operation / control device of a graphical user interface according to the present invention; FIG. 本発明によるグラフィカルユーザーインターフェースの操作/制御装置の実施例の使用状態図である。FIG. 2 is a usage diagram of an embodiment of an operation / control apparatus of a graphical user interface according to the present invention. 本発明のある実施形態によるグラフィカルユーザーインターフェースの操作インターフェースを表す図である。FIG. 4 is a diagram representing an operation interface of a graphical user interface according to an embodiment of the present invention. 本発明のある実施形態による仮想現実であるシナリオ式の操作環境を示す図である。It is a figure which shows the scenario type operation environment which is virtual reality by a certain embodiment of this invention. 本発明のある実施形態によるパソコンまたはインタネートサーバーによって複数のイメージセンサーユニットを接続して複数のユーザーを対応させたシステムの図である。1 is a diagram of a system in which a plurality of image sensor units are connected to correspond to a plurality of users by a personal computer or an Internet server according to an embodiment of the present invention.

符号の説明Explanation of symbols

1 イメージセンサーユニット
11 赤外線発光装置
111 赤外線発光ユニット
12 イメージ取り込み装置
121 赤外線濾波モジュール
122 イメージセンサーモジュール
13 演算制御モジュール
2 グラフィカルユーザーインターフェース
21 ポインタ
22 アイコンポインタ
DESCRIPTION OF SYMBOLS 1 Image sensor unit 11 Infrared light emitting device 111 Infrared light emitting unit 12 Image capturing device 121 Infrared filtering module 122 Image sensor module 13 Operation control module 2 Graphical user interface 21 Pointer 22 Icon pointer

Claims (5)

イメージセンサーユニットとグラフィカルユーザーインターフェースとを備えるグラフィカルユーザーインターフェースの操作/制御装置において、
前記イメージセンサーは、赤外線発光装置と、イメージ取り込み装置と、演算制御モジュールとを備え、
前記赤外線発光装置はユーザーに向けて赤外線を発射するためのもので、
前記イメージ取り込み装置はユーザーから反射された赤外線を含んだ光線を通過させて光学的に画像形成してなることで赤外線画像を受信し、さらに該赤外線画像をデジタル化してからデジタル画像信号を出力し、
前記演算制御モジュールはイメージ取り込み装置に接続し、前記デジタル画像信号を受信し該ユーザー画像が平面参照座標における時間軸に対する変化を認識することで、ユーザーの様々な身体動作に応じて操作/制御信号を生成し;
前記グラフィカルユーザーインターフェースは画面に表示され且つ前記イメージセンサーユニットに接続することによって、操作/制御信号を受信しそれに応じて特定の出力反応を表示する
ことを特徴とするグラフィカルユーザーインターフェースの操作/制御装置。
In a graphical user interface operation / control device comprising an image sensor unit and a graphical user interface,
The image sensor includes an infrared light emitting device, an image capturing device, and a calculation control module.
The infrared light emitting device is for emitting infrared rays toward the user,
The image capturing device receives an infrared image by optically forming a light beam including infrared rays reflected from a user, and outputs a digital image signal after digitizing the infrared image. ,
The arithmetic control module is connected to an image capturing device, receives the digital image signal, and recognizes a change of the user image with respect to a time axis in a plane reference coordinate, thereby operating / control signals according to various body movements of the user. Produces:
The graphical user interface is displayed on a screen and connected to the image sensor unit to receive an operation / control signal and display a specific output response accordingly. .
前記演算制御モジュールは該イメージ取り込み装置から出力されたデジタル画像信号を受信した後、デジタル画像信号におけるユーザー画像の焦点深度を算出し、背景画像をデジタル画像信号から除去された追加情報を提供することで、ユーザー画像にのみロックし、更にそのロックされたユーザー画像を平面参照座標に定義させ、演算処理を行うことを特徴とする請求項1に記載のグラフィカルユーザーインターフェースの操作/制御装置。   The arithmetic control module receives the digital image signal output from the image capturing device, calculates a depth of focus of the user image in the digital image signal, and provides additional information obtained by removing the background image from the digital image signal. 2. The operation / control apparatus of a graphical user interface according to claim 1, wherein only the user image is locked, and further, the locked user image is defined as a plane reference coordinate, and calculation processing is performed. 前記演算制御モジュールはロックされたユーザー画像以外の同様にユーザー画像の焦点深度と一致する画像を濾過することを特徴とする請求項1に記載のグラフィカルユーザーインターフェースの操作/制御装置。   2. The operation / control apparatus of a graphical user interface according to claim 1, wherein the arithmetic control module filters an image corresponding to the depth of focus of the user image as well as a locked user image. 複数のイメージ取り込み装置をさらに有し、前記演算制御モジュールは前記複数のイメージ取り込み装置に接続され、前記複数のイメージ取り込み装置から複数のデジタル画像信号を受信し、前記複数のデジタル画像信号におけるユーザー画像の焦点深度の差異及び変化を比較することによってユーザーザ身体の特定部位の位置または空間上の寸法情報を算出し、そしてユーザーの肢体が重なった状態であるか否かを区別することと、ユーザー身体の距離、移動、加速度または回転等の動作を区別することによって、ユーザーの身体動作に対応する操作/制御信号を生成することを特徴とする請求項1に記載のグラフィカルユーザーインターフェースの操作/制御装置。   A plurality of image capturing devices, wherein the arithmetic control module is connected to the plurality of image capturing devices, receives a plurality of digital image signals from the plurality of image capturing devices, and a user image in the plurality of digital image signals; Calculating the position or spatial dimension information of a specific part of the user's body by comparing differences and changes in the depth of focus of the user, and discriminating whether the user's limbs are overlapping or not The operation / control of the graphical user interface according to claim 1, wherein an operation / control signal corresponding to a user's body movement is generated by distinguishing movements such as body distance, movement, acceleration or rotation. apparatus. 前記グラフィカルユーザーインターフェースは、ユーザーの身体の全身または特定部位を代表する画像ポインタを含み、前記画像ポインタはユーザーの身体動作に対応し、ポインタとしての機能を遂げることを特徴とする請求項1に記載のグラフィカルユーザーインターフェースの操作/制御装置。   2. The graphical user interface according to claim 1, wherein the graphical user interface includes an image pointer representative of the whole body or a specific part of the user's body, and the image pointer corresponds to a user's body movement and functions as a pointer. Graphical user interface operation / control device.
JP2008234640A 2008-09-12 2008-09-12 Graphical user interface operation / control device Active JP5028676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008234640A JP5028676B2 (en) 2008-09-12 2008-09-12 Graphical user interface operation / control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008234640A JP5028676B2 (en) 2008-09-12 2008-09-12 Graphical user interface operation / control device

Publications (2)

Publication Number Publication Date
JP2010067143A true JP2010067143A (en) 2010-03-25
JP5028676B2 JP5028676B2 (en) 2012-09-19

Family

ID=42192655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008234640A Active JP5028676B2 (en) 2008-09-12 2008-09-12 Graphical user interface operation / control device

Country Status (1)

Country Link
JP (1) JP5028676B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01162482A (en) * 1987-12-18 1989-06-26 Fujitsu Ltd Picture input device
JPH10207619A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and operation range indicating method
WO2008083205A2 (en) * 2006-12-29 2008-07-10 Gesturetek, Inc. Manipulation of virtual objects using enhanced interactive system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01162482A (en) * 1987-12-18 1989-06-26 Fujitsu Ltd Picture input device
JPH10207619A (en) * 1997-01-22 1998-08-07 Toshiba Corp User interface device and operation range indicating method
WO2008083205A2 (en) * 2006-12-29 2008-07-10 Gesturetek, Inc. Manipulation of virtual objects using enhanced interactive system

Also Published As

Publication number Publication date
JP5028676B2 (en) 2012-09-19

Similar Documents

Publication Publication Date Title
US11221730B2 (en) Input device for VR/AR applications
US11392212B2 (en) Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments
US11244513B2 (en) Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments
US11237625B2 (en) Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US11048333B2 (en) System and method for close-range movement tracking
JP6074170B2 (en) Short range motion tracking system and method
US20190362562A1 (en) Throwable Interface for Augmented Reality and Virtual Reality Environments
JP2013037675A5 (en)
US20120113223A1 (en) User Interaction in Augmented Reality
JP5807686B2 (en) Image processing apparatus, image processing method, and program
KR20220062410A (en) Projection Casting in Virtual Environments
WO2021225044A1 (en) Information processing device, information processing method based on user input operation, and computer program for executing said method
JP5028676B2 (en) Graphical user interface operation / control device
US20100064213A1 (en) Operation device for a graphical user interface
JP6008904B2 (en) Display control apparatus, display control method, and program
KR20130129775A (en) Method for implementing user interface based on motion detection and apparatus thereof
TW201005624A (en) Control device for graphical user interface
Olwal et al. Unit-A Modular Framework for Interaction Technique Design, Development and Implementation
Pyryeskin Investigating Selection above a Multitouch Surface
Nagaruru et al. Implementation of Cognitive and Virtual Mouse Pointer Control
KR20110137050A (en) Hand-held device including a display and method for navigating objects on the display

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110516

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110913

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120105

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120606

R150 Certificate of patent or registration of utility model

Ref document number: 5028676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250