JP2011258195A - Man-machine interface based on gesture - Google Patents
Man-machine interface based on gesture Download PDFInfo
- Publication number
- JP2011258195A JP2011258195A JP2011118571A JP2011118571A JP2011258195A JP 2011258195 A JP2011258195 A JP 2011258195A JP 2011118571 A JP2011118571 A JP 2011118571A JP 2011118571 A JP2011118571 A JP 2011118571A JP 2011258195 A JP2011258195 A JP 2011258195A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- processor
- distance
- information displayed
- computer system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、ジェスチャーに基づくマンマシンインターフェース、例えばコンピュータ上で実行されるプログラムを制御するグラフィカルユーザインターフェースに関するものである。本発明は、多くの種類のプログラムに適用可能であるが、一又は複数の無人航空ビークルの飛行を制御するプログラムを特に対象とする。 The present invention relates to a man-machine interface based on gestures, such as a graphical user interface for controlling a program executed on a computer. The present invention is applicable to many types of programs, but is specifically directed to programs that control the flight of one or more unmanned aerial vehicles.
マンマシンインターフェースは、実質的に過去数十年の間に発展した。コンピュータの制御というもっと狭い分野においてさえ、インターフェースは、コマンドラインから、ユーザに対して表示されるグラフィカルなアイコンを選択するためにマウス又は同種のポインティングデバイスを必要とするグラフィカルユーザインターフェースへと進化した。 Man-machine interfaces have evolved substantially over the past decades. Even in the narrower field of computer control, the interface has evolved from the command line to a graphical user interface that requires a mouse or similar pointing device to select a graphical icon displayed to the user.
最近では、タッチスクリーンデバイスが人気である。複数の入力点を可能にするタッチスクリーンデバイスは、ジェスチャーに基づく制御の可能性を開くので特に有利である。アップル社のiPhone(登録商標)は、アイテムの選択、スクロール、ズームイン又はズームアウト、及びアイテムの回転にタッチを使用できる良い例である。タッチスクリーンデバイスは複数の欠点を有している。例えば、スクリーンは、反応時間が長く、精度が低く、及び信頼性が低くなりがちであり、一方でタッチスクリーンの使用頻度が高すぎると残留物及び汚れが蓄積して性能の更なる低下を招く。 Recently, touch screen devices have become popular. Touch screen devices that allow multiple input points are particularly advantageous because they open up the possibility of gesture-based control. Apple's iPhone (R) is a good example where touch can be used to select items, scroll, zoom in or out, and rotate items. Touch screen devices have several drawbacks. For example, screens tend to have long reaction times, low accuracy, and low reliability, while if the touch screen is used too frequently, residue and dirt can accumulate and further degrade performance. .
スクリーンへの接触を回避することによりタッチスクリーンデバイスの問題の幾つかを回避するシステムが提案されている。代替として、ユーザのジェスチャーを監視して、検出されたジェスチャーに基づく応答が提供される。例えば、スクリーンへのタッチに基づく現行のシステムに類似した、選択、スクロール、ズーム、回転などに、手のジェスチャーを使用できるように、ユーザの手を監視するシステムが提案されている。 Systems have been proposed that avoid some of the problems of touch screen devices by avoiding touching the screen. Alternatively, the user's gesture is monitored and a response based on the detected gesture is provided. For example, systems have been proposed that monitor a user's hand so that hand gestures can be used for selection, scrolling, zooming, rotation, etc., similar to current systems based on touching the screen.
このような背景に対して、本発明は、ジェスチャーに基づくマンマシンインターフェースによりコンピュータシステムを使用する方法を提供する。本方法は、オブジェクトを使用して、コンピュータシステムのスクリーン上に表示された情報を指し示すこと、及び少なくとも二つのカメラによりスクリーン前方のシーンを捉えることを含む。プロセッサを使用して、カメラが捉えたシーンを分析することによりオブジェクトを識別し、且つスクリーン上でオブジェクトが指し示す位置と、スクリーンからオブジェクトまでの距離とを決定する。プロセッサは、次いで、オブジェクトが指し示す位置と、スクリーンからオブジェクトまでの距離との決定に応答して、スクリーン上に表示された情報を変更する。 Against this background, the present invention provides a method of using a computer system with a gesture-based man-machine interface. The method includes using an object to point to information displayed on a screen of a computer system and capturing a scene in front of the screen with at least two cameras. A processor is used to identify the object by analyzing the scene captured by the camera, and to determine the position that the object points on the screen and the distance from the screen to the object. The processor then changes the information displayed on the screen in response to determining the position that the object points to and the distance from the screen to the object.
このようにして、タッチスクリーンの欠点が回避されうる。更に、オブジェクトがスクリーンからどの程度離れているかに関する情報が使用される。この情報は別の方法でも使用できる。例えば、オブジェクトが指し示しているスクリーンの一部を、決定されたスクリーンからオブジェクトまでの距離に基づく倍率を用いてズームすることにより、スクリーン上に表示された情報を変更することができる。即ち、スクリーンの近くを指し示すことにより、離れた地点を指し示すよりも大きな倍率が適用される。特定の距離よりも離れた地点を指し示すと倍率が1倍になり、一方スクリーンから設定された距離だけ離れた位置で倍率が最大値に到達するといった制限を設定することができる。これらの距離の間における倍率の尺度は制御可能であり、例えば線形的に又は指数関数的に変化させることができる。 In this way, the disadvantages of touch screens can be avoided. In addition, information about how far the object is from the screen is used. This information can be used in other ways. For example, information displayed on the screen can be changed by zooming a part of the screen pointed to by the object using a magnification based on the determined distance from the screen to the object. That is, by pointing near the screen, a larger magnification is applied than when pointing away. When a point farther than a specific distance is pointed out, the magnification becomes 1 time, while a limit can be set such that the magnification reaches the maximum value at a position away from the screen by a set distance. The scale of magnification between these distances is controllable and can vary, for example, linearly or exponentially.
本方法は、オブジェクトの運動を追跡することにより、スクリーン上でオブジェクトが指し示す位置を決定することを含むことができる。本方法は、オブジェクトの縦方向の延長線を決定することにより、スクリーン上でオブジェクトが指し示す位置を決定することを含むことができる。これら二つのオプション機能は、二者択一方式で使用することができるか、又は互いの増設機能として使用することができる。 The method can include determining a position that the object points on the screen by tracking the movement of the object. The method can include determining a position that the object points on the screen by determining a longitudinal extension of the object. These two optional functions can be used in an alternative method or can be used as an additional function of each other.
一定の期間に亘ってスクリーンからオブジェクトまでの距離を決定することにより、オブジェクトの運動速度を決定することができる。この速度は、スクリーン上に表示される情報を更に制御するために使用することができる。スクリーンに向かうオブジェクトの高速運動は、スクリーンに向かうオブジェクトの低速運動と異なって解釈することができる。例えば、低速運動が単一回のクリックと解釈されるのに対し、高速運動はダブルクリックと解釈される。 By determining the distance from the screen to the object over a period of time, the speed of movement of the object can be determined. This speed can be used to further control the information displayed on the screen. The high-speed movement of the object toward the screen can be interpreted differently from the low-speed movement of the object toward the screen. For example, a slow motion is interpreted as a single click, while a fast motion is interpreted as a double click.
随意で、本方法は、二つのオブジェクトを使用してコンピュータシステムのスクリーン上に表示された情報を指し示すこと、及び少なくとも二つのカメラによりスクリーン前方のシーンを捉えることを含むことができる。プロセッサを使用して、カメラが捉えたシーンを分析することによりオブジェクトを識別し、且つスクリーン上でオブジェクトが指し示す位置と、スクリーンからオブジェクトまでの距離とを決定することができる。プロセッサは、次いで、オブジェクトが指し示す位置と、スクリーンからオブジェクトまでの距離との決定に応答して、スクリーン上に表示された情報を変更する。これにより、更なる機能性が可能になる。例えば、一対のオブジェクトを単独で使用してスクリーン上の異なるコントロールと相関させることにより、例えば音量制御の調節や一領域のズームを行うことができる。これら二つのオブジェクトは一緒に使用してもよい。スクリーン上に表示された画像は、オブジェクトを使用して、例えばオブジェクトを回転させることにより操作することができる。例えば、左のオブジェクトをスクリーンに向かって移動させ、右のオブジェクトをスクリーンから離れる方向へ移動させることにより、垂直軸を中心として画像を時計回りに回転させることができ、上のオブジェクトをスクリーンに向かって移動させ、下のオブジェクトをスクリーンから離れる方向へ移動させることにより、水平軸を中心に画像を回転させることができ、更にはオブジェクトの相対的な整列とオブジェクト間の相対運動とに応じて他の回転が可能である。 Optionally, the method can include using two objects to point to information displayed on the screen of the computer system and capturing the scene in front of the screen with at least two cameras. A processor can be used to identify the object by analyzing the scene captured by the camera, and determine the position that the object points on the screen and the distance from the screen to the object. The processor then changes the information displayed on the screen in response to determining the position that the object points to and the distance from the screen to the object. This allows for further functionality. For example, by using a pair of objects alone and correlating with different controls on the screen, for example, volume control adjustments or zooming of a region can be performed. These two objects may be used together. The image displayed on the screen can be manipulated using the object, for example by rotating the object. For example, by moving the left object toward the screen and moving the right object away from the screen, you can rotate the image clockwise about the vertical axis and move the top object toward the screen. The image can be rotated around the horizontal axis by moving the object below and moving away from the screen, and it can be different depending on the relative alignment of the objects and the relative movement between the objects. Can be rotated.
多くの異なるオブジェクトを使用してスクリーンを指し示すことができる。例えば、オブジェクトはユーザの手でよい。好ましくは、オブジェクトはユーザの手の伸ばした指とすることができる。このとき、指の先端が、スクリーンからの距離を決定するために使用される点とすることができる。指の延長線を使用して、ユーザが指し示しているスクリーン上の位置を決定することができる。 Many different objects can be used to point to the screen. For example, the object may be the user's hand. Preferably, the object can be a finger extended by the user's hand. At this time, the tip of the finger can be the point used to determine the distance from the screen. The extension of the finger can be used to determine the position on the screen that the user is pointing to.
本発明は、ジェスチャーに基づくマンマシンインターフェースを含むコンピュータシステムも提供する。このコンピュータシステムは、(a)情報を表示するスクリーン、(b)スクリーン前方のシーンを捉えるために配置された少なくとも二つのカメラ、及び(c)プロセッサを備える。プロセッサは、カメラが供給する画像を受信して、この画像を分析することにより、スクリーン上に表示された情報を指し示すオブジェクトを識別する。プロセッサはまた、スクリーン上でオブジェクトが指し示す位置と、スクリーンからオブジェクトまでの距離とを決定する。プロセッサは、更に、オブジェクトが指し示す位置と、スクリーンからオブジェクトまでの距離との決定に応答して、スクリーン上に表示された情報を修正する。 The present invention also provides a computer system including a man-machine interface based on gestures. The computer system comprises (a) a screen for displaying information, (b) at least two cameras arranged to capture a scene in front of the screen, and (c) a processor. The processor receives an image provided by the camera and analyzes the image to identify an object that points to information displayed on the screen. The processor also determines the position that the object points on the screen and the distance from the screen to the object. The processor further modifies the information displayed on the screen in response to determining the position pointed to by the object and the distance from the screen to the object.
随意で、プロセッサは、オブジェクトの運動を追跡することにより、スクリーン上でオブジェクトが指し示す位置を決定する。加えて、又は別の構成として、プロセッサは、オブジェクトの縦方向の延長線を決定することにより、スクリーン上でオブジェクトが指し示す位置を決定する。プロセッサは、決定されたスクリーンからオブジェクトまでの距離に基づく倍率で、オブジェクトが指し示すスクリーンの部分をズームすることができる。本発明の方法に関して上述したように、二つのオブジェクトを使用して、スクリーン上に表示された情報を変更することができる。オブジェクトはユーザの手とすることができ、例えばユーザの手の伸ばした指でよい。 Optionally, the processor determines the position that the object points on the screen by tracking the movement of the object. In addition or alternatively, the processor determines the position that the object points on the screen by determining a vertical extension of the object. The processor can zoom the portion of the screen that the object points to with a magnification based on the determined screen-to-object distance. As described above with respect to the method of the present invention, two objects can be used to change the information displayed on the screen. The object can be a user's hand, for example, a finger extended by the user's hand.
本発明の理解を助けるために、例示のみを目的として添付図面に言及する。 In order to assist the understanding of the present invention, reference is made to the accompanying drawings by way of example only.
ジェスチャーに基づくマンマシンインターフェースを含むコンピュータシステム10が図1に示されている。コンピュータシステム10は、駆動されると情報を表示する一又は複数のスクリーン12を含む。情報の表示は、スクリーン12の前方で、ユーザが自分自身の手14を用いてジェスチャーを行うことにより、ユーザによって制御可能である。このようなジェスチャーは、スクリーン12の周囲に配置された四つのカメラ6を使用して記録される。カメラ16が捉えた画像は、ユーザの手14の位置を三次元で決定し、手14の運動を追跡するために分析される。手14の運動は、コンピュータシステム10によって、例えばスクリーン12上に表示されているアイコンの選択、又はスクリーン12上に表示された一領域のズームに対応するジェスチャーとして解釈される。コンピュータシステム10は、このようなジェスチャーに応答して、スクリーン12上に表示された情報を変更する。図2は、ユーザが、ユーザの人差し指18をスクリーン12上に示されたボタン20に向かって前方へ動かす一例を示している。このような運動は、ユーザがボタン20を押す動作に似ており、コンピュータシステム10は、これをユーザによるボタン20の選択と解釈する。これにより、コンピュータシステム10はスクリーン12上に新規ビューを表示する。
A
図1及び2は、横に並んだ二つのスクリーン12を使用するコンピュータシステム10を示しているが、任意の数のスクリーン12が使用可能である。スクリーン12の前方に、ユーザの腕22が図解的に示されている。腕22の運動は、スクリーン12の四つの角の外側に配置されて、スクリーン12の中央に向けられた四つのカメラ16によって捉えられる。したがって、それらのカメラは、ユーザの手14がスクリーン12の前方を移動するとき、ユーザの手14の運動を捕捉する。四つのカメラ16を使用することにより、スクリーン12の前方の空間の三次元マップが構築可能である。このように、一のオブジェクト、例えばユーザの指18の先端の位置を、x、y、z座標系において決定することができる。このような座標軸は図1及び3に示されている。x軸、y軸、z軸三つすべてに基づく空間情報を、マンマシンインターフェースに使用することができる。
1 and 2 illustrate a
図3A〜Hは、各カメラ16の視野24を合成して、コンピュータシステム10がオブジェクトの位置決定を行うことができる空間容積を供給する方法を示している。カメラ16は同一であり、したがって同じ視野24を有している。図3A及び3Eは、単一のカメラ16のみを示す単一のスクリーン12の、それぞれ平面図及び正面図である(分かり易く示すため、カメラ16は図式的に点として示されている)。このように、図は、各カメラ16により取得された視野24を明瞭に示している。図3B及び3Fは、同じスクリーン12のそれぞれ平面図及び正面図であり、ここでは、スクリーン12の右側に配置された二つのカメラ16が示されている。図3Fは、二つのカメラ16の視野がどのように合成されるかを示している。図3C及び3Gは、それぞれの四つのカメラ16すべて及びそれらの視野24を含むスクリーン12の平面図及び正面図である。スクリーン12の前方におけるオブジェクトの位置は、このオブジェクトが少なくとも二つのカメラ16の視野24内に捕捉されれば決定できる。このように、オブジェクトの位置は、図3C及び3Gにおける視野24の重複部分のいずれでも決定することができる。図3D及び3Hは、対象のコア領域26を示している。このコア領域内で、オブジェクトの位置が決定される。
FIGS. 3A-H illustrate how the fields of
図4は、コンピュータシステム10を更に詳細に示している。コンピュータシステム10は、そのハブとしてコンピュータ40を有している。コンピュータ40は、メインプロセッサ42などの多くの異なる部品を含むことができ、メモリには、スクリーン12のような周辺機器のドライバ、及びスクリーン12のような周辺機器を動作させるカードといったプログラムが格納される。
FIG. 4 shows the
図示のように、フィードライン44によって四つのカメラ16が画像処理プロセッサ46に連結されている。画像処理プロセッサ46は、メインプロセッサ42の一部でもよく、又は別個のプロセッサとして提供されてもよい。いずれにしろ、画像処理プロセッサ46はカメラ16から静止画像を受信する。画像処理プロセッサ46は、共通に利用可能なソフトウェアを使用して画像を処理することで画像の質を向上させる。例えば、画像の質が向上するように、輝度、コントラスト、及び鮮明度を改善することができる。処理された画像はメインプロセッサ42に渡される。メモリに格納された画像分析ソフトウェアは、メインプロセッサ42によって読み出されて実行され、処理された画像を分析し、スクリーン12上でユーザが指し示している位置を決定する。言うまでもなく、このような画像分析ソフトウェアは一般に入手可能である。
As shown, four
メインプロセッサ42は、スクリーン上でユーザが指し示す位置を決定すると、スクリーン12上に提示された表示に変更が必要であるかどうかを決定する。必要であるという決定を行うと、メインプロセッサ42は、スクリーン12上に表示された情報に必要な変更を生じさせる信号を生成する。このような信号は、スクリーン12上に供給される実際の信号を供給するスクリーンドライバ/カード48に渡される。
When the
図4に示すように、コンピュータ40は、スクリーン12からタッチスクリーン入力を受け取る入力手段50、即ち、ユーザがスクリーン12をタッチすることによりスクリーン12上に表示されたアイコンを選択することを可能にする手段を含むことができる。このような機能の付与は、特定の状況で有用でありうる。例えば、重大な選択には、ユーザがそのような選択を確かに望むことを保証するための追加ステップとして、ユーザによるスクリーン12のタッチを必要とすることができる。例えば、これは、システムを緊急遮断するボタンに使用することができる。このような動作は明らかに極端であり、ユーザがスクリーン12をタッチするための要件にこれを反映させることができる。したがって、入力手段50が提供される。
As shown in FIG. 4, the
上述のように、メインプロセッサ42は、画像処理プロセッサ46により供給された処理済の静止画像を取得してこれらの画像を分析することにより、ユーザがスクリーン12を指し示しているか否かを決定する。これは、従来の画像認識技術のいずれか、例えばスクリーン12の一つに向かって伸びる人差し指18を有する手14に関連する形状を識別するように訓練されたソフトウェアを用いて実行することができる。メインプロセッサ42は、次いで、スクリーン12上で指18が指し示す位置を決定する。メインプロセッサ42は、一又は複数の手についてこのような決定を行うことができ、複数の手について決定できる方が望ましい。例えば、メインプロセッサ42は、スクリーンを指し示しているすべての手についてこのような決定を行うことができる。後述の説明では、単一の指18の一実施例に焦点を当てる。言うまでもなく、本方法は、所望の数の指18、又はスクリーン12を指し示していると決定されたすべての指について繰返すことができる。
As described above, the
メインプロセッサ42がスクリーン2上で指18が指し示している位置を決定する方法は、様々な方法で行うことができる。
The manner in which the
一実施形態では、メインプロセッサ42は、人差し指18の先端の位置を、x、y、z座標系内で特定する。これは、四つのカメラ16によって捕捉された画像に基づく三角測量により行うことができる。四つで一組の画像に基づいて人差し指18の先端の位置が特定されたら、次の組の四つの画像を同様に処理し、人差し指18の先端の次の位置を決定することができる。このようにして、人差し指18の先端を追跡することができ、時間の経過に伴い前方へと繰返される人差し指18先端の運動が追跡されて、そのような動きが継続した場合に到達するスクリーン12上の位置が決定される。
In one embodiment, the
別の実施形態では、画像を分析することにより、人差し指18の延長線、即ち指18が指し示す方向が決定される。当然ながら、この技術を上述の実施形態と組み合わせることにより、例えば、指18が指し示す方向へ指18が動くときを特定することができ、これは、指18が、スクリーン12上に表示されるオブジェクトを「押している」と解釈されうる。
In another embodiment, the image is analyzed to determine the extension of the
図5A〜Cは、本発明により提供されるズーム機能の一実施形態を示している。上述のように、四つのカメラ16に囲まれた単一のスクリーン12が提供されている。カメラ16及びスクリーン12は、上述のように動作するコンピュータシステム10に連結されて、ジェスチャーに基づくマンマシンインターフェースを提供する。
5A-C illustrate one embodiment of the zoom function provided by the present invention. As described above, a
図5A〜Cに示す実施例では、スクリーン12は地図80と関連情報とを表示している。スクリーン12の上部はヘッダ情報82を有しており、選択可能な四つのボタン84の列がスクリーン12の左側に提供されている。ボタン84には、選択できる情報の新規スクリーンを示すテキスト、又はマップ80上に表示された情報を変更するための新規スクリーンを示すテキストを記載することができる。マップ80は、スクリーン12の大部分を占め、スクリーン12の右下に向かってずれた位置に配置されている。マップ80は航空機88をドットで表わしており、ドットには、現在の飛行方向を示す矢印が付されている。参照番号90で示すように、航空機88を特定する情報をドットの横に表示することもできる。マップ80の下端に沿って提供される一行のボックス92に、更なる情報が供給される。
In the embodiment shown in FIGS. 5A-C, the
ユーザが、マップ80上で対象の航空機88にズームインして、例えばマップ80に示された基礎となる地理情報を詳細に表示させたいと考えているとする。これを行うために、ユーザは、ボタン84の一つを指し示すことによりズームモードを選択することができ、次いでマップ80上で対象の航空機88を指し示すことができる。図5B及び5Cに示すように、これにより、ユーザが指し示す領域が、円94の中に拡大表示される。円94は、背景のマップ80の上に表示される。ズームされた円94と背景マップ80との縁は、従来技術に周知であるように、必要に応じて融合させることができる。倍率を調整するためには、人差し指18をスクリーン12に近づけるか、又はスクリーン12から遠ざける、即ちz方向に動かすだけでよい。人差し指18をスクリーンに向かって動かすと、倍率が増大する。
It is assumed that the user wants to zoom in on the
このように、ユーザの指18のx、y位置は、拡大されるマップ80上の領域を決定するために使用され、指18のz位置は、倍率を決定するために使用される。倍率に応じて、z位置の値を設定することができる。例えば、ユーザの指先18がスクリーン12から特定の距離、例えば30cm以上離れると、倍率が1に設定される。また、スクリーンからの最小距離、例えば5cmを設定することができ、この距離は、ユーザの指18がスクリーン12から5cm以下の距離になると倍率がそれ以上増大しない最大倍率に対応する。これらの距離の間で倍率をどのように変化させるかは、所望通りに選択することができる。例えば、倍率は、距離により線形に変化させてもよく、指数関数的関係のような他の何らかの関係に従ってもよい。
Thus, the x, y position of the user's
図5B及び5Cは、図5Bのスタート位置から、ユーザが人差し指18をスクリーン12に近づけながら、対象の航空機88を指し示すことにより、図5Cに示すように倍率が増大する状況を示している。ユーザが指18を横方向に動かしながらスクリーン12に近づけると、倍率が増大し、且つ拡大領域が指18の横方向への動きに従って動く。
5B and 5C show a situation in which the magnification increases as shown in FIG. 5C when the user points the
当業者には明らかであるように、特許請求の範囲において規定される本発明の範囲を逸脱せずに、上記の実施形態に修正を加えることが可能である。 It will be apparent to those skilled in the art that modifications may be made to the embodiments described above without departing from the scope of the invention as defined in the claims.
例えば、スクリーン12の数は、任意の数に自由に変更することができる。加えて、スクリーン12の種類を変更することができる。例えば、スクリーン12は、プラズマスクリーン、LCDスクリーン、OLEDスクリーンなどの平坦なスクリーンとすることができるか、或いはブラウン管や、単に画像が投影される表面とすることができる。複数のスクリーン12が使用される場合、すべてが共通の種類である必要はない。使用されるカメラ16の種類も変更可能であるが、CCDカメラが望ましい。カメラ16は、可視光を使用して動作することができるが、他の波長で電磁放射を使用することができる。例えば、弱光条件で赤外線カメラを使用することができる。
For example, the number of
ソフトウェアは、あらゆるオブジェクトを監視して、スクリーン12にから選択されたオブジェクトを決定するように訓練することができる。例えば、上述ではユーザの指18を挙げた。別の構成では、スティック又はワンドのようなポインティングデバイスを使用することができる。
The software can be trained to monitor any object and determine the selected object from the
本発明を使用して、ツリー構造に配置されたメニューに極めて効率的にアクセスすることができる。例えば、スクリーン12上に提示されたボタン又はメニューオプションを指18で指すことにより、スクリーン12上に新規情報を表示させることができる。次いで、ユーザはユーザの指18を動かして、別のボタン又はメニューオプションを指し示し、それによりスクリーン12上に新規情報を表示させるなどすることができる。したがって、単に指18を動かしてスクリーン12の異なる部分を指し示すことにより、ユーザはツリーメニュー構造を極めて迅速にナビゲートすることができる。
Using the present invention, menus arranged in a tree structure can be accessed very efficiently. For example, new information can be displayed on the
ユーザの指18の位置は、例えば指18の先端を追跡することにより連続的に決定することができる。これにより、指18の運動速度を決定することができる。次いで、この速度を使用して、スクリーン12上の情報を制御することができる。例えば、低速運動が、高速の運動とは異なる応答を誘導するように、スクリーン12に向かう運動の速度を使用することができる。横方向の運動も、異なる速度が異なる結果を生じさせるように使用することができる。例えば、横方向へのゆっくりとした運動により、スクリーン12上に表示されたオブジェクトをスクリーン内部で動かすことができ、例えば、左から右へのゆっくりとした運動により、オブジェクトを、スクリーン12の中央の位置から右側へと動かすことができる。これとは異なり、高速運動は、オブジェクトをスクリーン12から除去することができ、例えば左から右への高速運動により、オブジェクトはスクリーン12の右端から飛び去ることができる。
The position of the user's
上記のように、メインプロセッサ42は、ユーザの指18のような複数のオブジェクトを監視することができる。これにより、複数のオブジェクトを使用してスクリーン12上の情報を制御することができる。スクリーン上の異なるコントロールと相関させて、新規アイテムを選択し、選択されたアイテムに関する情報の種類を変更するために、一対のオブジェクトを単独で使用することができる。二つのオブジェクトを一緒に使用することができる。スクリーン上に表示された画像は、両手14を使用して操作することができる。スクリーン12上に表示されたオブジェクトを回転させることができる。例えば、ユーザは、両手を同じ高さに上げ、各手の人差し指18で、スクリーン12上に表示されたオブジェクトの左端と右端を指し示す。左手14をスクリーン12の方へ、右手14をスクリーン12から離れる方向へ、それぞれ動かすことにより、垂直軸を中心としてオブジェクトを時計回りに回転させることができる。片手14を他方の手の上方に配置すれば、水平軸を中心にオブジェクトを回転させることができる。指18の先端同士を結ぶ線に相当する回転軸が画定されうる。
As described above, the
10 コンピュータシステム
12 スクリーン
14 ユーザの手
16 カメラ
18 ユーザの指
22 ユーザの腕
24 カメラの視野
26 対象コア領域
40 コンピュータ
42 メインプロセッサ
44 フィードライン
46 画像処理プロセッサ
48 スクリーンドライバ
50 タッチスクリーン入力
80 マップ
82 ヘッダ情報
84 ボタン
86 テキスト
88 航空機
90 航空機を特定する情報
92 ボックス
94 拡大円
DESCRIPTION OF
Claims (10)
コンピュータシステムのスクリーン上に表示される情報を、オブジェクトを用いて指し示すこと、
少なくとも二つのカメラによりスクリーン前方のシーンを捉えること、
カメラが捉えたシーンをプロセッサで分析することにより、オブジェクトを識別し、スクリーン上でオブジェクトが指し示す位置とスクリーンからオブジェクトまでの距離とを決定し、且つオブジェクトが指し示す位置とスクリーンからオブジェクトまでの距離との決定に応答してスクリーン上に表示される情報を修正すること、及び
オブジェクトの運動を追跡することにより、スクリーン上でオブジェクトが指し示している位置を決定すること
を含む方法。 A method of using a computer system with a man-machine interface based on gestures,
Pointing to information displayed on the screen of the computer system using objects;
Capture the scene in front of the screen with at least two cameras,
By analyzing the scene captured by the camera with a processor, the object is identified, the position indicated by the object on the screen and the distance from the screen to the object are determined, and the position indicated by the object and the distance from the screen to the object are determined. Modifying the information displayed on the screen in response to the determination and determining the position the object is pointing on the screen by tracking the movement of the object.
情報を表示するスクリーン、
スクリーン前方のシーンを捉えるように配置された少なくとも二つのカメラ、及び
カメラが供給する画像を受信し、画像を分析してスクリーン上に表示された情報を指し示すオブジェクトを識別し、スクリーン上でオブジェクトが指し示す位置とスクリーンからオブジェクトまでの距離とを決定し、オブジェクトが指し示す位置とスクリーンからオブジェクトまでの距離との決定に応答して、スクリーン上に表示される情報を修正するプロセッサであって、オブジェクトの運動を追跡することによりスクリーン上でオブジェクトが指し示す位置を決定するプロセッサ
を備えるコンピュータシステム。 A computer system including a man-machine interface based on gestures,
Screen to display information,
Receive at least two cameras arranged to capture the scene in front of the screen, and the images supplied by the cameras, analyze the images to identify objects that point to information displayed on the screen, and the objects on the screen A processor that determines a point and a distance from a screen to an object, and modifies information displayed on the screen in response to the determination of a position and a distance from the screen to the object. A computer system comprising a processor that determines a position to which an object points on a screen by tracking movement.
情報を表示するスクリーン、
スクリーン前方のシーンを捉えるように配置された少なくとも二つのカメラ、及び
カメラが供給する画像を受信し、画像を分析してスクリーン上に表示された情報を指し示すオブジェクトを識別し、スクリーン上でオブジェクトが指し示す位置とスクリーンからオブジェクトまでの距離とを決定し、オブジェクトが指し示す位置とスクリーンからオブジェクトまでの距離との決定に応答して、スクリーン上に表示される情報を修正するプロセッサであって、オブジェクトの運動速度を決定し、運動速度の決定に応答してスクリーン上に表示される情報を修正するプロセッサ
を備えるインターフェース。 A man-machine interface based on gestures of a computer system,
Screen to display information,
Receive at least two cameras arranged to capture the scene in front of the screen, and the images supplied by the cameras, analyze the images to identify objects that point to information displayed on the screen, and the objects on the screen A processor that determines a point and a distance from a screen to an object, and modifies information displayed on the screen in response to the determination of a position and a distance from the screen to the object. An interface comprising a processor that determines an exercise speed and modifies information displayed on the screen in response to the determination of the exercise speed.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP10382168.2A EP2395413B1 (en) | 2010-06-09 | 2010-06-09 | Gesture-based human machine interface |
EP10382168.2 | 2010-06-09 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016014772A Division JP2016076275A (en) | 2010-06-09 | 2016-01-28 | Man-machine interface based on gesture |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011258195A true JP2011258195A (en) | 2011-12-22 |
JP2011258195A5 JP2011258195A5 (en) | 2014-05-29 |
JP5878698B2 JP5878698B2 (en) | 2016-03-08 |
Family
ID=43242748
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011118571A Active JP5878698B2 (en) | 2010-06-09 | 2011-05-27 | Man-machine interface based on gestures |
JP2016014772A Pending JP2016076275A (en) | 2010-06-09 | 2016-01-28 | Man-machine interface based on gesture |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016014772A Pending JP2016076275A (en) | 2010-06-09 | 2016-01-28 | Man-machine interface based on gesture |
Country Status (3)
Country | Link |
---|---|
US (1) | US9569010B2 (en) |
EP (1) | EP2395413B1 (en) |
JP (2) | JP5878698B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013140582A (en) * | 2011-12-30 | 2013-07-18 | Samsung Electronics Co Ltd | Electronic apparatus and method of controlling the same |
KR20160012825A (en) * | 2014-07-25 | 2016-02-03 | 엘지전자 주식회사 | Electronic Device And Method Of Controlling The Same |
WO2019066614A1 (en) * | 2017-09-29 | 2019-04-04 | 에스케이텔레콤 주식회사 | Device and method for controlling touch display, and touch display system |
KR20190038498A (en) * | 2019-03-19 | 2019-04-08 | 에스케이텔레콤 주식회사 | Method and apparatus for controlling touch display and touch display system |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2023812B1 (en) | 2006-05-19 | 2016-01-27 | The Queen's Medical Center | Motion tracking system for real time adaptive imaging and spectroscopy |
WO2013032933A2 (en) | 2011-08-26 | 2013-03-07 | Kinecticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
GB2500006A (en) * | 2012-03-06 | 2013-09-11 | Teknologian Tutkimuskeskus Vtt Oy | Optical touch screen using cameras in the frame. |
TW201339903A (en) * | 2012-03-26 | 2013-10-01 | Hon Hai Prec Ind Co Ltd | System and method for remotely controlling AUV |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10042510B2 (en) | 2013-01-15 | 2018-08-07 | Leap Motion, Inc. | Dynamic user interactions for display control and measuring degree of completeness of user gestures |
SE536989C2 (en) * | 2013-01-22 | 2014-11-25 | Crunchfish Ab | Improved feedback in a seamless user interface |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN109008972A (en) | 2013-02-01 | 2018-12-18 | 凯内蒂科尔股份有限公司 | The motion tracking system of real-time adaptive motion compensation in biomedical imaging |
WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US9645652B2 (en) | 2013-05-28 | 2017-05-09 | The Boeing Company | Ubiquitous natural user system for human-machine interaction |
US9395810B2 (en) | 2013-05-28 | 2016-07-19 | The Boeing Company | Ubiquitous natural user system |
CN103399629B (en) * | 2013-06-29 | 2017-09-19 | 华为技术有限公司 | The method and apparatus for obtaining gesture screen display coordinate |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9430046B2 (en) | 2014-01-16 | 2016-08-30 | Denso International America, Inc. | Gesture based image capturing system for vehicle |
JP6287382B2 (en) * | 2014-03-12 | 2018-03-07 | オムロン株式会社 | Gesture recognition device and method for controlling gesture recognition device |
WO2015148391A1 (en) | 2014-03-24 | 2015-10-01 | Thomas Michael Ernst | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US9734589B2 (en) | 2014-07-23 | 2017-08-15 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN204480228U (en) | 2014-08-08 | 2015-07-15 | 厉动公司 | motion sensing and imaging device |
US20160159281A1 (en) * | 2014-12-04 | 2016-06-09 | Hyundai Mobis Co., Ltd. | Vehicle and control method thereof |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
GB2574886A (en) * | 2018-06-22 | 2019-12-25 | Ecole Polytechnique Fed Lausanne Epfl | Teleoperation with a wearable sensor system |
US11144194B2 (en) * | 2019-09-19 | 2021-10-12 | Lixel Inc. | Interactive stereoscopic display and interactive sensing method for the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005322071A (en) * | 2004-05-10 | 2005-11-17 | Takenaka Komuten Co Ltd | Indication operation recognition device, indication operation recognition method and indication operation recognition program |
JP2006293878A (en) * | 2005-04-14 | 2006-10-26 | Nippon Telegr & Teleph Corp <Ntt> | Image display system, image display method, and image display program |
JP2009116583A (en) * | 2007-11-06 | 2009-05-28 | Ricoh Co Ltd | Input controller and input control method |
JP2009151516A (en) * | 2007-12-20 | 2009-07-09 | Yaskawa Information Systems Co Ltd | Information processor and operator designating point computing program for information processor |
JP2009176272A (en) * | 2007-09-17 | 2009-08-06 | Honeywell Internatl Inc | System for integrating assets information, networks, and automated behaviors |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744313A (en) * | 1993-08-03 | 1995-02-14 | Nippon Telegr & Teleph Corp <Ntt> | Pointed information input method |
JP3544739B2 (en) * | 1994-04-13 | 2004-07-21 | 株式会社東芝 | Information input device |
JPH08328735A (en) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | Hand pointing input device |
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
GB2374266A (en) * | 2001-04-04 | 2002-10-09 | Matsushita Comm Ind Uk Ltd | Virtual user interface device |
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
CA2523623A1 (en) * | 2002-11-29 | 2004-07-22 | Bracco Imaging, S.P.A. | Method and system for scaling control in 3d displays |
EP1769328A2 (en) * | 2004-06-29 | 2007-04-04 | Koninklijke Philips Electronics N.V. | Zooming in 3-d touch interaction |
JP2008517368A (en) | 2004-10-15 | 2008-05-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 3D rendering application system using hands |
US20060241864A1 (en) * | 2005-04-22 | 2006-10-26 | Outland Research, Llc | Method and apparatus for point-and-send data transfer within an ubiquitous computing environment |
JP2008210348A (en) * | 2007-02-28 | 2008-09-11 | Univ Of Tokyo | Image display device |
JP4187768B2 (en) | 2007-03-20 | 2008-11-26 | 株式会社コナミデジタルエンタテインメント | Game device, progress control method, and program |
EP2227729B1 (en) * | 2007-11-29 | 2022-10-19 | Koninklijke Philips N.V. | Method of providing a user interface |
JP5134409B2 (en) * | 2008-03-27 | 2013-01-30 | 日本写真印刷株式会社 | Presentation system |
US20090254855A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications, Ab | Communication terminals with superimposed user interface |
US8237666B2 (en) * | 2008-10-10 | 2012-08-07 | At&T Intellectual Property I, L.P. | Augmented I/O for limited form factor user-interfaces |
JP6072401B2 (en) * | 2009-03-30 | 2017-02-01 | アバイア インク. | A system and method for managing a contact center with a graphical call connection display. |
JP2010257037A (en) * | 2009-04-22 | 2010-11-11 | Sony Corp | Information processing apparatus and method, and program |
US20100306670A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture-based document sharing manipulation |
US8957918B2 (en) * | 2009-11-03 | 2015-02-17 | Qualcomm Incorporated | Methods for implementing multi-touch gestures on a single-touch touch surface |
US20110151974A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Gesture style recognition and reward |
US8843358B2 (en) * | 2011-02-03 | 2014-09-23 | Echostar Technologies L.L.C. | Apparatus, systems and methods for presenting displayed image information of a mobile media device on a large display and control of the mobile media device therefrom |
-
2010
- 2010-06-09 EP EP10382168.2A patent/EP2395413B1/en active Active
-
2011
- 2011-05-27 JP JP2011118571A patent/JP5878698B2/en active Active
- 2011-05-31 US US13/149,462 patent/US9569010B2/en active Active
-
2016
- 2016-01-28 JP JP2016014772A patent/JP2016076275A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005322071A (en) * | 2004-05-10 | 2005-11-17 | Takenaka Komuten Co Ltd | Indication operation recognition device, indication operation recognition method and indication operation recognition program |
JP2006293878A (en) * | 2005-04-14 | 2006-10-26 | Nippon Telegr & Teleph Corp <Ntt> | Image display system, image display method, and image display program |
JP2009176272A (en) * | 2007-09-17 | 2009-08-06 | Honeywell Internatl Inc | System for integrating assets information, networks, and automated behaviors |
JP2009116583A (en) * | 2007-11-06 | 2009-05-28 | Ricoh Co Ltd | Input controller and input control method |
JP2009151516A (en) * | 2007-12-20 | 2009-07-09 | Yaskawa Information Systems Co Ltd | Information processor and operator designating point computing program for information processor |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013140582A (en) * | 2011-12-30 | 2013-07-18 | Samsung Electronics Co Ltd | Electronic apparatus and method of controlling the same |
KR20160012825A (en) * | 2014-07-25 | 2016-02-03 | 엘지전자 주식회사 | Electronic Device And Method Of Controlling The Same |
KR102261141B1 (en) * | 2014-07-25 | 2021-06-04 | 엘지전자 주식회사 | Electronic Device And Method Of Controlling The Same |
WO2019066614A1 (en) * | 2017-09-29 | 2019-04-04 | 에스케이텔레콤 주식회사 | Device and method for controlling touch display, and touch display system |
KR20190037569A (en) * | 2017-09-29 | 2019-04-08 | 에스케이텔레콤 주식회사 | Method and apparatus for controlling touch display and touch display system |
KR101969528B1 (en) | 2017-09-29 | 2019-04-16 | 에스케이텔레콤 주식회사 | Method and apparatus for controlling touch display and touch display system |
US11086445B2 (en) | 2017-09-29 | 2021-08-10 | Sk Telecom Co., Lid. | Device and method for controlling touch display, and touch display system |
KR20190038498A (en) * | 2019-03-19 | 2019-04-08 | 에스케이텔레콤 주식회사 | Method and apparatus for controlling touch display and touch display system |
KR102005501B1 (en) | 2019-03-19 | 2019-07-30 | 에스케이텔레콤 주식회사 | Method and apparatus for controlling touch display and touch display system |
Also Published As
Publication number | Publication date |
---|---|
US9569010B2 (en) | 2017-02-14 |
CN102279670A (en) | 2011-12-14 |
EP2395413A1 (en) | 2011-12-14 |
JP5878698B2 (en) | 2016-03-08 |
EP2395413B1 (en) | 2018-10-03 |
US20110304650A1 (en) | 2011-12-15 |
JP2016076275A (en) | 2016-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5878698B2 (en) | Man-machine interface based on gestures | |
US11720181B2 (en) | Cursor mode switching | |
US10761610B2 (en) | Vehicle systems and methods for interaction detection | |
JP5900393B2 (en) | Information processing apparatus, operation control method, and program | |
US7849421B2 (en) | Virtual mouse driving apparatus and method using two-handed gestures | |
EP2480955B1 (en) | Remote control of computer devices | |
US9588613B2 (en) | Apparatus and method for controlling motion-based user interface | |
Hachet et al. | Navidget for easy 3d camera positioning from 2d inputs | |
US20110298708A1 (en) | Virtual Touch Interface | |
US20120274550A1 (en) | Gesture mapping for display device | |
CA2957383A1 (en) | System and method for spatial interaction for viewing and manipulating off-screen content | |
KR20130105725A (en) | Computer vision based two hand control of content | |
JP2006209563A (en) | Interface device | |
US20240053832A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
CN118020044A (en) | Method and system for displaying edge interaction in gesture control device | |
CN102279670B (en) | Man machine interface based on gesture | |
AU2015258317B2 (en) | Apparatus and method for controlling motion-based user interface | |
Carey | The Implementation of a Glove-Based User Interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140416 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151208 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5878698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |