JP6207023B2 - スクリーン上のオブジェクトの回転 - Google Patents

スクリーン上のオブジェクトの回転 Download PDF

Info

Publication number
JP6207023B2
JP6207023B2 JP2014509861A JP2014509861A JP6207023B2 JP 6207023 B2 JP6207023 B2 JP 6207023B2 JP 2014509861 A JP2014509861 A JP 2014509861A JP 2014509861 A JP2014509861 A JP 2014509861A JP 6207023 B2 JP6207023 B2 JP 6207023B2
Authority
JP
Japan
Prior art keywords
axis
hand
change
angle
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014509861A
Other languages
English (en)
Other versions
JP2014513371A (ja
Inventor
ジン‐ズ チェン
ジン‐ズ チェン
デニス オメル ロゲ
デニス オメル ロゲ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2014513371A publication Critical patent/JP2014513371A/ja
Application granted granted Critical
Publication of JP6207023B2 publication Critical patent/JP6207023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Description

本発明は、スクリーン上のオブジェクトを回転させる装置に関する。本発明はさらに、スクリーン上のオブジェクトを回転させる装置、方法、コンピュータ・プログラム製品及び媒体に関する。
そのような装置の例は、例えば医師が無菌状態を維持する必要がある医療分野における、例えば制御者が1つ以上のスクリーンの前で制御を実行する制御分野における、或いは、例えば芸術監督が1つ以上のスクリーンの前で創作を行う創作分野における、ジェスチャに基づく画像操作装置である。
US2009/0021475A1は、ジェスチャ認識を用いて医療起源の画像データを表示する及び/又は処理する方法を開示する。この方法は比較的複雑である。
比較的単純な装置を提供することが本発明の目的である。本発明の更なる目的は、装置、比較的単純な方法、コンピュータ・プログラム製品及び媒体を提供することである。
第1の態様によれば、スクリーン上のオブジェクトを回転させるための装置が提供され、当該装置は、
- ユーザの第1の手と関連がある第1の3D位置情報に応じて、及び、ユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるための定義ユニット、
- 3D空間の軸に対する手の軸の変更された方向を検出する検出ユニット、及び
- 検出ユニットからの検出結果に応じて、スクリーン上のオブジェクトの回転を計算する計算ユニット、を有する。
定義ユニットは、3Dカメラ若しくは2台の2D(二次元)カメラ、GPS(Global Positioning System)検出器、ローカル・ポジショニング・システム検出器、電磁場の乱れを検出する検出器、又は、レーダー若しくはソナー技術に基づく検出器などのような位置測定システムから、ユーザの第1の手と関連がある第1の3D(三次元)位置情報及びユーザの第2の手と関連がある第2の3D位置情報を受信する。第1及び第2の3D位置情報に応じて、定義ユニットは手の軸を定める。この手の軸は、例えば、3D位置情報によって示されるように、手の中心を通過するか、手の特定の指の先端を通過するか、又は手に保持されるアイテムを通過するなどである。
検出ユニットは、3D空間の1つ以上の軸に対する手の軸の変更された方向を検出し、計算ユニットは、検出ユニットからの検出結果に応じてスクリーン上のオブジェクトの回転を計算する。その結果、手の軸を導入したことによって、比較的単純な装置が生成された。そのような比較的単純な装置は、例えば、より高速で、より安価であり、より頑丈で、より信頼性が高く、より安全である。
手の軸は、より多くの目的(例えばズーミング)のために用いられることができる。より長い手の軸はズームアウトに対応し、より短い手の軸はズームインに対応することができ、逆もまた同じである。
装置の実施の形態は、手の軸と3D空間の第1の軸との間の第1の角度の第1の変化と、手の軸と3D空間の第2の軸との間の第2の角度の第2の変化と、手の軸と3D空間の第3の軸との間の第3の角度の第3の変化を含む、手の軸の変更された方向によって定められる。一旦手の軸が定められると、手の軸と3D空間の各々の軸との間の角度の変化に対する手の軸の変更された方向を定めることが有利である。
装置の実施の形態は、ゼロに等しくない第1、第2及び第3の変化のそれぞれによって定められる。この場合には、ユーザは、3D回転を実行しているか又は実行した。
装置の実施の形態は、第1、第2及び第3の角度を検出するための角度検出器、第1、第2及び第3の角度それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器、第1、第2及び第3の比較結果それぞれに応じて、第1、第2及び第3の変化の1つ以上を低減するための低減器を有する検出ユニットによって定められる。第1(第2、第3)の角度が第1(第2、第3)の閾値以下の場合には、第1(第2、第3)の変化は、安定性を改善するために低減されることができる。
装置の実施の形態は、対応する閾値以下の対応する角度を示す第1、第2及び第3の比較結果のうちの1つ、並びに、対応する変化をゼロに向けて低減する低減器によって定められる。
装置の実施の形態は、対応する閾値以下の対応する角度を示す第1、第2及び第3の比較結果のうちの1つ、並びに、対応する変化に重み付けする低減器によって定められる。重みづけ係数はここで通常0%から100%の間である。
装置の実施の形態は、対応する閾値以下である対応する角度を示す第1、第2及び第3の比較結果のうちの2つ、及び、対応する変化に重み付けする低減器によって定められる。各々の重みづけ係数はここで通常0%から100%の間である。
装置の実施の形態は、ゼロに等しくない第1、第2及び第3の変化の1つか又は2つによって定められる。この場合には、ユーザは、1D(一次元)の又は2Dの回転を実行しているか又は実行した。
装置の実施の形態は、タイムインターバルごとの変化である第1、第2及び第3の変化のそれぞれによって定められる。大部分の位置測定システムは、タイムインターバルごと若しくはフレームごとの位置情報、又は時間にわたる変化を提供する。
装置の実施の形態は、X軸である3D空間の第1の軸、Y軸である3D空間の第2の軸及びZ軸である3D空間の第3の軸によって定められる。通常、X軸及びY軸は、位置測定システムの正面に対して平行である実質的に水平及び実質的に垂直の軸であり、Z軸は、位置測定システムのこの正面に実質的に直交する軸であるが、任意の他の座標軸が用いられることができる。
装置の実施の形態は、第1の絶対又は相対3D座標を含むユーザの第1の手と関連がある第1の3D位置情報、第2の絶対又は相対3D座標を含むユーザの第2の手と関連がある第2の3D位置情報及び両方の3D座標を通過する手の軸によって定められる。
第2の態様によれば、前記装置を有し、さらに、第1及び第2の位置情報を提供するための位置測定システム並びに/又はスクリーンを有するデバイスが提供される。
第3の態様によれば、スクリーン上のオブジェクトを回転させるための方法が提供され、当該方法は、
- ユーザの第1の手と関連がある第1の3D位置情報に応じて、及びユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるステップ、
- 3D空間の軸に対する手の軸の変更された方向を検出するステップ、
- 検出結果に応じてスクリーン上のオブジェクトの回転を計算するステップ、を有する。
第4の態様によれば、前記方法のステップを実行するコンピュータ・プログラムが提供される。
第5の態様によれば、前記コンピュータ・プログラムを記録して保持するための媒体が提供される。
方法の実施の形態は装置の実施の形態に対応する。
スクリーン上のオブジェクトを回転させるために、オブジェクトの仮想のコピーが、ユーザによって保持される仮想のボール内にあると考えられることができ、その仮想のボールが回転される。基本的なアイデアは、ユーザの手の間の手の軸が定められ、手の軸の変更された方向が検出されて、応じて、スクリーン上のオブジェクトの回転が計算されるということである。
比較的単純な装置を提供するという問題は解決された。更なる利点は、そのような比較的単純な装置は、例えば、より高速で、より安価であり、より頑丈で、より信頼性が高く、そしてより安全であることである。
本発明のこれらの及び他の態様は、以下に記載される実施の形態から明らかであり、それらを参照して説明される。
装置を有するデバイスを示す図。 3D空間中の2つの手の間の手の軸を示す図。
図1において、装置を有するデバイスが示される。装置10は、ユーザの第1の手と関連がある第1の3D(三次元)位置情報及びユーザの第2の手と関連がある第2の3D位置情報を提供するための位置測定システム8、装置1並びにスクリーン9を含む。スクリーン9上のオブジェクトを回転させるための装置1は、第1の3D位置情報に応じて及び第2の3D位置情報に応じて、手の軸を定めるための定義ユニット2を含む。装置1は、3D空間の軸に対する手の軸の変更された方向を検出する検出ユニット3、及び、検出ユニット3からの検出結果に応じてスクリーン9に示されるオブジェクトの回転を計算する計算ユニット4を更に備える。
位置測定システム8は、3Dカメラ若しくは2台の2D(二次元)カメラ、GPS(Global Positioning System)検出器、ローカル・ポジショニング・システム検出器、電磁場の乱れを検出する検出器、又は、レーダー若しくはソナー技術に基づく検出器などを有することができる。装置1は、1つ以上のプロセッサ及び/又は1つ以上のコンピュータなどのような任意の種類の定義/検出/計算システムを有することができる。スクリーン9は、ディスプレイ、プロジェクタ又は従来のテレビなどのような任意の種類のスクリーンを有することができる。
図2において、2つの手の間の手の軸が3D空間中に示される。ユーザの第1の手21と第2の手22との間の手の軸20は、3D空間の第1の軸31(例えばX軸)と第1の角度を成し、3D空間の第2の軸31(例えばY軸)と第2の角度を成し、3D空間の第3の軸31(例えばZ軸)と第3の角度を成す。オブジェクト40を示すスクリーン9及びここでは3Dカメラの形の位置測定システム8がさらに図2に示される。手21及び22は、スクリーン9に示されるオブジェクト40の仮想のコピーを含む仮想のボール41を仮想現実的に保持している。ユーザが1度以上3D空間中の仮想のボール41を回転させるために手21及び22を動かすと、手の軸20は(1度以上の回転の結果として)方向が変更され、第1、第2及び第3の角度のうちの1つ以上が変化する。仮想のボール41の代わりに、他の任意の形状のアイテムが用いられることができる。この手の軸20は、例えば、3D位置情報によって示されるように、手21, 22の中央を通過するか、手21, 22の特定の指先を通過するか、又は、手21, 22によって保持されるアイテムを通過するなどである。
好ましくは、手の軸20の変更された方向は、手の軸20と3D空間の第1の軸31との間の第1の角度の第1の変化、手の軸20と3D空間の第2の軸32との間の第2の角度の第2の変化及び手の軸20と3D空間の第3の軸33との間の第3の角度の第3の変化を有する場合がある。
ユーザが3D回転を実行しているか又は実行した場合、第1、第2及び第3の変化の各々はゼロに等しくない。その場合、特定の状況の下で、3D回転は時折不安定になり、それによって、例えば、手の軸20と3D空間の第1、第2及び第3の軸31, 32, 33のうちの1つとの間の角度における比較的小さな変化が、結果としてスクリーン9上での比較的大きい変化になる可能性がある。この問題を解決するために、図1に示されるように、検出ユニット3は、第1、第2及び第3の角度を検出するための角度検出器5、第1、第2及び第3の角度それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器6、並びに、第1、第2及び第3の比較結果それぞれに応じて、第1、第2及び第3の変化それぞれの1つ以上を低減するための低減器を備えることができる。
例えば、第1、第2及び第3の比較結果のうちの1つが、対応する角度が対応する閾値以下であることを示す場合、低減器7は、対応する変化をゼロに向けて低減することができる。このケースは、3D空間の第1、第2及び第3の軸31, 32, 33のうちの特定の1つの軸を無効にすることに対応し、手の軸20と3D空間のこの特定の1つの軸との間の角度変化を無視することに対応する。
例えば、第1、第2及び第3の比較結果のうちの1つが、対応する角度が対応する閾値以下であることを示す場合、低減器7は対応する変化に重み付けすることができる。このケースは、3D空間の第1、第2及び第3の軸31, 32, 33のうちの特定の1つの角度からの影響を低減することに対応し、そして手の軸20と3D空間のこの特定の1つの軸との間の角度変化を低減することに対応する。重み付けの量及び低減の量は、対応する角度のサイズに依存してもよいし、依存しなくてもよい。対応する閾値は、一定の値を有してもよいし、あるいは、回転速度、ユーザの安定性、ユーザの経験、他の角度のサイズ、他の閾値及び更なる特徴などに依存することができる。同様に、前記重み付けは、この種の特徴などに依存することができる。
例えば、第1、第2及び第3の比較結果のうちの2つが、対応する角度が対応する閾値以下であることを示す場合、低減器7は、対応する変化に重み付けすることができる。このケースは、3D空間の第1、第2及び第3の軸31, 32, 33の2つの特定の軸からの影響を低減することに対応し、手の軸20と3D空間のこれらの2つの特定の軸との間の角度変化を低減することに対応する。重み付けの量及び低減の量は、対応する角度のサイズに依存してもよいし、依存しなくてもよい。対応する閾値は、一定の値を有してもよいし、あるいは、回転速度、ユーザの安定性、ユーザの経験、他の角度のサイズ、他の閾値及び更なる特徴などに依存してもよい。同様に、前記重みづけは、この種の特徴などに依存することができる。
ユーザが1D(一次元)又は2Dの回転を実行しているか又は実行した場合には、第1、第2及び第3の変化のうちの1つ又は2つがゼロに等しくない。その場合、通常、1D又は2Dの回転は不安定にならない。
好ましくは、第1、第2及び第3の変化のそれぞれ1つは、タイムインターバルごとの変化であることができる。大部分の位置測定システムは、タイムインターバルごと若しくはフレームごとの位置情報、又は時間にわたる変化を提供する。
好ましくは、ユーザの第1の手21と関連がある第1の3D位置情報は、第1の絶対又は相対3D座標を有することができ、ユーザの第2の手22と関連がある第2の3D位置情報は、第2の絶対又は相対3D座標を有することができ、手の軸20は、両方の3D座標を通過することができる。
要約すると、スクリーン9上のオブジェクト40を回転させるための装置1は、ユーザの手21, 22と関連する3D位置情報に応じて手の軸20を定め、3D空間に対する手の軸20の変更された方向を検出して、前記に検出に応じて、スクリーン9上のオブジェクト40の回転を計算する。このように、スクリーン9上のオブジェクト40を回転させるために、オブジェクト40の仮想のコピーが、ユーザによって保持される仮想のボール41内にあると考えられて、この仮想のボール41が回転される。手の軸20の変更された方向は、手の軸20と3D空間の軸31, 32, 33との間の角度における変化を含む。前記変化のそれぞれがゼロに等しくない場合における安定性を改善するために、装置1はさらに、角度を検出して、それぞれの角度をそれぞれの閾値と比較して、それぞれの比較結果に応じてそれぞれの変化を低減するか又は重み付けする。
本発明が、図面及び上記の記載において詳細に説明されたが、そのような説明は例示であって、制限的なものではなく、本発明は、開示された実施の形態に限られない。図面、開示及び添付の請求の範囲の検討から、開示された実施の形態に対する他のバリエーションは、請求された発明を実施する際に、当業者によって理解され、遂行されることができる。請求の範囲において、「有する」「含む」等の用語は、他の要素又はステップを除外せず、単数表現は複数を除外しない。単に特定の手段が相互に異なる従属請求項中に列挙されているからといって、これらの手段の組み合わせが有効に用いられることができないことを意味しない。請求の範囲におけるいかなる参照符号も、その範囲を制限するものとして解釈されるべきでない。

Claims (14)

  1. スクリーン上のオブジェクトを回転させるための装置であって、
    ユーザの第1の手と関連がある第1の3D位置情報に応じて、及び、ユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるための定義ユニット、
    3D空間の軸に対する前記手の軸の変化を検出するための検出ユニット、及び
    前記検出ユニットからの検出結果に応じて、スクリーン上のオブジェクトの回転を計算する計算ユニット、
    を有し、
    前記手の軸の長さに対応して前記オブジェクトがズームアウト又はズームインされ
    前記手の軸の変化は、前記手の軸と3D空間の第1の軸との間の第1の角度の変化と、前記手の軸と3D空間の第2の軸との間の第2の角度の変化と、前記手の軸と3D空間の第3の軸との間の第3の角度の変化とを含み、
    前記検出ユニットが、前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するための比較器、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するための低減器を有する、
    装置。
  2. 前記第1、第2及び第3の角度の変化のそれぞれ1つがゼロに等しくない、請求項に記載の装置。
  3. 前記検出ユニットが、前記第1、第2及び第3の角度を検出するための角度検出器を有する、請求項に記載の装置。
  4. 前記第1、第2及び第3の比較結果のうちの1つが、対応する角度の変化が対応する閾値以下であることを示すと、前記低減器が対応する角度の変化をゼロに向けて低減する、請求項に記載の装置。
  5. 前記第1、第2及び第3の比較結果のうちの1つが対応する角度の変化が対応する閾値以下であることを示すと、前記低減器が対応する角度の変化に重み付けする、請求項に記載の装置。
  6. 前記第1、第2及び第3の比較結果のうちの2つが対応する角度の変化が対応する閾値以下であることを示すと、前記低減器が対応する角度の変化に重み付けする、請求項に記載の装置。
  7. 前記第1、第2及び第3の角度の変化のうちの1つ又は2つがゼロではない、請求項に記載の装置。
  8. 前記第1、第2及び第3の角度の変化のうちのそれぞれ1つがタイムインターバルごとの変化である、請求項に記載の装置。
  9. 3D空間の前記第1の軸がX軸であり、3D空間の前記第2の軸がY軸であり、3D空間の前記第3の軸がZ軸である、請求項に記載の装置。
  10. ユーザの第1の手と関連がある第1の3D位置情報は第1の絶対又は相対3D座標を有し、ユーザの第2の手と関連がある第2の3D位置情報は第2の絶対又は相対3D座標を有し、前記手の軸は両方の3D座標を通過する、請求項1に記載の装置。
  11. 請求項1に記載の装置を有し、さらに、前記第1及び第2の位置情報を提供するための位置測定システム及び/又はスクリーンを有するデバイス。
  12. スクリーン上のオブジェクトを回転させるための方法であって、
    ユーザの第1の手と関連がある第1の3D位置情報に応じて、及びユーザの第2の手と関連がある第2の3D位置情報に応じて、手の軸を定めるステップ、
    3D空間の軸に対する前記手の軸の変化を検出するステップ、及び
    検出結果に応じてスクリーン上のオブジェクトの回転を計算するステップ、
    を有し、
    前記手の軸の長さに対応して前記オブジェクトがズームアウト又はズームインされ
    前記手の軸の変化は、前記手の軸と3D空間の第1の軸との間の第1の角度の変化と、前記手の軸と3D空間の第2の軸との間の第2の角度の変化と、前記手の軸と3D空間の第3の軸との間の第3の角度の変化とを含み、
    前記第1、第2及び第3の角度の変化それぞれを第1、第2及び第3の閾値それぞれと比較するステップ、第1、第2及び第3の比較結果それぞれに応じて、前記第1、第2及び第3の角度の変化の1つ以上を低減するステップをさらに有する、
    方法。
  13. コンピュータ上で実行されて当該コンピュータに請求項12に記載の方法を実行させるコンピュータ・プログラム。
  14. 請求項13に記載のコンピュータ・プログラムが記憶された計算機可読媒体。
JP2014509861A 2011-05-09 2012-05-02 スクリーン上のオブジェクトの回転 Active JP6207023B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11165263.2 2011-05-09
EP11165263 2011-05-09
PCT/IB2012/052186 WO2012153233A1 (en) 2011-05-09 2012-05-02 Rotating an object on a screen

Publications (2)

Publication Number Publication Date
JP2014513371A JP2014513371A (ja) 2014-05-29
JP6207023B2 true JP6207023B2 (ja) 2017-10-04

Family

ID=46085676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014509861A Active JP6207023B2 (ja) 2011-05-09 2012-05-02 スクリーン上のオブジェクトの回転

Country Status (7)

Country Link
US (1) US10102612B2 (ja)
EP (1) EP2712436B1 (ja)
JP (1) JP6207023B2 (ja)
CN (1) CN103502912B (ja)
BR (1) BR112013028559A2 (ja)
RU (1) RU2611977C2 (ja)
WO (1) WO2012153233A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101653146B1 (ko) 2015-09-04 2016-09-01 홍유정 드론 컨트롤러
KR101921376B1 (ko) * 2016-02-24 2018-11-22 홍유정 객체 컨트롤러
CN108268148A (zh) * 2017-12-28 2018-07-10 网云(武汉)三维科技股份有限公司 一种3d物体的位置切换装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5687307A (en) 1993-09-21 1997-11-11 Canon Kabushiki Kaisha Computer graphic animation in which texture animation is independently performed on a plurality of objects in three-dimensional space
JPH07239750A (ja) * 1993-12-28 1995-09-12 Canon Inc モデリング方法とその装置
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100595917B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
EP0991011B1 (en) * 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
RU2199716C2 (ru) * 2001-01-31 2003-02-27 "А4 Визион Са" Способ бесконтактного контроля линейных размеров трехмерных объектов
CN1462929A (zh) * 2002-05-20 2003-12-24 许旻 一种计算机输入系统
EP2000894B1 (en) 2004-07-30 2016-10-19 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
US7662113B2 (en) * 2004-11-05 2010-02-16 California Institute Of Technology Fingertip tracker
WO2006059743A1 (en) * 2004-12-03 2006-06-08 Ssd Company Limited Boxing game processing method, display control method, position detection method, cursor control method, energy consumption calculating method and exercise system
EP1731099A1 (en) 2005-06-06 2006-12-13 Paul Scherrer Institut Interferometer for quantitative phase contrast imaging and tomography with an incoherent polychromatic x-ray source
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
JPWO2007135835A1 (ja) * 2006-05-19 2009-10-01 パナソニック株式会社 画像操作装置、画像操作方法、及び画像操作プログラム
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20080125224A1 (en) 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
US8141424B2 (en) * 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US20090262074A1 (en) 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
EP2017756A1 (de) 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
US8723795B2 (en) * 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스
US9564075B2 (en) * 2009-12-30 2017-02-07 Cyweemotion Hk Limited Electronic control apparatus and method for responsively controlling media content displayed on portable electronic device
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
JP5664036B2 (ja) * 2010-09-07 2015-02-04 ソニー株式会社 情報処理装置、プログラム及び制御方法
US8860805B2 (en) * 2011-04-12 2014-10-14 Lg Electronics Inc. Electronic device and method of controlling the same

Also Published As

Publication number Publication date
CN103502912A (zh) 2014-01-08
WO2012153233A1 (en) 2012-11-15
CN103502912B (zh) 2017-11-07
EP2712436A1 (en) 2014-04-02
RU2013154430A (ru) 2015-06-20
JP2014513371A (ja) 2014-05-29
EP2712436B1 (en) 2019-04-10
US10102612B2 (en) 2018-10-16
RU2611977C2 (ru) 2017-03-01
BR112013028559A2 (pt) 2017-01-17
US20140062870A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
US10379733B2 (en) Causing display of a three dimensional graphical user interface with dynamic selectability of items
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US10600150B2 (en) Utilizing an inertial measurement device to adjust orientation of panorama digital images
US20120054690A1 (en) Apparatus and method for displaying three-dimensional (3d) object
JP5802247B2 (ja) 情報処理装置
US9646571B1 (en) Panoramic video augmented reality
JP6534974B2 (ja) 画面制御のための効率的なインタフェースを提供するシステムおよび方法
US9395910B2 (en) Invoking zoom on touch-screen devices
JP2018133019A5 (ja)
CN103412720A (zh) 处理触控式输入信号的方法及其装置
US9891713B2 (en) User input processing method and apparatus using vision sensor
JP2017195552A5 (ja)
JP6207023B2 (ja) スクリーン上のオブジェクトの回転
US9483143B2 (en) Method and system providing viewing-angle sensitive graphics interface selection compensation
WO2019019372A1 (zh) 移动终端的图片操作控制方法、装置、移动终端及介质
US9122346B2 (en) Methods for input-output calibration and image rendering
WO2015062176A1 (zh) 多点触控的多媒体球幕演示仪及其多点触控方法
EP2779116B1 (en) Smooth manipulation of three-dimensional objects
JP6141290B2 (ja) マルチポインタ間接入力装置の加速度によるインターラクション
CN105094459B (zh) 一种光学多点触摸定位方法
US20220335676A1 (en) Interfacing method and apparatus for 3d sketch
TW201303745A (zh) 動態偵測方法及顯示裝置
US20160054900A1 (en) Computer Implemented System and Method for Producing 360 Degree Perspective Images
JP2019168252A (ja) 処理装置、3次元モデルの分割方法及びプログラム
Bérci et al. Real-time multi-finger tracking in 3D for a mouseless desktop

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160906

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170901

R150 Certificate of patent or registration of utility model

Ref document number: 6207023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250