JPWO2018042639A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2018042639A1 JPWO2018042639A1 JP2018529320A JP2018529320A JPWO2018042639A1 JP WO2018042639 A1 JPWO2018042639 A1 JP WO2018042639A1 JP 2018529320 A JP2018529320 A JP 2018529320A JP 2018529320 A JP2018529320 A JP 2018529320A JP WO2018042639 A1 JPWO2018042639 A1 JP WO2018042639A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- input position
- input
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
以下、本発明に関わる情報処理装置を含む情報処理システムの実施形態の例を説明する。図1は、情報処理システムの全体構成を示す図である。図1に示すように、情報処理システム1は、情報処理装置10、位置検出装置20、及び大型ディスプレイ30を含む。情報処理装置10、位置検出装置20、及び大型ディスプレイ30は、それぞれ有線又は無線によりネットワークを介して通信可能に接続されるようにしてよい。
次に、情報処理装置10が実行する処理の概要を説明する。図2は、情報処理システム1が利用される場面を示す図である。図2に示すように、例えば、大型ディスプレイ30の上面中央付近に位置検出装置20が配置され、ユーザは、情報処理装置10を操作し、大型ディスプレイ30に資料を映し出してプレゼンテーションをする。なお、本実施形態では、位置検出装置20を原点Owとするワールド座標系(あるいはビュー座標系)の座標軸であるXw軸−Yw軸−Zw軸と、大型ディスプレイ30の画面左上を原点Osとするスクリーン座標系の座標軸であるXs軸−Ys軸と、が設定されるものとする。また、位置検出装置20と大型ディスプレイ30は、事前に伽リブレーションされており、位置検出装置20の画角におけるユーザ及び画面の関係を把握可能となっている。
図7は、情報処理システム1で実現される機能の一例を示す機能ブロック図である。図7に示すように、本実施形態では、データ記憶部100、3次元座標取得部101、実指示位置取得部102、相対位置取得部103、入力位置取得部104、処理実行部105、及び移動判定部106が、情報処理装置10で実現される。なお、以降では、特に図面を参照する必要のないときは、頭Hpや相対位置θなどの符号を省略する。
データ記憶部100は、記憶部12を主として実現される。データ記憶部100は、入力位置の移動量を抑制するために必要なデータを記憶する。ここでは、そのデータの一例として、相対位置θと単位移動量Δxとの関係(図6)を示す関係データを説明する。関係データは、数式形式(例えば、数式5)であってもよいし、テーブル形式であってもよいし、プログラムコードの一部として記述されていてもよい。関係データがプログラムコードの一部である場合には、相対位置θを引数として入力すると、それに対応する単位移動量Δxを戻り値として返す関数であってよい。
3次元座標取得部101は、制御部11を主として実現される。3次元座標取得部101は、位置検出装置20から、ユーザの各部位の3次元座標を示す部位情報を取得する。部位情報は、ユーザの手の位置を示す3次元座標を含むので、3次元座標取得部101は、ユーザの手の位置を示す3次元座標を取得することになる。
実指示位置取得部102は、制御部11を主として実現される。実指示位置取得部102は、ユーザにより画面に向けられた手が実際に指し示す実指示位置であって、画面を含む平面上にある実指示位置を取得する。実指示位置は、空間において、ユーザによって画面が物理的に指し示されている位置であり、例えば、ユーザの手の位置から指し示す方向に向けて伸ばした線と画面との交点である。実指示位置は、ワールド座標系の3次元座標で示されてもよいし、スクリーン座標系の2次元座標で示されてもよい。本実施形態では、実指示位置は、3次元座標で示されるものとする。また、実指示位置は、必ずしも画面上にある必要はなく、画面を含む平面上にあればよい。画面を含む平面は、画面と一致していてもよいし、画面とその周囲を含む平面であってもよい。即ち、実指示位置は、画面の内側と外側の何れにあってもよく、例えば、実指示位置取得部102は、ユーザが画面の外を指し示したとしても、画面の外の実指示位置を取得可能であってよい。
相対位置取得部103は、制御部11を主として実現される。相対位置取得部103は、実指示位置に対するユーザの相対位置を取得する。相対位置は、実指示位置とユーザとの位置関係であり、ユーザがどこから画面を指し示しているかである。別の言い方をすれば、相対位置は、実指示位置から伸びる画面上の垂線とユーザとのずれ具合であり、画面に対するユーザの位置ともいえる。相対位置は、実指示位置から見た場合のユーザの位置を特定可能な情報で表されるようにすればよく、ベクトルや座標値で表現されてもよいが、ここでは、角度(例えば、図5のθ)が用いられるものとする。相対位置取得部103は、実指示位置に対するユーザの任意の部位の相対位置を取得すればよく、ここでは、実指示位置に対するユーザの頭の相対位置を取得する。
入力位置取得部104は、制御部11を主として実現される。入力位置取得部104は、ユーザの手の現在位置に対応する画面上の入力位置を取得する。入力位置取得部104は、ユーザの手の現在位置に基づいて入力位置を取得し、ユーザの手が動いた場合に入力位置を移動させる。
処理実行部105は、制御部11を主として実現される。処理実行部105は、入力位置取得部104により取得された入力位置に基づいて、所定の処理を実行する。本実施系形態では、所定の処理は、画面において入力位置を識別可能にする画像処理である。この画像処理は、例えば、入力位置又はその所定距離以内に画像を表示させる処理、入力位置又はその所定距離以内の色、輝度、若しくは透明度を変化させる処理、又は入力位置又はその所定距離以内に点滅などのエフェクトを施す処理である。本実施形態では、入力位置にポインタ40を表示させることが所定の処理に相当する。
移動判定部106は、制御部11を主として実現される。移動判定部106は、ユーザが移動したかを判定する。移動判定部106による判定対象となるユーザの部位は、任意の部位であってよく、ここでは、基準部位である頭とする。本実施形態では、移動判定部106は、部位情報の変化に基づいてユーザが移動したかを判定する。例えば、移動判定部106は、ユーザの頭の移動量が閾値以上である場合はユーザが移動したと判定し、ユーザの頭の移動量が閾値未満である場合はユーザが移動していないと判定する。頭の移動量は、ある一定期間(例えば、1秒間)における頭の位置変化を利用すればよい。
図8は、情報処理装置10において実行される処理の一例を示すフロー図である。図8に示す処理は、図7に示す機能ブロックにより実行される処理の一例であり、制御部11が、記憶部12に記憶されたプログラムに従って動作することによって実行される。図8に示す処理は、位置検出装置20のフレームレートに基づいて定まる一定時間(即ち、処理単位であるフレーム)ごとに実行されるものとする。なお、情報処理装置10のフレームと、位置検出装置20のフレームと、は同期されているものとする。
なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
Claims (18)
- 画面に向けられたオブジェクトが実際に指し示す実指示位置であって、前記画面を含む平面上にある実指示位置を取得する実指示位置取得手段と、
前記実指示位置に対するユーザの相対位置を取得する相対位置取得手段と、
前記オブジェクトの現在位置に対応する前記画面上の入力位置を取得する手段であって、前記ユーザが前記オブジェクトを動かした場合に、前記相対位置に基づいて、操作量に対する前記入力位置の移動量を抑制可能な入力位置取得手段と、
前記入力位置取得手段により取得された入力位置に基づいて、所定の処理を実行する処理実行手段と、
を含むことを特徴とする情報処理装置。 - 前記入力位置取得手段は、
前記オブジェクトが前記画面を指し示していない非指示状態から前記画面を指し示す指示状態になった場合は、現在の前記実指示位置を、前記入力位置として取得し、
前記オブジェクトが前記指示状態になった後に、前記ユーザが前記オブジェクトを動かした場合に、前記入力位置の移動量を抑制可能である、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記入力位置取得手段は、
前記オブジェクトが前記非指示状態から前記指示状態になった場合の前記実指示位置を、基準位置として取得し、
前記オブジェクトが前記指示状態になった後に、前記ユーザが前記オブジェクトを動かした場合に、前記相対位置に基づいて、前記基準位置からの前記入力位置の移動量を抑制可能である、
ことを特徴とする請求項2に記載の情報処理装置。 - 前記情報処理装置は、前記オブジェクトの位置を示す3次元座標と、前記ユーザの位置を示す3次元座標と、を取得する3次元座標取得手段を更に含み、
前記実指示位置取得手段は、前記オブジェクトの3次元座標に基づいて前記実指示位置を取得し、
前記相対位置取得手段は、前記ユーザの3次元座標に基づいて前記相対位置を取得し、
前記入力位置取得手段は、前記オブジェクトの3次元座標に基づいて、前記入力位置を取得する、
ことを特徴とする請求項1〜3の何れかに記載の情報処理装置。 - 前記実指示位置は、前記ユーザの頭の位置から前記オブジェクトの位置に向けた方向によって定まる前記画面上の位置であり、
前記相対位置は、前記実指示位置に対する前記ユーザの頭の相対位置である、
ことを特徴とする請求項1〜4の何れかに記載の情報処理装置。 - 前記入力位置取得手段は、前記ユーザが前記オブジェクトを動かした場合、前記ユーザに対する前記オブジェクトの相対位置の変化に基づいて、前記入力位置を取得する、
ことを特徴とする請求項1〜5の何れかに記載の情報処理装置。 - 前記入力位置取得手段は、前記ユーザが前記オブジェクトを動かした場合に、前記ユーザに対して前記オブジェクトが動いた角度に基づいて、前記入力位置を取得する、
ことを特徴とする請求項1〜6の何れかに記載の情報処理装置。 - 前記情報処理装置は、前記ユーザが移動したかを判定する移動判定手段を更に含み、
前記相対位置取得手段は、前記ユーザが移動したと判定された場合に、前記相対位置を取得し直し、
前記入力位置取得手段は、取得し直された前記相対位置に基づいて、前記入力位置を取得し直す、
ことを特徴とする請求項1〜7の何れかに記載の情報処理装置。 - 前記入力位置取得手段は、前記オブジェクトが前記指示状態になった後に、前記ユーザが前記オブジェクトを動かした場合に、前記基準位置からの現在の前記実指示位置の移動量よりも、前記基準位置からの現在の前記入力位置の移動量が小さくなるように、前記入力位置を取得する、
ことを特徴とする請求項3に記載の情報処理装置。 - 前記入力位置取得手段は、
前記オブジェクトが前記指示状態になった後に、再び前記非指示状態になった場合に、前記入力位置を取得する処理を停止し、
前記オブジェクトが再び前記非指示状態になった後に、再び前記指示状態になった場合に、現在の前記実指示位置を、新たな前記入力位置及び前記基準位置として取得し直す、
ことを特徴とする請求項3又は9に記載の情報処理装置。 - 前記入力位置取得手段は、前記オブジェクトが前記非指示状態から前記指示状態になり、かつ、前記指示状態のまま前記オブジェクトの位置が一定時間以上維持された場合に、現在の前記実指示位置を、前記入力位置及び前記基準位置として取得する、
ことを特徴とする請求項3、9、又は10に記載の情報処理装置。 - 前記所定の処理は、前記画面において前記入力位置を識別可能にする画像処理である、
ことを特徴とする請求項1〜11の何れかに記載の情報処理装置。 - 前記入力位置取得手段は、前記オブジェクトが前記指示状態になった後に、所定の条件が満たされた場合に、現在の前記実指示位置を、新たな前記入力位置及び前記基準位置として取得し直し、
前記情報処理装置は、前記ユーザが前記入力位置を注視しているかを判定する注視判定手段を更に含み、
前記入力位置取得手段は、
前記ユーザが前記入力位置を注視していると判定した場合は、前記所定の条件が満たされても、現在の実指示位置を入力位置及び基準位置とする処理は実行せず、
前記ユーザが前記入力位置を注視していないと判定され、かつ、前記所定の条件が満たされた場合に、現在の実指示位置を入力位置及び基準位置とする処理を実行する、
ことを特徴とする請求項3、9、10、又は11に記載の情報処理装置。 - 前記入力位置取得手段は、前記ユーザが前記オブジェクトを動かした場合に、前記オブジェクトの速度に基づいて、前記入力位置を取得する、
ことを特徴とする請求項1〜13の何れかに記載の情報処理装置。 - 前記入力位置手段は、
前記オブジェクトが前記指示状態になり、かつ、所定の状態になった場合に、現在の前記実指示位置を前記入力位置及び前記基準位置として取得し、
前記オブジェクトが前記所定の状態を維持したまま、前記ユーザが前記オブジェクトを動かした場合に、前記基準位置に基づいて前記入力位置を取得し、
前記オブジェクトの前記所定の状態が解除された場合に、前記入力位置を取得する処理を終了する、
ことを特徴とする請求項3、9、10、11、又は13に記載の情報処理装置。 - 前記オブジェクトは、前記ユーザの手であり、
前記実指示位置は、前記ユーザの基準部位の位置から前記手の位置に向けた方向に基づいて定まる前記画面上の位置であり、
前記相対位置は、前記実指示位置に対する前記基準部位の相対位置である、
ことを特徴とする請求項1〜15の何れかに記載の情報処理装置。 - 画面に向けられたオブジェクトが実際に指し示す実指示位置であって、前記画面を含む平面上にある実指示位置を取得する実指示位置取得ステップと、
前記実指示位置に対するユーザの相対位置を取得する相対位置取得ステップと、
前記オブジェクトの現在位置に対応する前記画面上の入力位置を取得する手段であって、前記ユーザが前記オブジェクトを動かした場合に、前記相対位置に基づいて、操作量に対する前記入力位置の移動量を抑制可能な入力位置取得ステップと、
前記入力位置取得ステップにより取得された入力位置に基づいて、所定の処理を実行する処理実行ステップと、
を含むことを特徴とする情報処理方法。 - 画面に向けられたオブジェクトが実際に指し示す実指示位置であって、前記画面を含む平面上にある実指示位置を取得する実指示位置取得手段、
前記実指示位置に対するユーザの相対位置を取得する相対位置取得手段、
前記オブジェクトの現在位置に対応する前記画面上の入力位置を取得する手段であって、前記ユーザが前記オブジェクトを動かした場合に、前記相対位置に基づいて、操作量に対する前記入力位置の移動量を抑制可能な入力位置取得手段、
前記入力位置取得手段により取得された入力位置に基づいて、所定の処理を実行する処理実行手段、
としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/075894 WO2018042639A1 (ja) | 2016-09-02 | 2016-09-02 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6373546B2 JP6373546B2 (ja) | 2018-08-15 |
JPWO2018042639A1 true JPWO2018042639A1 (ja) | 2018-10-04 |
Family
ID=61309171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018529320A Active JP6373546B2 (ja) | 2016-09-02 | 2016-09-02 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11604517B2 (ja) |
JP (1) | JP6373546B2 (ja) |
WO (1) | WO2018042639A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021071485A1 (en) * | 2019-10-09 | 2021-04-15 | Futurewei Technologies, Inc. | Eye gaze tracking |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222098A (ja) * | 1999-01-29 | 2000-08-11 | Takenaka Komuten Co Ltd | ハンドポインティング装置、指示位置表示方法及び記録媒体 |
JP2001513244A (ja) * | 1997-12-22 | 2001-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オプション選択に基づくジェスチャー方法及び装置 |
JP2006277666A (ja) * | 2005-03-30 | 2006-10-12 | Nhk Engineering Services Inc | 表示画面上位置解析装置及び表示画面上位置解析プログラム |
WO2012121405A1 (en) * | 2011-03-07 | 2012-09-13 | Sharp Kabushiki Kaisha | A user interface, a device having a user interface and a method of providing a user interface |
JP2013125985A (ja) * | 2011-12-13 | 2013-06-24 | Sharp Corp | 表示システム |
JP2015176451A (ja) * | 2014-03-17 | 2015-10-05 | 京セラドキュメントソリューションズ株式会社 | ポインティング制御装置およびポインティング制御プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6600475B2 (en) | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US8291346B2 (en) * | 2006-11-07 | 2012-10-16 | Apple Inc. | 3D remote control system employing absolute and relative position detection |
US8920241B2 (en) * | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
US9423877B2 (en) * | 2012-02-24 | 2016-08-23 | Amazon Technologies, Inc. | Navigation approaches for multi-dimensional input |
US8933882B2 (en) * | 2012-12-31 | 2015-01-13 | Intentive Inc. | User centric interface for interaction with visual display that recognizes user intentions |
JP6070833B2 (ja) * | 2013-05-08 | 2017-02-01 | 富士通株式会社 | 入力装置及び入力プログラム |
US9910507B2 (en) * | 2013-10-02 | 2018-03-06 | Samsung Electronics Co., Ltd. | Image display apparatus and pointing method for same |
WO2015100205A1 (en) * | 2013-12-26 | 2015-07-02 | Interphase Corporation | Remote sensitivity adjustment in an interactive display system |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
US20160026264A1 (en) * | 2014-07-24 | 2016-01-28 | Amchael Visual Technology Corporation | Direct three-dimensional pointing using light tracking and relative position detection |
JP2016099643A (ja) * | 2014-11-18 | 2016-05-30 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
-
2016
- 2016-09-02 US US16/311,663 patent/US11604517B2/en active Active
- 2016-09-02 JP JP2018529320A patent/JP6373546B2/ja active Active
- 2016-09-02 WO PCT/JP2016/075894 patent/WO2018042639A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001513244A (ja) * | 1997-12-22 | 2001-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オプション選択に基づくジェスチャー方法及び装置 |
JP2000222098A (ja) * | 1999-01-29 | 2000-08-11 | Takenaka Komuten Co Ltd | ハンドポインティング装置、指示位置表示方法及び記録媒体 |
JP2006277666A (ja) * | 2005-03-30 | 2006-10-12 | Nhk Engineering Services Inc | 表示画面上位置解析装置及び表示画面上位置解析プログラム |
WO2012121405A1 (en) * | 2011-03-07 | 2012-09-13 | Sharp Kabushiki Kaisha | A user interface, a device having a user interface and a method of providing a user interface |
JP2013125985A (ja) * | 2011-12-13 | 2013-06-24 | Sharp Corp | 表示システム |
JP2015176451A (ja) * | 2014-03-17 | 2015-10-05 | 京セラドキュメントソリューションズ株式会社 | ポインティング制御装置およびポインティング制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11604517B2 (en) | 2023-03-14 |
WO2018042639A1 (ja) | 2018-03-08 |
JP6373546B2 (ja) | 2018-08-15 |
US20190196602A1 (en) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
TWI704501B (zh) | 可由頭部操控的電子裝置與其操作方法 | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP4608326B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
JP5509227B2 (ja) | 移動制御装置、移動制御装置の制御方法、及びプログラム | |
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
US20140267004A1 (en) | User Adjustable Gesture Space | |
WO2021035646A1 (zh) | 可穿戴设备及其控制方法、识别手势的方法和控制系统 | |
JP2016194799A (ja) | 画像解析装置及び画像解析方法 | |
CN111353930B (zh) | 数据处理方法及装置、电子设备及存储介质 | |
JP2013258614A (ja) | 画像生成装置および画像生成方法 | |
WO2016008265A1 (zh) | 一种定位位置的方法及装置 | |
WO2017147748A1 (zh) | 一种可穿戴式系统的手势控制方法以及可穿戴式系统 | |
JP2012238293A (ja) | 入力装置 | |
WO2015104919A1 (ja) | ジェスチャー認識装置、操作入力装置およびジェスチャー認識方法 | |
JP7279975B2 (ja) | 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 | |
JP6373546B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10824237B2 (en) | Screen display control method and screen display control system | |
US11960660B2 (en) | Terminal device, virtual object manipulation method, and virtual object manipulation program | |
WO2021241110A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2013178645A (ja) | 電子機器の入力装置 | |
WO2017163647A1 (ja) | 頭部装着装置 | |
US11899834B2 (en) | Information processing device and method | |
US20220192487A1 (en) | Method and system for determining dominant eye, and non-transitory computer-readable recording medium | |
US20230343052A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180606 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180606 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6373546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |