JP6402611B2 - 入力制御方法、入力制御プログラム、及び情報処理装置 - Google Patents
入力制御方法、入力制御プログラム、及び情報処理装置 Download PDFInfo
- Publication number
- JP6402611B2 JP6402611B2 JP2014246238A JP2014246238A JP6402611B2 JP 6402611 B2 JP6402611 B2 JP 6402611B2 JP 2014246238 A JP2014246238 A JP 2014246238A JP 2014246238 A JP2014246238 A JP 2014246238A JP 6402611 B2 JP6402611 B2 JP 6402611B2
- Authority
- JP
- Japan
- Prior art keywords
- hypothesis
- likelihood
- motion
- pointer
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000010365 information processing Effects 0.000 title claims description 27
- 230000033001 locomotion Effects 0.000 claims description 107
- 238000000605 extraction Methods 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 description 27
- 238000004364 calculation method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 12
- 238000013138 pruning Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 102100028952 Drebrin Human genes 0.000 description 3
- 101000838600 Homo sapiens Drebrin Proteins 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 244000141353 Prunus domestica Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/228—Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、情報処理装置の機能構成の一例を示す図である。図1に示す情報処理装置10は、データ取得部11と、ポインタ軌跡抽出部(軌跡抽出部)12と、動作認識部13と、アプリ実行部14と、通信部15と、出力部16と、制御部17と、記憶部18とを有する。図1に示す情報処理装置10は、観測部20及びプロジェクタ30とに接続されている。
次に、情報処理装置10等のコンピュータのハードウェア構成例について、図を用いて説明する。図2は、ハードウェア構成の一例を示す図である。図2の例において、情報処理装置10は、入力装置41と、出力装置42と、ドライブ装置43と、補助記憶装置44と、主記憶装置45と、Central Processing Unit(CPU)46と、ネットワーク接続装置47とを有し、これらはシステムバスBで相互に接続されている。
次に、上述した情報処理装置10における入力制御処理の一例についてフローチャートを用いて説明する。図3は、入力制御処理の一例を示すフローチャートである。
次に、上述した入力制御処理の概要について説明する。図4は、入力制御処理の概要を説明するための図である。図4(A)は、ユーザが行う入力動作の概要を示し、図4(B)は、入力動作によるポインタ軌跡を示している。
ここで、ポインタ軌跡抽出部12におけるタッチ認識を用いられるBNについて図を用いて説明する。図5は、ポインタ軌跡抽出部における単純BNを説明するための図である。図5の例では、入力状態が「因」、各センサの観測データは「果」とし、「因」からどれくらい確率で「果」が発生するのかを示すConditional Probability Table(CPT、条件付確率表)を予め設定しておく。ポインタ軌跡抽出部12は、「果」が発生した時に、「因」をCPTに基づいて、確率的に推定する。
本実施形態では、MHTとDBNと処理結果を連携することにより、ポインタの入力精度を向上させる。連携する場合には、まず上述した図3のS03の処理に示すようにMHTの初期化を行う。
次に、MHTによる位置仮説ノードの追加例について図を用いて説明する。図8は、位置仮説ノードの追加例を示す図である。
次に、上述したタッチ動作尤度p(0x1=1)の計算例について、図を用いて説明する。図9は、タッチ動作尤度p(0x1=1)の計算例を示す図である。
次に、上述したタッチ動作尤度p(1x1=1)の計算例について、図を用いて説明する。図10は、タッチ動作尤度p(1x1=1)の計算例を示す図である。
上述したように図6(B)に示すDBN2を用いて連携する。なお、計算時におけるパラメータ1y1,1,・・・,1yN,1は、前時刻でのデータ0y1,0,・・・,0y1,0をコピーして使用する。また、別方式として、これまでに最も頻度の高い観測データを使用してもよい。
次に、上述したホバー動作尤度p(2x1=0)の計算例について、図を用いて説明する。図11は、ホバー動作尤度p(2x1=0)の計算例を示す図である。
次に、本実施形態における軌跡ツリー(位置仮説ツリー)の生成例について、図を用いて説明する。図12は、軌跡ツリーの生成例を示す図である。なお、軌跡ツリーの生成とは、時刻が1以上となった場合等におけるツリーの生成例を示すものである。
次に、本実施形態における軌跡ツリーの枝刈(選択と削除)例について、図を用いて説明する。図13は、軌跡ツリーの枝刈例を示す図である。本実施形態における軌跡ツリーの枝刈では、図13に示すようにツリーの深さが所定の階層(3階層)以上になった場合、まず、末端の葉にある最大位置尤度を有するノードを選択する。次に、選択したノードから根本ノードまで辿る。そして、根本ノード直下にあり、最大位置尤度のノードに行かない他のノードへの枝をカットする。図13の例では、斜線領域で囲まれた部分がカットされる。カットされた枝については、DBNとの連携を解除し、そのDBNを削除する。これにより、図13の例では、0S0→0S1の経路がタッチ軌跡として確定される。
ここで、ポインタ動作(タッチ、ホバー等)の定義例について、図を用いて具体的に説明する。図14は、ポインタ動作の定義例を示す図である。なお、定義内容は、図14に限定されるものではない。例えば、図14の例は、テーブルトップ61からのボールポインタ62の位置において、タッチの高さ範囲と、ホバーの高さ範囲と、その他の高さ範囲とを定義したものである。ボールポインタ62は、観測データを取得する対象であるポインタデバイスの一例であるが、これに限定されるものではない。
次に、観測データとパラメータ(CPT)との具体例について図を用いて説明する。図15は、観測データとパラメータとの具体例を示す図である。なお、以下の説明では、観測データを取得する対象のポインタデバイスの一例として、図15(A)に示すLED内蔵のボールポインタ62について説明するが、本実施形態においてはこれに限定されるものではなく、例えばユーザの指等や他のポインタデバイスでもよい。
例えば、複数のユーザがそれぞれポインタを移動させた場合、同一センサからの複数の観測データが得られる。本実施形態では、観測データが複数の場合にも、各ポインタ入力の精度を向上させることができる。図17,図18は、ポインタが複数の場合の仮説例を示す図(その1,その2)である。
(付記1)
情報処理装置が、
対象物の位置及び動作を測定して位置情報及び動作情報を取得し、
取得した前記位置情報に基づいて、各時刻における前記対象物の候補位置に関する位置仮説を生成し、
取得した前記動作情報に基づいて、前記位置仮説における動作を反映した動作仮説を生成し、
各動作を反映した前記位置仮説に関連付ける位置仮説尤度及び動作仮説尤度を決定し、
決定した前記位置仮説尤度及び前記動作仮説尤度に基づいて、前記対象物の入力状態を決定する、ことを特徴とする入力制御方法。
(付記2)
前記対象物の候補位置に関する前記位置仮説の生成は、
複数の前記対象物の同時追跡に対応する追跡アルゴリズムを用いることを特徴とする付記1に記載の入力制御方法。
(付記3)
前記対象物の候補動作に関する前記動作仮説の生成は、
ベイジアンネットワークを用いることを特徴とする付記1又は2に記載の入力制御方法。
(付記4)
前記位置仮説が生成される度に、新しい位置仮説をツリーのノードとして直前の位置仮説ノードへ追加することでツリーを生成し、
生成した前記ツリーを用いて前記対象物を用いた入力状態を確定することを特徴とする付記1乃至3の何れか1項に記載の入力制御方法。
(付記5)
前記位置仮説が前記ノードが追加される度に、予め設定された前記対象物の運動モデルを用いて前記位置仮説尤度を取得することを特徴とする付記4に記載の入力制御方法。
(付記6)
予め複数のタイプを有する前記位置仮説に対して、各タイプに対応する前記ベイジアンネットワークを用いて、前記動作仮説尤度を取得することを特徴とする付記3に記載の入力制御方法。
(付記7)
前記ツリーを所定の階層毎に、前記位置仮説尤度に基づいて枝刈を行うことを特徴とする付記4に記載の入力制御方法。
(付記8)
前記対象物の入力状態は、所定の位置へのタッチ状態又はホバー状態を含むことを特徴とする付記1乃至5の何れか1項に記載の入力制御方法。
(付記9)
対象物の位置及び動作を測定して位置情報及び動作情報を取得し、
取得した前記位置情報に基づいて、各時刻における前記対象物の候補位置に関する位置仮説を生成し、
取得した前記動作情報に基づいて、前記位置仮説における動作を反映した動作仮説を生成し、
各動作を反映した前記位置仮説に関連付ける位置仮説尤度及び動作仮説尤度を決定し、
決定した前記位置仮説尤度及び前記動作仮説尤度に基づいて、前記対象物の入力状態を決定する、処理をコンピュータに実行させる入力制御プログラム。
(付記10)
対象物の位置及び動作を測定して位置情報及び動作情報を取得し、取得した前記位置情報に基づいて、各時刻における前記対象物の候補位置に関する位置仮説を生成し、取得した前記動作情報に基づいて、前記位置仮説における動作を反映した動作仮説を生成し、各動作を反映した前記位置仮説に関連付ける位置仮説尤度及び動作仮説尤度を決定し、決定した前記位置仮説尤度及び前記動作仮説尤度に基づいて、前記対象物の入力状態を決定する軌跡抽出部と、
前記軌跡抽出部により抽出された情報から動作の認識を行う動作認識部とを有する情報処理装置。
11 データ取得部
12 ポインタ軌跡抽出部
13 動作認識部
14 アプリ実行部
15 通信部
16 出力部
17 制御部
18 記憶部
20 観測部
21 RGBカメラ
22 深度カメラ
30 プロジェクタ
41 入力装置
42 出力装置
43 ドライブ装置
44 補助記憶装置
45 主記憶装置
46 CPU
47 ネットワーク接続装置
48 記録媒体
50,61 テーブルトップ
51 アイコン
52,63 ユーザ
53 指示部材
54 ポインタ
62 ボールポインタ
Claims (8)
- 情報処理装置が、
対象物の位置及び動作を測定して位置情報及び動作情報を取得し、
取得した前記位置情報に基づいて、各時刻における前記対象物の候補位置に関する位置仮説を生成し、
取得した前記動作情報に基づいて、前記位置仮説における動作を反映した動作仮説を生成し、
各動作を反映した、前記位置仮説に関連付ける位置仮説尤度及び動作仮説尤度を決定し、
決定した前記位置仮説尤度及び前記動作仮説尤度に基づいて、前記対象物の入力状態を決定する、ことを特徴とする入力制御方法。 - 前記対象物の候補位置に関する前記位置仮説の生成は、
複数の前記対象物の同時追跡に対応する追跡アルゴリズムを用いることを特徴とする請求項1に記載の入力制御方法。 - 前記対象物の候補動作に関する前記動作仮説の生成は、
ベイジアンネットワークを用いることを特徴とする請求項1又は2に記載の入力制御方法。 - 前記位置仮説が生成される度に、新しい位置仮説をツリーのノードとして直前の位置仮説ノードへ追加することでツリーを生成し、
生成した前記ツリーを用いて前記対象物を用いた入力状態を確定することを特徴とする請求項1乃至3の何れか1項に記載の入力制御方法。 - 前記位置仮説が前記ノードに追加される度に、予め設定された前記対象物の運動モデルを用いて前記位置仮説尤度を取得することを特徴とする請求項4に記載の入力制御方法。
- 予め複数のタイプを有する前記位置仮説に対して、各タイプに対応する前記ベイジアンネットワークを用いて、前記動作仮説尤度を取得することを特徴とする請求項3に記載の入力制御方法。
- 対象物の位置及び動作を測定して位置情報及び動作情報を取得し、
取得した前記位置情報に基づいて、各時刻における前記対象物の候補位置に関する位置仮説を生成し、
取得した前記動作情報に基づいて、前記位置仮説における動作を反映した動作仮説を生成し、
各動作を反映した、前記位置仮説に関連付ける位置仮説尤度及び動作仮説尤度を決定し、
決定した前記位置仮説尤度及び前記動作仮説尤度に基づいて、前記対象物の入力状態を決定する、処理をコンピュータに実行させる入力制御プログラム。 - 対象物の位置及び動作を測定して位置情報及び動作情報を取得し、取得した前記位置情報に基づいて、各時刻における前記対象物の候補位置に関する位置仮説を生成し、取得した前記動作情報に基づいて、前記位置仮説における動作を反映した動作仮説を生成し、各動作を反映した、前記位置仮説に関連付ける位置仮説尤度及び動作仮説尤度を決定し、決定した前記位置仮説尤度及び前記動作仮説尤度に基づいて、前記対象物の入力状態を決定する軌跡抽出部と、
前記軌跡抽出部により抽出された情報から動作の認識を行う動作認識部とを有する情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014246238A JP6402611B2 (ja) | 2014-12-04 | 2014-12-04 | 入力制御方法、入力制御プログラム、及び情報処理装置 |
US14/953,988 US9921689B2 (en) | 2014-12-04 | 2015-11-30 | Information processing method, information processing apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014246238A JP6402611B2 (ja) | 2014-12-04 | 2014-12-04 | 入力制御方法、入力制御プログラム、及び情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016110333A JP2016110333A (ja) | 2016-06-20 |
JP6402611B2 true JP6402611B2 (ja) | 2018-10-10 |
Family
ID=56094310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014246238A Expired - Fee Related JP6402611B2 (ja) | 2014-12-04 | 2014-12-04 | 入力制御方法、入力制御プログラム、及び情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9921689B2 (ja) |
JP (1) | JP6402611B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294686B (zh) * | 2016-08-05 | 2021-04-02 | 董涛 | 一种应用于计算机技术领域思维导图中快速更新树结点位置坐标的方法 |
JP7444604B2 (ja) * | 2019-12-26 | 2024-03-06 | キヤノン株式会社 | 画像処理装置及び方法、及び撮像装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6683968B1 (en) * | 1999-09-16 | 2004-01-27 | Hewlett-Packard Development Company, L.P. | Method for visual tracking using switching linear dynamic system models |
US7136507B2 (en) * | 2003-11-17 | 2006-11-14 | Vidient Systems, Inc. | Video surveillance system with rule-based reasoning and multiple-hypothesis scoring |
EP2389622A1 (en) | 2009-01-26 | 2011-11-30 | Zrro Technologies (2009) Ltd. | Device and method for monitoring an object's behavior |
JP5259456B2 (ja) * | 2009-03-02 | 2013-08-07 | 株式会社東芝 | 学習装置及び物体検出装置 |
EP2616912B1 (en) | 2010-09-15 | 2019-12-11 | Advanced Silicon SA | Method for detecting an arbitrary number of touches from a multi-touch device |
GB201200643D0 (en) * | 2012-01-16 | 2012-02-29 | Touchtype Ltd | System and method for inputting text |
US8619047B2 (en) * | 2011-02-04 | 2013-12-31 | Perceptive Pixel Inc. | Techniques for disambiguating touch data |
CN102890576B (zh) * | 2011-07-22 | 2016-03-02 | 宸鸿科技(厦门)有限公司 | 触控屏触摸轨迹检测方法及检测装置 |
WO2014109262A1 (ja) * | 2013-01-09 | 2014-07-17 | シャープ株式会社 | タッチパネルシステム |
JP6186834B2 (ja) * | 2013-04-22 | 2017-08-30 | 富士通株式会社 | 目標追尾装置及び目標追尾プログラム |
-
2014
- 2014-12-04 JP JP2014246238A patent/JP6402611B2/ja not_active Expired - Fee Related
-
2015
- 2015-11-30 US US14/953,988 patent/US9921689B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016110333A (ja) | 2016-06-20 |
US20160162057A1 (en) | 2016-06-09 |
US9921689B2 (en) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2648573C2 (ru) | Выделение ресурсов для машинного обучения | |
RU2605370C2 (ru) | Система для распознавания и отслеживания пальцев | |
US20180348783A1 (en) | Asynchronous image classification | |
US9619035B2 (en) | Gesture detection and recognition | |
US9886094B2 (en) | Low-latency gesture detection | |
EP2891950B1 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
US20140204013A1 (en) | Part and state detection for gesture recognition | |
US20120326995A1 (en) | Virtual touch panel system and interactive mode auto-switching method | |
KR20150067250A (ko) | 사용자 인터페이스를 위한 터치리스 입력 | |
JP2015517134A (ja) | 光フォールオフに基づく奥行き画像の生成 | |
JP6438579B2 (ja) | 所望のターゲットを判定するための装置及び方法 | |
KR20160058117A (ko) | 미래 사용자 입력을 예측한 상태 변화에 관한 정보를 사용하는 사용자 입력에 대한 반응을 제공하는 시스템 및 방법 | |
KR101794148B1 (ko) | 효율적인 자유 공간 손가락 인식 | |
JP6942164B2 (ja) | 拡大現実のためのリアルタイムモーションフィードバック | |
US20150193040A1 (en) | Hover Angle | |
JP6402611B2 (ja) | 入力制御方法、入力制御プログラム、及び情報処理装置 | |
CN111986229A (zh) | 视频目标检测方法、装置及计算机系统 | |
US8749488B2 (en) | Apparatus and method for providing contactless graphic user interface | |
JP2019079342A (ja) | 状態判定方法、状態判定プログラム及び状態判定装置 | |
JP2020518841A (ja) | 自動化されたアクティビティ−時間訓練 | |
CN108921129B (zh) | 图像处理方法、系统、介质和电子设备 | |
JP5790257B2 (ja) | 文字入力装置,文字入力プログラムおよび文字入力方法 | |
CN110192208B (zh) | 共享物理图形的信号片段 | |
CN114245093B (zh) | 基于红外和热感的投影操作方法、电子设备及存储介质 | |
WO2018103352A1 (zh) | 一种移动终端的光标定位方法、装置及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6402611 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |