JP2018505455A - 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 - Google Patents
1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 Download PDFInfo
- Publication number
- JP2018505455A JP2018505455A JP2016543719A JP2016543719A JP2018505455A JP 2018505455 A JP2018505455 A JP 2018505455A JP 2016543719 A JP2016543719 A JP 2016543719A JP 2016543719 A JP2016543719 A JP 2016543719A JP 2018505455 A JP2018505455 A JP 2018505455A
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- gesture
- predetermined
- dimensional
- tracked
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000002452 interceptive effect Effects 0.000 title claims description 36
- 230000003993 interaction Effects 0.000 claims abstract description 277
- 238000003384 imaging method Methods 0.000 claims abstract description 70
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 230000001960 triggered effect Effects 0.000 claims description 8
- 238000009792 diffusion process Methods 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims description 4
- 230000005855 radiation Effects 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 abstract description 3
- 230000033001 locomotion Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 14
- 210000003811 finger Anatomy 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 239000000463 material Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 241000699666 Mus <mouse, genus> Species 0.000 description 5
- 230000009471 action Effects 0.000 description 5
- 239000011248 coating agent Substances 0.000 description 5
- 238000000576 coating method Methods 0.000 description 5
- 210000000245 forearm Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000005670 electromagnetic radiation Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000005083 Zinc sulfide Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 239000000049 pigment Substances 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 229910052984 zinc sulfide Inorganic materials 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- TZCXTZWJZNENPQ-UHFFFAOYSA-L barium sulfate Chemical compound [Ba+2].[O-]S([O-])(=O)=O TZCXTZWJZNENPQ-UHFFFAOYSA-L 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 239000004417 polycarbonate Substances 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
- NWONKYPBYAMBJT-UHFFFAOYSA-L zinc sulfate Chemical compound [Zn+2].[O-]S([O-])(=O)=O NWONKYPBYAMBJT-UHFFFAOYSA-L 0.000 description 1
- 229960001763 zinc sulfate Drugs 0.000 description 1
- 229910000368 zinc sulfate Inorganic materials 0.000 description 1
- DRDVZXDWVBGGMH-UHFFFAOYSA-N zinc;sulfide Chemical compound [S-2].[Zn+2] DRDVZXDWVBGGMH-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
Description
3次元イメージング・デバイスの錐台内の少なくとも1つのオブジェクトの少なくとも1つの部分を検出し追跡するステップと、
追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分が、相互作用表面の上の所定の相互作用エリア上の所定のタッチ・ジェスチャーと、所定の相互作用エリアの法線ベクトル軸に沿った所定の相互作用ボリュームにおける所定のタッチレス3次元ジェスチャーとのうちの少なくとも一方を実行しているかどうかを決定することにより、相互作用を開始するステップと、
3次元イメージング・デバイスの錐台内の前記少なくとも1つのオブジェクトの前記少なくとも1つの部分によって実行されるジェスチャーを検出し認識することにより、コンピュータ化されたシステムと相互作用するステップであって、検出し認識されたジェスチャーは、相互作用表面の所定の相互作用エリア上の所定のタッチ・ジェスチャーと、所定の相互作用エリアに垂直なベクトルの軸上の所定の相互作用ボリュームにおける所定のタッチレス3次元ジェスチャーとのうちの少なくとも一方である、相互作用するステップと、
を含み、
有利には、相互作用表面の所定の相互作用エリア上のタッチ・ジェスチャーの実行を検出することは、いつ、追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分が、3次元空間内で、相互作用表面上の所定の相互作用エリアと、空間における同じ位置に位置づけられるかを検出することに対応する。
3次元イメージング・デバイスを使用して、相互作用表面の、空間内の位置と、トポロジとを決定するステップと、
そのトポロジと大きさとの関数として、相互作用表面上の相互作用エリアの所定の組を決定するステップと、
少なくとも1つのタッチ・ジェスチャー相互作用制御を各相互作用エリアに関連づけるステップと
を動作させることをさらに含む方法を提供することである。
少なくとも1つの相互作用ボリュームを相互作用エリアの所定の組に関連づけるステップであって、各相互作用ボリュームが、その相互作用エリアに対する法線ベクトルに沿って、前記相互作用エリアの上に位置している、関連づけるステップと、
所定の3次元タッチレス・ジェスチャー相互作用制御によって各相互作用ボリュームに関連づけるステップと
をさらに含む。
Claims (18)
- マルチ・モーダルのタッチ及びタッチレスの相互作用が3次元イメージング・デバイスであるシングル・センシング・システムからのデータ情報を使用して実行されるコンピュータ化されたシステムとの、前記マルチ・モーダルのタッチ及びタッチレスの相互作用のための方法であって、
a)前記3次元イメージング・デバイスの錐台内の少なくとも1つのオブジェクトの少なくとも1つの部分を検出し追跡するステップと、
b)追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分が、相互作用表面の所定の相互作用エリア上の所定のタッチ・ジェスチャーと、所定の相互作用エリアに対して垂直な前記ベクトル軸上の所定の相互作用ボリュームにおける所定のタッチレス3次元ジェスチャーとのうちの少なくとも一方を実行しているかどうかを決定することにより、前記相互作用を開始するステップと、
c)前記3次元イメージング・デバイスの前記錐台内の前記少なくとも1つのオブジェクトの前記少なくとも1つの部分によって実行される前記ジェスチャーを検出し認識することにより、前記コンピュータ化されたシステムと相互作用するステップであって、前記検出し認識されたジェスチャーは、前記相互作用表面の所定の相互作用エリア上の所定のタッチ・ジェスチャーと、所定の相互作用エリアに対して垂直な前記ベクトル軸上の所定の相互作用ボリュームにおける所定のタッチレス3次元ジェスチャーとのうちの少なくとも一方である、相互作用するステップと
を含む方法。 - 前記相互作用表面の所定の相互作用エリア上のタッチ・ジェスチャーの前記実行を検出することは、いつ、追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分が、3次元空間内で、前記相互作用表面上の前記所定の相互作用エリアと、空間における前記同じ位置に位置づけられるかを検出することに対応する、請求項1に記載の方法。
- タッチ・ジェスチャーが実行されたかどうかを検出することは、追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分の前記相互作用表面からの、3次元空間内での前記距離が、所定のしきい値を下回るときに決定される、請求項1又は2に記載の方法。
- マルチ・タッチ・ジェスチャーを決定するステップは、空間において追跡される前記少なくとも1つのオブジェクトの少なくとも2つの部分の前記位置が、前記相互作用表面に属する少なくとも2つの所定の相互作用エリアに到達するときに実行される、請求項1から3のいずれか一項に記載の方法。
- タッチ・ジェスチャーと、マルチ・タッチ・ジェスチャーとのうちの少なくとも一方の逐次的位置及び持続時間の関数として、タッチ・ジェスチャー相互作用制御を決定するステップをさらに含む、請求項1から4のいずれか一項に記載の方法。
- 追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分によって実行される前記3次元ジェスチャーの関数として3次元タッチレス・ジェスチャー相互作用制御を決定するステップをさらに含む、請求項1から5のいずれか一項に記載の方法。
- ステップc)は、所定のイベントがトリガされるときに、前記相互作用を終了するステップをさらに含み、前記所定のイベントは、所定の期間の前記経過と、前記相互作用表面上の所定のタッチ・ジェスチャーの前記認識と、前記3次元イメージング・デバイスの前記錐台内の所定の3次元タッチレス・ジェスチャーの前記認識と、前記3次元空間内の所定のボリュームからの前記少なくとも1つのオブジェクトの退出とのうちの少なくとも1つを含んでいる、請求項1から6のいずれか一項に記載の方法。
- ステップb)は、前記少なくとも1つのオブジェクトの第1の検出され追跡された部分を使用することを含み、ステップc)は、前記少なくとも1つのオブジェクトの第2の検出され追跡された部分を使用することを含む、請求項7に記載の方法。
- ステップb)及びc)は、1つのオブジェクトの単一の検出され追跡された部分を使用して、逐次的に制御される、請求項7に記載の方法。
- 前記相互作用表面の少なくとも一部分の上のグラフィカル・ユーザ・インターフェース上に所定のビジュアル・フィードバックを表示することをさらに含み、前記ビジュアル・フィードバックは、前記少なくとも1つのオブジェクトの前記少なくとも1つの部分の前記位置と、追跡される前記少なくとも1つのオブジェクトの前記少なくとも1つの部分の前記認識されたジェスチャーとのうちの少なくとも一方に関連している、請求項1から9のいずれか一項に記載の方法。
- 前記相互作用表面上に表示される前記グラフィカル・ユーザ・インターフェースとの前記相互作用は、
d)前記3次元イメージング・デバイスを使用して、前記相互作用表面の、空間内の前記位置と、前記トポロジとを決定するステップと、
e)そのトポロジと大きさとの関数として、前記相互作用表面上の相互作用エリアの所定の組を決定するステップと、
f)少なくとも1つのタッチ・ジェスチャー相互作用制御を各相互作用エリアに関連づけるステップと
を動作させることをさらに含む、請求項10に記載の方法。 - g)少なくとも1つの相互作用ボリュームを相互作用エリアの前記所定の組に関連づけるステップであって、各相互作用ボリュームは、その相互作用エリアに対する法線ベクトルに沿って、前記相互作用エリアの上に位置している、関連づけるステップと、
h)所定の3次元タッチレス・ジェスチャー相互作用制御によって各相互作用ボリュームに関連づけるステップと
をさらに含む、請求項11に記載の方法。 - 前記相互作用表面は、ユーザの身体の一部分と、机テーブルと、壁と、赤外線半透明表面と、オブジェクトとのうちの少なくとも1つであり、前記グラフィカル・ユーザ・インターフェースは、前記相互作用表面上へと投影される、請求項11又は12に記載の方法。
- グラフィカル・ユーザ・インターフェースと相互作用するためのシステムであって、
相互作用表面上に前記グラフィカル・ユーザ・インターフェースを表示するためのディスプレイ・システムと、
その錐台内のユーザの少なくとも一方の手の少なくとも1つの部分を少なくとも追跡するように動作させられる3次元イメージング・システムと、
前記ディスプレイ・システムと、前記3次元イメージング・デバイスとを制御するように、かつ、前記3次元イメージング・デバイスから出力されるデータを使用して、ジェスチャー・ベースの相互作用制御を決定するように構成されているコンピュータ・システムとを備えており、
前記システムは、前記グラフィカル・ユーザ・インターフェースを表示するための前記ディスプレイ表面が、前記3次元イメージング・デバイスの前記錐台の少なくとも一部分を備えており、かつ、実質的にそれと位置合わせされていることを特徴としている、システム。 - 前記ディスプレイ・システムは、前記グラフィカル・ユーザ・インターフェースが表示される前記相互作用表面の、前記3次元イメージング・デバイスと同じ側に位置しているプロジェクタ要素を備えている、請求項14に記載のシステム。
- 前記3次元イメージング・システムと、前記プロジェクタ要素とは、前記グラフィカル・ユーザ・インターフェースが投影される前記相互作用表面であって、前記電磁スペクトルの前記可視部分に実質的に対応する範囲内の波長を有する放射を拡散するように、かつ、前記電磁スペクトルの前記赤外線部分に実質的に対応する範囲内に波長を有する放射を限られた拡散で透過するように動作可能である前記相互作用表面の反対側に位置しており、前記相互作用表面の前記透過係数は50%よりも高く、かつ、前記限られた拡散は20°よりも小さい、請求項14に記載のシステム。
- 請求項1から13のいずれか一項に記載の方法を実行するように動作可能である、請求項14から16のいずれか一項に記載のシステム。
- 請求項1から13のいずれか一項に記載の方法を実行するための実行可能な命令を記憶するように動作可能な非一時的なコンピュータ媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2015/052022 WO2016119906A1 (en) | 2015-01-30 | 2015-01-30 | Multi-modal gesture based interactive system and method using one single sensing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018505455A true JP2018505455A (ja) | 2018-02-22 |
JP6539816B2 JP6539816B2 (ja) | 2019-07-10 |
Family
ID=52469001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016543719A Active JP6539816B2 (ja) | 2015-01-30 | 2015-01-30 | 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10534436B2 (ja) |
EP (1) | EP3066551B8 (ja) |
JP (1) | JP6539816B2 (ja) |
KR (1) | KR102335132B1 (ja) |
CN (1) | CN106030495B (ja) |
WO (1) | WO2016119906A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112292690A (zh) * | 2018-06-14 | 2021-01-29 | 奇跃公司 | 增强现实深度手势网络 |
US11681397B2 (en) | 2020-06-08 | 2023-06-20 | Seiko Epson Corportation | Position detection system, position detection apparatus, and position detection method |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9607370B2 (en) * | 2014-01-15 | 2017-03-28 | The Boeing Company | System and methods of inspecting an object |
JP6539816B2 (ja) * | 2015-01-30 | 2019-07-10 | ソニー デプスセンシング ソリューションズ エスエー エヌブイ | 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 |
CN106033257B (zh) * | 2015-03-18 | 2019-05-31 | 联想(北京)有限公司 | 一种控制方法和装置 |
US20180197342A1 (en) * | 2015-08-20 | 2018-07-12 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10025492B2 (en) * | 2016-02-08 | 2018-07-17 | Microsoft Technology Licensing, Llc | Pointing detection |
US10129510B2 (en) * | 2016-02-18 | 2018-11-13 | Samsung Electronics Co., Ltd. | Initiating human-machine interaction based on visual attention |
JP6746419B2 (ja) * | 2016-07-28 | 2020-08-26 | キヤノン株式会社 | 情報処理装置、及びその制御方法ならびにコンピュータプログラム |
EP3285107B2 (en) | 2016-08-16 | 2024-02-28 | Leica Instruments (Singapore) Pte. Ltd. | Surgical microscope with gesture control and method for a gesture control of a surgical microscope |
US11275498B2 (en) * | 2016-08-31 | 2022-03-15 | Sony Corporation | Information processing system, information processing method, and program |
EP3510474B1 (en) * | 2016-10-21 | 2021-12-01 | Hewlett-Packard Development Company, L.P. | Virtual reality input |
WO2018197986A1 (ja) * | 2017-04-28 | 2018-11-01 | 株式会社半導体エネルギー研究所 | 光モジュール、又は電子機器 |
EP3519928A4 (en) * | 2017-05-23 | 2020-02-12 | Shenzhen Goodix Technology Co., Ltd. | OPTICAL TOUCH SENSING FOR DISPLAY DEVICES AND OTHER APPLICATIONS |
JP6546618B2 (ja) * | 2017-05-31 | 2019-07-17 | 株式会社Preferred Networks | 学習装置、学習方法、学習モデル、検出装置及び把持システム |
US11048375B2 (en) * | 2018-09-18 | 2021-06-29 | Alibaba Group Holding Limited | Multimodal 3D object interaction system |
CN109558665B (zh) * | 2018-11-22 | 2023-01-10 | 杭州美戴科技有限公司 | 一种个性化柔性鼻托的自动设计方法 |
EP3985491A1 (en) * | 2020-10-19 | 2022-04-20 | ameria AG | Control method for touchless gesture control |
CN112631422B (zh) * | 2020-12-10 | 2023-04-07 | 西安理工大学 | 一种基于人体行为触发的媒体交互系统 |
IT202000030749A1 (it) * | 2020-12-15 | 2022-06-15 | Thegg Domotica S R L | Metodo co-creativo e dispositivo haptico per la materioteca dinamica |
GB2607581A (en) * | 2021-06-02 | 2022-12-14 | Daniel Lyon | Touch free actuator |
US20230409149A1 (en) * | 2022-06-09 | 2023-12-21 | Lightguide, Inc. | Virtual buttons for augmented reality light guided assembly system and calibration method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007514241A (ja) * | 2003-12-09 | 2007-05-31 | リアクトリクス システムズ、 インコーポレイテッド | 内蔵型インタラクティブ・ビデオ・ディスプレイ・システム |
JP2010092419A (ja) * | 2008-10-10 | 2010-04-22 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム |
JP2010277377A (ja) * | 2009-05-29 | 2010-12-09 | Panasonic Corp | タッチパネルシステム |
JP2012527847A (ja) * | 2009-05-19 | 2012-11-08 | アップル インコーポレイテッド | 台所及び家庭用器具のコントロール |
JP2013008368A (ja) * | 2011-06-24 | 2013-01-10 | Ricoh Co Ltd | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 |
JP2014517361A (ja) * | 2010-11-22 | 2014-07-17 | エプソン ノルウェー リサーチ アンド ディベロップメント アクティーゼルスカブ | カメラ式マルチタッチ相互作用装置、システム及び方法 |
JP2014222490A (ja) * | 2013-05-14 | 2014-11-27 | シャープ株式会社 | 情報表示装置、プログラム、記録媒体、および情報表示方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080122799A1 (en) * | 2001-02-22 | 2008-05-29 | Pryor Timothy R | Human interfaces for vehicles, homes, and other applications |
KR100776801B1 (ko) * | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
US8433138B2 (en) | 2008-10-29 | 2013-04-30 | Nokia Corporation | Interaction using touch and non-touch gestures |
WO2012018328A1 (en) * | 2010-08-04 | 2012-02-09 | Hewlett-Packard Development Company, L.P. | System and method for enabling multi-display input |
CN102004583A (zh) * | 2010-10-26 | 2011-04-06 | 广东威创视讯科技股份有限公司 | 一种摄像头定位触摸装置及其方法 |
US8963883B2 (en) * | 2011-03-17 | 2015-02-24 | Symbol Technologies, Inc. | Touchless interactive display system |
JP5902346B2 (ja) | 2012-03-29 | 2016-04-13 | インテル コーポレイション | ジェスチャーを用いた3次元グラフィックスの作成 |
CN102722254B (zh) * | 2012-06-20 | 2015-06-17 | 清华大学深圳研究生院 | 一种定位交互方法及系统 |
US20150370443A1 (en) | 2013-02-12 | 2015-12-24 | Inuitive Ltd. | System and method for combining touch and gesture in a three dimensional user interface |
US9170676B2 (en) | 2013-03-15 | 2015-10-27 | Qualcomm Incorporated | Enhancing touch inputs with gestures |
TWI493437B (zh) | 2013-06-19 | 2015-07-21 | 義隆電子股份有限公司 | 經由識別掃滑手勢來開啓視窗控制列的方法及觸控系統 |
JP6539816B2 (ja) * | 2015-01-30 | 2019-07-10 | ソニー デプスセンシング ソリューションズ エスエー エヌブイ | 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 |
-
2015
- 2015-01-30 JP JP2016543719A patent/JP6539816B2/ja active Active
- 2015-01-30 WO PCT/EP2015/052022 patent/WO2016119906A1/en active Application Filing
- 2015-01-30 KR KR1020167017133A patent/KR102335132B1/ko active IP Right Grant
- 2015-01-30 CN CN201580003683.9A patent/CN106030495B/zh active Active
- 2015-01-30 EP EP15703923.1A patent/EP3066551B8/en active Active
- 2015-01-30 US US15/109,148 patent/US10534436B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007514241A (ja) * | 2003-12-09 | 2007-05-31 | リアクトリクス システムズ、 インコーポレイテッド | 内蔵型インタラクティブ・ビデオ・ディスプレイ・システム |
JP2010092419A (ja) * | 2008-10-10 | 2010-04-22 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム |
JP2012527847A (ja) * | 2009-05-19 | 2012-11-08 | アップル インコーポレイテッド | 台所及び家庭用器具のコントロール |
JP2010277377A (ja) * | 2009-05-29 | 2010-12-09 | Panasonic Corp | タッチパネルシステム |
JP2014517361A (ja) * | 2010-11-22 | 2014-07-17 | エプソン ノルウェー リサーチ アンド ディベロップメント アクティーゼルスカブ | カメラ式マルチタッチ相互作用装置、システム及び方法 |
JP2013008368A (ja) * | 2011-06-24 | 2013-01-10 | Ricoh Co Ltd | 仮想タッチスクリーンシステム及び双方向モード自動切換方法 |
JP2014222490A (ja) * | 2013-05-14 | 2014-11-27 | シャープ株式会社 | 情報表示装置、プログラム、記録媒体、および情報表示方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112292690A (zh) * | 2018-06-14 | 2021-01-29 | 奇跃公司 | 增强现实深度手势网络 |
JP2021527876A (ja) * | 2018-06-14 | 2021-10-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実深層ジェスチャネットワーク |
US11776242B2 (en) | 2018-06-14 | 2023-10-03 | Magic Leap, Inc. | Augmented reality deep gesture network |
JP7482040B2 (ja) | 2018-06-14 | 2024-05-13 | マジック リープ, インコーポレイテッド | 拡張現実深層ジェスチャネットワーク |
US11681397B2 (en) | 2020-06-08 | 2023-06-20 | Seiko Epson Corportation | Position detection system, position detection apparatus, and position detection method |
Also Published As
Publication number | Publication date |
---|---|
CN106030495B (zh) | 2021-04-13 |
EP3066551B1 (en) | 2019-10-30 |
EP3066551B8 (en) | 2020-01-01 |
WO2016119906A1 (en) | 2016-08-04 |
US20160364007A1 (en) | 2016-12-15 |
EP3066551A1 (en) | 2016-09-14 |
US10534436B2 (en) | 2020-01-14 |
KR20170107357A (ko) | 2017-09-25 |
KR102335132B1 (ko) | 2021-12-06 |
CN106030495A (zh) | 2016-10-12 |
JP6539816B2 (ja) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6539816B2 (ja) | 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法 | |
US11392212B2 (en) | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments | |
US11868543B1 (en) | Gesture keyboard method and apparatus | |
JP5950130B2 (ja) | カメラ式マルチタッチ相互作用装置、システム及び方法 | |
TWI423096B (zh) | 具可觸控投影畫面之投影系統 | |
JP4965653B2 (ja) | 視覚ディスプレイのためのバーチャルコントローラ | |
US7552402B2 (en) | Interface orientation using shadows | |
US20110102570A1 (en) | Vision based pointing device emulation | |
US20130135199A1 (en) | System and method for user interaction with projected content | |
US20120078614A1 (en) | Virtual keyboard for a non-tactile three dimensional user interface | |
US20140267029A1 (en) | Method and system of enabling interaction between a user and an electronic device | |
NO20130843A1 (no) | Kamerabasert, multitouch interaksjons- og belysningsapparat samt system og fremgangsmåte | |
TW201040850A (en) | Gesture recognition method and interactive input system employing same | |
JP2015510648A (ja) | 多次元入力のためのナビゲーション手法 | |
US20130044054A1 (en) | Method and apparatus for providing bare-hand interaction | |
TW201421322A (zh) | 混合式指向裝置 | |
Muller | Multi-touch displays: design, applications and performance evaluation | |
Zhang et al. | Near-field touch interface using time-of-flight camera | |
Matsubara et al. | Touch detection method for non-display surface using multiple shadows of finger | |
Athira | Touchless technology | |
Maierhöfer et al. | TipTrack: Precise, Low-Latency, Robust Optical Pen Tracking on Arbitrary Surfaces Using an IR-Emitting Pen Tip | |
Takahashi et al. | Extending Three-Dimensional Space Touch Interaction using Hand Gesture | |
US12032746B2 (en) | Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments | |
TW201349056A (zh) | 以光學方法驅動之高解析度與高敏感度游標控制器 | |
Mustafa et al. | Multi Finger Gesture Recognition and Classification in Dynamic Environment under Varying Illumination upon Arbitrary Background |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180911 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20181212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181213 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190305 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6539816 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |