JP5567206B2 - コンピューティングデバイスインターフェース - Google Patents
コンピューティングデバイスインターフェース Download PDFInfo
- Publication number
- JP5567206B2 JP5567206B2 JP2013502913A JP2013502913A JP5567206B2 JP 5567206 B2 JP5567206 B2 JP 5567206B2 JP 2013502913 A JP2013502913 A JP 2013502913A JP 2013502913 A JP2013502913 A JP 2013502913A JP 5567206 B2 JP5567206 B2 JP 5567206B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- computing device
- tracking
- image
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 157
- 210000003811 finger Anatomy 0.000 claims description 113
- 230000003993 interaction Effects 0.000 claims description 56
- 238000004891 communication Methods 0.000 claims description 31
- 210000003813 thumb Anatomy 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 18
- 210000004247 hand Anatomy 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000001429 visible spectrum Methods 0.000 claims description 13
- 210000005224 forefinger Anatomy 0.000 claims description 10
- 241000699666 Mus <mouse, genus> Species 0.000 description 52
- 238000010586 diagram Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 24
- 210000000707 wrist Anatomy 0.000 description 11
- 230000009471 action Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 239000000872 buffer Substances 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 238000004513 sizing Methods 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000004905 finger nail Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
以下に、本願の出願当初請求項に記載された発明を付記する。
[C1]
インターフェースを提供するように構成されたコンピューティングデバイスであって、
プロセッサと、
前記プロセッサと電子通信するメモリと、
前記メモリに記憶された命令と
を備え、前記命令は、
プロジェクタから投影画像を投影し、
カメラを使用して画像をキャプチャし、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
前記コンピューティングデバイスを較正し、
手を検出し、
探索空間においてトラッキングパターンに基づいて前記手をトラッキングし、
操作を実行する
ように実行可能である、
コンピューティングデバイス。
[C2]
前記コンピューティングデバイスを較正することは、
前記投影画像のコーナーを見つけることと、
前記投影画像の座標をデスクトップ空間にマッピングすることと
を含む、上記C1に記載のコンピューティングデバイス。
[C3]
前記コンピューティングデバイスを較正することは、手のサイズを決定することを含む、上記C1に記載のコンピューティングデバイス。
[C4]
前記手のサイズは、前記投影画像に基づいて決定され、前記投影画像は、複数の楕円を備える、上記C3に記載のコンピューティングデバイス。
[C5]
前記手のサイズは、顔認識に基づいて決定される、上記C3に記載のコンピューティングデバイス。
[C6]
前記手は、初期対話エリア内で検出される、上記C1に記載のコンピューティングデバイス。
[C7]
前記命令は、さらに、
体をトラッキングし、
前記体をトラッキングすることに基づいて前記初期対話エリアを動かす
ように実行可能である、上記C6に記載のコンピューティングデバイス。
[C8]
前記命令は、さらに、前記トラッキングパターンが手にマッチすることを決定するように実行可能である、上記C1に記載のコンピューティングデバイス。
[C9]
前記命令は、さらに、前記手の動きに基づいて前記探索空間を動的に変化させるように実行可能である、上記C1に記載のコンピューティングデバイス。
[C10]
前記トラッキングパターンは、3つの側部が長方形の明るい外側領域に隣接し、1つの側部が長方形の暗い外側領域に隣接した、長方形の暗い中心領域を備える、上記C1に記載のコンピューティングデバイス。
[C11]
前記操作は、前記手をトラッキングすることに基づいて実行される、上記C1に記載のコンピューティングデバイス。
[C12]
前記命令は、さらに、ジェスチャパターンに基づいて手のジェスチャを認識するように実行可能である、上記C1に記載のコンピューティングデバイス。
[C13]
手のジェスチャを認識することは、さらに
トラッキングされた手が、ある時間期間の間、動きを停止したか否かを決定することと、
トラッキングされた手の画像を固定サイズにスケーリングすることと
を含む、上記C12に記載のコンピューティングデバイス。
[C14]
前記ジェスチャパターンは、2つの側部が長方形の明るい外側領域に隣接した、長方形の暗い中心領域を備える、上記C12に記載のコンピューティングデバイス。
[C15]
前記命令は、さらに、前記認識された手のジェスチャに基づいて操作を実行するように実行可能である、上記C12に記載のコンピューティングデバイス。
[C16]
前記命令は、さらに、前記手のジェスチャが複数のフレームのあるパーセンテージについて認識されるときに操作を実行するように実行可能である、上記C12に記載のコンピューティングデバイス。
[C17]
前記手のジェスチャは、親指と人差し指との間の角度に基づいて認識され、前記命令は、さらに、前記親指と人差し指との角度に基づいて前記手からカーソルを遠ざけるように実行可能である、上記C12に記載のコンピューティングデバイス。
[C18]
前記命令は、さらに、前記投影画像の手の周りの領域をより明るく照らすように実行可能である、上記C1に記載のコンピューティングデバイス。
[C19]
前記命令は、さらに、複数の手をトラッキングするように実行可能である、上記C1に記載のコンピューティングデバイス。
[C20]
前記命令は、さらに、複数の手のジェスチャを認識するように実行可能である、上記C1に記載のコンピューティングデバイス。
[C21]
前記命令は、さらに、前記手の影をトラッキングするのを回避するために、前記手をトラッキングする前に前記画像の暗い部分を除去するように実行可能である、上記C1に記載のコンピューティングデバイス。
[C22]
前記命令は、さらに、前記投影画像のあるエリアにおいて前記画像の改善されたフォーカスおよび露出を提供するように実行可能である、上記C1に記載のコンピューティングデバイス。
[C23]
前記操作は、カーソルをリリースする、上記C15に記載のコンピューティングデバイス。
[C24]
インターフェースを提供するための方法であって、
プロジェクタから投影画像を投影することと、
カメラを使用して画像をキャプチャすることと、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
コンピューティングデバイスを較正することと、
前記コンピューティングデバイスによって手を検出することと、
前記コンピューティングデバイスによって、探索空間においてトラッキングパターンに基づいて前記手をトラッキングすることと、
前記コンピューティングデバイスによって操作を実行することと
を備える方法。
[C25]
前記コンピューティングデバイスを較正することは、
前記投影画像のコーナーを見つけることと、
前記投影画像の座標をデスクトップ空間にマッピングすることと
を含む、上記C24に記載の方法。
[C26]
前記コンピューティングデバイスを較正することは、手のサイズを決定することを含む、上記C24に記載の方法。
[C27]
前記手のサイズは、前記投影画像に基づいて決定され、前記投影画像は、複数の楕円を備える、上記C26に記載の方法。
[C28]
前記手のサイズは、顔認識に基づいて決定される、上記C26に記載の方法。
[C29]
前記手は、初期対話エリアにおいて検出される、上記C24に記載の方法。
[C30]
体をトラッキングすることと、
前記体をトラッキングすることに基づいて前記初期対話エリアを動かすことと
をさらに備える、上記C29に記載の方法。
[C31]
前記トラッキングパターンが手にマッチすることを決定することをさらに備える、上記C24に記載の方法。
[C32]
前記手の動きに動的に基づいて前記探索空間を動的に変化させることをさらに備える、上記C24に記載の方法。
[C33]
前記トラッキングパターンは、3つの側部が長方形の明るい外側領域に隣接し、1つの側部が長方形の暗い外側領域に隣接した、長方形の暗い中心領域を備える、上記C24に記載の方法。
[C34]
前記操作は、前記手をトラッキングすることに基づいて実行される、上記C24に記載の方法。
[C35]
ジェスチャパターンに基づいて手のジェスチャを認識することをさらに備える、上記C24に記載の方法。
[C36]
手のジェスチャを認識することは、
トラッキングされた手が、ある時間期間の間、動きを停止したか否かを決定することと、
トラッキングされた手の画像を固定サイズにスケーリングすることと
をさらに含む、上記C35に記載の方法。
[C37]
前記ジェスチャパターンは、2つの側部が長方形の明るい外側領域に隣接した、長方形の暗い中心領域を備える、上記C35に記載の方法。
[C38]
前記認識された手のジェスチャに基づいて操作を実行することをさらに備える、上記C35に記載の方法。
[C39]
前記手のジェスチャが複数のフレームのあるパーセンテージについて認識されるときに操作を実行することをさらに備える、上記C35に記載の方法。
[C40]
前記手のジェスチャは、親指と人差し指との間の角度に基づいて認識され、前記方法は、さらに、前記親指と人差し指との間の角度に基づいて前記手からカーソルを遠ざけることを含む、上記C35に記載の方法。
[C41]
前記投影画像の手の周りの領域をより明るく照らすことをさらに備える、上記C24に記載の方法。
[C42]
複数の手をトラッキングすることをさらに備える、上記C24に記載の方法。
[C43]
複数の手のジェスチャを認識することをさらに備える、上記C24に記載の方法。
[C44]
前記手の影をトラッキングするのを回避するために、前記手をトラッキングする前に前記画像の暗い部分を除去することをさらに備える、上記C24に記載の方法。
[C45]
前記投影画像のあるエリアにおいて前記画像の改善されたフォーカスおよび露出を提供することをさらに備える、上記C24に記載の方法。
[C46]
前記操作は、カーソルをリリースする、上記C38に記載の方法。
[C47]
インターフェースを提供するためのコンピュータプログラムプロダクトであって、前記コンピュータプログラムプロダクトは、命令をその上に有する非一時的な有形のコンピュータ可読媒体を備え、前記命令は、
コンピューティングデバイスに、プロジェクタから投影画像を投影させるためのコードと、
前記コンピューティングデバイスに、カメラを使用して画像をキャプチャさせるためのコードと、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
前記コンピューティングデバイスに、前記コンピューティングデバイスを較正させるためのコードと、
前記コンピューティングデバイスに、手を検出させるためのコードと、
前記コンピューティングデバイスに、探索空間においてトラッキングパターンに基づいて前記手をトラッキングさせるためのコードと、
前記コンピューティングデバイスに、操作を実行させるためのコードと
を備える、コンピュータプログラムプロダクト。
[C48]
前記手は、初期対話エリアにおいて検出される、上記C47に記載のコンピュータプログラムプロダクト。
[C49]
前記命令は、前記コンピューティングデバイスに、ジェスチャパターンに基づいて手のジェスチャを認識させるためのコードをさらに備える、上記C47に記載のコンピュータプログラムプロダクト。
[C50]
インターフェースを提供するための装置であって、
プロジェクタから投影画像を投影するための手段と、
カメラを使用して画像をキャプチャするための手段と、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
前記装置を較正するための手段と、
手を検出するための手段と、
探索空間においてトラッキングパターンに基づいて前記手をトラッキングするための手段と、
操作を実行するための手段と
を備える装置。
[C51]
前記手は、初期対話エリアにおいて検出される、上記C50に記載の装置。
[C52]
ジェスチャパターンに基づいて手のジェスチャを認識するための手段をさらに備える、上記C50に記載の装置。
Claims (52)
- インターフェースを提供するように構成されたコンピューティングデバイスであって、
プロセッサと、
前記プロセッサと電子通信するメモリと、
前記メモリに記憶された命令と
を備え、前記命令は、
プロジェクタから投影画像を投影し、
カメラを使用して画像をキャプチャし、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
前記コンピューティングデバイスを較正し、
手を検出し、
探索空間において1または複数のトラッキングパターンの中から前記画像に最も良くマッチするトラッキングパターンを決定し、
前記探索空間において前記トラッキングパターンに基づいて前記手をトラッキングし、
操作を実行する
ように実行可能であり、
前記最も良くマッチするトラッキングパターンは、前記操作を実行するために使用されうる前記探索空間内の前記画像に対応するロケーションおよび/または向きを有する、
コンピューティングデバイス。 - 前記コンピューティングデバイスを較正することは、
前記投影画像のコーナーを見つけることと、
前記投影画像の座標をデスクトップ空間にマッピングすることと
を含む、請求項1に記載のコンピューティングデバイス。 - 前記コンピューティングデバイスを較正することは、手のサイズを決定することを含む、請求項1に記載のコンピューティングデバイス。
- 前記手のサイズは、前記投影画像に基づいて決定され、前記投影画像は、複数の楕円を備える、請求項3に記載のコンピューティングデバイス。
- 前記手のサイズは、顔認識に基づいて決定される、請求項3に記載のコンピューティングデバイス。
- 前記手は、初期対話エリア内で検出される、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、
体をトラッキングし、
前記体をトラッキングすることに基づいて前記初期対話エリアを動かす
ように実行可能である、請求項6に記載のコンピューティングデバイス。 - 前記命令は、さらに、前記トラッキングパターンが手にマッチすることを決定するように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、前記手の動きに基づいて前記探索空間を動的に変化させるように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記トラッキングパターンは、3つの側部が長方形の明るい外側領域に隣接し、1つの側部が長方形の暗い外側領域に隣接した、長方形の暗い中心領域を備える、請求項1に記載のコンピューティングデバイス。
- 前記操作は、前記手をトラッキングすることに基づいて実行される、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、ジェスチャパターンに基づいて手のジェスチャを認識するように実行可能である、請求項1に記載のコンピューティングデバイス。
- 手のジェスチャを認識することは、さらに
トラッキングされた手が、ある時間期間の間、動きを停止したか否かを決定することと、
トラッキングされた手の画像を固定サイズにスケーリングすることと
を含む、請求項12に記載のコンピューティングデバイス。 - 前記ジェスチャパターンは、2つの側部が長方形の明るい外側領域に隣接した、長方形の暗い中心領域を備える、請求項12に記載のコンピューティングデバイス。
- 前記命令は、さらに、前記認識された手のジェスチャに基づいて操作を実行するように実行可能である、請求項12に記載のコンピューティングデバイス。
- 前記命令は、さらに、前記手のジェスチャが複数のフレームのあるパーセンテージについて認識されるときに操作を実行するように実行可能である、請求項12に記載のコンピューティングデバイス。
- 前記手のジェスチャは、親指と人差し指との間の角度に基づいて認識され、前記命令は、さらに、前記親指と人差し指との角度に基づいて前記手からカーソルを遠ざけるように実行可能である、請求項12に記載のコンピューティングデバイス。
- 前記命令は、さらに、前記投影画像の手の周りの領域をより明るく照らすように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、複数の手をトラッキングするように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、複数の手のジェスチャを認識するように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、前記手の影をトラッキングするのを回避するために、前記手をトラッキングする前に前記画像の暗い部分を除去するように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記命令は、さらに、前記投影画像のあるエリアにおいて前記画像の改善されたフォーカスおよび露出を提供するように実行可能である、請求項1に記載のコンピューティングデバイス。
- 前記操作は、カーソルをリリースする、請求項15に記載のコンピューティングデバイス。
- インターフェースを提供するための方法であって、
プロジェクタから投影画像を投影することと、
カメラを使用して画像をキャプチャすることと、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
コンピューティングデバイスを較正することと、
前記コンピューティングデバイスによって手を検出することと、
前記コンピューティングデバイスによって、探索空間において1または複数のトラッキングパターンの中から前記画像に最も良くマッチするトラッキングパターンを決定することと、
前記コンピューティングデバイスによって、前記探索空間において前記トラッキングパターンに基づいて前記手をトラッキングすることと、
前記コンピューティングデバイスによって操作を実行することと
を備え、
前記最も良くマッチするトラッキングパターンは、前記操作を実行するために使用されうる前記探索空間内の前記画像に対応するロケーションおよび/または向きを有する、方法。 - 前記コンピューティングデバイスを較正することは、
前記投影画像のコーナーを見つけることと、
前記投影画像の座標をデスクトップ空間にマッピングすることと
を含む、請求項24に記載の方法。 - 前記コンピューティングデバイスを較正することは、手のサイズを決定することを含む、請求項24に記載の方法。
- 前記手のサイズは、前記投影画像に基づいて決定され、前記投影画像は、複数の楕円を備える、請求項26に記載の方法。
- 前記手のサイズは、顔認識に基づいて決定される、請求項26に記載の方法。
- 前記手は、初期対話エリアにおいて検出される、請求項24に記載の方法。
- 体をトラッキングすることと、
前記体をトラッキングすることに基づいて前記初期対話エリアを動かすことと
をさらに備える、請求項29に記載の方法。 - 前記トラッキングパターンが手にマッチすることを決定することをさらに備える、請求項24に記載の方法。
- 前記手の動きに動的に基づいて前記探索空間を動的に変化させることをさらに備える、請求項24に記載の方法。
- 前記トラッキングパターンは、3つの側部が長方形の明るい外側領域に隣接し、1つの側部が長方形の暗い外側領域に隣接した、長方形の暗い中心領域を備える、請求項24に記載の方法。
- 前記操作は、前記手をトラッキングすることに基づいて実行される、請求項24に記載の方法。
- ジェスチャパターンに基づいて手のジェスチャを認識することをさらに備える、請求項24に記載の方法。
- 手のジェスチャを認識することは、
トラッキングされた手が、ある時間期間の間、動きを停止したか否かを決定することと、
トラッキングされた手の画像を固定サイズにスケーリングすることと
をさらに含む、請求項35に記載の方法。 - 前記ジェスチャパターンは、2つの側部が長方形の明るい外側領域に隣接した、長方形の暗い中心領域を備える、請求項35に記載の方法。
- 前記認識された手のジェスチャに基づいて操作を実行することをさらに備える、請求項35に記載の方法。
- 前記手のジェスチャが複数のフレームのあるパーセンテージについて認識されるときに操作を実行することをさらに備える、請求項35に記載の方法。
- 前記手のジェスチャは、親指と人差し指との間の角度に基づいて認識され、前記方法は、さらに、前記親指と人差し指との間の角度に基づいて前記手からカーソルを遠ざけることを含む、請求項35に記載の方法。
- 前記投影画像の手の周りの領域をより明るく照らすことをさらに備える、請求項24に記載の方法。
- 複数の手をトラッキングすることをさらに備える、請求項24に記載の方法。
- 複数の手のジェスチャを認識することをさらに備える、請求項24に記載の方法。
- 前記手の影をトラッキングするのを回避するために、前記手をトラッキングする前に前記画像の暗い部分を除去することをさらに備える、請求項24に記載の方法。
- 前記投影画像のあるエリアにおいて前記画像の改善されたフォーカスおよび露出を提供することをさらに備える、請求項24に記載の方法。
- 前記操作は、カーソルをリリースする、請求項38に記載の方法。
- インターフェースを提供するためのコンピュータプログラムプロダクトであって、前記コンピュータプログラムプロダクトは、命令をその上に有する非一時的な有形のコンピュータ可読媒体を備え、前記命令は、
コンピューティングデバイスに、プロジェクタから投影画像を投影させるためのコードと、
前記コンピューティングデバイスに、カメラを使用して画像をキャプチャさせるためのコードと、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
前記コンピューティングデバイスに、前記コンピューティングデバイスを較正させるためのコードと、
前記コンピューティングデバイスに、手を検出させるためのコードと、
前記コンピューティングデバイスに、探索空間において1または複数のトラッキングパターンの中から前記画像に最も良くマッチするトラッキングパターンを決定させるためのコードと、
前記コンピューティングデバイスに、前記探索空間において前記トラッキングパターンに基づいて前記手をトラッキングさせるためのコードと、
前記コンピューティングデバイスに、操作を実行させるためのコードと
を備え、
前記最も良くマッチするトラッキングパターンは、前記操作を実行するために使用されうる前記探索空間内の前記画像に対応するロケーションおよび/または向きを有する、コンピュータプログラムプロダクト。 - 前記手は、初期対話エリアにおいて検出される、請求項47に記載のコンピュータプログラムプロダクト。
- 前記命令は、前記コンピューティングデバイスに、ジェスチャパターンに基づいて手のジェスチャを認識させるためのコードをさらに備える、請求項47に記載のコンピュータプログラムプロダクト。
- インターフェースを提供するための装置であって、
プロジェクタから投影画像を投影するための手段と、
カメラを使用して画像をキャプチャするための手段と、ここにおいて、前記カメラは可視スペクトルにおいて動作する、
前記装置を較正するための手段と、
手を検出するための手段と、
探索空間において1または複数のトラッキングパターンの中から前記画像に最も良くマッチするトラッキングパターンを決定するための手段と、
前記探索空間において前記トラッキングパターンに基づいて前記手をトラッキングするための手段と、
操作を実行するための手段と
を備え、
前記最も良くマッチするトラッキングパターンは、前記操作を実行するために使用されうる前記探索空間内の前記画像に対応するロケーションおよび/または向きを有する、装置。 - 前記手は、初期対話エリアにおいて検出される、請求項50に記載の装置。
- ジェスチャパターンに基づいて手のジェスチャを認識するための手段をさらに備える、請求項50に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US32015810P | 2010-04-01 | 2010-04-01 | |
US61/320,158 | 2010-04-01 | ||
US13/013,657 US8818027B2 (en) | 2010-04-01 | 2011-01-25 | Computing device interface |
US13/013,657 | 2011-01-25 | ||
PCT/US2011/031030 WO2011123845A2 (en) | 2010-04-01 | 2011-04-01 | A computing device interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013524354A JP2013524354A (ja) | 2013-06-17 |
JP5567206B2 true JP5567206B2 (ja) | 2014-08-06 |
Family
ID=44709720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013502913A Expired - Fee Related JP5567206B2 (ja) | 2010-04-01 | 2011-04-01 | コンピューティングデバイスインターフェース |
Country Status (6)
Country | Link |
---|---|
US (1) | US8818027B2 (ja) |
EP (1) | EP2553656A2 (ja) |
JP (1) | JP5567206B2 (ja) |
KR (1) | KR101457777B1 (ja) |
CN (1) | CN102822862B (ja) |
WO (1) | WO2011123845A2 (ja) |
Families Citing this family (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
EP2421251A1 (en) * | 2010-08-17 | 2012-02-22 | LG Electronics | Display device and control method thereof |
US20120081391A1 (en) * | 2010-10-05 | 2012-04-05 | Kar-Han Tan | Methods and systems for enhancing presentations |
US8861797B2 (en) | 2010-11-12 | 2014-10-14 | At&T Intellectual Property I, L.P. | Calibrating vision systems |
US20120139827A1 (en) * | 2010-12-02 | 2012-06-07 | Li Kevin A | Method and apparatus for interacting with projected displays using shadows |
JP6261984B2 (ja) * | 2011-02-04 | 2018-01-17 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 絶対的な基準系を作成するのに固有受容性を使用するジェスチャ制御可能システム |
JP2012173911A (ja) * | 2011-02-21 | 2012-09-10 | Seiko Epson Corp | 画像生成装置、プロジェクターおよび画像生成方法 |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
US20140055400A1 (en) | 2011-05-23 | 2014-02-27 | Haworth, Inc. | Digital workspace ergonomics apparatuses, methods and systems |
US9086794B2 (en) * | 2011-07-14 | 2015-07-21 | Microsoft Technology Licensing, Llc | Determining gestures on context based menus |
US9030445B2 (en) | 2011-10-07 | 2015-05-12 | Qualcomm Incorporated | Vision-based interactive projection system |
JP5904754B2 (ja) * | 2011-10-17 | 2016-04-20 | キヤノン株式会社 | 情報処理システム、情報処理装置、それらの制御方法、およびプログラム |
TW201322058A (zh) * | 2011-11-16 | 2013-06-01 | Chunghwa Picture Tubes Ltd | 手勢辨識系統及方法 |
JP5917116B2 (ja) * | 2011-12-06 | 2016-05-11 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
US8874657B2 (en) * | 2012-04-27 | 2014-10-28 | Seiko Epson Corporation | Method for securely distributing meeting data from interactive whiteboard projector |
WO2013108268A1 (en) * | 2012-01-18 | 2013-07-25 | Abhishek Kumar Tiwari | System and method for headphone coupled with a handheld device |
GB2499979A (en) * | 2012-01-20 | 2013-09-11 | Light Blue Optics Ltd | Touch-sensitive image display devices |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US20130229345A1 (en) * | 2012-03-01 | 2013-09-05 | Laura E. Day | Manual Manipulation of Onscreen Objects |
US9141197B2 (en) | 2012-04-16 | 2015-09-22 | Qualcomm Incorporated | Interacting with a device using gestures |
JP2015525381A (ja) * | 2012-05-04 | 2015-09-03 | オブロング・インダストリーズ・インコーポレーテッド | 相互ユーザ手追跡および形状認識ユーザ・インターフェース |
US9122378B2 (en) * | 2012-05-07 | 2015-09-01 | Seiko Epson Corporation | Image projector device |
US9587804B2 (en) * | 2012-05-07 | 2017-03-07 | Chia Ming Chen | Light control systems and methods |
US20130300831A1 (en) * | 2012-05-11 | 2013-11-14 | Loren Mavromatis | Camera scene fitting of real world scenes |
US9619036B2 (en) | 2012-05-11 | 2017-04-11 | Comcast Cable Communications, Llc | System and methods for controlling a user experience |
US9262068B2 (en) * | 2012-05-31 | 2016-02-16 | Opportunity Partners Inc. | Interactive surface |
US10114609B2 (en) | 2012-05-31 | 2018-10-30 | Opportunity Partners Inc. | Computing interface for users with disabilities |
JP5935529B2 (ja) * | 2012-06-13 | 2016-06-15 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP5991039B2 (ja) * | 2012-06-18 | 2016-09-14 | 株式会社リコー | 情報処理装置および会議システム |
US8837780B2 (en) * | 2012-06-22 | 2014-09-16 | Hewlett-Packard Development Company, L.P. | Gesture based human interfaces |
US9098739B2 (en) | 2012-06-25 | 2015-08-04 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US9874977B1 (en) * | 2012-08-07 | 2018-01-23 | Amazon Technologies, Inc. | Gesture based virtual devices |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US8955982B2 (en) * | 2012-09-25 | 2015-02-17 | Microvision, Inc. | Virtual segmentation of interactive scanning laser projector display |
US8836222B1 (en) | 2012-11-09 | 2014-09-16 | Google Inc. | Method, apparatus and system for adaptive light projection |
US9412053B1 (en) | 2012-11-09 | 2016-08-09 | Google Inc. | Method, apparatus and system for projecting light for user guidance |
US10126820B1 (en) * | 2012-11-29 | 2018-11-13 | Amazon Technologies, Inc. | Open and closed hand detection |
CN102981623B (zh) * | 2012-11-30 | 2016-05-18 | 深圳先进技术研究院 | 触发输入指令的方法及系统 |
US9904414B2 (en) * | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
JP6255810B2 (ja) * | 2013-09-06 | 2018-01-10 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
TWI454968B (zh) * | 2012-12-24 | 2014-10-01 | Ind Tech Res Inst | 三維互動裝置及其操控方法 |
US20150331491A1 (en) * | 2012-12-27 | 2015-11-19 | Thomas Licensing | System and method for gesture based touchscreen control of displays |
JP2014145813A (ja) * | 2013-01-28 | 2014-08-14 | Funai Electric Co Ltd | プロジェクタ |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US10304037B2 (en) | 2013-02-04 | 2019-05-28 | Haworth, Inc. | Collaboration system including a spatial event map |
US11861561B2 (en) | 2013-02-04 | 2024-01-02 | Haworth, Inc. | Collaboration system including a spatial event map |
KR102059356B1 (ko) * | 2013-03-25 | 2020-02-11 | 삼성전자주식회사 | 동작 인식을 이용하여 가상 피팅 서비스를 제공하는 가상 피팅 장치 및 그 장치를 이용한 방법 |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
WO2014209328A1 (en) * | 2013-06-27 | 2014-12-31 | Intel Corporation | Device for adaptive projection |
US20150370441A1 (en) * | 2014-06-23 | 2015-12-24 | Infosys Limited | Methods, systems and computer-readable media for converting a surface to a touch surface |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
KR101369358B1 (ko) * | 2013-08-06 | 2014-03-04 | 홍주희 | 디스플레이 제어 시스템 및 그 기록매체 |
US9448689B2 (en) * | 2013-08-30 | 2016-09-20 | Paypal, Inc. | Wearable user device enhanced display system |
US9857971B2 (en) * | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
JP6349811B2 (ja) * | 2014-03-17 | 2018-07-04 | セイコーエプソン株式会社 | 映像信号出力装置、映像信号出力方法、及びプログラム |
JP6292007B2 (ja) * | 2014-04-28 | 2018-03-14 | 富士通株式会社 | 画像検索装置、画像検索方法及びプログラム |
WO2015168218A2 (en) | 2014-04-29 | 2015-11-05 | Chia Ming Chen | Light control systems and methods |
US9740338B2 (en) * | 2014-05-22 | 2017-08-22 | Ubi interactive inc. | System and methods for providing a three-dimensional touch screen |
JP6385729B2 (ja) * | 2014-06-13 | 2018-09-05 | 株式会社東芝 | 画像処理装置および画像投影装置 |
WO2015198747A1 (ja) * | 2014-06-24 | 2015-12-30 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN104267802A (zh) * | 2014-08-29 | 2015-01-07 | 福州瑞芯微电子有限公司 | 人机交互式虚拟触控装置、系统及方法 |
US20180101277A9 (en) * | 2014-09-24 | 2018-04-12 | Evan John Kaye | Skin Touchpad |
US9710160B2 (en) | 2014-10-21 | 2017-07-18 | International Business Machines Corporation | Boundless projected interactive virtual desktop |
DE102014224618A1 (de) * | 2014-12-02 | 2016-06-02 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
CN106033257B (zh) * | 2015-03-18 | 2019-05-31 | 联想(北京)有限公司 | 一种控制方法和装置 |
US9715213B1 (en) * | 2015-03-24 | 2017-07-25 | Dennis Young | Virtual chess table |
JP2018524661A (ja) | 2015-05-06 | 2018-08-30 | ハワース, インコーポレイテッドHaworth, Inc. | 共同システムにおける仮想作業空間ビューポート・フォロー・モード |
US10255023B2 (en) | 2016-02-12 | 2019-04-09 | Haworth, Inc. | Collaborative electronic whiteboard publication process |
US10043066B2 (en) * | 2016-08-17 | 2018-08-07 | Intel Corporation | Gesture masking in a video feed |
US11226704B2 (en) * | 2016-09-29 | 2022-01-18 | Sony Group Corporation | Projection-based user interface |
USD819684S1 (en) * | 2016-11-04 | 2018-06-05 | Microsoft Corporation | Display screen with graphical user interface |
CN106708256B (zh) * | 2016-11-14 | 2018-05-25 | 北京视据科技有限公司 | 基于opencv和easyar的虚拟按键触发方法 |
CN108304759A (zh) * | 2017-01-11 | 2018-07-20 | 神盾股份有限公司 | 识别手指的方法和电子装置 |
US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
US20190025919A1 (en) * | 2017-01-19 | 2019-01-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in an augmented reality system |
EP3571627A2 (en) | 2017-01-19 | 2019-11-27 | Mindmaze Holding S.A. | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
EP3568804A2 (en) | 2017-02-07 | 2019-11-20 | Mindmaze Holding S.A. | Systems, methods and apparatuses for stereo vision and tracking |
JP6822209B2 (ja) * | 2017-02-24 | 2021-01-27 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
CN109558000B (zh) * | 2017-09-26 | 2021-01-22 | 京东方科技集团股份有限公司 | 一种人机交互方法及电子设备 |
US10705673B2 (en) * | 2017-09-30 | 2020-07-07 | Intel Corporation | Posture and interaction incidence for input and output determination in ambient computing |
US11934637B2 (en) | 2017-10-23 | 2024-03-19 | Haworth, Inc. | Collaboration system including markers identifying multiple canvases in multiple shared virtual workspaces |
US11126325B2 (en) | 2017-10-23 | 2021-09-21 | Haworth, Inc. | Virtual workspace including shared viewport markers in a collaboration system |
US12019850B2 (en) | 2017-10-23 | 2024-06-25 | Haworth, Inc. | Collaboration system including markers identifying multiple canvases in multiple shared virtual workspaces |
JP6765545B2 (ja) * | 2017-12-22 | 2020-10-07 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 動的ジェスチャ認識方法および装置、ジェスチャ対話制御方法および装置 |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
CN108053836B (zh) * | 2018-01-18 | 2021-03-23 | 成都嗨翻屋科技有限公司 | 一种基于深度学习的音频自动化标注方法 |
KR101984240B1 (ko) * | 2018-10-31 | 2019-09-03 | (주)앤트로스 | 동작 인식을 위한 자동 캘리브레이션 방법 및 시스템 |
US11064219B2 (en) * | 2018-12-03 | 2021-07-13 | Cloudinary Ltd. | Image format, systems and methods of implementation thereof, and image processing |
WO2020176517A1 (en) | 2019-02-25 | 2020-09-03 | Haworth, Inc. | Gesture based workflows in a collaboration system |
CN112422933A (zh) * | 2019-08-21 | 2021-02-26 | 台达电子工业股份有限公司 | 投影装置、投影系统以及运行方法 |
US11750672B2 (en) | 2020-05-07 | 2023-09-05 | Haworth, Inc. | Digital workspace sharing over one or more display clients in proximity of a main client |
KR102524016B1 (ko) * | 2020-08-21 | 2023-04-21 | 김덕규 | 투영된 콘텐츠와 인터렉션하기 위한 시스템 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5936615A (en) * | 1996-09-12 | 1999-08-10 | Digital Equipment Corporation | Image-based touchscreen |
WO1998059312A1 (en) | 1997-06-20 | 1998-12-30 | Holoplex, Inc. | Methods and apparatus for gesture recognition |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US6600480B2 (en) | 1998-12-31 | 2003-07-29 | Anthony James Francis Natoli | Virtual reality keyboard system and method |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6545670B1 (en) * | 1999-05-11 | 2003-04-08 | Timothy R. Pryor | Methods and apparatus for man machine interfaces and related activity |
US6275214B1 (en) | 1999-07-06 | 2001-08-14 | Karl C. Hansen | Computer presentation system and method with optical tracking of wireless pointer |
US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US6624833B1 (en) | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP4154847B2 (ja) | 2000-09-26 | 2008-09-24 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体 |
JP2003108305A (ja) | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | プレゼンテーションシステム |
US20050122308A1 (en) | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
EP1477924B1 (en) * | 2003-03-31 | 2007-05-02 | HONDA MOTOR CO., Ltd. | Gesture recognition apparatus, method and program |
JP4708422B2 (ja) * | 2004-04-15 | 2011-06-22 | ジェスチャー テック,インコーポレイテッド | 両手動作の追跡 |
US8508710B2 (en) * | 2004-12-02 | 2013-08-13 | Hewlett-Packard Development Company, L.P. | Display panel |
CN102831387B (zh) | 2005-01-07 | 2016-12-14 | 高通股份有限公司 | 检测和跟踪图像中的物体 |
EP1851749B1 (en) * | 2005-01-21 | 2012-03-28 | Qualcomm Incorporated | Motion-based tracking |
US8125526B2 (en) | 2006-02-03 | 2012-02-28 | Olympus Imaging Corp. | Camera for selecting an image from a plurality of images based on a face portion and contour of a subject in the image |
EP1983402A4 (en) | 2006-02-03 | 2013-06-26 | Panasonic Corp | INPUT DEVICE AND ITS METHOD |
US8106884B2 (en) | 2006-03-20 | 2012-01-31 | Samsung Electronics Co., Ltd. | Pointing input device, method, and system using image pattern |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US7907117B2 (en) * | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
EP2124139A4 (en) * | 2006-12-22 | 2013-01-09 | Panasonic Corp | USER INTERFACE DEVICE |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP4991458B2 (ja) | 2007-09-04 | 2012-08-01 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
US9377874B2 (en) | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
US8146020B2 (en) | 2008-07-24 | 2012-03-27 | Qualcomm Incorporated | Enhanced detection of circular engagement gesture |
CN101650624B (zh) * | 2008-08-13 | 2012-07-18 | 英属维京群岛速位互动股份有限公司 | 图形化使用者界面的操控装置 |
-
2011
- 2011-01-25 US US13/013,657 patent/US8818027B2/en not_active Expired - Fee Related
- 2011-04-01 KR KR1020127028675A patent/KR101457777B1/ko not_active IP Right Cessation
- 2011-04-01 JP JP2013502913A patent/JP5567206B2/ja not_active Expired - Fee Related
- 2011-04-01 WO PCT/US2011/031030 patent/WO2011123845A2/en active Application Filing
- 2011-04-01 CN CN201180016602.0A patent/CN102822862B/zh not_active Expired - Fee Related
- 2011-04-01 EP EP11713456A patent/EP2553656A2/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
WO2011123845A3 (en) | 2012-06-28 |
EP2553656A2 (en) | 2013-02-06 |
US8818027B2 (en) | 2014-08-26 |
WO2011123845A2 (en) | 2011-10-06 |
KR101457777B1 (ko) | 2014-11-03 |
CN102822862B (zh) | 2016-03-30 |
KR20130004357A (ko) | 2013-01-09 |
JP2013524354A (ja) | 2013-06-17 |
CN102822862A (zh) | 2012-12-12 |
US20110243380A1 (en) | 2011-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5567206B2 (ja) | コンピューティングデバイスインターフェース | |
US10528154B2 (en) | System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith | |
Molyneaux et al. | Interactive environment-aware handheld projectors for pervasive computing spaces | |
TWI454968B (zh) | 三維互動裝置及其操控方法 | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
US10802663B2 (en) | Information processing apparatus, information processing method, and information processing system | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
WO2018000519A1 (zh) | 一种基于投影的用户交互图标的交互控制方法及系统 | |
US20110080337A1 (en) | Image display device and display control method thereof | |
US20150331491A1 (en) | System and method for gesture based touchscreen control of displays | |
Dai et al. | Touchscreen everywhere: On transferring a normal planar surface to a touch-sensitive display | |
JP2004246578A (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US20140053115A1 (en) | Computer vision gesture based control of a device | |
WO2013078989A1 (zh) | 人机交互操作指令的触发控制方法和系统 | |
WO2020110547A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20160147294A1 (en) | Apparatus and Method for Recognizing Motion in Spatial Interaction | |
US11907466B2 (en) | Apparatus and method which displays additional information along with a display component in response to the display component being selected | |
CN103543825B (zh) | 摄像机光标系统 | |
Bader et al. | Lift-and-drop: crossing boundaries in a multi-display environment by airlift | |
CN104914985A (zh) | 手势控制方法及系统与视频流处理装置 | |
TW201947377A (zh) | 虛擬輸入系統 | |
Forutanpour et al. | ProJest: Enabling Higher Levels of Collaboration Using Today’s Mobile Devices | |
Huang et al. | Air Manipulation: A Manipulation System using Wearable Device of Camera Glasses in Smart Mobile Projector | |
Wang et al. | A novel projector-camera interaction system with the fingertip |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5567206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |