JP2012505615A - シングルカメラトラッキング装置 - Google Patents
シングルカメラトラッキング装置 Download PDFInfo
- Publication number
- JP2012505615A JP2012505615A JP2011531259A JP2011531259A JP2012505615A JP 2012505615 A JP2012505615 A JP 2012505615A JP 2011531259 A JP2011531259 A JP 2011531259A JP 2011531259 A JP2011531259 A JP 2011531259A JP 2012505615 A JP2012505615 A JP 2012505615A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- camera
- user interface
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【選択図】図1
Description
本出願は、2008年10月10日に出願の米国特許仮出願番号第61/104,340号の利益を主張し、参照により本明細書に援用される。
本開示は、一般に、対象物のトラッキングに関連する。
Claims (20)
- 電子デバイスであって:
面を横切る画像を捕えるために向きを定められるカメラ;および
オペレーションを実行するために構成される演算処理装置を含み;
前記オペレーションは:
前記カメラによって捕えられる画像にアクセスするステップ;
前記カメラの視野の範囲内で定義される、そして、各々、前記面上に位置する1つのインターフェース・コントロールに対応する、複数の領域を識別するステップ;
前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定するステップ;
前記決定した領域に対応する前記1つのインターフェース・コントロールに基づくユーザー入力を決定するステップ;および
前記決定したユーザー入力に基づいてアプリケーションをコントロールするステップ;
を含む、電子デバイス。 - 前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定する前記ステップは:
前記アクセスした画像の範囲内で対象物を検出するステップ;
前記アクセスした画像の範囲内で検出対象物の位置を決定するステップ;
前記決定した位置を、前記カメラの視野の範囲内で前記複数の定義された領域と比較するステップ;および
比較結果に基づいて、前記検出対象物が位置する領域を識別するステップ;
を含む、請求項1に記載の電子デバイス。 - 前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定する前記ステップは:
前記アクセスした画像を、各々前記複数の定義された領域のうちの1つに対応するセグメントに分割するステップ;
前記セグメントの各々に対して、対象物が前記セグメントの範囲内にあるかどうか決定するために前記セグメントを分析するステップ;および
対象物が特定のセグメントの範囲内にあるという決定に応じて、前記対象物が、前記特定のセグメントに対応する特定の領域の範囲内に位置することを決定するステップ;
を含む、請求項1に記載の電子デバイス。 - 前記対象物が、前記特定のセグメントに対応する特定の領域の範囲内に位置することを決定する前記ステップは、前記対象物の全体が前記特定の領域の任意の部分の範囲内にあることを決定するステップを含む、請求項3に記載の電子デバイス。
- 前記セグメントは、対象物が前記セグメントの範囲内にあるかどうか決定するために分析される前記画像の唯一の部分である、請求項3に記載の電子デバイス。
- グラフィカルユーザーインターフェースを表示するために構成される表示画面をさらに含み、前記グラフィカルユーザーインターフェースは、前記グラフィカルユーザーインターフェースの第1位置で表示される第1のユーザーインターフェース・コントロール、および、前記グラフィカルユーザーインターフェースの第2位置で表示される第2のユーザーインターフェース・コントロールを含み、前記グラフィカルユーザーインターフェースの前記第2位置は、前記グラフィカルユーザーインターフェースの前記第1位置とは異なり、
前記カメラは、前記表示画面の表面を横切る画像を捕えるために向きを定められ、
前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定する前記ステップは、対象物が前記第1のユーザーインターフェース・コントロールに対応する前記画像の第1領域の範囲内にあるかどうか決定するステップ、および、対象物が前記第2のユーザーインターフェース・コントロールに対応する前記画像の第2領域の範囲内にあるかどうか決定するステップを含み、
前記決定した領域に対応する前記1つのインターフェース・コントロールに基づくユーザー入力を決定する前記ステップ、および前記決定したユーザー入力に基づいてアプリケーションをコントロールする前記ステップは、
対象物が前記画像の第1領域の範囲内にあるという判定に応じて、前記第1のユーザーインターフェース・コントロールの活性化を検出するステップ、および、前記第1のユーザーインターフェース・コントロールの活性化と関連した第1のオペレーションを始動するステップ、ならびに
対象物が前記画像の第2領域の範囲内にあるという判定に応じて、前記第2のユーザーインターフェース・コントロールの活性化を検出するステップ、および、前記第2のユーザーインターフェース・コントロールの活性化と関連した第2のオペレーションを始動するステップ、
を含む、請求項1に記載の電子デバイス。 - オペレーションを実行するために構成される前記演算処理装置は、前記第1のユーザーインターフェース・コントロールの大きさおよび形状を前記画像の前記第1領域の範囲内に適合するように、そして、前記第2のユーザーインターフェース・コントロールの大きさおよび形状を前記画像の前記第2領域の範囲内に適合するように、前記表示画面をコントロールするステップ、をさらに含む、請求項6に記載の電子デバイス。
- 前記第1のユーザーインターフェース・コントロールは、第1のユーザーインターフェース・ボタンであり;そして
前記第1のユーザーインターフェース・コントロールの活性化を検出する前記ステップ、および前記第1のユーザーインターフェース・コントロールの活性化と関連した第1のオペレーションを始動する前記ステップは、前記第1のユーザーインターフェース・ボタンの押圧を検出するステップ、および、前記第1のユーザーインターフェース・ボタンの押圧と関連した第1のオペレーションを始動するステップ、を含む、
請求項6に記載の電子デバイス。 - 前記第1のユーザーインターフェース・コントロールは、前記カメラの視野と交差する方向において前記画像の前記第1領域にわたる第1のスライダコントロールであり;そして
前記第1のユーザーインターフェース・コントロールの活性化を検出する前記ステップ、および前記第1のユーザーインターフェース・コントロールの活性化と関連した第1のオペレーションを始動する前記ステップは、
対象物が前記画像の前記第1領域の範囲内にあるという判定に応じて、前記第1のスライダコントロールの係合を検出するステップ;
前記対象物の位置を、前記第1のスライダコントロールに沿って前記画像の前記第1領域の範囲内で決定するステップ;および
前記第1のスライダコントロールの係合と関連する、そして、前記第1のスライダコントロールに沿って前記画像の前記第1領域の範囲内で前記対象物の前記決定した位置を使用する、第1のオペレーションを始動するステップ、
を含む、請求項6に記載の電子デバイス。 - 前記画像の前記第1領域および前記画像の前記第2領域と交差する方向において、前記表示画面の前記表面全体を横切ってまっすぐ照らすように向きを定められる発光ダイオードをさらに含む、請求項6に記載の電子デバイス。
- 前記発光ダイオードからの光が導かれる、前記画像の前記第1領域の一部における作用エリア、および、前記発光ダイオードからの光がない、前記画像の前記第1領域の残りの部分における偽のエリア、を定義するために、前記発光ダイオードは、前記画像の前記第1領域の前記一部を横切ってまっすぐ照らす、そして、前記第1のユーザーインターフェース・コントロール表示される前記グラフィカルユーザーインターフェースの前記第1位置は、前記画像の前記第1領域の前記作用エリアに対応する、請求項10に記載の電子デバイス。
- 対象物が前記画像の前記第1領域の範囲内にあるかどうか決定する前記ステップは、前記画像の前記第1領域の前記作用エリアにおいて対象物を検出して、かつ前記画像の前記第1領域の前記偽のエリアにおいて対象物を無視するために、照らされた対象物が前記画像の前記第1領域の範囲内にあるかどうか決定するステップ、を含む、請求項11に記載の電子デバイス。
- 前記発光ダイオードは、前記表示画面よりも上の第1のエリアを照らすために構成される第1の発光ダイオードである、そして、第2の発光ダイオードをさらに含み、前記第2の発光ダイオードは、前記表示画面の前記表面を横切ってまっすぐ照らすように向きを定められて、前記第1の発光ダイオードによって照らされる前記表示画面よりも上の前記第1のエリアとは異なる前記表示画面よりも上の第2のエリアを照らすために構成される、請求項12に記載の電子デバイス。
- 前記第2の発光ダイオードによって照らされる前記表示画面よりも上の前記第2領域は、ジェスチャ入力領域を定義する、そして、オペレーションを実行するために構成される前記演算処理装置は、前記カメラによって捕えられる複数の画像の分析に基づいて前記第2のエリアの範囲内でジェスチャを検出するステップをさらに含む、請求項13に記載の電子デバイス。
- オペレーションを実行するために構成される前記演算処理装置は:
前記カメラによって捕えられる画像について順番に交互の時間に照らして、その結果、前記カメラによって捕えられる前記画像を、前記第1の発光ダイオードが照らされて、かつ前記第2の発光ダイオードが照らされない第1の画像セット、および、前記第2の発光ダイオードが照らされて、かつ前記第1の発光ダイオードが照らされない第2の画像セット、とするために、前記第1の発光ダイオードおよび前記第2の発光ダイオードをコントロールするステップ;
前記第1のユーザーインターフェース・コントロールの活性化を検出するために、前記第1の発光ダイオードが照らされて、かつ前記第2の発光ダイオードが照らされない前記第1の画像セットを処理するステップ;および
前記第2のエリアの範囲内でジェスチャを検出するために、前記第1の発光ダイオードが照らされず、かつ前記第2の発光ダイオードが照らされる前記第2の画像セットを処理するステップ、
をさらに含む、請求項14に記載の電子デバイス。 - オペレーションを実行するために構成される前記演算処理装置は、前記画像の複数の定義された領域以外の画像の部分に位置する対象物が無視されるように、前記画像の複数の定義された領域以外の画像の部分を無視するステップ、をさらに含む、請求項1に記載の電子デバイス。
- 前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定する前記ステップは、前記カメラによって捕えられる複数の画像の分析に基づいて、前記画像の前記領域の範囲内で対象物によるジェスチャの実行を検出するステップを含み;
ユーザー入力を決定する前記ステップは、前記検出したジェスチャに対応するユーザー入力コマンドを決定するステップを含み;そして
前記決定したユーザー入力に基づいてアプリケーションをコントロールする前記ステップは、前記決定したユーザー入力コマンドに対応する第1のオペレーションを始動させるステップを含む、
請求項1に記載の電子デバイス。 - 前記カメラによって捕えられる複数の画像の分析に基づいて、前記画像の前記領域の範囲内で対象物によるジェスチャを検出する前記ステップは、前記画像の前記領域の範囲内でのスワイプジェスチャの実行、および前記スワイプジェスチャの方向を検出するステップを含み;
前記検出したジェスチャに対応するユーザー入力コマンドを決定する前記ステップは、前記スワイプジェスチャの前記検出した方向における前記スワイプジェスチャに対応するユーザー入力コマンドを決定するステップを含む、
請求項17に記載の電子デバイス。 - 少なくとも1つのプロセッサによって実行されるときに、前記少なくとも1つのプロセッサにオペレーションを実行させる実行可能命令によってコード化される少なくとも1つのコンピュータ読み取り可能の記憶媒体であって、前記オペレーションは:
面を横切る画像を捕えるために向きを定められるカメラによって捕えられる画像にアクセスするステップ;
前記カメラの視野の範囲内で定義される、そして、各々、前記面上に位置する1つのインターフェース・コントロールに対応する、複数の領域を識別するステップ;
前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定するステップ;
前記決定した領域に対応する前記1つのインターフェース・コントロールに基づくユーザー入力を決定するステップ;および
前記決定したユーザー入力に基づいてアプリケーションをコントロールするステップ;
を含む、コンピュータ読み取り可能の記憶媒体。 - 方法であって:
面を横切る画像を捕えるために向きを定められるカメラによって捕えられる画像にアクセスするステップ;
前記カメラの視野の範囲内で定義される、そして、各々、前記面上に位置する1つのインターフェース・コントロールに対応する、複数の領域を識別するステップ;
前記複数の定義された領域の中から、前記アクセスした画像の範囲内で検出される対象物が位置する領域を決定するステップ;
前記決定した領域に対応する前記1つのインターフェース・コントロールに基づくユーザー入力を決定するステップ;および
前記決定したユーザー入力に基づいてアプリケーションをコントロールするステップ;
を含む、方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10434008P | 2008-10-10 | 2008-10-10 | |
US61/104,340 | 2008-10-10 | ||
PCT/US2009/060548 WO2010042953A1 (en) | 2008-10-10 | 2009-10-13 | Single camera tracker |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012505615A true JP2012505615A (ja) | 2012-03-01 |
JP5529146B2 JP5529146B2 (ja) | 2014-06-25 |
Family
ID=42098488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011531259A Expired - Fee Related JP5529146B2 (ja) | 2008-10-10 | 2009-10-13 | シングルカメラトラッキング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9030564B2 (ja) |
EP (1) | EP2350792B1 (ja) |
JP (1) | JP5529146B2 (ja) |
CN (1) | CN103392163B (ja) |
WO (1) | WO2010042953A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012137899A (ja) * | 2010-12-27 | 2012-07-19 | Hitachi Consumer Electronics Co Ltd | 映像処理装置及び映像表示装置 |
JP2014164373A (ja) * | 2013-02-22 | 2014-09-08 | Nikon Corp | 認証装置及び認証方法 |
JP2015170278A (ja) * | 2014-03-10 | 2015-09-28 | 井上 文彦 | 情報処理装置、情報処理システム及び情報処理方法 |
JP2019053769A (ja) * | 2018-12-04 | 2019-04-04 | シャープ株式会社 | タッチ検出装置、タッチ検出システム、タッチ検出方法、およびプログラム |
JP2020528290A (ja) * | 2017-07-27 | 2020-09-24 | アルコン インコーポレイティド | 感覚発生器とジェスチャ検出器を用いるレーザ手術機器の制御 |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10086262B1 (en) | 2008-11-12 | 2018-10-02 | David G. Capper | Video motion capture for wireless gaming |
US9586135B1 (en) | 2008-11-12 | 2017-03-07 | David G. Capper | Video motion capture for wireless gaming |
US9383814B1 (en) | 2008-11-12 | 2016-07-05 | David G. Capper | Plug and play wireless video game |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
US8457353B2 (en) * | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US20110307842A1 (en) * | 2010-06-14 | 2011-12-15 | I-Jen Chiang | Electronic reading device |
WO2011156957A1 (en) * | 2010-06-17 | 2011-12-22 | Nokia Corporation | Method and apparatus for determining input |
JP2012058921A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US8928589B2 (en) * | 2011-04-20 | 2015-01-06 | Qualcomm Incorporated | Virtual keyboards and methods of providing the same |
US8957967B2 (en) * | 2011-06-03 | 2015-02-17 | Honeywell International Inc. | System and method to control surveillance cameras via three dimensional metaphor and cursor |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
JP5799627B2 (ja) * | 2011-07-15 | 2015-10-28 | セイコーエプソン株式会社 | 位置検出装置、位置検出システムおよび入力機能付き表示システム |
US8988394B2 (en) * | 2011-10-25 | 2015-03-24 | Semiconductor Components Industries, Llc | Electronic devices with camera-based user interfaces |
JP2013105346A (ja) * | 2011-11-14 | 2013-05-30 | Sony Corp | 情報提示装置、情報提示方法、情報提示システム、情報登録装置、情報登録方法、情報登録システムおよびプログラム |
US8719734B2 (en) | 2011-11-16 | 2014-05-06 | Microsoft Corporation | Two-stage swipe gesture recognition |
JP5851048B2 (ja) | 2011-12-19 | 2016-02-03 | エンパイア テクノロジー ディベロップメント エルエルシー | ジェスチャーベースのゲームのための休止および再開方式 |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9747306B2 (en) * | 2012-05-25 | 2017-08-29 | Atheer, Inc. | Method and apparatus for identifying input features for later recognition |
US10033943B1 (en) | 2012-10-15 | 2018-07-24 | Tangible Play, Inc. | Activity surface detection, display and enhancement |
US9158389B1 (en) * | 2012-10-15 | 2015-10-13 | Tangible Play, Inc. | Virtualization of tangible interface objects |
US10657694B2 (en) | 2012-10-15 | 2020-05-19 | Tangible Play, Inc. | Activity surface detection, display and enhancement of a virtual scene |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10005639B2 (en) | 2013-08-15 | 2018-06-26 | Otis Elevator Company | Sensors for conveyance control |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
CN105899996B (zh) * | 2013-12-06 | 2019-04-23 | 瑞典爱立信有限公司 | 光学头戴式显示器、电视入口模块和用于控制图形用户界面的方法 |
JP2016038889A (ja) | 2014-08-08 | 2016-03-22 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | モーション感知を伴う拡張現実 |
TWI531954B (zh) | 2014-11-14 | 2016-05-01 | 中強光電股份有限公司 | 觸控及手勢控制系統與觸控及手勢控制方法 |
CN107402654B (zh) * | 2016-05-18 | 2021-07-16 | 原相科技股份有限公司 | 触控侦测方法以及触控侦测系统 |
USD811486S1 (en) | 2016-05-24 | 2018-02-27 | Tangible Play, Inc. | Programming tile |
USD795349S1 (en) | 2016-05-24 | 2017-08-22 | Tangible Play, Inc. | Programming tile |
USD795348S1 (en) | 2016-05-24 | 2017-08-22 | Tangible Play, Inc. | Programming tile |
USD811485S1 (en) | 2016-05-24 | 2018-02-27 | Tangible Play, Inc. | Programming tile |
USD812143S1 (en) | 2016-05-24 | 2018-03-06 | Tangible Play, Inc. | Programming tile |
USD871419S1 (en) | 2016-05-24 | 2019-12-31 | Tangible Play, Inc. | Display screen or portion thereof with a graphical user interface |
USD837239S1 (en) | 2016-07-06 | 2019-01-01 | Fujifilm Corporation | Digital camera display panel with transitional graphical user interface |
CN107091800A (zh) * | 2017-06-06 | 2017-08-25 | 深圳小孚医疗科技有限公司 | 用于显微成像粒子分析的聚焦系统和聚焦方法 |
US11022863B2 (en) | 2018-09-17 | 2021-06-01 | Tangible Play, Inc | Display positioning system |
US10380440B1 (en) * | 2018-10-23 | 2019-08-13 | Capital One Services, Llc | Method for determining correct scanning distance using augmented reality and machine learning models |
US20210006730A1 (en) | 2019-07-07 | 2021-01-07 | Tangible Play, Inc. | Computing device |
USD907032S1 (en) | 2019-07-07 | 2021-01-05 | Tangible Play, Inc. | Virtualization device |
KR20220028951A (ko) | 2020-08-31 | 2022-03-08 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3080041U (ja) * | 2001-03-06 | 2001-09-14 | 株式会社アシストコンピュータシステムズ | 入力装置 |
JP2002312123A (ja) * | 2001-04-16 | 2002-10-25 | Hitachi Eng Co Ltd | タッチ位置検出装置 |
JP2008186374A (ja) * | 2007-01-31 | 2008-08-14 | Seiko Instruments Inc | 光学式タッチパネル |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3462889B2 (ja) | 1993-04-22 | 2003-11-05 | シャープ株式会社 | 光学式タッチパネルおよびその駆動方法 |
US6973202B2 (en) * | 1998-10-23 | 2005-12-06 | Varian Medical Systems Technologies, Inc. | Single-camera tracking of an object |
EP1352303A4 (en) | 2001-01-08 | 2007-12-12 | Vkb Inc | DATA INPUT DEVICE |
US7830362B2 (en) * | 2001-07-05 | 2010-11-09 | Michael Cain Finley | Laser and digital camera computer pointer device system |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7134080B2 (en) * | 2002-08-23 | 2006-11-07 | International Business Machines Corporation | Method and system for a user-following interface |
US7358963B2 (en) * | 2002-09-09 | 2008-04-15 | Apple Inc. | Mouse having an optically-based scrolling feature |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
JP2005135329A (ja) | 2003-10-31 | 2005-05-26 | Calsonic Kansei Corp | 光学式タッチパネル |
US7853041B2 (en) * | 2005-01-07 | 2010-12-14 | Gesturetek, Inc. | Detecting and tracking objects in images |
JP5631535B2 (ja) * | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
US20060267927A1 (en) * | 2005-05-27 | 2006-11-30 | Crenshaw James E | User interface controller method and apparatus for a handheld electronic device |
CN101213487B (zh) * | 2005-06-30 | 2010-06-16 | 株式会社理光 | 投影图像显示装置 |
JP3968376B2 (ja) * | 2005-07-29 | 2007-08-29 | 松下電器産業株式会社 | 撮影領域調整装置 |
US20070165007A1 (en) * | 2006-01-13 | 2007-07-19 | Gerald Morrison | Interactive input system |
US8472665B2 (en) * | 2007-05-04 | 2013-06-25 | Qualcomm Incorporated | Camera-based user input for compact devices |
US7835999B2 (en) * | 2007-06-27 | 2010-11-16 | Microsoft Corporation | Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights |
US8400407B2 (en) * | 2007-07-18 | 2013-03-19 | Smart Technologies Ulc | Touch panel and interactive input system incorporating the same |
JP4636149B2 (ja) * | 2008-09-09 | 2011-02-23 | ソニー株式会社 | 画像データ解析装置、および画像データ解析方法、並びにプログラム |
-
2009
- 2009-10-13 US US12/578,505 patent/US9030564B2/en active Active
- 2009-10-13 JP JP2011531259A patent/JP5529146B2/ja not_active Expired - Fee Related
- 2009-10-13 WO PCT/US2009/060548 patent/WO2010042953A1/en active Application Filing
- 2009-10-13 EP EP09820054.6A patent/EP2350792B1/en active Active
- 2009-10-13 CN CN200980147735.4A patent/CN103392163B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3080041U (ja) * | 2001-03-06 | 2001-09-14 | 株式会社アシストコンピュータシステムズ | 入力装置 |
JP2002312123A (ja) * | 2001-04-16 | 2002-10-25 | Hitachi Eng Co Ltd | タッチ位置検出装置 |
JP2008186374A (ja) * | 2007-01-31 | 2008-08-14 | Seiko Instruments Inc | 光学式タッチパネル |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012137899A (ja) * | 2010-12-27 | 2012-07-19 | Hitachi Consumer Electronics Co Ltd | 映像処理装置及び映像表示装置 |
JP2014164373A (ja) * | 2013-02-22 | 2014-09-08 | Nikon Corp | 認証装置及び認証方法 |
JP2015170278A (ja) * | 2014-03-10 | 2015-09-28 | 井上 文彦 | 情報処理装置、情報処理システム及び情報処理方法 |
JP2020528290A (ja) * | 2017-07-27 | 2020-09-24 | アルコン インコーポレイティド | 感覚発生器とジェスチャ検出器を用いるレーザ手術機器の制御 |
JP7194124B2 (ja) | 2017-07-27 | 2022-12-21 | アルコン インコーポレイティド | 感覚発生器とジェスチャ検出器を用いるレーザ手術機器の制御 |
JP2019053769A (ja) * | 2018-12-04 | 2019-04-04 | シャープ株式会社 | タッチ検出装置、タッチ検出システム、タッチ検出方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2010042953A1 (en) | 2010-04-15 |
CN103392163A (zh) | 2013-11-13 |
US9030564B2 (en) | 2015-05-12 |
EP2350792A4 (en) | 2014-05-21 |
EP2350792A1 (en) | 2011-08-03 |
CN103392163B (zh) | 2016-10-26 |
EP2350792B1 (en) | 2016-06-22 |
US20100091110A1 (en) | 2010-04-15 |
JP5529146B2 (ja) | 2014-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5529146B2 (ja) | シングルカメラトラッキング装置 | |
US8897496B2 (en) | Hover detection | |
JP5855343B2 (ja) | 改良されたジェスチャに基づく画像操作 | |
JP6129879B2 (ja) | 多次元入力のためのナビゲーション手法 | |
US10025390B2 (en) | Enhanced input using recognized gestures | |
US10268339B2 (en) | Enhanced camera-based input | |
US7519223B2 (en) | Recognizing gestures and using gestures for interacting with software applications | |
JP5103380B2 (ja) | 大型タッチシステムおよび該システムと相互作用する方法 | |
EP2613281B1 (en) | Manipulation of virtual objects using enhanced interactive system | |
US10001838B2 (en) | Feature tracking for device input | |
US7612786B2 (en) | Variable orientation input mode | |
CA2738185C (en) | Touch-input with crossing-based widget manipulation | |
US9317171B2 (en) | Systems and methods for implementing and using gesture based user interface widgets with camera input | |
US20090103780A1 (en) | Hand-Gesture Recognition Method | |
US9411432B2 (en) | Systems and methods for enabling gesture control based on detection of occlusion patterns | |
KR20110112831A (ko) | 제스처 인식 방법 및 이 방법을 이용하는 대화형 입력 시스템 | |
BRPI0714232B1 (pt) | controladora virtual para exibições visuais | |
US20150242179A1 (en) | Augmented peripheral content using mobile device | |
US20150277717A1 (en) | Interactive input system and method for grouping graphical objects | |
CN117461014A (zh) | 大幅面显示设备的交互定制 | |
Pyryeskin | Investigating Selection above a Multitouch Surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20120206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130924 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20131224 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5529146 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |