JP2014241592A - オプティカルフローに基づく傾きセンサー - Google Patents

オプティカルフローに基づく傾きセンサー Download PDF

Info

Publication number
JP2014241592A
JP2014241592A JP2014137594A JP2014137594A JP2014241592A JP 2014241592 A JP2014241592 A JP 2014241592A JP 2014137594 A JP2014137594 A JP 2014137594A JP 2014137594 A JP2014137594 A JP 2014137594A JP 2014241592 A JP2014241592 A JP 2014241592A
Authority
JP
Japan
Prior art keywords
feature
movement
image
camera
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014137594A
Other languages
English (en)
Other versions
JP5911919B2 (ja
Inventor
ヒルドゥレス,エヴァン
Hildreth Evan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014241592A publication Critical patent/JP2014241592A/ja
Application granted granted Critical
Publication of JP5911919B2 publication Critical patent/JP5911919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00323Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a measuring, monitoring or signaling apparatus, e.g. for transmitting measured information to a central location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0096Portable devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動いているモバイルカメラの動きの様子を検出してアプリケーションへのユーザー入力を特定するための方法を提供する。
【解決手段】この方法は、装置に配置された画像センサーによって補足した画像にアクセスする段階と、捕捉した画像中に存在する静止した第1の特徴を識別する段階と、捕捉した画像中に存在する静止した第2の特徴を識別する段階と、捕捉した画像内での第1の特徴と第2の特徴との間の距離の変化に基づいて、装置の奥行き方向の動きの様子を検出する段階とを有する。第2の特徴は、第1の特徴とは異なるものであり、第1の特徴から離れた位置にある。奥行き方向は、第1の特徴および第2の特徴に対して近づいたり遠ざかったりする動きの方向である。
【選択図】図6

Description

本開示は動きの推定に関する。
デジタルカメラは画像のデジタル表現を捕捉する。デジタルカメラは、指定の期間に亘って複数の画像を捕捉するように構成されていることがある。デジタル画像を処理することは、一つの画像の特性を検出するためにその画像の各特徴を処理すること、または撮像している環境の特性または画像捕捉装置の特性を特定するために一連の画像の各特徴を処理することを含んでいることがある。オプティカルフローとして知られる処理では、画像の中の物体とその画像捕捉装置との間の相対的な動きを検出するために、一連の画像における物体の配置を比較することがある。
特開2002−081909号公報 特開2004−274402号公報 特開2003−203237号公報 特開平10−240436号公報 特開2001−282447号公報 特開2002−351603号公報 特開平3−154576号公報
本明細書で説明する一つの概略の例では、デジタルカメラから捕捉する一連の画像をデジタルカメラの動きを検出するために分析してもよく、検出した動きに基づいて装置へのユーザー入力を特定してもよい。説明する各種の実施形態は以下の特徴のうちの一つ以上を有している。例えば、カメラ付き携帯電話などの携帯娯楽装置において傾きセンサーとしてオプティカルフローを使用することなどである。疎らな特徴群のセット/疎らなフロー場を、リアルタイム実行性能を実現するために使用してもよい。非静的な場面を、フロー場の最も典型的な(すなわち最大の静止しているクラスタ)結果を見つけることによって処理してもよい。長い期間にわたって、最初の位置および/または方向を基準とした位置および/または方向を算出してもよい。カメラが固定され、ユーザーの方ではない方向を向いているカメラ付き携帯電話において前記特徴を使用してもよい。限定的な処理能力を有する装置用に実施形態/特徴を構成してもよい。
概略の態様に係る方法は、動いているモバイルカメラから画像を捕捉することと、前記捕捉された画像に基づいて前記動いているモバイルカメラの動きの様子を検出することとを含んでいる。前記方法はまた、インタフェース装置上にアプリケーションへのユーザーインタフェースを提供することも含んでいる。前記アプリケーションへのユーザー入力を、自動的に前記検出された動きに基づいて特定する。
前記概略の態様の実施形態は、以下の特徴の一つ以上を有してもよい。例えば、前記インタフェース装置が前記モバイルカメラに物理的に結合されている、または前記モバイルカメラを有する装置に物理的に一体化されていてもよい。前記動いているモバイルカメラが携帯電話に物理的に結合されていてもよい。
動きの様子を検出することは、自動的に実行されてもよく、大きさと方向のうちの一つ以上を検出することを含んでもよい。動きの様子を検出することは、また、オプティカルフローを使用することを含んでもよい。
前記動いているモバイルカメラの動きの様子を検出することは、2または3自由度の前記動いているモバイルカメラの回転量を算出することを含んでもよい。前記動いているモバイルカメラの動きの様子を検出することは、また、前記動いているモバイルカメラの平行移動量を算出することも含んでよい。
前記動いているモバイルカメラの動きの様子を検出することは、前記動いているモバイルカメラの最初の位置に対する前記動いているモバイルカメラの移動量を算出することを含んでもよい。前記動いているモバイルカメラの前記最初の位置が、アプリケーションによって再セットされてもよい。
前記動いているモバイルカメラの動きの様子を検出することは、前記捕捉された画像中の特徴群の動きを検出することと、前記特徴群の前記動きに基づいて前記モバイルカメラの動きを検出することとを含んでもよい。前記特徴群の前記検出された動きに基づいて、前記特徴群を、基準の現実世界のフレームに対して動いている動的特徴群のセットに分けてもよい。動的特徴群に分けることは、最大の面積をカバーする特徴群のセットを選択することと、選択されなかった特徴を無視することとを含んでもよい。動的特徴群を分けることは、また、特徴群の重要なセットと類似の方向と大きさを有していない特徴を無視することを含んでもよい。
動きの様子を検出することは、前記捕捉された複数の画像から特徴を抽出することと、二つ以上の画像に存在している各特徴を対応付けるために画像を比較することとを含んでもよい。前の画像内の特徴の位置に対する現在の画像内のその特徴の位置の変位を算出することによって、対応付けられた特徴のフローベクトルを決定してもよい。前記各対応付けられた特徴の前記決定されたフローベクトルに基づいて前記モバイルカメラの前記動きを検出する。
前記捕捉された画像から特徴を抽出することは、角および縁の少なくとも一つを検出することを含んでもよい。各特徴を対応付けるために画像を比較することは、最初に、画像内の前記特徴の既知の位置と、近接した別の画像内のブロックとを比較することを含んでもよい。各特徴を対応付けるために画像を比較することは、また、最初に低解像度で画像を比較し、対応が見つかったかどうかに応じてより高い解像度で画像を比較することを含んでもよい。前記フローベクトルを基に前記モバイルカメラの前記動きを決定することは、画像に依存する単位で決定された前記動きを変換することによって現実世界の単位で前記モバイルカメラの前記動きを特定することを含んでもよい。
画像を捕捉することに、一連の画像を捕捉することが含まれていてもよい。前記動いているモバイルカメラの動きの様子を検出することは、前記一連の画像のうち第1サブセットの画像に現れている第1の特徴の動きを検出することと、前記一連の画像うち、前記第1サブセットと部分的に重複した第2サブセットの画像に現れている第2の特徴であって、前記第1の特徴との間に、前記第1の特徴が前記第2サブセットの画像の全てには現れていない場合でも、第2の特徴の動きが前記第1の特徴の動きに基づいているという固定した物理的関係を有する第2の特徴の動きを検出することとを含んでもよい。前記第1と第2の特徴の検出された動きに基づいて、前記動いているモバイルカメラの動きの様子を検出してよい。
前記ユーザー入力が傾きセンサー機能を模倣し、アプリケーション中で物体の傾き、またはアプリケーション中でボールの動き、またはアプリケーション中で乗り物の操縦機能、またはアプリケーション中で物体の照準合わせ機能、またはアプリケーション中で物体のナビゲーション機能、またはアプリケーション中で関節を有するキャラクタの動き、または粒子シミュレーションアプリケーション中の粒子の動きを制御してもよい。前記検出された動きの大きさがしきい値の大きさよりも大きいときに前記ユーザー入力が特定されてもよい。前記アプリケーションは、ゲーム、追跡アプリケーション、セキュリティアプリケーションのうちの少なくとも一つを含んでもよい。
別の概略の態様によれば、携帯電話が、電話にそれぞれ一体的に形成されたカメラとディスプレイとを有している。前記電話はまた、前記カメラと前記ディスプレイとに物理的にかつ通信可能に接続された処理装置を有している。前記電話は、さらに、前記処理装置に物理的にかつ通信可能に接続されたコンピュータ読み取り可能な媒体を有している。前記コンピュータ読み取り可能な媒体は、少なくとも、(1)前記カメラから捕捉された画像を受け取ることと、(2)前記受け取った画像を基に前記電話の動きの様子を検出することと、(3)アプリケーションへのユーザーインタフェースを前記ディスプレイに提供することと、(4)前記電話の前記動きの様子に基づいて前記アプリケーションへのユーザー入力を自動的に特定することと、(5)前記アプリケーションに前記ユーザー入力を提供することとを、前記処理装置に実行させるための命令を有している。
前記概略の態様の実施形態は、様々なさらなる特徴を有していてもよい。例えば、前記コンピュータ読み取り可能な媒体は、前記処理装置の一体化された部分であってもよい。
各種の態様、実施形態、特徴は、本願明細書で例えば一つの方法でしか記載されていない場合でも、様々な方法で実施してよい。各種態様、実施形態、特徴は、例えば方法、装置、方法を実行するための装置、プログラムまたは他の命令のセット、プログラムまたは他の命令のセットを含む装置、コンピュータ読み取り可能な媒体又は伝搬された信号などのうちの一つ以上を使用して実施してもよい。コンピュータ読み取り可能な媒体または伝搬された信号は、例えば、命令、ソフトウェア、画像、その他のデータなどを含んでいてもよい。各種の態様、実施形態、特徴には、また、例えばカメラなどのさらなるコンポーネントが含まれていてもよい。
一つ以上の実施形態の詳細を、添付の図面と以下の記述の中で説明する。他の特徴は、以下の記述と図面と請求項から明らかとなるであろう。
動きの様子を検出してその検出した動きに基づいてユーザーインタフェースを制御するように構成されたカメラ付き携帯電話の一例を示す図である。 カメラと、カメラの動きを定義するための軸システムの一例を示す図である。 カメラと、X軸の周りのカメラの回転によって生成されるオプティカルフローベクトルの一例を示す図である。 カメラと、Y軸の周りのカメラの回転によって生成されるオプティカルフローベクトルの一例を示す図である。 カメラと、Z軸の周りのカメラの回転によって生成されるオプティカルフローベクトルの一例を示す図である。 カメラと、X軸に沿った平行移動によって生成されるオプティカルフローベクトルの一例を示す図である。 カメラと、Z軸に沿った平行移動によって生成されるオプティカルフローベクトルの一例を示す図である。 下面にカメラを有する携帯電話を保持するユーザーの一例を示す図である。 下面にカメラを有する携帯電話を保持するユーザーの一例を示す図である。 X軸の周りにカメラを有する携帯電話を回転させる際のユーザーの手の動きの一例を示す図である。 X軸の周りにカメラを有する携帯電話を回転させる際のユーザーの手の動きの一例を示す図である。 Y軸の周りにカメラを有する携帯電話を回転させる際のユーザーの手の動きの一例を示す図である。 Y軸の周りにカメラを有する携帯電話を回転させる際のユーザーの手の動きの一例を示す図である。 装置の動きの様子を検出してアプリケーションへのユーザー入力を特定するための処理の一例を示すフローチャートである。 動いているカメラの動きの様子を検出するための処理の一例を示すフローチャートである。 着席した姿勢で、カメラ付き手持ち式装置を保持するユーザーの一例を示す図である。 起立した姿勢で、カメラ付き手持ち式装置を保持するユーザーの一例を示す図である。 カメラがユーザーに向けられ起立した姿勢で、カメラ付き手持ち式装置を保持するユーザーの一例を示す図である。
動いているモバイルカメラの動きの様子を検出し、アプリケーションへのユーザー入力を特定するための幾つかの技法を提供する。一つの技法は、動いているモバイルカメラから一連の画像を捕捉し、その一連の画像中に存在する静止している特徴群を比較することを含む。特徴は、例えば画像の中の物体、画像の中の物体の一部、および/または画像の中の物体の角または縁などであってよい。動いているモバイルカメラの動きの様子を検出するために、オプティカルフロー分析を一連の画像に対して実行する。検出した動きに基づいてアプリケーションへのユーザー入力を特定する。アプリケーションは、このユーザー入力に応答し、例えばユーザーインタフェースを更新する。
図1を参照すると、カメラ付き携帯電話100などの携帯娯楽用装置に備えられたカメラからの一連の画像のオプティカルフローを使用して、例えばゲームまたはアプリケーションを制御する手段としてのこの手持ち式装置の動きを検出するシステムが示されている。カメラ付き携帯電話100は、ユーザーがこの装置と対話できるように構成されているユーザーインタフェース110を有している。ユーザーインタフェース110は、例えば、表示インタフェース111と、キーパッド112と、マイクロフォン113と、スピーカー114とを有している。表示インタフェース111はユーザーに視覚的表示を提供する。その視覚的表示は、カメラ付き携帯電話の状態に関する情報又は、カメラ付き携帯電話上で動作するように構成されているゲームなどのアプリケーションに視覚的インタフェースを提供してよい。キーパッド112は、ユーザーがカメラ付き携帯電話へ入力するために作動させるボタンまたは押圧作動スイッチ群を有している。マイクロフォン113は、ユーザーからの音声による入力を受け付けるものであって、電話システムを用いてその音声入力を他の装置に送信するか又は、ユーザーの音声入力に基づいてユーザー入力を特定するように構成されていてもよい。スピーカー114は、ユーザーへの音声出力を生成するものであって、電話システムを介する通信の音声出力を生成するか又は、カメラ付き携帯電話の状態に関する情報を示す音声出力を生成する(例えば、ユーザー入力の受け付けを示す音を生成する)ように構成されていてもよい。プロセッサ(図示せず)は、ユーザーインタフェース110の各部分からの入力を受け付け、そのユーザー入力に基づいて機能または処理を実行し、ユーザー入力に適宜応答して表示ディスプレイ111に画像を映し、および/またはスピーカー114から音を生成するように構成されている。
カメラ付き携帯電話100はまた、カメラ120を有している。カメラ120は、画像の焦点を合わせるためのレンズ121を有しており、レンズ121によって焦点が合わされた画像のデジタル表現を捕捉することができる。図1ではカメラ120はカメラ付き携帯電話100の上部にあってユーザーが表示インタフェース111を見ているときは、ユーザーに面するようになっているが、カメラ120は様々な場所および方向でカメラ付き携帯電話に配置されていてもよい。例えば、カメラ120は、カメラ付き携帯電話100の上部に位置し、ユーザーが表示インタフェース111を見ているときユーザーと向き合わないようになっていてもよい。カメラ120は、カメラ付き携帯電話100が動いている間、時間の経過と共に一連の画像を捕捉するように構成されていてもよい。プロセッサ(図示せず)が一連の画像を受け付けて、カメラ付き携帯電話100の動きの様子を検出するために一連の画像に対して処理を実行してもよい。プロセッサは、検出した動きに基づいて、検出したカメラ付き携帯電話100の動きに対応するアプリケーションへのユーザー入力を決定してよい。例えば、プロセッサが、ユーザーがカメラ付き携帯電話100を左に回転させたことを検出した場合、プロセッサは、ユーザーがある特定の行動を取ることを望んでいると決定してもよい。また、プロセッサが、ユーザーはカメラ付き携帯電話100を右に回転させたことを検出した場合、プロセッサは、ユーザーがある特定の行動を取ることを望んでいないと決定してもよい。他の実施形態では、プロセッサは、カメラ付き携帯電話100上で動作するゲームへのユーザー入力として、検出した動きを使用してもよい。例えば、カメラ付き携帯電話100を左に回転させると、ゲームで表示された物体を左に移動させ、カメラ付き携帯電話100を右に回転させると、ゲームで表示された物体を右に移動させる。
カメラが動いている間に捕捉された画像に基づいてカメラの動きの様子を検出するためにカメラ付き携帯電話100のプロセッサが使用する一つの技法が、オプティカルフローとして知られている。オプティカルフローとは、一連の画像の中の特徴の見かけの相対速度を指す。一連の画像を単一のカメラで捕捉して、特別なカメラハードウェアまたはキャリブレーション無しでオプティカルフローを使用することができる。従来、オプティカルフローは、画像シーケンスの時間補間(動画でフレームを挿入すること)、三次元物体再現調査などの用途に使用される。
カメラの動きを検出するために、プロセッサが一連の画像の中で静的特徴群を特定し比較してもよい。カメラが動く間、画像内の特徴の位置はその動きに応答して変化する。特徴の速度をフローベクトルとして表現してもよい。特徴速度のセットをフロー場と呼ぶ。速度はカメラに対して相対的なものである。他の文献では、動きベクトルと動き場という用語がよく使用される。しかし、「動きベクトル」と「動き場」という用語の使用は、画像シーケンス内の特徴の速度が直接その物体の動きに対応し、カメラは静止していると仮定されることを意味する場合がある(本目的にとっては不必要)。
オプティカルフローはカメラに対して相対的なものであるため、カメラの動きは、カメラ視界における特徴の見かけの速度となる。特徴は静止していてもよい、つまり木のように物理的位置が変化しなくてもよい。逆に、特徴は、動的すなわち動いていてもよい(例えば車)。カメラの動きを推定するために、一連の画像内の静的特徴の見かけの動きを利用する。カメラの動きは、カメラの視界中の特徴の見かけの速度から算出することができる。また、広く分布した疎らな特徴群のセットが、カメラの動きを推定するのに十分である。
捕捉された画像を基にしてカメラの動きの様子を検出することができる様々な動き推定技法を使用してもよいが、既存のオプティカルフローシステムは一般的に計算コストが高く、故に現在の一般消費者向け手持ち式装置には不適切である。一般消費者向け手持ち式装置は、広範囲の種類の計算を実行できる汎用プロセッサを有している。しかし、ビデオフレームごとに実行できる計算の数は限られている。
既存のオプティカルフローシステムは一般的に、密なフロー場の生成することを試みる。カメラの動きは6自由度で表現できる(例えば、X、Y、Z軸に沿った平行移動と、X、Y、Z軸の周りの回転)。しかし、意図する用途では、動きはもっと少ない自由度で近似できる。一つの実施形態では、ある特定の自由度における動きは無視できると仮定しその自由度における動きを無視することによって、カメラの動きを近似してよい。例えば、カメラの動きは、Z軸の周りの回転とX軸、Y軸、Z軸に沿った平行移動は無視し、X軸とY軸の周りのカメラの回転を記述することによって近似してもよい。よって、プロセッサはカメラの動きを推定するために密なフロー場を生成してもよいが、広く分布した疎らな特徴群のセットがカメラの動きを推定するのに十分である。広く分布した疎らな特徴セットについて、例えば図7を参照して後述する。
特徴群を追跡するとき、平行移動無しのカメラ視野の回転(パンすること及び傾けること)は、フローベクトルが三次元場面形状(奥行き)から独立したオプティカルフローを生成する。これについては、以下で説明する図3A〜図3Cに例示されている。カメラが回転している静止した場面では、カメラが動くにつれて特徴が他の物体によって隠蔽されたり現れたりすることはない。特徴は、カメラの視野に入ったり出たりすることで現れたり消えたりするだけである。例えば、ある人が、物体の背後に何があるのか知るためにその物体の背後を見たいとする。その人は、その物体の向こう側を見るために傾くかまたは移動する(例えば平行移動)必要があり、単に自分の目を動かす(例えば回転運動)だけでその物体の向こう側を見ることはできない。
図2〜図4は、カメラの可能な動きと、その動きによって生成されるオプティカルフローベクトル及びオプティカルフロー場の例を示している。
図2を参照すると、一連の画像を捕捉できるカメラ200が、カメラの動きを定義するための軸システムとの関係で示されている。特に、カメラの回転を3自由度について測定する。例えば回転を、X軸210と、Y軸220と、Z軸230に関して測定する。各軸の周りの回転の測定結果は、カメラの回転を完全に記述する可能性がある。カメラの動きの様子を定義したこの軸システムに関して説明する。次の例では、オプティカルフローベクトルは、紙面の上から見下ろすカメラ200とその紙面上の撮像物体に基づいて決定される。
図3Aを参照すると、ベクトル310で示すようにX軸210を軸に回転するカメラ200が図示されている。静止した場面では、フローベクトルは平行でありX軸210の周りの回転と同じ大きさとなる傾向にある。カメラ200がX軸210の周りを回転することによって生成されるオプティカルフローベクトルが、オプティカルフロー場320に示されている。カメラ200がX軸210の周りをベクトル310で示す方向に回転すると、一連の画像で捕捉された静止した物体は、オプティカルフロー場320に示すオプティカルフローベクトルで示す方向に動いているように見える。具体的には、カメラ200が紙面の上方に向かって上方にX軸210の周りを回転し、同時にカメラ200が一連の画像を捕捉する場合、一連の画像内の静止した物体は、時間的に後の方に撮影された画像の中では画像の下部に近づいて現れ、その結果、紙面の下部の方を指すフローベクトルが生成される。算出されたオプティカルフロー場320に基づいて、X軸210の周りの回転を検出できる可能性がある。
図3Bを参照すると、Y軸220の周りを回転するカメラ200が図示されている。静止した場面では、フローベクトルは平行でありY軸220の周りの回転と同じ大きさとなる傾向にある。カメラ200のY軸220の周りの回転から生成されるオプティカルフローベクトルが、オプティカルフロー場340に示されている。カメラ200がY軸220の周りをベクトル330で示す方向に回転すると、一連の画像で捕捉された静止物体は、オプティカルフロー場340に示すオプティカルフローベクトルで示す方向に動いているように見える。具体的には、カメラ200がY軸220の周りを紙面の右側に向かって回転し、同時にカメラ200が一連の画像を捕捉する場合、その一連の画像内の静止した物体は右から左へと移動するように見える。すなわち、時間的に後の方に撮影された画像の中では、その静止した物体は画像の左側に近づいて現れ、その結果、紙面の左側の方を指すフローベクトルが生成される。算出されたオプティカルフロー場340に基づいて、Y軸220の周りの回転を検出できる可能性がある。
図3Cを参照すると、Z軸230の周りに回転するカメラ200が図示されている。静止した場面では、Z軸230の周りの回転の場合、フローベクトルはカメラ視界の中心点を中心とする円の接線方向を向き、その半径に比例する大きさを持つ傾向にある。カメラ200のZ軸230の周りの回転から生成されるオプティカルフローベクトルがオプティカルフロー場360に示されている。カメラ200がベクトル350で示す反時計回りにZ軸230の周りを回転する時、一連の画像で捕捉される静止した物体は、オプティカルフロー場360に示すオプティカルフローベクトルで示すように時計回りに動いているように見える。従って、ベクトルの略円形のオプティカルフロー場360が得られる。算出されたオプティカルフロー場360に基づいて、Z軸230の周りの回転を検出できる可能性がある。
図4Aを参照すると、ベクトル410が示す方向にX軸210に沿って平行移動するカメラ200が図示されている。カメラの視野の平行移動は、フローベクトルが三次元場面形状(奥行き)に依存するオプティカルフローを生成する。カメラが平行移動している静止した場面では、フローベクトルの大きさはカメラ200から物体までの距離すなわち奥行きに依存し、カメラにより近い物体によって特徴が隠されたり現れたりすることがある。カメラが画像420を撮像しながらX軸方向410へ平行移動することによって生成されるオプティカルフローベクトルがオプティカルフロー場430に示されている。カメラ200がX軸方向410に沿って左へ平行移動すると、一連の画像で捕捉された静止物体(例えば、場面420における木および山)は、オプティカルフロー場430に示すオプティカルフローベクトルで示す方向に右へ移動するように見える。オプティカルフロー場430内のフローベクトルの大きさの差異によって示されるように、カメラ200に近い物体はカメラ200からより遠くの物体よりも長い距離を動くように見える。その結果、平行移動の場合、フローベクトルの長さは、撮像されている物体のカメラ200からの奥行きに依存する。例えば、木440がカメラに最も近い物体であるので、木440を表すフローベクトルは最大の大きさを持っている。算出されたオプティカルフロー場430に基づいて、X軸210に沿った平行移動を検出できる可能性がある。
図4Bを参照すると、ベクトル450が示す方向にZ軸230に沿って平行移動するカメラ200が図示されている。Z軸方向450へのカメラの平行移動によって生成されるオプティカルフローベクトルがオプティカルフロー場460に示されている。カメラ200がZ軸方向450に沿って平行移動すると、一連の画像で捕捉された静止物体は、オプティカルフロー場460に示すオプティカルフローベクトルが示す方向に移動するように見える。具体的には、カメラがZ軸方向450に沿って撮像している物体に向かって前方に移動し、同時にカメラ200が一連の画像を捕捉する場合、一連の画像内の静止物体は画像の中心から延びる放射状の線に沿って外側に移動するように見える。従って、画像の中心から放射状に外側に向かって延びるフローベクトルのオプティカルフロー場460が得られる。算出されたオプティカルフロー場460に基づいて、Z軸230に沿った平行移動を検出できる可能性がある。
図示はしていないが、カメラ200のY軸220に沿った平行移動によって、フローベクトルがY軸220と平行である以外は図4Aに示すものと類似のオプティカルフロー場が生成される。
図5A〜図5Fは、ユーザーが自分の手を使って動いているモバイルカメラに与える動きの例を示している。なお、図5A及び図5Bは、その下面にカメラ520を有している携帯電話510を例示している。携帯電話510を保持するユーザーは、携帯電話510とカメラ520とのX軸の周りの回転を発生させるために、例えば自分の手首を後方530に曲げる(図5C)、または前方540に伸ばす(図5D)。自分の手首を後方530に曲げる(図5C)ユーザーの動きは、図3Aに示すオプティカルフロー場320を生成する可能性のある一方向のX軸の周りのユーザー動きの一例である。
また、携帯電話510を保持するユーザーは、携帯電話510とカメラ520とのY軸の周りの回転を発生させるために、例えば自分の手首を時計回り550に(図5E)または反時計回り560に(図5F)ひねる。時計回り550(図5E)に自分の手首をひねるユーザーの動きは、図3Bに示すオプティカルフロー場340を生成する可能性のある一方向のY軸の周りのユーザー動きの一例である。ユーザーが、例えば図5C〜図5Fに示す動きをすることで、アプリケーションのユーザーインタフェースを制御するユーザー入力を生成する検出可能な動きをカメラに与えてもよい。
図6は、装置の動きの様子を検出してアプリケーションへのユーザー入力を特定するための処理600を示すフローチャートである。一つの実施形態では、カメラが付いた携帯娯楽用装置(例えば、カメラ付き携帯電話100、PDA、その他のカメラが備えられたモバイル装置)のプロセッサが処理600を実行してもよく、また、携帯娯楽用装置上で動作するゲームまたはアプリケーションを制御するために、カメラ視野の回転の測定結果を使用してもよい。傾きセンサーと類似の入力を提供するために、回転の測定結果を使用してもよい。また、傾きの方向と大きさの両方を測定できるので、「アナログ」制御を行ってもよい。アナログ制御は、より細かな制御を可能にし、ゲームプレイの多くの方式にとって「デジタル」制御よりも好ましい。
図6に示す処理600の実行において、動いているモバイルカメラが画像を捕捉する(610)。画像の捕捉(610)は、例えば、カメラが動いている間、ある時間に亘って一連の画像のデジタル表現を捕捉することを含んでもよい。
プロセッサは、捕捉された画像に基づいてカメラの動きの様子を検出する(620)。プロセッサは、例えば、最も新しく捕捉した画像を時間的にそれより前に捕捉した画像と比較して、一連の画像中の静的特徴の位置の変化を検出しカメラの動きを推定してもよい。プロセッサは前述のオプティカルフロー処理を使用してもよい。動きの様子の検出620は、図7に関連してより詳細に説明する。
さらに、アプリケーションへのユーザーインタフェースがインタフェース装置上に提供される(630)。ユーザーインタフェースは、モバイルカメラとは別れていてもよいし(例えば無線通信を利用する)、またはモバイルカメラを含む装置に物理的に結合されているかまたは一体化されていてもよい(例えば、カメラ付き携帯電話100に一体化された表示インタフェース111)。ユーザーインタフェースは、ユーザーが対話する可能性のあるゲームなどのアプリケーションのための視覚的表示を含んでもよい。ユーザーインタフェースはまた、ユーザー入力に応答して音声を生成するように構成されたスピーカーを含んでもよい。例えば、ユーザーインタフェースは、ある動作を起動する動きを受け付けたことを示す音声を生成するように構成されたスピーカーを含んでもよい。
検出したカメラの動きに基づいてアプリケーションへのユーザー入力を特定する(640)。カメラの動きに対応して自動的にユーザー入力を特定してもよい。一つの実施形態では、アプリケーションが、「感度」を調節するためにカメラの動きおよび位置に係数を掛けてもよい。この係数は、ユーザーによってプログラムされるか、または選択されてもよい。「感度」は、例えばゲームの仮想環境におけるキャラクタの動きなどのユーザー入力を行うために、ユーザーがどれだけその装置を傾けるかまたは動かす必要があるかを決定する。例えば、ユーザー入力は、カメラの動きが「感度」のレベルを満たすのに十分大きいときのみに検出され特定されてもよい(つまり、小さな重要でない動きは無視されユーザー入力として特定されないことがある)。「感度」を利用する場合、現実世界での位置は通常必要なく計算されない。ここで、現実世界での位置とは、インチ、センチメートル、角度などの単位で測定された物理的世界での装置の位置を指す(例えば、25°回転され東に30センチメートル移動された装置)。仮想世界での位置とは、例えば仮想のキャラクタおよび物体を含むゲームなどの仮想環境における位置を指す(例えば、仮想環境において3ブロック移動させられた仮想キャラクタ)。「感度」を使用するときは、例えばピクセル単位で検出されたカメラの動きを「感度」係数と比較するか、または「感度」係数を掛けて、仮想環境への入力または動きを生成する。その入力または動きは仮想環境に関するものであるため、カメラの現実世界での位置は必要ではない。
一つの例では、アプリケーションが、傾きセンサー機能を模倣するためにカメラの向きを使用してもよい。傾きセンサー機能を、ボールが転がる面の傾きをシミュレートすることを含む、ゲームにおけるボールの制御に使用してもよい。別の例では、アプリケーションが、操縦機能を模倣するためにカメラの向きを使用してもよい。操縦機能を、乗り物(例えば、自動車、オートバイ、飛行機、船、サーフボード、スノーボード、スケートボード、ホバーボード、宇宙船)を制御するのに使用してもよい。操縦機能は、操縦方向、ピッチ、ヨー、ロールのうち一つ以上の制御を含んでよい。さらに別の実施形態では、アプリケーションが、照準合わせ機能(狙いを定める)機能を模倣するためにカメラの向きを使用してもよい。照準を合わせるまたは狙いを定める機能を、仮想の武器を制御するのに使用してもよい(ライフルを向けるなど)。照準合わせ(狙いを定める)機能は通常、2自由度を含む。さらに、アプリケーションは、後述するように動く物体として分類された特徴群のサブセットを使用してもよい。このサブセットを、照準合わせ(狙いを定める)アプリケーションを補強するために使用してもよい(例えば、動く物体または特徴をターゲットとして指定し、そのゲームの目的が、動く物体または特徴が画面の中央に表示された十字線に位置するようにその装置を向けることであってもよい)。アプリケーションはまた、例えば、絶対位置決め機能を模倣するためにカメラの向きを使用してもよい。ナビゲーションの用途(例えば、店またはショッピングモールなどの環境においてユーザーをナビゲートするために現実世界環境におけるユーザーの位置を追跡する)、または迷路ゲーム(例えば、ユーザーが、現実世界で歩き回ることによって仮想迷路を歩く)において、絶対位置決め機能を使用してもよい。要求される動きは、手によって実行される動きであってもよいし、または環境においてユーザーが歩き回る動きであってもよい。
別の実施形態では、アプリケーションが、アニメキャラクタ(例えば、ボブルヘッドやマリオネット)を制御するためにカメラの向きを使用してもよい。傾きの瞬間的な大きさおよび方向をそのキャラクタの動きに変換してもよい。キャラクタの関節で結合された各部分はシミュレートされた質量を与えられてもよい。その場合、検出された動きを与えられた各部分の動きの大きさは、その質量に反比例する。さらに、キャラクタの関節で結合された各部分は、所定の共振周波数を持つシミュレートされたばねによって相互に連結されていてもよい。
また、アプリケーションは、粒子シミュレーションアプリケーション(例えば、スノーグローブまたはサンドアート)において粒子を制御するのにカメラの向きを使用してもよい。傾きの瞬間的な大きさおよび方向は、粒子の数および/またはそれらの運動エネルギーを決定してもよい。粒子はシミュレートされた重力によって引き寄せられてもよく、これによって粒子は仮想環境内で下に溜まる。仮想環境には画像または物体が含まれていてもよく、粒子はその物体の上に溜まる。このアプリケーションの一つの形態では、粒子は雪を表す。1つの選択肢として、アプリケーションは、電子グリーティングカード(例えばクリスマスカード)の形態で配布されてもよい。このアプリケーションの別の形態では、粒子群は様々な色で表示される(例えばサンドアート)。このアプリケーションでは、色付けされた粒子群が幾つかのパターンを形成して溜まってもよい。
図7は、オプティカルフローを使用して動いているカメラの動きの様子を検出するための処理700を示すフローチャートである。密なフロー場アルゴリズムを使用してもよいが、カメラの動きは6自由度で表現することができ、意図するアプリケーションにおいてはより少ない自由度で近似できる。それゆえ、様々な自由度でカメラの動きを検知または推定するのに広く分布した疎らな特徴群のセットで十分であり、処理負荷を減らすために広く分布した疎らな特徴群のセットを使用してもよい。特定の実施形態では、処理負荷を減少させてリアルタイムで画像を捕捉し処理してもよい。
一つの実施形態では、広く分布した疎らな特徴群のセットが、6自由度でカメラの動きを推定するのに十分である。疎らなオプティカルフローでは、画像中の視覚的に際立つ特徴についてのみフローベクトルが作成されてもよい。これらの特徴は、画像全体に亘って分散していてよい。広く分布した特徴群のセットでは、特徴が画像全体に亘って分布しており、画像の各領域に少なくとも一つの特徴が存在するようになっている(例えば、全ての特徴が画像の一角に塊として存在しているのとは違って)。ゆえに、画像の全領域における動きを記述するのに密フロー場は必要ではなく、特徴が広く分布していれば疎らなセットでも同じ役割を果たすことができる。
疎らなオプティカルフローでは、広く分布した特徴群のセットが必要である場合がある。例えば、Y軸の周りの回転(図3B)をX軸に沿った平行移動(図4A)と比較してみる。特徴の分布が十分でなければ、例えば画像の下部に沿った全てのフローベクトルが同じ方向と長さを有するので、X軸に沿った平行移動がY軸の周りの回転と区別できなくなる。
本発明の幾つかの実施形態では、6自由度よりも少ない自由度で動きを近似する。この場合、ある特定の自由度は無視できるものと仮定し無視する。自由度が減少すると広く分布した特徴群の必要性が軽減される。例えば、一つの実施形態では、X軸とY軸の周りのカメラの回転を記述し、Z軸の周りの回転とX軸、Y軸、Z軸に沿った平行移動とは無視することによってカメラの動きを近似してもよい。この仮定の下では、全ての特徴が画像の下部に沿って存在している前記の例におけるカメラの動きは、X軸に沿った平行移動は無視できるものと仮定しているので、Y軸の周りの回転の効果によるものであると考えることができる。
処置700は特徴を抽出すること(710)を含む。動くモバイルカメラから捕捉された一連の画像を分析する際には、そのカメラで捕捉された各画像に特徴抽出処理を適用する。特徴抽出処理は、任意の一つの画像から疎らな特徴群のセットを抽出するだけでよい。求められる特徴は通常、角および縁を含む。角や縁は、装置が操作される環境の多くで通常、見つけることができる。角および縁は動的な光レベルによって影響されにくい、これは装置が戸外で操作される場合に重要であることがある。さらに、角および縁などの特徴は、画像内で検出するのに比較的計算コストが安い。角および縁を抽出する方法は公知である。
特徴を抽出した後、処理700では、画像同士を比較して一つ以上の画像に共通な特徴を対応付ける(720)。例えば、フロー場算出処理では、現在のカメラ画像の特徴群と、前回のカメラ画像の対応する特徴群とを対応付ける。特徴を対応付けるために、現在のカメラ画像の各特徴を、前回のカメラ画像の特徴群のサブセットと比較する。このサブセットは、近接性と特徴の性質(例えば、角の向きおよびコントラスト)によって選択される。特定の実施形態では比較すべき特徴の数が少ないので、装置の計算負荷を最小にする。
一つの実施形態では、前回のカメラ画像の特徴群の、現在の画像における位置を、前回のフロー場を使用して予測する(前回のフロー場がない最初のフレームは除く)。対応相手として可能性のあるもの全てについて、予測位置からの距離と特徴の性質の類似度と対応の特異性とによって作成されるスコアを基に、一対一の対応を選択する。スコアはスカラー値であり、信頼度を表している。一対一の対応を確認するために、可能性のあるペア群を、それらのスコアから、ペアのどちらかの特徴が関与する他の可能性のある対応関係のスコアに基づくペナルティを引き算したものに基づいてランク付けする。十分なスコア(信頼度)を有する対応相手をフロー場に追加する。スコア(信頼度)を後の使用のためにフローベクトルと共に記録する。
他の実施形態では、計算の負荷を減らすために、特徴を対応付ける手順は、特徴の近くに位置するブロックを先ず分析するか、または最初は低解像度で特徴の対応付けを試みて対応が見つかるまでまたは最高の解像度で画像を比較するまで解像度を上げ続けることを含んでもよい。例えば、画像をデシメーションするピラミッド方法を適用してもよい。デシメーションでは、例えば画像をブロックに分割して各ブロックを代表する一つのピクセル値を生成する(例えば、ブロック内部のピクセルの平均値をとる)ことによって、画像の低解像度バージョン(ピラミッドのレベルと呼ぶ)を作成する。画像の低解像度バージョンは分析するピクセルが少なく探索する領域が小さいので、処理の負荷を減らすことが可能になる。低解像度で結果が得られたら、探索を制限するために低解像度で見つかった結果を利用して、より高い解像度で画像を分析してもよい。例えば、一つ以上の特定の低解像度領域で特徴の対応が見つかったら、それらの特定の低解像度の領域をより高い解像度で特徴を探すようにしてもよい。
特徴を対応付けた後、処理700では各特徴のフローベクトルを決定する(730)。一つの実施形態では、現在のカメラ画像での特徴の位置の、前回のカメラ画像でのその位置に対する変位を算出することによってフローベクトルを決定する。フローベクトルのセットによってフロー場が形成される。各フローベクトルは大きさと方向を有していてよい。対応付けられたペア群は、2つの関連するカメラ画像間で特徴の位置の全体的なパスを生成する。必要があればこのパスを格納して、より長い期間に亘ってオプティカルフロー(従ってカメラの動き)を算出できる。
環境が静的であるという保証は無く、それ自体が動いている特徴によってカメラの動きを誤って推定してしまう可能性があるので、必要があれば特徴群を分けてもよい(740)。図7において工程740が破線で囲われていることが、工程740が選択可能であることを示している。一つの実施形態では、特徴を「セット」または「クラスタ」に分割して、環境の静的要素(つまり背景)に関連するフローベクトルのセットを生成する。例えば、カメラが動くのと同じ方向に鳥が画像を横切って飛んでいる場合、鳥を表す特徴は、静的特徴と同程度の大きさの変位を示さないか、または鳥がカメラよりも速く動いている場合、反対方向への変位を示すことがある。よって、鳥を表す特徴を分離して静的特徴に注目するようにすれば、カメラの動きのより正確な検出が可能になる場合がある。
分離の一つの例では、環境の静的部分が、いずれの単一の動的(動いている)部分よりも大きい領域を構成していると仮定する。この仮定の下では、特徴群の最も重要なセットは環境の静的要素と関連する。ここで、「最も重要な」の計数は、特徴は均等に分散されていないので、特徴の数だけではなくこのセットによってカバーされた面積を含む。カメラの回転量を、この特徴群のセットを使用して推定する。特徴を分類して、静的な背景の一部である可能性が高いのか動いている物体である可能性が高いのかを示すタグを付けてもよい。このようなタグを、後のフレームにおいて特徴の分類を更新する際のヒントとして使用してもよい。
別の例では、Z軸の周りの回転は重要でないとし(つまり回転は、X軸およびY軸の周りのものに限定される)、またX軸、Y軸、Z軸に沿った平行移動を重要でないとすると、環境(つまり背景)の静的要素に関連する各フローベクトルは類似の方向と大きさとを有する傾向にある。例えば、図3Aおよび図3Bに示すように、X軸とY軸とだけの周りの回転は、ほぼ平行かつ同等の大きさである静的特徴のフローベクトルを生成する。動いている特徴は、静的特徴(例えば、静的特徴と判定された特徴)のフローベクトルと十分に平行ではないか、又は十分に同等の大きさではないフローベクトルを有する特徴を検出することによって、静的特徴から分けることができる。例えば、許容方向範囲(例えば、静的特徴のフローベクトルの方向から±5°)および許容大きさ範囲(例えば、静的特徴のフローベクトルの大きさから±5ピクセル)を、例えば静的特徴のフローベクトルの検出された方向および大きさに基づいて算出してもよい。ある特徴のフローベクトルの方向が許容方向範囲内でなければ、またはその大きさが許容大きさ範囲内でなければ、その特徴を動いている特徴として分離してもよい。
計算能力が限られたシステムで使用する、動的特徴と静的特徴とに別ける好適な方法は、フローベクトルの方向と大きさの類似性を利用して最も重要な特徴群のセットを選択することである。この実施形態では、静的背景は通常、動いているいずれの物体よりも大きいので、最も重要な特徴群のセットは静的背景であると仮定される。他の実施形態では、最も重要な特徴群のセットは、既知の現実世界の基準物体であると仮定してもよい。基準物体の例は、カメラがユーザーに面する方向を向いている実施形態ではユーザーの顔である。使用した仮定にかかわらず、最も重要な特徴群のセットは、平行かつ同等の大きさを持ち画像の中の最大領域に広がり、および/または最も多い数の特徴を有する特徴群のセットを選択することによって、決定されてもよい。最も重要な特徴群のセットを決定したら、その最も重要な特徴群のセットのフローベクトルと平行ではないかまたは同じ大きさではないフローベクトルを有する特徴を取出すことによって、動いている特徴を分離してもよい。カメラの動きの追加の自由度(例えばZ軸の周りの回転)の推定は任意であり、追加の自由度を推定するかどうかは、手持ち式装置の利用できる計算能力によって決定してもよい。
処理700は、カメラの動きを検出する(750)。カメラの動きは、一連の画像で対応付けられているが分けられていない各特徴のオプティカルフローベクトルを備えるオプティカルフロー場を使用して検出してもよい。カメラの動きを、オプティカルフローベクトルによって表されるカメラ視野内の特徴の見掛けの速度から算出してもよい。静的特徴のフローベクトルの大きさと方向はカメラの動きに関連しており、カメラの動きを推定するのに使用してもよい。
例えば、静止した場面では、カメラの回転は以下の式によって近似できる:
Vxi=Mx+Mz*Ri*cos(Thetai)
Vyi=My+Mz*Ri*sin(Thetai)
ここで、VxiとVyiは特徴iのフローベクトルの成分を表している。
Mx、My、Mzはカメラの回転量を表している。
RiとThetaiは、極座標における画像内の特徴の位置を表し、測定値から決定される。
十分に分布した少数の特徴があれば、未知のMx、My、Mzを推定できる。検出された回転量(つまりVxiとVyi)は、アプリケーションを制御するために直接使用できるか、またはカメラとレンズの性質が分かっていれば現実世界の単位(°)に換算できる。
別の実施形態では、Z軸の周りの回転およびX軸、Y軸、Z軸に沿った平行移動は、ユーザーは通常Z軸の周りにカメラを回転させることはなくそしてユーザーは通常静止しているため、重要でないと仮定する。この実施形態では、静止した場面でのX軸およびY軸の周りのカメラの回転量は、単に、全ての特徴のフローベクトルの平均と推定できる。X軸およびY軸のみの周りの回転ではほぼ平行で同等の大きさのフローベクトルが生成されるため、全フローベクトルの平均が、全フローベクトルの比較を代表するものとなる。一つの例では、静止した場面でのX軸およびY軸の周りのカメラの回転量を、全ての特徴のフローベクトルの加重平均と推定してもよい。加重平均では、各フローベクトルの影響に信頼度スコアを掛け算する。結果として、高い信頼度を有するフローベクトル(例えば良好な対応関係)が、低い信頼度を有するフローベクトル(例えば劣っているかまたは疑わしい対応関係)よりも、結果に大きな影響を与える。
処理700は、必要があればカメラの累積した動きを算出する(760)。図7において工程760が破線で囲われていることが、この工程が選択可能であることを示している。累積した動きを、カメラの検出された動きを追跡することによって算出してもよい。一連のカメラ画像の累積した動きを、最初の位置に対するこの装置の位置を検出するために算出してもよい。しかし、比較的速く画像から画像へと誤差が増大する場合がある。
増大する誤差を低減するために、フロー場を算出する際に、特徴の全体的なパスを格納してもよい。最初の位置に対する特徴の変位を表す全体的な動きベクトルに、前述したカメラの動き技法を適用できる。これは、カメラの動きが限定的なものであって、特徴群のサブセットが追跡期間に亘ってカメラの視野内に留まる場合に特に有効であることがある。例えば、鉛筆の先端が画像の中の特徴であるとする。鉛筆の先端が画像の中に留まるような領域に亘ってカメラが動くとき、鉛筆の先端を表す特徴の元の位置を格納しておけば、その鉛筆の先端を表す特徴の現在の位置をその鉛筆の先端を表す特徴の元の位置と比較することによってカメラの累積した動きを算出してもよい。各パスは通常、多くのカメラフレームにわたるので、誤差の累積は、フレーム間で累積した動きを算出するよりも遅くなる。
最初の画像以降、検出された全ての特徴を考えると、全体的な特徴パス群のセットに、追跡の全期間に亘って延びるパスが含まれているとは限らない。例えば、上述したように、物体(鉛筆の先端など)がカメラの視野から出てしまうこともある。しかし、全体的な特徴パス群のセットは、開始時(最初に検出された、又はカメラの視野に入った)と終了時(最後に検出された、又はカメラの視野から出た)が重なっている、分かれているが関連するパス群を含んでいる可能性が高い。(時間上)重なっているパスの組み合わせを、最初の位置に対して特徴群を累積的に位置付けするために使用できる。
例えば、鉛筆の先端は画像の中の特徴であるが、鉛筆の消しゴムは画像の中に存在していないとする。カメラが動くと、鉛筆の先端を表す特徴が画像にわたって移動し、追跡される。その後の画像では鉛筆の消しゴムが視野に入り、鉛筆の先端と鉛筆の消しゴムの両方が画像の中で追跡された特徴となるようにカメラが動いたとする。さらにカメラが動くと、鉛筆の先端は画像から去り、鉛筆の消しゴムを表す特徴はまだ残って追跡されるとする。鉛筆の先端と鉛筆の消しゴムは同時に画像内に存在していた特徴であるので、プロセッサは、鉛筆の先端に対する鉛筆の消しゴムの相対的な位置を算出できる。よって、(1)鉛筆の消しゴムを表す特徴の現在位置と、(2)鉛筆の先端に対する鉛筆の消しゴムの相対位置と、(3)鉛筆の先端がカメラの視野から去る前の格納されたパスとを使用して、プロセッサが、消しゴムの完全なパスを決定してもよい。次に、消しゴムの完全なパスをプロセッサが使用して、カメラの累積した動きを追跡しカメラの最初の位置を特定してもよい。この技法を、鉛筆の消しゴムが画像から出るときにカメラの累積した動きを追跡し続けるために、追加の特徴で繰り返してもよい。このような関連しているが分かれている特徴パスを使用することによって、個々の特徴パスを使用するよりも、誤差の累積をかなり遅くすることができる。
処理700を使用して、例えば、カメラの動き、カメラの最初の位置に対する相対的な位置および/またはカメラの最初の方向に対する相対的な方向を、2から6の各自由度で算出してもよい。6未満の自由度でカメラの動きを推定する際には、6自由度のうちの一つ以上の動きが固定であると仮定する。例えば、ユーザーが一つの位置で起立または着席し、Z軸の周りにこの装置を回転させないと予想される場合、2自由度(X軸およびY軸の周りの回転)が適当である可能性がある。ユーザーが一つの位置で起立または着席すると予想される場合、3自由度(3つ全ての軸の周りの回転)が適当である可能性がある。ユーザーが歩き回ることが予想される場合、6自由度(3つ全ての軸の周りの回転および3つ全ての軸に沿った平行移動)が適当である可能性がある。アプリケーションが累積した位置算出のための最初の位置を、任意の時に、または、例えばセッション、ゲーム、レベルの開始時に、またはユーザーが要求した時にリセットしてもよい。
これらは画像に依存する単位で算出されるが、カメラレンズについての情報があれば、現実世界の単位(即ち、角度)に変換できる。画像に依存する単位は、カメラの画像のピクセルを使って表されることがあるが、現実世界の単位は、角度(回転について)と、インチまたはセンチメートル(平行移動について)で表されることがある。画像に依存する単位を現実世界の単位に変換する一つの方法は、単に、方向に、視野(つまり角度)/画像サイズ(つまりピクセル)を表す係数を掛け算する。
図8A〜図8Cは、例えば図6で示す処理600と図7に示す処理700とを実行するように構成されたプロセッサ(図示せず)を有するカメラ付き手持ち式装置810を操作するユーザーを例示している。プロセッサは、ゲームなどの表示インタフェースを持つアプリケーションを実行するように構成されていてもよい。
図8Aを参照すると、装置810が座っているユーザー820によって保持されている。携帯娯楽装置(例えばカメラ付き携帯電話)に備えられたカメラの場合、そのカメラの動きが、平行移動無しの純粋な回転であるとは限らない。しかし、その場面の物体がカメラから十分離れた位置にある場合、平行移動よりも回転の方が特徴のフローベクトルの大きさに大きな影響を与えるので、オプティカルフローに対する平行移動の影響はある種のアプリケーションにとっては重要ではない。図示の例では、装置810のカメラ830が、カメラから約1mの距離にある床に面している。このシナリオでは、1°のカメラ回転によって生成されるオプティカルフロー速度の大きさは、17cmのカメラ平行移動と同程度であることがある。このシナリオのユーザーは、意図的にカメラ付き携帯電話を傾けるが、数センチメートルを超えて電話を平行移動させる可能性は少ない。それゆえ、感知できるほどの誤差を生成するためにはユーザーは通常ではあり得ないほど長い距離にわたって装置を平行移動させる必要があるため、装置を回転させることによってゲームを制御するために必要な精度を求めて、平行移動の影響は無視でき、オプティカルフローは単純に回転の結果であると仮定できる。従って、ユーザー820は装置を回転させてカメラ付き手持ち式装置810で実行されるアプリケーションにユーザー入力を提供できる。
図8Bを参照すると、装置810が起立しているユーザー840によって保持されている。この例では、ユーザー840は、床に面している装置810のカメラ830を持って比較的静止した状態で起立している。座っているユーザーと同様に、床との距離はカメラの平行移動を無視できるほど十分に遠いものであり、ユーザー840はカメラ付き手持ち式装置810を回転させてアプリケーションへユーザー入力を提供できる。
図8Cを参照すると、カメラ付き手持ち式装置850が、起立しているユーザー860によって保持されている。この例では、カメラ付き手持ち式装置850のカメラ870はユーザーの顔に面している。カメラ870がユーザーの顔に向けられると、その顔がカメラ画像の大きな部分を占めるようになり、回転の測定値はユーザー860を基準とするので、ユーザー860は歩いたり動き回ったりしながらカメラ付き手持ち式装置850を操作できる。これは、ユーザー860が動く時、ユーザーの顔はカメラ付き手持ち式装置850に対して動かないためである。ユーザーの顔が静的背景にかわって最も重要な物体となるため、カメラ付き手持ち式装置850の動きはユーザー860を基準として測定される。このため、ユーザー860の歩行は装置の動きとして検知されず、ユーザー入力の検出には影響を及ぼさない。
ゲームなどのアプリケーションのユーザーインタフェースを制御するためにユーザー入力を検出するというアプリケーションについて述べてきたが、これ以外のアプリケーションも可能である。具体的には、カメラが物理的に結合された装置の他の機能または特徴を制御するアプリケーションであってもよい。例えば、装置の動きが検知され、アラームが禁止になっていないときに装置の警報信号を起動する盗難防止のためのセキュリティアプリケーションを利用してもよい。また、ユーザーがカメラ付き携帯電話を自分の耳から離すように傾けた時その電話の音量を上げる音量制御アプリケーションを実現させてもよい。処理600および700と、その他の本願明細書に記載した様々な実施形態、特徴、技法は、主に、装置上で動作するオペレーティングシステムによってソフトウェアとして実行されてもよい。そのソフトウェアは、カメラからのデータと、装置に一体化されたコンピュータディスプレイ、テレビ、LCDなどの表示装置と協働する。ソフトウェアと一緒にまたはソフトウェアに代えてファームウェアおよびハードウェアを使用してもよい。
本開示から明らかなように、本願明細書に記載された実施形態、特徴、技法と、これらの変形または組み合わせとは、例えば様々な装置上で動作するオペレーティングシステム、またはスタンドアローンのアプリケーションまたはユーティリティなどで実施されてよい。
携帯電話、個人用デジタル補助装置(「PDA」)、その他のポータブル装置は、ユーザーインタフェースのサイズが通常は限定されていてこのような装置でユーザーインタフェースを制御することが通常は困難であるため、多数の実施形態を提供する。例えば、Blackberry装置、電子手帳、iPod装置またはその他のポータブル音楽プレイヤー、ポケットベルまたはその他の通信装置、ゲーム・通信および/またはデータ編集のための携帯またはポータブル電子装置などで実施できる。
実施形態は、一つ以上の処理を実行するように構成された一つ以上の装置を有していてもよい。装置は、例えば、別個のまたは一体化されたハードウェア、ファームウェア、ソフトウェアを有していてもよい。これらの装置は、例えばマイクロプロセッサ、集積回路、プログラム可能な論理装置、ソフトウェアアプリケーションを内蔵する装置などの処理装置を一般的に指すプロセッサを有していてもよい。
実施形態はまた、一つ以上の処理を実行するための命令を含むコンピュータ読み取り可能な一つ以上の媒体を有する装置において実施されてもよい。コンピュータ読み取り可能な媒体は、例えばハードディスク、コンパクトディスケット、ランダム・アクセス・メモリ(「RAM」、リード・オンリー・メモリー(「ROM」)などの記憶装置を含む。コンピュータ読み取り可能な媒体はまた、例えばフォーマットされた電磁波符号化または送信命令群を含んでいてもよい。命令群は、例えばハードウェア、ファームウェア、ソフトウェア、又は電磁波の形態であってもよい。命令群は、例えばオペレーティングシステム、アプリケーション、またはこれらの組み合わせに含まれていてもよい。プロセッサは、例えば処理を実行するように構成された装置と、処理を実行するための命令を含むコンピュータ読み取り可能な媒体を有する装置との両方であってもよい。
実施形態はまた、ソフトウェア・オブジェクトの形態で実現されてもよい。このようなオブジェクトは、様々なアプリケーションによってアクセスされるか、または様々なアプリケーションに組み込まれてもよい。
いくつかの実施形態を説明したが、様々な変形が可能であることは理解されよう。例えば、異なる実施形態の各要素を組み合わせたり、追加したり、修正したり、取り除いたりして他の実施形態を実現してもよい。さらに、各種の技術を使用したり、組み合わせたり、修正したりして実施形態を実現してもよい。このような技術には、例えば様々なハードウェア、ソフトウェア、ファームウェア、一体化されたコンポーネント、別個のコンポーネント、処理装置、メモリまたは記憶装置、通信装置、レンズ、フィルタ、表示装置、投射装置などが含まれる。従って、他の実施形態も添付の請求項の範囲内である。

Claims (27)

  1. 装置に配置された画像センサーによって捕捉した画像にアクセスする段階と、
    前記装置に配置された前記画像センサーによって捕捉した前記画像中に存在する特徴群を識別する段階と、
    識別した前記特徴群を複数の特徴セットに分ける段階と、
    捕捉した前記画像内での第1の特徴と第2の特徴との間の距離の変化に基づいて、前記装置の奥行き方向の動きの様子を検出する段階と
    を有し、
    前記第1の特徴及び前記第2の特徴は、前記複数の特徴セットのうち、静止した特徴群からなる1つの特徴セットに含まれ、
    前記静止した特徴群からなる1つの特徴セットは、捕捉した前記画像中の最大領域に広がる特徴群のセット及び/又は最も多い数の特徴を有する特徴群のセットであり、
    前記第2の特徴は、前記第1の特徴とは異なるものであり、前記第1の特徴から離れた位置にあり、
    前記奥行き方向は、前記第1の特徴および前記第2の特徴に対して近づいたり遠ざかったりする移動の方向であることを特徴とする方法。
  2. 検出された前記装置の前記奥行き方向の動きの様子に基づいて、アプリケーションに対するユーザー入力を特定する段階をさらに有することを特徴とする請求項1に記載の方法。
  3. 前記第1の特徴が、前記画像中の第1の物体、前記画像中の前記第1の物体の任意の部分、または、前記画像中の前記第1の物体の角または縁であることを特徴とする請求項1に記載の方法。
  4. 前記第1の特徴または前記第2の特徴の物理的位置が変化しないことを特徴とする請求項1に記載の方法。
  5. 検出された前記装置の前記奥行き方向の動きの様子に基づいて、アプリケーションに対するユーザー入力を特定する前記段階が、
    検出された前記装置の前記奥行き方向の動きに対応した態様で、ユーザーインタフェースに映される物体の移動を制御する段階を含むことを特徴とする請求項2に記載の方法。
  6. 前記装置の奥行き方向の動きの様子を検出する前記段階が、
    前記装置の前記奥行き方向の動きの距離を算出する段階を含み、
    検出された前記装置の前記奥行き方向の動きに対応した態様で、ユーザーインタフェースに映される物体の移動を制御する前記段階が、
    前記ユーザーインタフェースに映される前記物体を、算出された前記装置の前記奥行き方向の動きの前記距離に対応した前記ユーザーインタフェース内の距離だけ方向付け、回転、またはナビゲートするように制御する段階をさらに含むことを特徴とする請求項5に記載の方法。
  7. 前記装置の奥行き方向の動きの様子を検出する前記段階が、
    前記装置の平行移動量を算出する段階を含み、
    検出された前記装置の前記奥行き方向の動きに対応した態様で、ユーザーインタフェースに映される物体の移動を制御する前記段階が、
    前記ユーザーインタフェースに映される前記物体を、算出された前記装置の前記平行移動量に対応した態様で、前記ユーザーインタフェース内で方向付け、回転、またはナビゲートするように制御する段階をさらに含むことを特徴とする請求項5に記載の方法。
  8. 前記アプリケーションがゲームアプリケーションであることを特徴とする請求項2に記載の方法。
  9. モバイル装置と、
    前記モバイル装置に配置された画像センサーと、
    少なくとも1つのプロセッサと
    を具備し、
    前記少なくとも1つのプロセッサは、
    前記モバイル装置に配置された前記画像センサーによって捕捉した画像にアクセスする手順と、
    前記モバイル装置に配置された前記画像センサーによって捕捉した前記画像中に存在する特徴群を識別する手順と、
    識別した前記特徴群を複数の特徴セットに分ける手順と、
    捕捉した前記画像内での第1の特徴と第2の特徴との間の距離の変化に基づいて、前記モバイル装置の奥行き方向の動きの様子を検出する手順と
    を実行するように構成され、
    前記第1の特徴及び前記第2の特徴は、前記複数の特徴セットのうち、静止した特徴群からなる1つの特徴セットに含まれ、
    前記静止した特徴群からなる1つの特徴セットは、捕捉した前記画像中の最大領域に広がる特徴群のセット及び/又は最も多い数の特徴を有する特徴群のセットであり、
    前記第2の特徴は、前記第1の特徴とは異なるものであり、前記第1の特徴から離れた位置にあり、
    前記奥行き方向は、前記第1の特徴および前記第2の特徴に対して近づいたり遠ざかったりする移動の方向であることを特徴とするシステム。
  10. 前記少なくとも1つのプロセッサが、
    検出された前記モバイル装置の前記奥行き方向の動きの様子に基づいて、アプリケーションに対するユーザー入力を特定する手順をさらに実行するように構成されることを特徴とする請求項9に記載のシステム。
  11. 検出された前記モバイル装置の前記奥行き方向の動きの様子に基づいて、アプリケーションに対するユーザー入力を特定する前記手順が、
    検出された前記モバイル装置の前記奥行き方向の動きに対応する態様で、ユーザーインタフェースに映される物体の移動を制御する手順を含むことを特徴とする請求項10に記載のシステム。
  12. 前記モバイル装置の奥行き方向の動きの様子を検出する前記手順が、
    前記モバイル装置の前記奥行き方向の動きの距離を算出する手順を含み、
    検出された前記モバイル装置の前記奥行き方向の動きに対応する態様で、ユーザーインタフェースに映される物体の移動を制御する前記手順が、
    前記ユーザーインタフェースに映される前記物体を、算出された前記モバイル装置の前記奥行き方向の動きの前記距離に対応した前記ユーザーインタフェース内の距離だけ方向付け、回転、またはナビゲートするように制御する手順を含むことを特徴とする請求項11に記載のシステム。
  13. 前記モバイル装置の奥行き方向の動きの様子を検出する前記手順が、
    前記モバイル装置の平行移動量を算出する手順を含み、
    検出された前記モバイル装置の前記奥行き方向の動きに対応する態様で、ユーザーインタフェースに映される物体の移動を制御する前記手順が、
    前記ユーザーインタフェースに映される前記物体を、算出された前記モバイル装置の前記平行移動量に対応した態様で、前記ユーザーインタフェース内で方向付け、回転、またはナビゲートするように制御する手順を含むことを特徴とする請求項11に記載のシステム。
  14. 前記アプリケーションがゲームアプリケーションであることを特徴とする請求項10に記載のシステム。
  15. 画像センサーと、
    少なくとも1つのプロセッサと
    を具備し、
    前記少なくとも1つのプロセッサは、
    前記画像センサーによって捕捉した画像にアクセスする手順と、
    前記画像センサーによって捕捉した前記画像中に存在する特徴群を識別する手順と、
    識別した前記特徴群を複数の特徴セットに分ける手順と、
    前記画像センサーによって捕捉した前記画像内での第1の特徴および第2の特徴の位置を検出する手順と
    アプリケーションに対する視覚的表示を含むユーザーインタフェースを提供する手順と、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴および前記第2の特徴の検出された前記位置に基づいて、前記アプリケーションに対するユーザー入力を特定する手順と、
    前記アプリケーションに対する特定された前記ユーザー入力に基づいて、前記ユーザーインタフェースを制御する手順と
    を実行するように構成され、
    前記第1の特徴及び前記第2の特徴は、前記複数の特徴セットのうち、静止した特徴群からなる1つの特徴セットに含まれ、
    前記静止した特徴群からなる1つの特徴セットは、捕捉した前記画像中の最大領域に広がる特徴群のセット及び/又は最も多い数の特徴を有する特徴群のセットであり、
    前記第2の特徴は、前記第1の特徴とは異なるものであり、前記第1の特徴から離れた位置にあり、
    前記ユーザーインタフェースは、前記画像センサーまたは該画像センサーが配置された装置とは別個に存在することを特徴とするシステム。
  16. 前記少なくとも1つのプロセッサが、
    無線通信を用いて、前記ユーザーインタフェースを制御する前記手順を実行するように構成されることを特徴とする請求項15に記載のシステム。
  17. 前記画像センサーが、モバイル装置に配置され、
    前記ユーザーインタフェースが、前記画像センサーが配置された前記モバイル装置とは別個に存在することを特徴とする請求項15に記載のシステム。
  18. 前記画像センサーによって捕捉した前記画像内での前記第1の特徴および前記第2の特徴の位置を検出する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴と前記第2の特徴との相対位置を算出する手順を含み、
    前記アプリケーションに対するユーザー入力を特定する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴と前記第2の特徴との前記相対位置に基づいて、前記アプリケーションに対するユーザー入力を特定する手順を含むことを特徴とする請求項15に記載のシステム。
  19. 前記画像センサーによって捕捉した前記画像内での前記第1の特徴および前記第2の特徴の位置を検出する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴の位置の変化および前記画像センサーによって捕捉した前記画像内での前記第2の特徴の位置の変化を検出する手順を含み、
    前記アプリケーションに対するユーザー入力を特定する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴の位置の前記変化および前記画像センサーによって捕捉した前記画像内での前記第2の特徴の位置の前記変化に基づいて、前記アプリケーションに対するユーザー入力を特定する手順を含むことを特徴とする請求項15に記載のシステム。
  20. 前記アプリケーションに対するユーザー入力を特定する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴と前記第2の特徴との間の距離の変化に基づいて、システム自身の奥行き方向の動きの様子を検出し、検出されたシステム自身の前記奥行き方向の動きの様子に基づいて、前記アプリケーションに対するユーザー入力を特定する手順を含むことを特徴とする請求項15に記載のシステム。
  21. 前記ユーザーインタフェースを制御する前記手順が、
    前記アプリケーションに対する特定された前記ユーザー入力に基づいて、前記ユーザーインタフェースに映される物体の移動を制御する手順を含むことを特徴とする請求項15に記載のシステム。
  22. 前記アプリケーションに対するユーザー入力を特定する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴および前記第2の特徴の検出された前記位置に基づいて、システム自身の動きの距離を算出する手順を含み、
    前記アプリケーションに対する特定された前記ユーザー入力に基づいて、前記ユーザーインタフェースに映される物体の移動を制御する前記手順が、
    前記ユーザーインタフェースに映される前記物体を、算出されたシステム自身の動きの前記距離に対応した前記ユーザーインタフェース内での距離だけ動くように制御する手順を含むことを特徴とする請求項21に記載のシステム。
  23. 前記アプリケーションに対するユーザー入力を特定する前記手順が、
    前記画像センサーによって捕捉した前記画像内での前記第1の特徴および前記第2の特徴の検出された前記位置に基づいて、システム自身の平行移動量を算出する手順を含み、
    前記アプリケーションに対する特定された前記ユーザー入力に基づいて、前記ユーザーインタフェースに映される物体の移動を制御する前記手順が、
    前記ユーザーインタフェースに映される前記物体を、算出されたシステム自身の前記平行移動量に対応した態様で前記ユーザーインタフェース内を動くように制御する手順を含むことを特徴とする請求項21に記載のシステム。
  24. 前記ユーザーインタフェースを制御する前記手順が、
    前記アプリケーションの前記ユーザーインタフェースに映されるメニューオブジェクトに基づいて、メニューナビゲーション機能を制御する手順を含むことを特徴とする請求項15に記載のシステム。
  25. 前記アプリケーションがゲームアプリケーションであることを特徴とする請求項15に記載のシステム。
  26. 装置に配置された画像センサーによって捕捉した画像にアクセスするための手段と、
    前記装置に配置された前記画像センサーによって捕捉した前記画像中に存在する特徴群を識別するための手段と、
    識別した前記特徴群を複数の特徴セットに分けるための手段と、
    捕捉した前記画像内での第1の特徴と第2の特徴との間の距離の変化に基づいて、前記装置の奥行き方向の動きの様子を検出するための手段と
    を具備し、
    前記第1の特徴及び前記第2の特徴は、前記複数の特徴セットのうち、静止した特徴群からなる1つの特徴セットに含まれ、
    前記静止した特徴群からなる1つの特徴セットは、捕捉した前記画像中の最大領域に広がる特徴群のセット及び/又は最も多い数の特徴を有する特徴群のセットであり、
    前記第2の特徴は、前記第1の特徴とは異なるものであり、前記第1の特徴から離れた位置にあり、
    前記奥行き方向は、前記第1の特徴および前記第2の特徴に対して近づいたり遠ざかったりする移動の方向であることを特徴とする装置。
  27. コンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータプログラムは、
    装置に配置された画像センサーによって捕捉した画像にアクセスするためのコード部と、
    前記装置に配置された前記画像センサーによって捕捉した前記画像中に存在する特徴群を識別するためのコード部と、
    識別した前記特徴群を複数の特徴セットに分けるためのコード部と、
    捕捉した前記画像内での第1の特徴と第2の特徴との間の距離の変化に基づいて、前記装置の奥行き方向の動きの様子を検出するためのコード部と
    を含み、
    前記第1の特徴及び前記第2の特徴は、前記複数の特徴セットのうち、静止した特徴群からなる1つの特徴セットに含まれ、
    前記静止した特徴群からなる1つの特徴セットは、捕捉した前記画像中の最大領域に広がる特徴群のセット及び/又は最も多い数の特徴を有する特徴群のセットであり、
    前記第2の特徴は、前記第1の特徴とは異なるものであり、前記第1の特徴から離れた位置にあり、
    前記奥行き方向は、前記第1の特徴および前記第2の特徴に対して近づいたり遠ざかったりする移動の方向であることを特徴とするコンピュータ読み取り可能な記録媒体。
JP2014137594A 2005-01-07 2014-07-03 オプティカルフローに基づく傾きセンサー Active JP5911919B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US64175105P 2005-01-07 2005-01-07
US60/641,751 2005-01-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012096580A Division JP2012178854A (ja) 2005-01-07 2012-04-20 オプティカルフローに基づく傾きセンサー

Publications (2)

Publication Number Publication Date
JP2014241592A true JP2014241592A (ja) 2014-12-25
JP5911919B2 JP5911919B2 (ja) 2016-04-27

Family

ID=36648171

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2007550456A Active JP5080273B2 (ja) 2005-01-07 2006-01-06 オプティカルフローに基づく傾きセンサー
JP2012096580A Pending JP2012178854A (ja) 2005-01-07 2012-04-20 オプティカルフローに基づく傾きセンサー
JP2014137594A Active JP5911919B2 (ja) 2005-01-07 2014-07-03 オプティカルフローに基づく傾きセンサー

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2007550456A Active JP5080273B2 (ja) 2005-01-07 2006-01-06 オプティカルフローに基づく傾きセンサー
JP2012096580A Pending JP2012178854A (ja) 2005-01-07 2012-04-20 オプティカルフローに基づく傾きセンサー

Country Status (6)

Country Link
US (4) US7379566B2 (ja)
EP (1) EP1849123A2 (ja)
JP (3) JP5080273B2 (ja)
CN (1) CN101137996A (ja)
BR (1) BRPI0606477A2 (ja)
WO (1) WO2006074290A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197348A (ja) * 2015-04-03 2016-11-24 株式会社Nttドコモ 情報処理装置、情報処理方法およびプログラム

Families Citing this family (436)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US7502759B2 (en) 1999-08-30 2009-03-10 Digimarc Corporation Digital watermarking methods and related toy and game applications
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
EP1588552A1 (en) * 2003-01-22 2005-10-26 Nokia Corporation Image control
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7400316B2 (en) * 2004-05-28 2008-07-15 International Business Machines Corporation Method and apparatus for dynamically modifying web page display for mobile devices
FI20045300A (fi) * 2004-08-17 2006-02-18 Nokia Corp Elektroninen laite ja menetelmä elektronisen laitteen toimintojen ohjaamiseksi sekä ohjelmatuote menetelmän toteuttamiseksi
EP1851527A2 (en) 2005-01-07 2007-11-07 GestureTek, Inc. Creating 3d images of objects by illuminating with infrared patterns
JP5080273B2 (ja) * 2005-01-07 2012-11-21 クアルコム,インコーポレイテッド オプティカルフローに基づく傾きセンサー
JP4689684B2 (ja) * 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
GB0503253D0 (en) * 2005-02-17 2005-03-23 Univ Northumbria Newcastle User control of a hand-held device
US20090305727A1 (en) * 2005-03-04 2009-12-10 Heikki Pylkko Mobile device with wide range-angle optics and a radiation sensor
US20090297062A1 (en) * 2005-03-04 2009-12-03 Molne Anders L Mobile device with wide-angle optics and a radiation sensor
DE102005020688B4 (de) * 2005-05-03 2008-01-03 Siemens Ag Mobiltelefon
CN101589354B (zh) * 2005-05-17 2013-06-12 高通股份有限公司 方向敏感的信号输出
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US7864982B2 (en) * 2005-08-22 2011-01-04 Samsung Electronics Co., Ltd. Displacement and tilt detection method for a portable autonomous device having an integrated image sensor and a device therefor
US7927216B2 (en) * 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7808478B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Autonomous handheld device having a drawing tool
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7809214B2 (en) 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Device and a method for identifying movement patterns
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
US8102390B2 (en) * 2005-09-12 2012-01-24 Carlos Tapang Frame by frame, pixel by pixel matching of model-generated graphics images to camera frames for computer vision
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
US8666661B2 (en) * 2006-03-31 2014-03-04 The Boeing Company Video navigation
DE602006005079D1 (de) * 2006-08-24 2009-03-19 Harman Becker Automotive Sys Verfahren zum Abbilden der Umgebung eines Fahrzeugs und System dafür
JP4725526B2 (ja) * 2006-08-28 2011-07-13 ソニー株式会社 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム
CN101529364A (zh) * 2006-10-27 2009-09-09 诺基亚公司 用于促进三维图形用户界面内的移动的方法和装置
US7991157B2 (en) * 2006-11-16 2011-08-02 Digimarc Corporation Methods and systems responsive to features sensed from imagery or other data
US8572642B2 (en) * 2007-01-10 2013-10-29 Steven Schraga Customized program insertion system
WO2008094458A1 (en) 2007-01-26 2008-08-07 F-Origin, Inc. Viewing images with tilt control on a hand-held device
US20080215975A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
KR101545360B1 (ko) 2007-04-24 2015-08-19 오블롱 인더스트리즈, 인크 프로세싱 환경에서의 프로틴, 풀 및 슬럭스
WO2008137708A1 (en) * 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US20090135264A1 (en) * 2007-11-28 2009-05-28 Motorola, Inc. Motion blur detection using metadata fields
KR101417808B1 (ko) * 2007-12-06 2014-07-09 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
US20090207261A1 (en) * 2008-02-20 2009-08-20 Infineon Technologies Ag Electronic device and method for operating an electronic device
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8269842B2 (en) * 2008-06-11 2012-09-18 Nokia Corporation Camera gestures for user interface control
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US10729973B2 (en) * 2008-06-30 2020-08-04 Microsoft Technology Licensing, Llc Dynamic selection of sensor sensitivity in a game input system
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
JP5075757B2 (ja) * 2008-08-05 2012-11-21 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8300022B2 (en) * 2009-01-09 2012-10-30 International Business Machines Corporation Dynamically reconfigurable touch screen displays
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8624962B2 (en) 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
EP2219367B1 (en) 2009-02-16 2011-12-21 Research In Motion Limited Using gravity to direct a rotatable camera in a mobile device
US8159363B2 (en) * 2009-02-16 2012-04-17 Research In Motion Limited Using gravity to direct a rotatable camera in a handheld electronic device
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
JP2010226557A (ja) * 2009-03-25 2010-10-07 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
WO2010118202A1 (en) * 2009-04-08 2010-10-14 Gesturetek, Inc. Enhanced handheld screen-sensing pointer
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8352561B1 (en) 2009-07-24 2013-01-08 Google Inc. Electronic communication reminder technology
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8131848B1 (en) 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
US8452087B2 (en) * 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8286085B1 (en) 2009-10-04 2012-10-09 Jason Adam Denise Attachment suggestion technology
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US8964103B2 (en) * 2010-02-16 2015-02-24 Blackberry Limited Method and apparatus for reducing continuous autofocus power consumption
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9285589B2 (en) * 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) * 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8422769B2 (en) * 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8983127B2 (en) * 2010-03-19 2015-03-17 University Of Central Florida Research Foundation, Inc. Object tracking with opposing image capture devices
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
JP2011210179A (ja) * 2010-03-30 2011-10-20 Sony Corp 移動物体検出装置及び方法、並びにプログラム
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
WO2013189058A1 (en) 2012-06-21 2013-12-27 Microsoft Corporation Avatar construction using depth camera
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
EP3543920B1 (en) 2010-04-09 2023-09-13 ZOLL Medical Corporation Systems and methods for ems device communications interface
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US20110304774A1 (en) * 2010-06-11 2011-12-15 Microsoft Corporation Contextual tagging of recorded data
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8762041B2 (en) * 2010-06-21 2014-06-24 Blackberry Limited Method, device and system for presenting navigational information
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
KR20120000485A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
TW201207585A (en) * 2010-08-05 2012-02-16 Chi Mei Comm Systems Inc Mobile electronic device rocking system and method thereof
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
CN103125097B (zh) 2010-09-17 2016-11-16 甲骨文国际公司 在中间件机器中执行部分子网初始化
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8957856B2 (en) 2010-10-21 2015-02-17 Verizon Patent And Licensing Inc. Systems, methods, and apparatuses for spatial input associated with a display
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9575561B2 (en) 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
JP2012190184A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8009141B1 (en) * 2011-03-14 2011-08-30 Google Inc. Seeing with your hand
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US8203605B1 (en) 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9935848B2 (en) 2011-06-03 2018-04-03 Oracle International Corporation System and method for supporting subnet manager (SM) level robust handling of unkown management key in an infiniband (IB) network
US9930018B2 (en) 2011-06-03 2018-03-27 Oracle International Corporation System and method for providing source ID spoof protection in an infiniband (IB) network
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US20130027521A1 (en) * 2011-07-26 2013-01-31 Research In Motion Corporation Stereoscopic image capturing system
US8891868B1 (en) 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US9183638B2 (en) * 2011-08-09 2015-11-10 The Boeing Company Image based position determination
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US8791835B2 (en) * 2011-10-03 2014-07-29 Wei Zhang Methods for road safety enhancement using mobile communication device
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9609217B2 (en) * 2011-11-02 2017-03-28 Mediatek Inc. Image-based motion sensor and related multi-purpose camera system
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9230501B1 (en) 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
WO2013124845A1 (en) * 2012-02-22 2013-08-29 Pointgrab Ltd. Computer vision based control of an icon on a display
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
WO2014008438A1 (en) * 2012-07-03 2014-01-09 Tourwrist, Inc Systems and methods for tracking user postures and motions to control display of and navigate panoramas
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
JP2015533248A (ja) 2012-09-28 2015-11-19 ゾール メディカル コーポレイションZOLL Medical Corporation Ems環境内で三次元対話をモニタするためのシステム及び方法
US9423886B1 (en) 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
GB2507963A (en) * 2012-11-14 2014-05-21 Renergy Sarl Controlling a Graphical User Interface
CN103020616B (zh) * 2012-11-30 2017-02-08 天津三星电子有限公司 一种手持设备空间位置的检测方法及其手持设备
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
EP2941860B1 (en) * 2013-01-04 2019-06-19 Nokia Technologies OY Method and apparatus for sensing flexing of a device
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
JP5979023B2 (ja) * 2013-01-28 2016-08-24 マツダ株式会社 車両用撮像装置
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9417689B1 (en) * 2013-05-17 2016-08-16 Amazon Technologies, Inc. Robust device motion detection
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US10132635B2 (en) * 2013-09-17 2018-11-20 Invensense, Inc. Method and apparatus for misalignment between device and pedestrian using vision
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9367203B1 (en) 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US10302669B2 (en) * 2013-11-01 2019-05-28 Invensense, Inc. Method and apparatus for speed or velocity estimation using optical sensor
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9470511B2 (en) * 2013-11-12 2016-10-18 Trimble Navigation Limited Point-to-point measurements using a handheld device
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9607319B2 (en) 2013-12-30 2017-03-28 Adtile Technologies, Inc. Motion and gesture-based mobile advertising activation
TWI550550B (zh) * 2014-01-07 2016-09-21 國立交通大學 沙畫模擬系統及模擬方法
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9958963B2 (en) * 2014-02-19 2018-05-01 American Greetings Corporation Systems, methods, and apparatuses for creating digital glitter with accelerometer
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10735902B1 (en) * 2014-04-09 2020-08-04 Accuware, Inc. Method and computer program for taking action based on determined movement path of mobile devices
CN103884293B (zh) * 2014-04-17 2016-09-07 吉林大学 基于光流的轮胎变形在线测试装置及测试方法
US9616350B2 (en) * 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
KR101565421B1 (ko) * 2014-06-26 2015-11-03 엘지전자 주식회사 로봇 청소기 및 그 제어 방법
US10652696B2 (en) * 2014-07-30 2020-05-12 Trusted Positioning, Inc. Method and apparatus for categorizing device use case for on foot motion using motion sensor data
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
JP2017528714A (ja) * 2014-09-10 2017-09-28 ファロ テクノロジーズ インコーポレーテッド 3次元座標の光学測定のための方法および3次元測定デバイスの制御
US10354397B2 (en) 2015-03-11 2019-07-16 Massachusetts Institute Of Technology Methods and apparatus for modeling deformations of an object
KR102368625B1 (ko) * 2015-07-23 2022-03-02 삼성전자주식회사 디지털 촬영 장치 및 그 방법
JP6240328B2 (ja) 2015-07-31 2017-11-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd オプティカルフロー場を構築する方法
US10437463B2 (en) 2015-10-16 2019-10-08 Lumini Corporation Motion-based graphical input system
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
CN105607259A (zh) * 2016-03-01 2016-05-25 上海小蚁科技有限公司 一种可穿戴装置和运动管理方法
DE102016104732A1 (de) * 2016-03-15 2017-09-21 Connaught Electronics Ltd. Verfahren zur Bewegungsabschätzung zwischen zwei Bildern eines Umgebungsbereichs eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US10380745B2 (en) * 2016-09-01 2019-08-13 Massachusetts Institute Of Technology Methods and devices for measuring object motion using camera images
US10303417B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Interactive systems for depth-based input
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
US10303259B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Systems and methods for gesture-based interaction
US10600290B2 (en) * 2016-12-14 2020-03-24 Immersion Corporation Automatic haptic generation based on visual odometry
US9983687B1 (en) 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
JP2018151940A (ja) * 2017-03-14 2018-09-27 株式会社デンソーテン 障害物検出装置および障害物検出方法
US20180293735A1 (en) * 2017-04-11 2018-10-11 Sony Corporation Optical flow and sensor input based background subtraction in video content
CN107241510B (zh) * 2017-06-27 2018-09-21 惠州学院 一种快速恢复智能手机配置的方法及其系统
US11765315B2 (en) * 2017-08-08 2023-09-19 Nec Corporation Flying body control apparatus, flying body control method, and flying body control program
CN109472824B (zh) * 2017-09-07 2021-04-30 北京京东尚科信息技术有限公司 物品位置变化检测方法及装置、存储介质、电子设备
JP6849097B2 (ja) * 2017-11-13 2021-03-24 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US10650553B2 (en) * 2017-12-27 2020-05-12 Intel IP Corporation Method of image processing and image processing device
US20190238746A1 (en) * 2018-01-27 2019-08-01 Lenovo (Singapore) Pte. Ltd. Capturing Images at Locked Device Responsive to Device Motion
KR102545642B1 (ko) * 2018-04-24 2023-06-21 스냅 인코포레이티드 효율적인 병렬 광학 흐름 알고리즘 및 gpu 구현
US11262856B2 (en) * 2018-05-11 2022-03-01 Beijing Bytedance Network Technology Co., Ltd. Interaction method, device and equipment for operable object
CN109753209B (zh) 2018-06-21 2020-05-05 北京字节跳动网络技术有限公司 一种应用程序启动方法、装置及设备
US11068530B1 (en) * 2018-11-02 2021-07-20 Shutterstock, Inc. Context-based image selection for electronic media
US11536857B2 (en) 2019-12-19 2022-12-27 Trimble Inc. Surface tracking on a survey pole
CN111274914B (zh) * 2020-01-13 2023-04-18 目骉资讯有限公司 一种基于深度学习的马匹速度计算系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03154576A (ja) * 1989-11-13 1991-07-02 Canon Inc 焦点調節装置、ブレ検出装置、動き検出装置、並びに、被写体位置検出装置
JPH10240436A (ja) * 1996-12-26 1998-09-11 Nikon Corp 情報処理装置および記録媒体
JPH11211738A (ja) * 1998-01-27 1999-08-06 Omron Corp 移動体の速度計測方法およびその方法を用いた速度計測装置
JP2001282447A (ja) * 2000-03-29 2001-10-12 Casio Comput Co Ltd 情報処理装置及び記憶媒体
JP2002351603A (ja) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp 携帯情報処理装置
JP2002374521A (ja) * 2001-06-13 2002-12-26 Mitsubishi Heavy Ind Ltd 移動体の監視方法および装置
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2008527854A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド オプティカルフローに基づく傾きセンサー

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06511340A (ja) 1991-10-04 1994-12-15 マイクロメッド・システムズ・インコーポレイテッド ポケット大のコンピュータ入力装置および方法
DE69206770T2 (de) 1991-12-19 1996-07-11 Motorola Inc Dreiachsiger Beschleunigungsmesser
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US6906700B1 (en) 1992-03-05 2005-06-14 Anascape 3D controller with vibration
USRE38420E1 (en) * 1992-08-12 2004-02-10 British Broadcasting Corporation Derivation of studio camera position and motion from the camera image
JP3154576B2 (ja) 1992-12-25 2001-04-09 株式会社ノリタケカンパニーリミテド チタン材焼付用陶材組成物
US5435554A (en) * 1993-03-08 1995-07-25 Atari Games Corporation Baseball simulation system
US5297061A (en) 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision
JP3391841B2 (ja) 1993-05-26 2003-03-31 松下電工株式会社 半導体加速度センサ
JP3727954B2 (ja) * 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
DE4415167A1 (de) * 1994-04-29 1995-11-02 Siemens Ag Telekommunikationsanordnung zum Übertragen von Bildern
JPH08212327A (ja) * 1995-02-06 1996-08-20 Mitsubishi Electric Corp 身振り認識装置
US5852672A (en) 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
US6127990A (en) * 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6104840A (en) 1996-11-08 2000-08-15 Ricoh Company, Ltd. Method and system for generating a composite image from partially overlapping adjacent images taken along a plurality of axes
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6342917B1 (en) * 1998-01-16 2002-01-29 Xerox Corporation Image recording apparatus and method using light fields to track position and orientation
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6628819B1 (en) * 1998-10-09 2003-09-30 Ricoh Company, Ltd. Estimation of 3-dimensional shape from image sequence
US6201554B1 (en) * 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US6882286B1 (en) * 1999-04-20 2005-04-19 Funai Electric Co., Ltd. Remote controller and electrical apparatus controlled by the same
US7015950B1 (en) * 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
WO2000075941A1 (fr) 1999-06-04 2000-12-14 Mitsui Chemicals, Inc. Solution electrolytique non aqueuse, electrode et condensateur ainsi equipe
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
JP3847058B2 (ja) 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
US7187412B1 (en) * 2000-01-18 2007-03-06 Hewlett-Packard Development Company, L.P. Pointing device for digital camera display
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US6861946B2 (en) 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
JP2002024833A (ja) * 2000-07-07 2002-01-25 Sony Corp エンタテインメントシステム、エンタテインメント装置及び情報処理方法
JP4581204B2 (ja) * 2000-09-11 2010-11-17 ソニー株式会社 位置解析装置及び位置解析方法、並びに、エンターテインメント装置
US6937272B1 (en) * 2000-11-08 2005-08-30 Xerox Corporation Display device for a camera
US20020153188A1 (en) * 2000-12-08 2002-10-24 Brandt Kenneth A. Selectable control parameters on a power machine with four-wheel steering
US7176440B2 (en) 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
JP2002290793A (ja) 2001-03-28 2002-10-04 Mitsubishi Electric Corp 撮像装置付携帯電話器
US6798429B2 (en) 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
US7061628B2 (en) 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
US6847351B2 (en) 2001-08-13 2005-01-25 Siemens Information And Communication Mobile, Llc Tilt-based pointing for hand-held devices
US7221776B2 (en) * 2001-10-31 2007-05-22 Arcsoft, Inc. Video stabilizer
US6816151B2 (en) 2001-11-09 2004-11-09 Terry L. Dellinger Hand-held trackball computer pointing device
US20030098841A1 (en) * 2001-11-26 2003-05-29 Jessica Broussard Powered, remotely controllable computer display device
KR100415313B1 (ko) * 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
JP4039858B2 (ja) * 2002-01-09 2008-01-30 株式会社モノリス 画像マッチング方法と装置、および画像符号化方法と装置
US6805506B2 (en) 2002-03-20 2004-10-19 Lubartech Ltd. Keyboard with multiple indicia sets
JP3902508B2 (ja) 2002-05-20 2007-04-11 任天堂株式会社 ゲームシステムおよびゲームプログラム
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
WO2004042666A2 (en) 2002-11-05 2004-05-21 Disney Enterprises, Inc. Video actuated interactive environment
AU2002339684A1 (en) 2002-11-05 2004-06-07 Nokia Corporation Mobile electronic three-dimensional compass
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
JP3553563B1 (ja) * 2003-01-10 2004-08-11 コナミ株式会社 ゲームシステム、ゲーム装置、ゲーム方法、ならびに、プログラム
JP4215540B2 (ja) * 2003-03-07 2009-01-28 三洋電機株式会社 監視カメラ装置
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7333133B2 (en) * 2003-03-31 2008-02-19 Spatial Integrated Systems, Inc. Recursive least squares approach to calculate motion parameters for a moving camera
US7027037B2 (en) 2003-04-08 2006-04-11 Intermec Ip Corp. Conditionally illuminated keypad legends
US7467356B2 (en) * 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
IL157877A0 (en) 2003-09-11 2004-03-28 Imagine It S Happening Ltd Color edge based 3d scanner
KR100995031B1 (ko) 2003-10-01 2010-11-19 엘지전자 주식회사 다중입력 다중출력 시스템에 적용되는 신호 전송 제어 방법
US9201469B2 (en) 2003-10-16 2015-12-01 Vodafone Group Plc Mobile communication terminal and application program
EP1580687A4 (en) * 2003-10-17 2006-01-11 Matsushita Electric Ind Co Ltd METHOD FOR DETERMINING MOBILE UNIT MOTION, DEVICE AND NAVIGATION SYSTEM
US7181251B2 (en) 2003-10-22 2007-02-20 Nokia Corporation Mobile communication terminal with multi orientation user interface
JP2007510234A (ja) 2003-10-31 2007-04-19 イオタ・ワイアレス・エルエルシー 携帯デバイス用同時データ入力
US7312819B2 (en) * 2003-11-24 2007-12-25 Microsoft Corporation Robust camera motion analysis for home video
KR100594971B1 (ko) * 2004-01-09 2006-06-30 삼성전자주식회사 지자기 센서를 이용한 입력장치 및 이를 이용한 입력신호생성방법
JP5356650B2 (ja) 2004-01-15 2013-12-04 テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド 三次元ビデオスキャナ
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
WO2005109879A2 (en) 2004-04-30 2005-11-17 Hillcrest Laboratories, Inc. Free space pointing devices and method
US7158118B2 (en) 2004-04-30 2007-01-02 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
JP4685095B2 (ja) 2004-04-30 2011-05-18 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 微動に基づいてユーザを識別するための方法およびデバイス
US7259758B2 (en) 2004-06-21 2007-08-21 Microsoft Corporation System and method for reducing latency in display of computer-generated graphics
JP2006031515A (ja) 2004-07-20 2006-02-02 Vodafone Kk 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法
JP2006068027A (ja) 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置およびゲームプログラム
US20060078162A1 (en) * 2004-10-08 2006-04-13 Dynapel, Systems, Inc. System and method for stabilized single moving camera object tracking
US7683883B2 (en) 2004-11-02 2010-03-23 Pierre Touma 3D mouse and game controller based on spherical coordinates system and system for use
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
KR100679053B1 (ko) * 2005-12-28 2007-02-05 삼성전자주식회사 틸팅 인터페이스에서 기울기의 변화를 이용하여 반복적신호 입력을 정지시키는 방법 및 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03154576A (ja) * 1989-11-13 1991-07-02 Canon Inc 焦点調節装置、ブレ検出装置、動き検出装置、並びに、被写体位置検出装置
JPH10240436A (ja) * 1996-12-26 1998-09-11 Nikon Corp 情報処理装置および記録媒体
JPH11211738A (ja) * 1998-01-27 1999-08-06 Omron Corp 移動体の速度計測方法およびその方法を用いた速度計測装置
JP2001282447A (ja) * 2000-03-29 2001-10-12 Casio Comput Co Ltd 情報処理装置及び記憶媒体
JP2002351603A (ja) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp 携帯情報処理装置
JP2002374521A (ja) * 2001-06-13 2002-12-26 Mitsubishi Heavy Ind Ltd 移動体の監視方法および装置
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2008527854A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド オプティカルフローに基づく傾きセンサー

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197348A (ja) * 2015-04-03 2016-11-24 株式会社Nttドコモ 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20080137913A1 (en) 2008-06-12
EP1849123A2 (en) 2007-10-31
WO2006074290A2 (en) 2006-07-13
JP5911919B2 (ja) 2016-04-27
CN101137996A (zh) 2008-03-05
WO2006074290A3 (en) 2007-05-18
JP2012178854A (ja) 2012-09-13
JP5080273B2 (ja) 2012-11-21
US8213686B2 (en) 2012-07-03
US20110074974A1 (en) 2011-03-31
BRPI0606477A2 (pt) 2009-06-30
US20060177103A1 (en) 2006-08-10
US7848542B2 (en) 2010-12-07
US7379566B2 (en) 2008-05-27
US8983139B2 (en) 2015-03-17
US20120268622A1 (en) 2012-10-25
JP2008527854A (ja) 2008-07-24

Similar Documents

Publication Publication Date Title
JP5911919B2 (ja) オプティカルフローに基づく傾きセンサー
US11481923B2 (en) Relocalization method and apparatus in camera pose tracking process, device, and storage medium
CN108648235B (zh) 相机姿态追踪过程的重定位方法、装置及存储介质
CN108734736B (zh) 相机姿态追踪方法、装置、设备及存储介质
CN108596976B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
US9361730B2 (en) Interactions of tangible and augmented reality objects
JP5790692B2 (ja) 情報処理装置、情報処理方法および記録媒体
US20130328763A1 (en) Multiple sensor gesture recognition
JP2019212148A (ja) 情報処理装置及び情報処理プログラム
CN112306332B (zh) 确定选中目标的方法、装置、设备及存储介质
CN111651054A (zh) 音效控制方法、装置、电子设备及存储介质
CN115083016A (zh) 一种基于单目摄像机的面向小目标手部隔空交互方法与装置
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
López et al. Multimodal sensing-based camera applications
US20230421985A1 (en) Localization using Audio and Visual Data
CN111068333B (zh) 基于视频的载具异常状态检测方法、装置、设备及介质
CN116489451A (zh) 运镜信息的确定方法、场景画面的显示方法及装置
CN115457102A (zh) 图像处理方法、人脸识别方法、装置、设备及存储介质
Lópeza et al. Multimodal sensing-based camera applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160229

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160330

R150 Certificate of patent or registration of utility model

Ref document number: 5911919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250