JP2009064409A - 画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法 - Google Patents

画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法 Download PDF

Info

Publication number
JP2009064409A
JP2009064409A JP2008080676A JP2008080676A JP2009064409A JP 2009064409 A JP2009064409 A JP 2009064409A JP 2008080676 A JP2008080676 A JP 2008080676A JP 2008080676 A JP2008080676 A JP 2008080676A JP 2009064409 A JP2009064409 A JP 2009064409A
Authority
JP
Japan
Prior art keywords
display screen
frame
image data
input device
controller unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008080676A
Other languages
English (en)
Inventor
Rene P Helbing
レネ・ピー・ヘルビング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies International Sales Pte Ltd
Original Assignee
Avago Technologies ECBU IP Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avago Technologies ECBU IP Singapore Pte Ltd filed Critical Avago Technologies ECBU IP Singapore Pte Ltd
Publication of JP2009064409A publication Critical patent/JP2009064409A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/037Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor using the raster scan of a cathode-ray tube [CRT] for detecting the position of the member, e.g. light pens cooperating with CRT monitors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】入力装置を追跡するためのシステムであって、画像データのフレーム内の表示スクリーンの位置情報を使用して、表示スクリーンに対する入力装置の相対的位置を決定する。
【解決手段】画像データのフレームを取り込むように構成されたイメージセンサアレイを含む入力装置であって、画像データの前記フレームは表示スクリーンの少なくとも一部を含む、入力装置と、画像データの前記フレームを処理するために前記イメージセンサに対して動作可能に接続されたナビゲーションエンジンであって、該ナビゲーションエンジンは、画像データの前記フレーム内の前記表示スクリーンの位置情報を抽出するように構成され、前記ナビゲーションエンジンは、画像データの前記フレーム内の前記表示スクリーンの前記位置情報を使用して前記表示スクリーンに対する前記入力装置の相対的位置を決定するように更に構成されている、ナビゲーションエンジンと、を備える。
【選択図】図8

Description

光学ナビゲーションのためのシステムでは、光学ナビゲーションシステムに対するフレーム内の特徴の変位を追跡するために、画像データのフレームが連続的に取り込まれて比較される。フレーム内の特徴のこれらの相対的な変位は、光学ナビゲーションシステムに対する特徴の動き、または、特徴に対する光学ナビゲーションシステムの動きを評価するために使用することができる。一例として、特徴の相対的な変位は、コンピュータマウスの動きを追跡してカーソルまたはコンピュータスクリーンを制御するために使用することができる。
幾つかの用途において、追跡される特徴は、光学ナビゲーションのための基準点として取り込まれて使用されるビーコン(例えば、赤外線源)であってもよい。ビーコン源は、通常においては静止しており、したがって、光学ナビゲーションシステムの相対的な動きを決定するための基準点としての機能を果たす。このタイプの光学ナビゲーション技術は、本明細書では、ビーコンベースナビゲーション技術と称される。ビーコンベースナビゲーション技術は、現在、ゲームユニットのためのリモート入力装置の動きを追跡するためにコンピュータゲームユニットで使用される。
従来のビーコンベースナビゲーション技術に対する懸念は、ビーコンを与えるために更なるハードウェアが必要とされ、それにより、システム全体に対してコストおよび望ましくない複雑さが加わる。他の懸念は、視野内にある非ビーコン光源、例えば、ロウソクや反射光をビーコンと勘違いする可能性があり、それにより、ナビゲーションエラーをもたらす可能性がある。
幾つかの用途では、追跡される特徴は、取り込み画像フレーム内の際立った特徴であってもよい。このタイプの光学ナビゲーション技術は、本明細書では、シーンベースナビゲーション技術と称される。シーンベースナビゲーション技術は、光学コンピュータマウスで使用されるナビゲーション技術に類似している。画像データの連続するフレーム内に取り込まれる際立った特徴の位置変化は、光学ナビゲーションシステムの動きを追跡するために使用される。また、シーンベースナビゲーション技術は、ゲームユニットのためのリモート入力装置の動きを追跡するためにコンピュータゲームユニットで使用することもできる。
従来のシーンベースナビゲーション技術に対する懸念は、ナビゲーション中に時として重大なナビゲーションエラーがもたらされる可能性があるということである。そのようなナビゲーションエラーは、ワードプロセッシング用途におけるカーソル制御などの時間に依存しない用途においては重大とならないかもしれない。しかしながら、コンピュータゲームなどの時間依存用途においては、そのようなナビゲーションエラーを許容できない場合がある。
したがって、ビーコン源を必要としないゲームユニットのリモート入力装置などの入力装置を確実に追跡するためのシステムおよび方法が必要である。
入力装置を追跡するためのシステムおよび方法は、画像データのフレーム内の表示スクリーンの位置情報を使用して、表示スクリーンに対する入力装置の相対的位置を決定する。画像データのフレーム内の表示スクリーンを使用すると、光学トラッキングの信頼性を高めつつ、光学トラッキングにおいて基準としてのビーコン光源の必要性が排除される。
本発明の一実施形態に係る入力装置を追跡するための方法は、入力装置を使用して画像データのフレーム内の表示スクリーンの少なくとも一部を電子的に取り込み、画像データのフレーム内の表示スクリーンの位置情報を抽出し、画像データのフレーム内の表示スクリーンの位置情報を使用して、表示スクリーンに対する入力装置の相対的位置を決定することを含む。
本発明の一実施形態に係る入力装置を追跡するためのシステムは、イメージセンサとナビゲーションエンジンとを含む入力装置を備える。イメージセンサは、表示スクリーンの少なくとも一部を含む画像データのフレームを取り込むように構成されている。ナビゲーションエンジンは、画像データのフレームを処理するためにイメージセンサに対して動作可能に接続される。ナビゲーションエンジンは、画像データのフレーム内の表示スクリーンの位置情報を抽出するように構成されている。ナビゲーションエンジンは、画像データのフレーム内の表示スクリーンの位置情報を使用して表示スクリーンに対する入力装置の相対的位置を決定するように更に構成されている。
本発明の他の態様および利点は、本発明の原理の一例として示される添付図面と併せて解釈される以下の詳細な説明から明らかとなる。
図1を参照して、本発明の一実施形態に係る光学ナビゲーションシステム100について説明する。図1に示されるように、光学ナビゲーションシステム100は、手持ち式コントローラユニット102と、ディスプレイ装置104と、コンソールユニット106とを含む。幾つかの実施形態では、手持ち式コントローラユニット102およびコンソールユニット106がコンピュータゲームシステムの一部であり、その場合、手持ち式コントローラユニットは、ディスプレイ装置104上に表示されるグラフィック要素を操作するためのシステムの入力装置である。しかしながら、他の実施形態では、光学ナビゲーションシステム100が他のタイプのシステムを実施するために使用される。例えば、幾つかの実施形態の光学ナビゲーションシステム100は、コンピュータシステムのためのアクセス可能なユーザインタフェースを与えるために使用されてもよい。
以下で更に詳しく説明するように、光学ナビゲーションシステム100は、手持ち式コントローラユニット102により取り込まれる画像データのフレーム内のディスプレイ装置104の表示スクリーン108を使用してシステムの手持ち式コントローラユニット102の動きを追跡する機能を果たす。取り込み画像フレーム内の表示スクリーン108の撮像されたバージョンの位置情報は、その後、手持ち式コントローラユニット102の現在の位置を決定するために使用される。取り込み画像フレーム内の表示スクリーン108の位置情報は、取り込み画像フレームに対する取り込み画像フレーム内の撮像された表示スクリーンの位置およびサイズ、並びに、取り込み画像フレーム内の撮像された表示スクリーンの形状を含んでもよい。手持ち式コントローラユニット102の現在の位置は、表示スクリーン108に対する絶対座標系に対する手持ち式コントローラユニットの位置であってもよい。あるいは、手持ち式コントローラユニット102の現在の位置は、表示スクリーン108に対する手持ち式コントローラユニットの前回の位置に対する手持ち式コントローラユニットの位置であってもよい。取り込み画像フレーム内の撮像された表示スクリーンを使用するこの種の追跡は、本明細書中では、時として、スクリーンベースナビゲーションと称される。
図2A−2Cは、取り込み画像フレーム内の撮像された表示スクリーンの位置情報を使用して表示スクリーン108に対する手持ち式コントローラユニット102の相対的な位置をどのように決定することができるのかを示している。図2Aは、手持ち式コントローラユニット102が表示スクリーン108に対して更に近づきあるいは更に離れて移動されるときの取り込み画像フレーム212A、212Bおよび212C内の撮像された表示スクリーン210を示している。取り込み画像フレーム212Aに示されるように、手持ち式コントローラユニット102が表示スクリーン108の近傍に位置される場合、撮像された表示スクリーン210のサイズは比較的大きい。また、手持ち式コントローラユニット102が表示スクリーン108の真正面に位置され且つ表示スクリーンの表面に対して垂直な方向で表示スクリーンへと向けられているため、撮像された表示スクリーン210の形状は長方形状である。しかしながら、後述するように、撮像される表示スクリーン210の形状は、表示スクリーン108に対する手持ち式コントローラユニット102の相対的な位置に応じて、台形または他の4つの面を持つ多角形(四辺形または四角形としても知られる)などの任意の四辺形状をとることができる。取り込み画像フレーム212Bに示されるように、手持ち式コントローラユニット102が表示スクリーン108から離間して移動される場合、撮像された表示スクリーン210のサイズは減少されている。しかしながら、撮像された表示スクリーン210の形状は変わっておらず、このことは、表示スクリーン108に対する手持ち式コントローラユニット102の角度が変更されていないことを示している。取り込み画像フレーム212Cに示されるように、手持ち式コントローラユニット102が表示スクリーン108から更に離れて移動される場合、撮像された表示スクリーン210のサイズは更に減少されている。しかしながら、撮像された表示スクリーン210の形状はこの場合も変わっておらず、このことは、表示スクリーン108に対する手持ち式コントローラユニット102の角度が変更されていないことを示している。
図2Bは、手持ち式コントローラユニット102が表示スクリーン108から所定距離だけ離れて横方向に移動される場合の取り込み画像フレーム212D、212Eおよび212F内の撮像された表示スクリーン210を示している。すなわち、手持ち式コントローラユニット102は、表示スクリーン108の表面に対して平行な平面上で移動され、この平面は表示スクリーンから所定距離だけ離れている。取り込み画像フレーム212Eに示されるように、手持ち式コントローラユニット102が表示スクリーン108の正面近傍に位置される場合、撮像された表示スクリーン210もそれに対応して取り込み画像フレームの中央近傍に位置されている。また、手持ち式コントローラユニット102が表示スクリーン108の真正面に位置され且つ表示スクリーンの表面に対して垂直な方向で表示スクリーンへと向けられているため、撮像された表示スクリーン210の形状は長方形状である。取り込み画像フレーム212Dに示されるように、手持ち式コントローラユニット102が左側方へ移動される場合、撮像された表示スクリーン210は、取り込み画像フレーム内で右側方へ移動されている。しかしながら、撮像された表示スクリーン210のサイズおよび形状は目立って変わっておらず、このことは、手持ち式コントローラユニット102が表示スクリーン108から同じ距離だけ離れた位置あるいはその近傍に位置され且つ表示スクリーン108に対する手持ち式コントローラユニット102の角度が変更されていないことを示している。取り込み画像フレーム212Fに示されるように、手持ち式コントローラユニット102が右側方へ移動される場合、撮像された表示スクリーン210は、取り込み画像フレーム内で左側方へ移動されている。しかしながら、撮像された表示スクリーン210のサイズおよび形状はこの場合も目立って変わっておらず、このことは、手持ち式コントローラユニット102が表示スクリーン108から同じ距離だけ離れた位置あるいはその近傍に位置され且つ表示スクリーン108に対する手持ち式コントローラユニット102の角度が変更されていないことを示している。撮像された表示スクリーン210は、手持ち式コントローラユニット102が表示スクリーン108から所定距離だけ離れて側方下側または上側に移動される場合でも同様に取り込み画像フレーム内で上側または下側に移動される。
図2Cは、表示スクリーン108に対する手持ち式コントローラユニット102の角度が変えられるように手持ち式コントローラユニット102が移動される場合の取り込み画像フレーム212G、212Hおよび212I内の撮像された表示スクリーン210を示している。取り込み画像フレーム212Hに示されるように、手持ち式コントローラユニット102が表示スクリーン108の表面に対して垂直な方向で表示スクリーンの中央へ向くように手持ち式コントローラユニット102が位置決めされあるいは方向付けられる場合、撮像された表示スクリーン210は取り込み画像フレームの中央付近に位置されるとともに、撮像された表示スクリーンの形状は長方形である。取り込み画像フレーム212Gに示されるように、手持ち式コントローラユニット102が左へ移動され且つ手持ち式コントローラユニットが表示スクリーン108の中央へ依然として向けられた状態で手持ち式コントローラユニットの角度が変えられる場合、撮像された表示スクリーン210の形状は特定のタイプの四角形、すなわち、台形へと変えられ、それにより、撮像された表示スクリーンの台形形状の左辺がその右辺よりも長くなっている。しかしながら、撮像された表示スクリーン210のサイズは目立って変わっておらず、このことは、手持ち式コントローラユニット102が依然として表示スクリーン108から同じ距離だけ離れた位置あるいはその近傍に位置されていることを示している。取り込み画像フレーム212Iに示されるように、手持ち式コントローラユニット102が右へ移動され且つ手持ち式コントローラユニットが表示スクリーン108の中央へ依然として向けられた状態で手持ち式コントローラユニットの角度が変えられる場合、撮像された表示スクリーン210の形状は、撮像された表示スクリーン210の台形形状の右辺がその左辺よりも長くなるように変えられる。しかしながら、撮像された表示スクリーン210のサイズは目立って変わっておらず、このことは、手持ち式コントローラユニット102が依然として表示スクリーン108から同じ距離だけ離れた位置あるいはその近傍に位置されていることを示している。手持ち式コントローラユニット102が上側または下側へ移動され且つ手持ち式コントローラユニットが依然として表示スクリーン108の中央へ向けられた状態で手持ち式コントローラユニットの角度が変更される場合も同様に、撮像された表示スクリーン210の形状は取り込み画像フレーム内において変わる。
図示しないが、取り込み画像フレーム内における撮像された表示スクリーンの形状は、表示スクリーンの表面に対して平行な面上で手持ち式コントローラユニット102が表示スクリーン108に対して回転されているかどうかを決定するために使用することもできる。手持ち式コントローラユニット102が時計回りに回転されると、取り込み画像フレーム内の撮像された表示スクリーンも取り込み画像フレーム内で反時計回り方向に同様に回転される。手持ち式コントローラユニット102が反時計回りに回転されると、取り込み画像フレーム内の撮像された表示スクリーンも取り込み画像フレーム内で時計回り方向に同様に回転される。
したがって、取り込み画像フレーム内における撮像された表示スクリーンのサイズおよび形状を使用すると、画像解析によって手持ち式コントローラユニット102の相対的な位置を決定することができる。手持ち式コントローラユニット102の相対的な位置としては、表示スクリーン108から手持ち式コントローラユニット102までの距離、表示スクリーンの中央からの手持ち式コントローラユニットの横方向距離、表示スクリーンに対する手持ち式コントローラユニットの角度、および、表示スクリーンに対する手持ち式コントローラユニットの回転方向が挙げられるが、これらに限定されない。また、表示スクリーン108に対する手持ち式コントローラユニット102の相対的な位置を使用すると、手持ち式コントローラユニットが向けられる表示スクリーン上の場所(本明細書では「スクリーンインターセプト」と称される)を決定することができる。
図1に戻って参照すると、光学ナビゲーションシステム100の手持ち式コントローラユニット102は、表示スクリーン108の少なくとも一部を含む画像データのフレームを電子的に取り込むように構成されている。また、手持ち式コントローラユニット102は、取り込み画像フレームを処理して取り込み画像フレーム内において撮像された表示スクリーンを見つけることにより、取り込み画像フレーム内の撮像された表示スクリーンの位置、サイズ、形状などの撮像された表示スクリーンの位置情報を抽出するように構成されている。更に、手持ち式コントローラユニット102は、撮像された表示スクリーンの位置情報を使用して手持ち式コントローラユニットの相対的な位置を計算するとともに、手持ち式コントローラユニットの相対的な位置を示す位置データを出力するように構成されている。手持ち式コントローラユニット102の相対的な位置は、光学ナビゲーションシステム100の所定の座標系に対する手持ち式コントローラユニットの位置であってもよい。光学ナビゲーションシステム100の座標系は較正段階中に定められてもよい。あるいは、手持ち式コントローラユニット102の相対的な位置は、手持ち式コントローラユニットの前回の位置に対する手持ち式コントローラユニットの位置であってもよい。出力される位置データは、光学ナビゲーションシステム100の座標系のX、YおよびZ軸に沿うx、yおよびz位置値を含んでもよい。あるいは、出力される位置データは、それぞれの軸に沿う変化または変位を表わす光学ナビゲーションシステム100の座標系のX、YおよびZ軸に沿うΔx値、Δy値およびΔz値を含んでもよい。また、出力される位置データは、表示スクリーン108に対する手持ち式コントローラユニット102の角度の値、および、表示スクリーンに対する手持ち式コントローラユニットの回転角度の値を含んでもよい。あるいは、出力される位置データは、角度値の変化または回転角度値の変化を含んでもよい。
手持ち式コントローラユニット102の位置データは、ディスプレイ装置に接続されるコンソールユニット106に対して送信される。幾つかの実施形態では、コンソールユニット106が従来の配線を使用してディスプレイ装置104に対して結合される。あるいは、コンソールユニット106とディスプレイ装置104との間の接続を行なうために、他の有線接続または無線接続が実施されてもよい。コンソールユニット106は、手持ち式コントローラユニット102からの位置データを特定の用途で用いるために処理する。一例として、コンソールユニット106は、新たな位置データが手持ち式コントローラユニットから受けられるときに手持ち式コントローラユニット102の動きにしたがってディスプレイ装置104のスクリーン108上に表示されるグラフィック要素を操作するように構成されていてもよい。コンソールユニット106は、ゲームプログラムなどの1つ以上のコンピュータプログラムを実行するコンピュータシステムであってもよい。この実施形態では、コンソールユニット106は、パーソナルコンピュータシステムで一般に見出される構成要素を含んでもよい。
ここで、図3を参照すると、本発明の一実施形態に係る手持ち式コントローラユニット102のブロック図が示されている。図示の手持ち式コントローラユニットは、デジタルプロセッサ314と、メモリ装置316と、電源318と、通信インタフェース320と、イメージセンサ322と、ナビゲーションエンジン324と、光学レンズ326と、水晶発振器328とを含む。図示の実施形態において、ナビゲーションエンジン324およびイメージセンサ322は集積回路(IC)330の一部である。しかしながら、他の実施形態では、イメージセンサ322およびナビゲーションエンジン324が別個の構成要素として実装されてもよい。IC330は、アドレス信号ライン、データ信号ライン及び/又は制御信号ラインを含んでもよい1つ以上の信号ライン332を介してデジタルプロセッサ314に対して接続される。手持ち式コントローラユニット102は特定の構成要素を含むように示されているが、手持ち式コントローラユニットは更なる構成要素を含んでもよい。例えば、幾つかの実施形態の手持ち式コントローラユニット102は、入力ボタン、ジョイスティック、または、ゲームコントローラのために一般に使用される他のユーザインタフェースを含む。他の実施形態の手持ち式コントローラユニット102は、ユーザに対する触覚または聴覚フィードバック信号を生成するためのフィードバック信号発生器を含む。
幾つかの実施形態において、デジタルプロセッサ314は、マイクロプロセッサまたはマイクロコントローラなどの汎用プロセッサであってもよい。他の実施形態では、デジタルプロセッサ314がデジタル信号プロセッサなどの専用プロセッサであってもよい。他の実施形態では、デジタルプロセッサ314が他のタイプのコントローラまたはフィールドプログラマブルゲートアレイ(FPGA)であってもよい。一般に、デジタルプロセッサ314は、手持ち式コントローラユニット102の動作および機能を実行する。
メモリ装置316は、手持ち式コントローラユニット102の動作で用いるデータ及び/又は命令を記憶するように構成されている。幾つかの実施形態において、メモリ装置316は、デジタルプロセッサ314によって実行されるときにデジタルプロセッサに特定の操作を実行させる命令を記憶する。同様に、幾つかの命令は、デジタルプロセッサ314またはIC330内に組み込まれるメモリ内に記憶されてもよい。また、メモリ装置316は、デジタルプロセッサ314及び/又はナビゲーションエンジン324によって生成される位置データを記憶してもよい。
一実施形態において、電源318は、直流(DC)電気信号Vccをデジタルプロセッサ314および手持ち式コントローラユニット102の他の構成要素に対して供給する。幾つかの実施形態の電源318は1つ以上のバッテリを含む。幾つかの実施形態において、電源318は、配線を介してコンソールユニット106から電力を受ける。同様の様式で、水晶発振器328は、手持ち式コントローラユニット102の1つ以上の構成要素に対してクロック信号CLKを供給する。
デジタルプロセッサ314に対して結合される通信インタフェース320は、位置データ信号などの信号を手持ち式コントローラユニット102からコンソールユニット106へと送信するように構成されている。また、通信インタフェース320は、制御信号またはフィードバック信号をコンソールユニット106から受けるように構成されてもよい。更に、通信インタフェース320は、有線通信または無線通信を容易にしてもよい。例えば、通信インタフェース320は、ハードワイヤード接続を介して電気信号をコンソールユニット106へ送信してもよい。あるいは、通信インタフェース320は、周知の無線データ送信プロトコルを使用して無線周波数(RF)信号などの無線信号を送ってもよい。
デジタルプロセッサ314に対して同様に結合されるイメージセンサ322は、画像データのフレームを取り込むように構成されている。イメージセンサ322は、相補型金属酸化膜半導体(CMOS)イメージセンサアレイまたは電荷結合素子(CCD)イメージセンサアレイなどの電子画像センサアレイを含む。例えば、イメージセンサ322は、画像データのフレームを取り込むために320×240のピクセル配列を含んでもよい。しかしながら、他の実施形態のイメージセンサ322は、更に低いあるいは更に高い分解能を伴って画像データのフレームを取り込むために更に小さいあるいは大きいピクセル配列を含んでもよい。図示の実施形態において、イメージセンサ322は光学レンズ326と併せて使用される。しかしながら、他の実施形態は、レンズ326を省いてもよく、あるいは、複数のレンズを実装してもよい。
図示の実施形態において、ナビゲーションエンジン324はIC330上でイメージセンサ322と一体である。他の実施形態において、ナビゲーションエンジン324は、一部または全体がデジタルプロセッサ314と一体であってもよい。更に他の実施形態において、ナビゲーションエンジン324は、一部または全体がコンソールユニット106内に組み込まれてもよい。一般に、ナビゲーションエンジン324は、イメージセンサ322によって取り込まれる画像データのフレームを処理することにより、取り込み画像フレーム内の撮像された表示スクリーンを使用して手持ち式コントローラユニット102に関する現在の位置データを計算して出力する。このプロセス中、ナビゲーションエンジン324は、取り込み画像フレーム内の撮像された表示スクリーンの位置を突き止めて撮像された表示スクリーンの位置情報を抽出し、その後、撮像された表示スクリーンの位置情報を使用して手持ち式コントローラユニット102の相対的な位置を計算することにより、手持ち式コントローラユニットの計算された相対的位置に関する位置データを生成することを含む演算を実行する。
幾つかの実施形態では、図4に示されるように、ナビゲーションエンジン324は、取り込み画像フレーム412A内における撮像された表示スクリーン410を、取り込み画像フレームの各ピクセル値、例えば各ピクセルにおける輝度値を閾値と比較することによって見つける。結果として得られる画像フレーム412Bは、撮像された表示スクリーン410を表わす閾値化に起因する四辺形輪郭414によって画定される明るいあるいは暗い四辺形領域413を有している。一例として、四辺形輪郭414は、表示スクリーン108に対する手持ち式コントローラユニット102の相対的位置に応じて、台形輪郭となる場合がある。
この手法の根拠は、取り込み画像フレーム内の撮像された表示スクリーンの内側の領域が殆どの場合に撮像された表示スクリーンの外側の領域よりも明るくなり得るということである。したがって、取り込み画像フレームのピクセル値を閾値化することにより、撮像された表示スクリーンの内側の領域を特定することができる。その結果、撮像された表示スクリーンが取り込み画像内で見つけられる。取り込み画像フレーム内の特定された四辺形領域の輪郭は、その後、撮像された表示スクリーンの位置情報を抽出するために使用される。一実施形態において、撮像された表示スクリーンの抽出される位置情報は、座標系の中心が取り込み画像フレーム内の所定の点となる取り込み画像フレームに基づく直交座標系の座標によって表すことのできる特定された四辺形輪郭の角(コーナ)の位置、例えば取り込み画像フレームの左上角の位置を含む。特定された四辺形輪郭の角は、特定された四辺形領域の辺の交点または縁部を使用して見つけられてもよい。
他の実施形態では、図5に示されるように、ナビゲーションエンジン324は、均等色を有する四辺形フレーム516を探すことによって取り込み画像フレーム512A内において撮像された表示スクリーン510を見つける。四辺形フレーム516は、結果として得られる画像フレーム512B内に示されるように、外側四辺形輪郭518と内側四辺形輪郭520とを含む。内側四辺形輪郭520は、取り込み画像フレーム512A内の撮像された表示スクリーン510の輪郭を表わしている。
この手法の根拠は、ディスプレイ装置が一般に表示スクリーンを取り囲む長方形フレームを有しているということである。したがって、長方形フレームの内側輪郭は表示スクリーンの輪郭に相当する。長方形フレームは、通常、黒、茶、あるいは、何らかの他の均等色である。したがって、長方形または他の四辺形フレームを取り込み画像フレーム内で見つけることができる場合には、長方形または四辺形フレームの内側輪郭を使用して、取り込み画像フレーム内の撮像された表示スクリーンを特定することができる。取り込み画像フレーム内における四辺形フレームの内側輪郭は、その後、撮像された表示スクリーンの位置情報を抽出するために使用される。一実施形態において、撮像された表示スクリーンの抽出された位置情報は、取り込み画像フレームに基づく直交座標系の座標によって表すことのできる四辺形フレームの内側輪郭の角の位置を含む。四辺形フレームの内側輪郭の角は、四辺形フレームの内側輪郭の辺の交点を使用して見つけられてもよい。
他の実施形態では、図6に示されるように、ナビゲーションエンジン324は、ドミナントカラー(支配色)を有する四辺形領域613、例えば主に青色である四辺形領域を探し出すことにより取り込み画像フレーム612A内の撮像された表示スクリーン610を見つける。結果として得られる画像フレーム612B内のドミナントカラーを有する四辺形領域613の輪郭614は、取り込み画像フレーム612A内の撮像された表示スクリーン610を表わしている。
この手法の根拠は、取り込み画像フレーム内の撮像された表示スクリーンが時としてドミナントカラーを有する画像を含むということである。したがって、ドミナントカラーを有する四辺形領域を探すことによって、撮像された表示スクリーンの内側の領域を特定することができる。その結果、撮像された表示スクリーンが取り込み画像内で見つけられる。取り込み画像フレーム内の特定された四辺形輪郭は、その後、撮像された表示スクリーンの位置情報を抽出するために使用される。一実施形態において、撮像された表示スクリーンの抽出される位置情報は、取り込み画像フレームに基づく直交座標系の座標によって表すことのできる特定された四辺形輪郭の角の位置を含む。特定された四辺形輪郭の角は、特定された四辺形輪郭の辺の交点を使用して見つけられてもよい。
他の実施形態では、図7に示されるように、ナビゲーションエンジン324は、基準画像711に類似する取り込み画像フレーム内の四辺形領域を探し出すことによって取り込み画像フレーム712A内の撮像された表示スクリーン710を見つける。基準画像711は、ディスプレイ装置104の表示スクリーン108上に現在表示されている画像である。基準画像711は、表示スクリーン108上に表示される画像の低分解能バージョンであってもよい。この実施において、取り込み画像フレームの分解能は、画像フレーム712Bに示されるように、基準画像711の同じ低分解能に変換することができる。幾つかの実施形態において、基準画像711は、ナビゲーションエンジン324によって使用されるためにコンソールユニット106から手持ち式コントローラユニット102へ送信される。他の実施形態では、コンソールユニットと手持ち式コントローラユニット102との間の接続が十分な帯域幅を有すると仮定すると、取り込み画像フレーム712Aは、コンソールユニットにあるナビゲーションエンジン324によって使用されるためにコンソールユニット106へ送信される。その後、取り込み画像フレーム712Bは、撮像された表示スクリーン710を表わす画像フレーム内の四辺形領域713を見つけるために基準画像711と比較される。結果として得られる画像フレーム712C内の四辺形領域713の輪郭714は、取り込み画像フレーム712A内の撮像された表示スクリーン710の輪郭を表わしている。
この手法の根拠は、表示スクリーン108上の画像を使用して取り込み画像フレーム内の撮像された表示スクリーンを四辺形領域として見つけることができるということである。その後、結果として得られる画像フレーム内の特定された四辺形領域の輪郭は、撮像された表示スクリーンの位置情報を抽出するために使用される。一実施形態において、撮像された表示スクリーンの抽出された位置情報は、取り込み画像フレームに基づく直交座標系の座標によって表すことのできる特定された四辺形輪郭の角の位置を含む。特定された四辺形輪郭の角は、特定された四辺形輪郭の辺の交点を使用して見つけられてもよい。
幾つかの実施形態において、ナビゲーションエンジン324は、表示スクリーンのための共通のアスペクト比を使用して、撮像された表示スクリーンまたは撮像された表示スクリーンの輪郭として特定された四辺形領域または輪郭を見つけ及び/又は検証してもよい。一例として、ナビゲーションエンジン324は、画像データの取り込まれたフレーム内で見つけられる四辺形領域または輪郭がテレビおよびコンピュータスクリーンにおいて一般的な4:3または16:9のアスペクト比を有しているかどうかを決定してもよい。
幾つかの実施形態において、ナビゲーションエンジン324は、前述したプロセスのうちの複数を使用して、画像データのフレーム内の撮像された表示スクリーンを見つけてもよい。一例として、ナビゲーションエンジン324は、表示スクリーン108上に現在表示される画像に応じて、1つのプロセスから他のプロセスへと動的に切り換わってもよい。他の例として、ナビゲーションエンジン324は、取り込み画像フレーム内の撮像された表示スクリーンを見つけるための前のプロセスの有効性に応じて、1つのプロセスから他のプロセスへと切り換わってもよい。
幾つかの実施形態において、ナビゲーションエンジン324は、利用可能な情報を使用して、取り込み画像フレーム内の撮像された表示スクリーンの欠けている情報を推定してもよい。一例として、取り込み画像フレームは、撮像された表示スクリーンの角が取り込み画像フレームから欠けているように、撮像された表示スクリーンの一部だけを含んでもよい。そのような状況において、ナビゲーションエンジン324は、取り込み画像フレーム内の特定された表示スクリーンの3つの他の角及び/又は辺の位置を使用して、撮像された表示スクリーンの欠けている角の位置を推定することができる。このようにして、撮像された表示スクリーンの欠けている角の推定された位置を計算することができる。
取り込み画像フレーム内の撮像された表示スクリーンが見つけられ且つ撮像された表示スクリーンの位置情報が抽出された後、ナビゲーションエンジン324は、撮像された表示スクリーンの位置情報を使用して、表示スクリーン108に対する手持ち式コントローラユニット102の位置を計算する。幾つかの実施形態において、撮像された表示スクリーンの輪郭だけ及び/又は取り込み画像フレーム内の撮像された表示スクリーンの角の位置が、手持ち式コントローラユニット102の相対的な位置を計算するために使用される。表示スクリーン108に対する手持ち式コントローラユニット102の位置は、従来の数学的計算を適用し且つ本明細書中で説明される概念を使用することによって、撮像された表示スクリーンの位置情報から得ることができる。あるいは、撮像された表示スクリーンの4つの角の座標を使用して手持ち式コントローラユニット102の相対的位置を決定するためにルックアップテーブルを使用することができる。前述したように、手持ち式コントローラユニット102の相対的な位置としては、表示スクリーン108から手持ち式コントローラユニット102までの距離、表示スクリーンの中央からの手持ち式コントローラユニットの横方向距離、表示スクリーンに対する手持ち式コントローラユニットの角度、および、表示スクリーンに対する手持ち式コントローラユニットの回転方向が挙げられるが、これらに限定されない。結果として、ナビゲーションエンジン324は、手持ち式コントローラユニット102の現在の相対的位置に関する情報を含む位置データを生成する。
幾つかの実施形態において、ナビゲーションエンジン324は、取り込み画像フレームの低分解能バージョンを使用してシーンベースナビゲーションを行なってもよい。シーンベースナビゲーションは、コンピュータマウス用途で一般に使用される従来の画像相関を使用して行なわれる。一例として、手持ち式コントローラユニット102のイメージセンサ322は、低分解能画像フレームを取り込むために32×32ピクセル配列にサブウインドウ表示することができ、その後、低分解能画像フレームは、手持ち式コントローラユニット102の動きを追跡するために画像相関することができる。これらの実施形態において、シーンベースナビゲーションは、手持ち式コントローラユニット102の殆どの追跡において行なうことができ、一方、スクリーンベースナビゲーションは、再較正のために控えめに使用することができる。シーンベースナビゲーションはスクリーンベースナビゲーション形態よりも計算が面倒でないため、手持ち式コントローラユニット102の殆どの追跡に関してシーンベースナビゲーション形態を使用すると、電力がかなり節約される。
図8のプロセスフローチャートを参照して、入力装置を追跡するための本発明の一実施形態に係る方法について説明する。ブロック802では、入力装置を使用して、画像データのフレーム内の表示スクリーンの少なくとも一部が電子的に取り込まれる。次に、ブロック804において、画像データのフレーム内の表示スクリーンの位置情報が抽出される。次に、ブロック806では、画像データのフレーム内の表示スクリーンの位置情報を使用して、表示スクリーンに対する入力装置の相対的な位置が決定される。
本発明の特定の実施形態を説明して図示してきたが、本発明は、そのように説明されて図示された部分の特定の形態または配置に限定されるべきではない。本発明の範囲は、本明細書に添付の特許請求の範囲およびそれらの等価物によって定義されなければならない。
本発明の一実施形態に係る光学ナビゲーションシステムを示す図である。 本発明の一実施形態に係る、光学ナビゲーションシステムの手持ち式コントローラユニットがシステムの表示スクリーンに対して更に近づきあるいは更に離れて移動されるときの取り込み画像フレーム内の撮像された表示スクリーンを示す図である。 本発明の一実施形態に係る、手持ち式コントローラユニットが表示スクリーンから所定距離だけ離れて横方向に移動されるときの取り込み画像フレーム内の撮像された表示スクリーンを示す図である。 本発明の一実施形態に係る、表示スクリーンに対する手持ち式コントローラユニットの角度が変えられるように手持ち式コントローラユニットが移動されるときの取り込み画像フレーム内の撮像された表示スクリーンを示す図である。 本発明の一実施形態に係る図1の光学ナビゲーションシステムの手持ち式コントローラユニットのブロック図である。 本発明の幾つかの実施形態に係る、閾値化によって取り込み画像フレーム内の撮像された表示スクリーンを見つけるプロセスを示す図である。 本発明の他の実施形態に係る、画像フレーム内でディスプレイ装置のフレームを探すことによって取り込み画像フレーム内の撮像された表示スクリーンを見つけるプロセスを示す図である。 本発明の他の実施形態に係る、画像フレーム内でドミナントカラーを有する四辺形領域を探すことによって取り込み画像フレーム内の撮像された表示スクリーンを見つけるプロセスを示す図である。 本発明の他の実施形態に係る、画像フレームと基準画像とを比較することによって取り込み画像フレーム内の撮像された表示スクリーンを見つけるプロセスを示す図である。 入力装置を追跡するための本発明の一実施形態に係る方法のプロセスフローチャートである。
符号の説明
100:光学ナビゲーションシステム
102:手持ち式コントローラユニット
104:ディスプレイ装置
106:コンソールユニット
108:表示スクリーン

Claims (20)

  1. 入力装置を追跡するための方法であって、
    前記入力装置を使用して画像データのフレーム内の表示スクリーンの少なくとも一部を電子的に取り込むステップと、
    画像データの前記フレーム内の前記表示スクリーンの位置情報を抽出するステップと、
    画像データの前記フレーム内の前記表示スクリーンの前記位置情報を使用して、前記表示スクリーンに対する前記入力装置の相対的位置を決定するステップと、
    を含む方法。
  2. 前記抽出するステップが、画像データの前記フレーム内で前記表示スクリーンの複数の角の位置を見つけるステップを含み、前記決定するステップが、画像データの前記フレーム内の前記表示スクリーンの前記角の位置を使用して前記入力装置の相対的位置を決定するステップを含む、請求項1に記載の方法。
  3. 前記抽出するステップが、画像データの1つ以上の前記フレーム内の前記表示スクリーンの欠けている角の推定位置を計算するステップを更に含む、請求項2に記載の方法。
  4. 前記抽出するステップが、画像データの前記フレームのピクセル値を閾値化して、前記画像フレーム内の前記表示スクリーンを見つけるステップを含む、請求項1に記載の方法。
  5. 前記抽出するステップが、画像データの前記フレーム内で均等色を有する四辺形フレームを探して、画像データの前記フレーム内の前記表示スクリーンを見つけるステップを含む、請求項1に記載の方法。
  6. 前記抽出するステップが、画像データの前記フレーム内でドミナントカラーを有する四辺形領域を探して、画像データの前記フレーム内の前記表示スクリーンを見つけるステップを含む、請求項1に記載の方法。
  7. 前記抽出するステップが、画像データの前記フレーム内で基準画像パターンに類似する画像パターンを有する四辺形領域を探して、画像データの前記フレーム内の前記表示スクリーンを見つけるステップを含み、前記基準画像パターンは前記表示スクリーン上に表示される画像に関連付けられている、請求項1に記載の方法。
  8. 前記入力装置の相対的位置を決定するために、画像データの前記フレームの一部に対してシーンベースナビゲーションを実行するステップを更に備える、請求項1に記載の方法。
  9. 前記実行するステップが、画像データの前記フレームの一部をダウンサンプリングして、前記シーンベースナビゲーションのために必要な計算量を減らすステップを含む、請求項8に記載の方法。
  10. 光学ナビゲーションのためのシステムにおいて、
    画像データのフレームを取り込むように構成されたイメージセンサアレイを含む入力装置であって、画像データの前記フレームは表示スクリーンの少なくとも一部を含む、入力装置と、
    画像データの前記フレームを処理するために前記イメージセンサに対して動作可能に接続されたナビゲーションエンジンであって、該ナビゲーションエンジンは、画像データの前記フレーム内の前記表示スクリーンの位置情報を抽出するように構成され、前記ナビゲーションエンジンは、画像データの前記フレーム内の前記表示スクリーンの前記位置情報を使用して前記表示スクリーンに対する前記入力装置の相対的位置を決定するように更に構成されている、ナビゲーションエンジンと、
    を備えているシステム。
  11. 前記ナビゲーションエンジンが、画像データの前記フレーム内で前記表示スクリーンの複数の角の位置を見つけて、画像データの前記フレーム内の前記表示スクリーンの前記位置情報を抽出するとともに、画像データの前記フレーム内の前記表示スクリーンの前記角の位置を使用して前記入力装置の相対的位置を決定するように構成されている、請求項10に記載のシステム。
  12. 前記ナビゲーションエンジンが、1つ以上の前記画像フレーム内の前記表示スクリーンの欠けている角の推定位置を計算して、画像データの前記フレーム内の前記表示スクリーンの前記位置情報を抽出するように構成されている、請求項11に記載のシステム。
  13. 前記ナビゲーションエンジンが、画像データの前記フレームのピクセル値を閾値化して、画像データの前記フレーム内の前記表示スクリーンを見つけるように構成されている、請求項10に記載のシステム。
  14. 前記ナビゲーションエンジンが、画像データの前記フレーム内で均等色を有する四辺形フレームを探して、画像データの前記フレーム内の前記表示スクリーンを見つけるように構成されている、請求項10に記載のシステム。
  15. 前記ナビゲーションエンジンが、画像データの前記フレーム内でドミナントカラーを有する四辺形領域を探して、画像データの前記フレーム内の前記表示スクリーンを見つけるように構成されている、請求項10に記載のシステム。
  16. 前記ナビゲーションエンジンが、画像データの前記フレーム内で基準画像パターンに類似する画像パターンを有する四辺形領域を探して、画像データの前記フレーム内の前記表示スクリーンを見つけるように構成され、前記基準画像パターンは前記表示スクリーン上に表示される画像に関連付けられている、請求項10に記載のシステム。
  17. 前記ナビゲーションエンジンが、画像データの前記フレームの一部に対してシーンベースナビゲーションを実行して前記入力装置の相対的位置を決定するように構成されている、請求項10に記載のシステム。
  18. 入力装置を追跡するための方法であって、
    前記入力装置を使用して画像データのフレーム内の撮像された表示スクリーンとしての表示スクリーンの少なくとも一部を電子的に取り込むステップと、
    画像データの前記フレーム内の前記撮像された表示スクリーンの位置情報を抽出するステップと、
    画像データの前記フレーム内の前記撮像された表示スクリーンの前記位置情報を使用して、前記表示スクリーンに対する前記入力装置の相対的位置を決定するステップと、
    を含む方法。
  19. 前記抽出するステップが、画像データの前記フレーム内で前記撮像された表示スクリーンの複数の角の位置を見つけるステップを含み、前記決定するステップが、画像データの前記フレーム内の前記撮像された表示スクリーンの前記角の位置を使用して前記入力装置の相対的位置を決定するステップを含む、請求項18に記載の方法。
  20. 前記抽出するステップが、画像データの1つ以上の前記フレーム内の前記撮像された表示スクリーンの欠けている角の推定位置を計算するステップを更に含む、請求項2に記載の方法。
JP2008080676A 2007-03-26 2008-03-26 画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法 Pending JP2009064409A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/691,464 US8438480B2 (en) 2007-03-26 2007-03-26 System and method for tracking an input device using a display screen in captured frames of image data

Publications (1)

Publication Number Publication Date
JP2009064409A true JP2009064409A (ja) 2009-03-26

Family

ID=39328022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008080676A Pending JP2009064409A (ja) 2007-03-26 2008-03-26 画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法

Country Status (3)

Country Link
US (1) US8438480B2 (ja)
JP (1) JP2009064409A (ja)
GB (1) GB2448034B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102929436A (zh) * 2011-08-12 2013-02-13 东友科技股份有限公司 碰触感应操作系统及方法
KR101409138B1 (ko) * 2012-12-05 2014-06-19 한국과학기술원 주 스크린에서 공간 내 특정 사용자의 스크린을 사용자의 위치 정보와 함께 표시하는 방법 및 시스템
JP2016513833A (ja) * 2013-03-04 2016-05-16 マイクロソフト テクノロジー ライセンシング,エルエルシー デバイスへの特定のオブジェクト位置の提供
JP2016126762A (ja) * 2015-01-08 2016-07-11 原相科技股▲ふん▼有限公司 相対位置判定方法、ディスプレイ制御方法、及び当該方法を適用するシステム
JP2021026333A (ja) * 2019-07-31 2021-02-22 株式会社リコー 位置指示装置、表示システム、位置指示方法、及びプログラム
JP2021524120A (ja) * 2018-05-13 2021-09-09 シンデン・テクノロジー・リミテッド ディスプレイ検出装置、そのための方法、およびコンピュータ読み取り可能媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4281819B2 (ja) * 2007-04-02 2009-06-17 ソニー株式会社 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法
JP4416017B2 (ja) 2007-07-18 2010-02-17 ソニー株式会社 撮像システム
US8682023B2 (en) * 2008-04-16 2014-03-25 Emil Stefanov Dotchevski Interactive display recognition devices and related methods and systems for implementation thereof
US8497902B2 (en) * 2009-12-18 2013-07-30 Sony Computer Entertainment Inc. System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof
US8781152B2 (en) * 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device
KR101890140B1 (ko) 2012-05-07 2018-09-28 삼성전자주식회사 카메라 장치를 이용하여 디스플레이 장치를 제어하는 방법 및 이를 적용한 모바일 장치, 디스플레이 장치, 그리고 시스템
CN104991684A (zh) * 2015-07-23 2015-10-21 京东方科技集团股份有限公司 触控设备及其工作方法
CN106331809A (zh) * 2016-08-31 2017-01-11 北京酷云互动科技有限公司 电视控制方法和电视控制系统
USD826974S1 (en) 2017-02-03 2018-08-28 Nanolumens Acquisition, Inc. Display screen or portion thereof with graphical user interface

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325069A (ja) * 2000-03-07 2001-11-22 Nikon Gijutsu Kobo:Kk 位置検出装置およびその方法
JP2002298145A (ja) * 2001-04-02 2002-10-11 Nikon Gijutsu Kobo:Kk 位置検出装置及び姿勢検出装置
JP2003280813A (ja) * 2002-03-25 2003-10-02 Ejikun Giken:Kk ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体
JP2004171414A (ja) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> 3次元位置姿勢入力装置、方法、プログラムおよびプログラムを記録した媒体
WO2005096130A1 (ja) * 2004-03-31 2005-10-13 Tamura Corporation 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
WO2005096129A1 (ja) * 2004-03-31 2005-10-13 Tamura Corporation 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
WO2006076557A2 (en) * 2005-01-12 2006-07-20 Thinkoptics, Inc. Handheld vision based absolute pointing system
JP2006285475A (ja) * 2005-03-31 2006-10-19 Mimi:Kk デジタルカメラ機能を利用した多次元的デジタル画像複合処理インターフェイス技術
JP2006317441A (ja) * 2005-05-10 2006-11-24 Pixart Imaging Inc イメージディスプレイ及びイメージセンサを含む定位システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6513717B2 (en) * 2000-12-07 2003-02-04 Digimarc Corporation Integrated cursor control and scanner device
AUPP400998A0 (en) 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP2000163594A (ja) 1998-11-30 2000-06-16 Canon Inc 画像パタ―ン検出方法及び装置
GB9902235D0 (en) * 1999-02-01 1999-03-24 Emuse Corp Interactive system
WO2000060534A1 (en) 1999-03-31 2000-10-12 Koninklijke Philips Electronics N.V. Remote control for display apparatus
US6275214B1 (en) * 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
EP1456806B1 (en) 2001-12-21 2005-08-17 BRITISH TELECOMMUNICATIONS public limited company Device and method for calculating a location on a display
DE10228103A1 (de) 2002-06-24 2004-01-15 Bayer Cropscience Ag Fungizide Wirkstoffkombinationen
JP3602519B2 (ja) 2002-07-12 2004-12-15 コナミ株式会社 ビデオゲーム装置、画像処理方法及びプログラム
JP3867205B2 (ja) 2002-08-30 2007-01-10 カシオ計算機株式会社 指示位置検出装置、及び指示位置検出システム、並びに指示位置検出方法
AU2003223166A1 (en) 2003-02-25 2004-09-28 Chen, Chung-Chin Photographic type pointer postioning device
US7310441B2 (en) 2003-04-11 2007-12-18 Intel Corporation Method and apparatus for three-dimensional tracking of infra-red beacons
US7563748B2 (en) 2003-06-23 2009-07-21 Cognis Ip Management Gmbh Alcohol alkoxylate carriers for pesticide active ingredients
WO2005062273A1 (en) 2003-12-18 2005-07-07 Philips Intellectual Property & Standards Gmbh Method and system for control of a device
US7542072B2 (en) 2004-07-28 2009-06-02 The University Of Maryland Device using a camera and light polarization for the remote displacement of a cursor on a display
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
US7864159B2 (en) * 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
JP5058991B2 (ja) 2005-06-29 2012-10-24 コンプメディクス リミテッド 導電ブリッジを備えるセンサ・アセンブリ
EP1915664A2 (en) * 2005-08-11 2008-04-30 Koninklijke Philips Electronics N.V. Method of determining the motion of a pointing device
WO2007020549A2 (en) * 2005-08-12 2007-02-22 Koninklijke Philips Electronics N.V. Method of calibrating a control system for controlling a device
US7808478B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Autonomous handheld device having a drawing tool
JP2007086995A (ja) 2005-09-21 2007-04-05 Sharp Corp ポインティング装置
EP2256596A1 (en) 2006-07-12 2010-12-01 STMicroelectronics (Research & Development) Limited Control Device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325069A (ja) * 2000-03-07 2001-11-22 Nikon Gijutsu Kobo:Kk 位置検出装置およびその方法
JP2002298145A (ja) * 2001-04-02 2002-10-11 Nikon Gijutsu Kobo:Kk 位置検出装置及び姿勢検出装置
JP2003280813A (ja) * 2002-03-25 2003-10-02 Ejikun Giken:Kk ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体
JP2004171414A (ja) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> 3次元位置姿勢入力装置、方法、プログラムおよびプログラムを記録した媒体
WO2005096130A1 (ja) * 2004-03-31 2005-10-13 Tamura Corporation 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
WO2005096129A1 (ja) * 2004-03-31 2005-10-13 Tamura Corporation 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
WO2006076557A2 (en) * 2005-01-12 2006-07-20 Thinkoptics, Inc. Handheld vision based absolute pointing system
JP2008527572A (ja) * 2005-01-12 2008-07-24 スィンクオプティクス インコーポレイテッド ハンドヘルドビジョン型絶対ポインティングシステム
JP2006285475A (ja) * 2005-03-31 2006-10-19 Mimi:Kk デジタルカメラ機能を利用した多次元的デジタル画像複合処理インターフェイス技術
JP2006317441A (ja) * 2005-05-10 2006-11-24 Pixart Imaging Inc イメージディスプレイ及びイメージセンサを含む定位システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102929436A (zh) * 2011-08-12 2013-02-13 东友科技股份有限公司 碰触感应操作系统及方法
CN102929436B (zh) * 2011-08-12 2015-07-01 东友科技股份有限公司 碰触感应操作系统及方法
KR101409138B1 (ko) * 2012-12-05 2014-06-19 한국과학기술원 주 스크린에서 공간 내 특정 사용자의 스크린을 사용자의 위치 정보와 함께 표시하는 방법 및 시스템
JP2016513833A (ja) * 2013-03-04 2016-05-16 マイクロソフト テクノロジー ライセンシング,エルエルシー デバイスへの特定のオブジェクト位置の提供
US10139925B2 (en) 2013-03-04 2018-11-27 Microsoft Technology Licensing, Llc Causing specific location of an object provided to a device
JP2016126762A (ja) * 2015-01-08 2016-07-11 原相科技股▲ふん▼有限公司 相対位置判定方法、ディスプレイ制御方法、及び当該方法を適用するシステム
JP2021524120A (ja) * 2018-05-13 2021-09-09 シンデン・テクノロジー・リミテッド ディスプレイ検出装置、そのための方法、およびコンピュータ読み取り可能媒体
JP2021026333A (ja) * 2019-07-31 2021-02-22 株式会社リコー 位置指示装置、表示システム、位置指示方法、及びプログラム
JP7371382B2 (ja) 2019-07-31 2023-10-31 株式会社リコー 位置指示装置、表示システム、位置指示方法、及びプログラム

Also Published As

Publication number Publication date
GB2448034B (en) 2009-08-12
US20080239081A1 (en) 2008-10-02
GB2448034A (en) 2008-10-01
US8438480B2 (en) 2013-05-07
GB0804636D0 (en) 2008-04-16

Similar Documents

Publication Publication Date Title
JP2009064409A (ja) 画像データの取り込まれたフレーム内の表示スクリーンを使用して入力装置を追跡するためのシステムおよび方法
JP4990211B2 (ja) 光学ナビゲーションのために画像データのフレーム内の特徴クラスタにラベル付けするシステムおよび方法
JP4927021B2 (ja) 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム
US6275214B1 (en) Computer presentation system and method with optical tracking of wireless pointer
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9367176B2 (en) Operation detection device, operation detection method and projector
EP2843625B1 (en) Method for synthesizing images and electronic device thereof
US11328493B2 (en) Augmented reality screen system and augmented reality screen display method
KR20130004357A (ko) 컴퓨팅 디바이스 인터페이스
KR20150028181A (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
US20080244466A1 (en) System and method for interfacing with information on a display screen
US20120219228A1 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
TW201514830A (zh) 互動式操作方法
US20120219179A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8718325B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US7853080B2 (en) System and method for identifying and labeling cluster pixels in a frame of image data for optical navigation
US20180196530A1 (en) Method for controlling cursor, device for controlling cursor and display apparatus
CN107797648B (zh) 虚拟触摸系统和图像识别定位方法、计算机可读存储介质
CN110784690A (zh) 投影系统及投影方法
JP2007086995A (ja) ポインティング装置
JP2016177491A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JPWO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
JP2001166881A (ja) ポインティング装置及びその方法
US8159459B2 (en) Coordinate positioning system and method with in-the-air positioning function
US20130271371A1 (en) Accurate extended pointing apparatus and method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405