JP4437748B2 - プロジェクタによる位置および向きの読み取り - Google Patents

プロジェクタによる位置および向きの読み取り Download PDF

Info

Publication number
JP4437748B2
JP4437748B2 JP2004567159A JP2004567159A JP4437748B2 JP 4437748 B2 JP4437748 B2 JP 4437748B2 JP 2004567159 A JP2004567159 A JP 2004567159A JP 2004567159 A JP2004567159 A JP 2004567159A JP 4437748 B2 JP4437748 B2 JP 4437748B2
Authority
JP
Japan
Prior art keywords
projector
orientation
camera
pattern
flat surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004567159A
Other languages
English (en)
Other versions
JP2006513504A (ja
Inventor
ベアズリィー、ポール、エイ
ラスカー、ラメッシュ
ヴァイシュ、ヴァイブハヴ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2006513504A publication Critical patent/JP2006513504A/ja
Application granted granted Critical
Publication of JP4437748B2 publication Critical patent/JP4437748B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、包括的にはコンピュータビジョンに関し、特に、投影された画像を用いて物体の位置および向きを求めることに関する。
位置センサは、物体の位置および向きを求めることが必要な多くの応用形態にとって有用である。以下、「位置センサ」という用語は、位置および向きの両方のセンサを意味する。位置は、3次元座標枠における物体の場所であり、物体の向きは、その座標枠に対するその物体の回転である。
応用形態の一例では、位置センサを、3D走査に使用されている移動カメラに取り付けることができる。すると、カメラの位置および向きが分かり、移動カメラによって取得される画像からシーンの3D再構成を生成するのに役立つ。同様に、位置センサをプロジェクタに取り付けて、表面または物体上への画像の正確な投影に役立てることができる。また、位置センサを道具に取り付けて、道具を部品または作業面に対して正確に位置決めすることもできる。ユーザが道具を操作している場合、位置センサにより、例えば遠隔操作において、あるいはコンピュータ支援手術のために、触覚等のフィードバックが可能となる。また、位置センサは、車両や人のような移動物体の場所を追跡するためにも使用可能である。
従来技術の応用形態において位置センサが使用されてきた1つの方法は、環境内の既知の位置にLED等の視覚マーカまたはアクティブエミッタを設置することである。それらの応用形態では、位置センサは、それ自身の位置および向きを推論するためにマーカまたはエミッタを観測するカメラであってもよい。他の応用形態として、光の代わりに超音波を使用するものがある。別法として、視覚マーカまたはアクティブエミッタを対象物体に取り付けて、物体の位置および向きを、物体を観測するカメラを用いて直接求めることができる。
環境内でLEDエミッタを使用するシステムが、Welch等による「The HiBall Tracker: High-Performance Wide-Area Tracking for Virtual and Augmented Environments」(Proc. of the ACM Symposium on Virtual Reality Software and Technology, 1999)に記載されている。環境内で超音波エミッタを使用するシステムとして、米国マサチューセッツ州BurlingtonのIntersense Corporationから販売されているIS−600モーショントラッカ(motion tracker)がある。
従来技術の手法はいくつかの制限を有する。環境が広いか、または到達困難な場所を含む場合、環境を変えるのは困難なことがある。また、環境に機器を設置した後に較正手続きを行わなければならない。したがって、このようなタイプのシステムは、固定作業空間を有する固定設備となる傾向があり、新たな設定において容易にあるいは迅速に配備可能ではない。マーカまたはLED等のエミッタを物体に取り付けることを伴うシステムは通常、物体の表面にわたって多数のエミッタを必要とする。マーカまたはエミッタの配置を求めるために較正手続きが使用される。小さい物体に多数のマーカまたはエミッタを取り付けるのは問題がある。また、物体がハンドヘルド型である場合にも、ユーザはマーカまたはエミッタを妨げないグリップを採用しなければならないので、問題となる。
これらの問題は電磁センサによって克服することができるが、このようなシステムはかなり複雑かつ高価となり、較正が依然として問題として存在し続ける。従来の技法のほとんどは比較的静的な設備を必要とし、このためその場その場で動的に変化する環境においてこのようなシステムを使用することが困難となる。電磁システムの一例として、米国バーモント州ColchesterのPolhemus Inc.から販売されているFastrak(登録商標)というモーショントラッキング製品がある。
このように、物体のための位置・向きセンサであって、環境を変更することを必要とせずに機能し、複雑な較正を要しないものが必要とされている。また、コンパクトな位置・向きセンサ、すなわち、センサが、環境全体にわたって、または対象物体の表面全体にわたって分布したマーカまたはエミッタを必要としないものも必要とされている。ハンドヘルド型の物体に取り付けられた位置センサがコンパクトであることの利点として、ユーザは、位置センサを妨げずに、物体の一部に設けられたグリップを容易に採用することができることがある。
[発明の開示]
プロジェクタの位置および向きは、投影された画像から求められる。まず、カメラと平坦な表面の間のホモグラフィを求めることであって、カメラおよび平坦な表面は互いに固定した相対位置にある。
次に、既知のパターンは、既知の固有パラメータならびに未知の位置および向きを有するプロジェクタを用いて平坦な表面上に投影される。
カメラで既知のパターンの画像は取得され、ホモグラフィおよび固有パラメータを用いて画像からプロジェクタの位置および向きは求められる。
本発明は、本発明の好ましい実施形態についての以下の詳細な説明を添付図面とともに参照することで、より容易に明らかとなるであろう。
システムの構成
図1は、本発明による位置・向き読み取りシステム100を示している。システムは、固定カメラ110および可動プロジェクタ120を含む。カメラ110およびプロジェクタ120は両方とも、固定した平坦な(2D)表面130を見る。カメラと平坦な表面は、互いに固定した相対位置を有する。カメラおよびプロジェクタは表面の同じ側にあってもよい。または別法として、表面が透光性である場合には、カメラとプロジェクタは平坦な表面をはさんで反対側にあってもよい。
好ましい一実施形態において、カメラ110およびプロジェクタ120はディジタルデバイスである。A/Dコンバータを備えたアナログデバイスも可能である。
プロセッサ(CPU)140がカメラ110に接続される。プロセッサ140は、当技術分野で既知のようにメモリおよびI/Oポートを備える。プロセッサ140は、以下でさらに詳細に説明するような本発明による位置・向き読み取り方法300を実行することが可能である。
システムの動作
較正
図2に示すように、システム100の較正手続き200は2つの段階210〜220を有する。第2段階は任意である。第1段階210において、固定カメラ110を固定した平坦な表面130に対して較正することにより、カメラ110の画像平面の座標枠と、固定表面130のユークリッド(距離)座標枠の間のホモグラフィH211を求める。これは、固定表面130上の既知の位置の4点131、例えば、固定した平坦な表面130上の正方形の四隅が与えられれば、既知の幾何学的関係を用いて達成することができる。
ホモグラフィ211は、以下のように、カメラ110の座標枠を固定表面130の座標枠と関係づける。
2D表面上の対応する点Xの画像点xに対して、その関係は次の通りである。
x=HX
ここで、xおよびXは同次座標であり、Hはホモグラフィを記述する3×3行列である。対応する点{x,X}の4個のセット(i=1,...,4)が与えられると、上記の式は、ホモグラフィH211の配列要素に関して線形系を生成するので、Hについて解くことができる。
表面130の座標枠の全体的スケールが未知である場合、例えば、表面130上の4点131が正方形の隅であることは既知であるがその正方形のサイズが未知である場合、プロジェクタ120の位置および向きは、後続の処理において、未知のスケールを除いて決まる。これは、例えばシーンの3D走査のような多くの応用形態にとって十分である。シーンの3D走査では、目標は3D再構成を生成することであり、全体的スケールは重要でないことがある。
第2の任意段階220において、較正手続き200は、プロジェクタ120の固有パラメータIP221を求める。プロジェクタ120のようなピンホールデバイスの固有パラメータを求めることは既知のプロセスである。別法として、プロジェクタ120の固有パラメータは、以下でさらに詳細に説明するように、システム100の動作中に求めることができる。
位置および向きの読み取り
図3に示すように、位置読み取りシステム100は、プロジェクタ120および方法300を用いて物体の位置および向きを読み取るために使用可能である。
まず、カメラ110と平坦な表面130の間のホモグラフィ211を前述のように求める(310)。
次に、固有パラメータ221は既知であるが位置および向きは未知であるプロジェクタ120によって、既知パターン230を平坦な表面210上に投影する(320)。最低限、パターン230は、少なくとも3個の、同一直線上にない異なる点を含む。
次に、カメラ110が既知パターン230の画像331を取得し(330)、パターン230の特徴をプロジェクタ120の画像座標において測定する。
プロセス300の最終ステップ340において、ホモグラフィ211を用いて、画像331の座標枠から平坦な表面130の座標枠へパターンの特徴を変換する。
平坦な表面130上のパターン230の特徴の座標、およびプロジェクタの画像平面上のパターン特徴の対応する座標、ならびにプロジェクタの固有パラメータ221が与えられると、プロジェクタ120の位置および向きが決まる。本手法は、DeMenthon等による「Exact and Approximate Solutions of the Perspective-Three-Point Problem」(IEEE Trans. Pattern Analysis and Machine Intelligence, vol.14, no.11, pp.1100-1105, November 1992)に記載されている方法の一適応形態である。
DeMenthonの方法は、既知座標を有する物理的パターンを観測する、既知の固有パラメータを有するカメラの位置および向きを計算するためのものである。本発明では、その方法を、平面上にパターンを投影しているプロジェクタの場合に適応させ、座標枠が、平面を観測する固定カメラによって、投影パターンに課されている。
3点のみを用いる場合には位置および向きに複数の解があるが、これを処理して一意解を得るためのいくつかの既知の方法がある。例えば、デバイスが時間とともに移動する際の情報を統合することによるものや、3点の代わりに4個以上の点を使用することによるものがある。後者の手法は、投影されているパターンの完全な制御ができるので、システム100にとって直接的である。システム100のもう1つの利点として、投影されたパターンを必要に応じて動作中に適応させ、固定カメラ(複数可)にできるだけ良好なビューを提供することができることがある。
ピンホールプロジェクタとしてモデリングされ得るいかなるシステムも、投影を行うのに好適である。例えば、3つの異なる色のレーザポインタにおいて、相異なるビーム方向を有しビームがある同一点で交わる場合、あるいはビームは同一点で交わらないがその非共点条件を考慮に入れるための較正データを有する場合がある。
代替実施形態において、プロジェクタ210の固有パラメータ221は、システム100の動作中に求めることができる。この場合、パターン230は、プロジェクタ220の2つの異なる位置について投影される。この場合におけるパターンに対する最小限の要件は、一般の位置にある4個の異なる点、またはそれと等価なパターンがあることである。
プロジェクタの固有パラメータ
プロジェクタの固有パラメータは以下のように求めることができる。まず、ホモグラフィH211を用いて、平坦な表面130上の投影されたパターン特徴の座標を求める。次に、プロジェクタ120の画像平面とプロジェクタの第1位置P1に対する平坦な表面との間の第1ホモグラフィG1を求める。同様に、プロジェクタの第2位置P2について第2ホモグラフィG2を計算する。G1およびG2が与えられれば、Zhangによる「A flexible new technique for camera calibration」(IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000)に記載されているように、プロジェクタ120の固有パラメータ221を求めることができる。
その技法は、カメラの固有パラメータのために開発されたものであった。しかし、本発明者等はその技法を、プロジェクタの固有パラメータを求めるために適用する。
上記のシステム100の動作200は1個の固定カメラ110を使用する。プロジェクタ120が広い領域にわたって移動しているため、投影されるパターンが1個のカメラの視野の外へ移動する可能性が高い場合、複数の固定カメラを使用し、それぞれが固定した平坦な表面130の異なる部分を観測するようにしてもよい。この場合、固定カメラの較正は、各カメラの画像平面と、固定表面130の共通座標枠との間の複数のホモグラフィH1、H2等を求めることを必要とする。
また、複数の固定表面を設け、各表面が1つまたは複数の固定カメラによって観測されるようにしてもよい。この場合、プロジェクタ120は部屋の内部を移動していてもよく、天井、床、または壁が固定した平坦な表面を提供する。
広角または全方位プロジェクタが広い視野に対して複数の表面上に同時に投影している場合、プロジェクタ120の位置および向きをより高い精度で求めるために、すべての投影情報を同時に使用することができる。
実際の一応用形態では、プロジェクタ120は、対象物体160と固定的な関係にあってもよい。その場合、プロジェクタの位置および向きは、物体160の位置および向きを推論するために使用可能である。物体がそれ自身の座標枠を有している場合、プロジェクタと物体をもう1つの較正ステップで較正することができる。
例えば、物体160は第2の移動カメラであってもよい。そして、プロジェクタ120が、カメラ160の位置および向きを追跡することができる。これは、第2カメラ160が3D走査のために使用される場合に有益である。この応用形態では、第2カメラの推論された位置および向きを用いて、走査画像から3D再構成を求めることができる。
別法として、物体はもう1つのプロジェクタであってもよい。この応用形態では、第2プロジェクタは、第2プロジェクタの推論された位置および向きに従って環境内に画像を投影する。これは、仮想現実シーン、またはアクティブディスプレイ領域を増強するために有益である。
また、物体は道具であってもよく、道具の推論された位置および向きに応じたフィードバックをユーザに提供することができる。例えば、フィードバックは触覚型であってもよい。
もう1つの応用形態において、プロジェクタを物体に取り付けることができる。物体は、2Dにおいて移動しており、例えば自動車やロボットである。その場合、位置のみが重要であり、向きは重要でない。
以上、好ましい実施形態の例によって本発明を説明したが、種々の他の適応および変更を本発明の精神および範囲内において行うことができることが理解されるべきである。したがって、添付の請求項の目的は、本発明の真の精神および範囲内に含まれるすべてのそのような変形および変更を包含することである。
本発明による位置・向き読み取りシステムのブロック図である。 本発明による較正プロセスの流れ図である。 本発明による位置・向き読み取り方法の流れ図である。

Claims (25)

  1. プロジェクタの位置および向きを求める方法であって、
    前記プロジェクタはピンホールデバイスであり、
    互いに固定した相対位置にあるカメラと平坦な表面との間のホモグラフィを求めること、
    仕様データである既知の固有パラメータならびに未知の位置および向きを有するプロジェクタで前記平坦な表面上に少なくとも3個の同一直線上にない異なる点を投影して、パターンを形成すること、
    前記カメラで前記パターンの画像を取得し、前記パターンの特徴を前記プロジェクタの画像座標において測定すること、
    前記ホモグラフィおよび前記固有パラメータを用いて前記画像から測定した前記パターンの特徴を、前記画像の座標枠から前記平坦な表面の座標枠へ変換することにより、前記プロジェクタの位置および向きを求めること
    を含む方法であって、
    前記既知の固有パラメータは、
    前記カメラおよび前記ホモグラフィによって、前記平坦な表面上の前記パターンの特徴の座標を求めること、
    前記プロジェクタの第1位置P1に対して、前記プロジェクタの画像平面と前記平坦な表面との間の第1ホモグラフィG1を求めること、
    前記プロジェクタの第2位置P2に対して、前記プロジェクタの画像平面と前記平坦な表面との間の第2ホモグラフィG2を求めること、
    前記第1および第2ホモグラフィG1およびG2を用いて前記プロジェクタの前記固有パラメータを求めること
    を含む処理を行って求められるものである方法。
  2. 前記パターンは、一般的な位置にある少なくとも4個の異なる点を含み、
    前記プロジェクタの位置および向きを求めている間に、前記プロジェクタの異なる向きに対して既知のパターンの少なくとも2個の投影を形成し、当該少なくとも2個の投影の取得された画像を使用して、前記プロジェクタの前記固有パラメータを較正すること
    をさらに含む請求項1に記載の方法。
  3. 前記プロジェクタは全方位型であり、
    全方位パターンを投影すること
    をさらに含む請求項1に記載の方法。
  4. 前記プロジェクタは広角型であり、
    広い視野にわたって前記パターンを投影すること
    をさらに含む請求項1に記載の方法。
  5. 前記プロジェクタは可視光を使用する請求項1に記載の方法。
  6. 前記プロジェクタは赤外線を使用する請求項1に記載の方法。
  7. 複数の固定カメラが使用され、それによって、前記投影された既知のパターンの複数の画像を取得する請求項1に記載の方法。
  8. 複数の平坦な表面が使用され、各平坦な表面ごとに1個のカメラがある請求項に記載の方法。
  9. 複数の平坦な表面が使用され、各平坦な表面ごとに1個または複数のカメラがある請求項に記載の方法。
  10. 前記平坦な表面は部屋の天井であり、
    前記プロジェクタの複数の位置および向きを求める間、前記部屋内で前記プロジェクタを移動すること
    をさらに含む請求項1に記載の方法。
  11. 前記カメラおよび前記プロジェクタは前記平坦な表面の同じ側にある請求項1に記載の方法。
  12. 前記平坦な表面は透光性スクリーンであり、前記プロジェクタおよび固定カメラは該透光性スクリーンをはさんで反対側にある請求項1に記載の方法。
  13. 前記複数の平坦な表面上に同時に複数の既知のパターンを投影すること、
    すべての前記複数の投影された既知のパターンを同時に使用することによって前記プロジェクタの位置および向きを求めること
    をさらに含む請求項に記載の方法。
  14. 前記プロジェクタを物体に取り付け、該物体の位置および向きを推論するように、前記プロジェクタを使用すること
    をさらに含む請求項1に記載の方法。
  15. 前記プロジェクタの位置および向きは、前記物体の位置および向きと既知の物理的関係にある請求項14に記載の方法。
  16. 前記プロジェクタと前記物体の位置および向きの前記物理的関係は較正ステップにおいて較正される請求項14に記載の方法。
  17. 前記物体は第2カメラであり、
    前記第2カメラで走査画像を取得すること、
    前記第2カメラの推論された位置および向きを利用して、前記走査画像からシーンの3D再構成を求めること
    をさらに含む請求項14に記載の方法。
  18. 前記物体は第2プロジェクタであり、
    前記第2プロジェクタの推論された位置および向きに従って前記第2プロジェクタで画像を投影すること
    をさらに含む請求項14に記載の方法。
  19. 前記物体は道具であり、
    前記道具の推論された位置および向きに依存してフィードバックを提供すること
    をさらに含む請求項14に記載の方法。
  20. 前記物体は車両である請求項14に記載の方法。
  21. 前記物体は人である請求項14に記載の方法。
  22. プロジェクタの位置および向きを求めるシステムであって、
    前記プロジェクタはピンホールデバイスであり、
    平坦な表面と固定した関係を有するカメラと、
    前記カメラと前記平坦な表面との間のホモグラフィを求める手段と、
    前記平坦な表面上に少なくとも3個の同一直線上にない異なる点を投影して、パターンを形成するように構成されて、仕様データである既知の固有パラメータならびに未知の位置および向きを有するプロジェクタと、
    前記ホモグラフィおよび前記固有パラメータならびに前記カメラによって取得された前記パターンの画像を用いて、前記パターンの特徴を前記プロジェクタの画像座標において測定し、測定された前記パターンの特徴を前記画像の座標枠から前記平坦な平面の座標枠へ変換することにより、前記プロジェクタの位置および向きを求める手段と
    を備え
    前記既知の固有パラメータは、
    前記カメラおよび前記ホモグラフィによって、前記平坦な表面上の前記パターンの特徴の座標を求めること、
    前記プロジェクタの第1位置P1に対して、前記プロジェクタの画像平面と前記平坦な表面との間の第1ホモグラフィG1を求めること、
    前記プロジェクタの第2位置P2に対して、前記プロジェクタの画像平面と前記平坦な表面との間の第2ホモグラフィG2を求めること、
    前記第1および第2ホモグラフィG1およびG2を用いて前記プロジェクタの前記固有パラメータを求めること
    を含む処理を行って求められるものであるシステム。
  23. 前記プロジェクタに取り付けた物体をさらに備え、前記プロジェクタの位置および向きを使用して、前記物体の位置および向きを推論する請求項22に記載のシステム。
  24. 前記プロジェクタの位置および向きは、前記物体の位置および向きと既知の物理的関係にある請求項23に記載のシステム。
  25. 前記プロジェクタと前記物体の位置および向きの前記物理的関係は較正ステップにおいて較正される請求項23に記載のシステム。
JP2004567159A 2003-01-17 2003-12-25 プロジェクタによる位置および向きの読み取り Expired - Fee Related JP4437748B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/346,442 US7242818B2 (en) 2003-01-17 2003-01-17 Position and orientation sensing with a projector
PCT/JP2003/016777 WO2004066213A1 (en) 2003-01-17 2003-12-25 Position and orientation sensing with a projector

Publications (2)

Publication Number Publication Date
JP2006513504A JP2006513504A (ja) 2006-04-20
JP4437748B2 true JP4437748B2 (ja) 2010-03-24

Family

ID=32712151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004567159A Expired - Fee Related JP4437748B2 (ja) 2003-01-17 2003-12-25 プロジェクタによる位置および向きの読み取り

Country Status (6)

Country Link
US (1) US7242818B2 (ja)
EP (1) EP1483740B1 (ja)
JP (1) JP4437748B2 (ja)
CN (1) CN100343876C (ja)
DE (1) DE60323945D1 (ja)
WO (1) WO2004066213A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060072075A1 (en) * 2002-12-11 2006-04-06 Koninklijke Philips Electronics N.V. Projection system with contrast homogeneity correction
CA2464569A1 (en) * 2003-04-16 2004-10-16 Universite De Montreal Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
DE102004045280A1 (de) * 2004-09-16 2006-04-06 Harold Larivière Kalibrierungsvorrichtung für projizierte Bilder
CN101917498B (zh) * 2004-09-21 2012-06-13 株式会社尼康 便携型信息设备
NO323926B1 (no) * 2004-11-12 2007-07-23 New Index As Visuelt system samt styringsobjekt og apparat til bruk i systemet.
KR100714722B1 (ko) * 2005-06-17 2007-05-04 삼성전자주식회사 광원의 신호를 사용하여 포인팅 사용자 인터페이스를구현하는 장치 및 방법
US20070282564A1 (en) * 2005-12-06 2007-12-06 Microvision, Inc. Spatially aware mobile projection
WO2007067720A2 (en) * 2005-12-06 2007-06-14 Microvision, Inc. Projection display with motion compensation
US20110111849A1 (en) * 2005-12-06 2011-05-12 Microvision, Inc. Spatially Aware Mobile Projection
US7794090B2 (en) * 2006-01-24 2010-09-14 Seiko Epson Corporation Efficient dual photography
US7768527B2 (en) * 2006-05-31 2010-08-03 Beihang University Hardware-in-the-loop simulation system and method for computer vision
JP4697087B2 (ja) * 2006-08-09 2011-06-08 富士ゼロックス株式会社 画像処理装置
ATE471529T1 (de) * 2006-12-19 2010-07-15 Koninkl Philips Electronics Nv Autostereoskopische anzeigeeinrichtung und system damit
US8994757B2 (en) 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
CN100461220C (zh) * 2007-03-30 2009-02-11 东南大学 三维扫描系统中的基于固定参数与可变参数的标定方法
CN100491903C (zh) * 2007-09-05 2009-05-27 北京航空航天大学 一种结构光视觉传感器结构参数标定方法
KR101265950B1 (ko) * 2007-09-18 2013-05-23 삼성전자주식회사 프로젝터 및 상기 프로젝터의 프로젝션 제어 방법
US20090280901A1 (en) * 2008-05-09 2009-11-12 Dell Products, Lp Game controller device and methods thereof
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US20100321382A1 (en) 2009-06-18 2010-12-23 Scalable Display Technologies, Inc. System and method for injection of mapping functions
TWI398160B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 攝影機校正系統與座標資料產生系統及其方法
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
WO2012068112A1 (en) 2010-11-15 2012-05-24 Scalable Display Technologies, Inc. System and method for calibrating a display system using manual and semi-automatic techniques
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9597587B2 (en) * 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9497447B2 (en) 2011-06-15 2016-11-15 Scalable Display Technologies, Inc. System and method for color and intensity calibrating of a display system for practical usage
US9305361B2 (en) * 2011-09-12 2016-04-05 Qualcomm Incorporated Resolving homography decomposition ambiguity based on orientation sensors
US8976249B2 (en) 2011-11-04 2015-03-10 Empire Technology Development Llc IR signal capture for images
JP2015519601A (ja) 2012-04-19 2015-07-09 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド システム入力解像度の変動なくディスプレイシステムを校正するシステムおよび方法
JP6172495B2 (ja) * 2012-12-28 2017-08-02 株式会社リコー 校正装置、装置、プロジェクタ、3次元スキャナ、校正方法、方法、プログラム、及び記憶媒体
EP2972585A4 (en) 2013-03-15 2016-10-19 Scalable Display Technologies Inc SYSTEM AND METHOD FOR CALIBRATING DISPLAY SYSTEM USING SHORT-DISTANCE PROJECTION VIEWING APPARATUS
JP2014206634A (ja) * 2013-04-12 2014-10-30 船井電機株式会社 電子機器
CN103644842B (zh) * 2013-11-22 2017-01-25 大连日佳电子有限公司 一种侧窥环视的方法和装置
KR20150115455A (ko) 2014-04-04 2015-10-14 삼성전자주식회사 휴대단말기의 프로젝터 초점 제어 방법 및 장치
CN105629199A (zh) * 2014-11-04 2016-06-01 Tcl集团股份有限公司 一种室内定位方法及系统
US10080004B2 (en) 2014-11-06 2018-09-18 Disney Enterprises, Inc. Method and system for projector calibration
CN107110637B (zh) * 2014-12-22 2019-11-01 赛博光学公司 对三维测量系统的校准进行更新
EP3158502B1 (en) * 2015-08-10 2018-07-25 Koninklijke Philips N.V. Furniture occupancy monitoring
US9930320B2 (en) 2016-05-04 2018-03-27 Apple Inc. Resolving three dimensional spatial information using time-shared structured lighting that embeds digital communication
US9992464B1 (en) * 2016-11-11 2018-06-05 Christie Digital Systems Usa, Inc. Method and system for screen correction

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4443705A (en) * 1982-10-01 1984-04-17 Robotic Vision Systems, Inc. Method for locating points on a three-dimensional surface using light intensity variations
US4724480A (en) * 1985-05-02 1988-02-09 Robotic Vision Systems, Inc. Method for optical alignment of one object with respect to another
JPH11166818A (ja) * 1997-12-04 1999-06-22 Suzuki Motor Corp 三次元形状計測装置の校正方法及び校正装置
JP4453119B2 (ja) * 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
JP2001008231A (ja) * 1999-06-22 2001-01-12 Gen Tec:Kk 3次元空間における物体の多視点画像伝送方法及びシステム
JP4507307B2 (ja) * 1999-09-16 2010-07-21 独立行政法人科学技術振興機構 映像投影装置
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
JP4169464B2 (ja) * 1999-12-28 2008-10-22 株式会社リコー 画像処理方法と画像処理装置及びコンピュータ読み取り可能な記録媒体
WO2001058128A2 (en) * 2000-02-03 2001-08-09 Alst Technical Excellence Center Active aid for a handheld camera
JP2001320652A (ja) * 2000-05-11 2001-11-16 Nec Corp プロジェクタ装置
US20020167537A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera

Also Published As

Publication number Publication date
CN1745397A (zh) 2006-03-08
EP1483740A1 (en) 2004-12-08
WO2004066213A1 (en) 2004-08-05
EP1483740B1 (en) 2008-10-08
US7242818B2 (en) 2007-07-10
US20040141156A1 (en) 2004-07-22
DE60323945D1 (de) 2008-11-20
CN100343876C (zh) 2007-10-17
JP2006513504A (ja) 2006-04-20

Similar Documents

Publication Publication Date Title
JP4437748B2 (ja) プロジェクタによる位置および向きの読み取り
ES2279823T3 (es) Sistema tactil basado en camaras.
ES2361457T3 (es) Sistema y procedimiento táctil en base a cámara.
Chen et al. Active sensor planning for multiview vision tasks
JP3950837B2 (ja) プロジェクタ並びにプロジェクタを使用した電子黒板システム及び指示位置取得方法
US7623250B2 (en) Enhanced shape characterization device and method
CN108257177B (zh) 基于空间标识的定位系统与方法
JPH03282203A (ja) ターゲット及びこれを用いた三次元位置姿勢計測システム
US9304582B1 (en) Object-based color detection and correction
JP2001148025A (ja) 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP4227037B2 (ja) 撮像システム及び校正方法
Zhu et al. Wii remote–based low-cost motion capture for automated assembly simulation
Vorozcovs et al. The hedgehog: a novel optical tracking method for spatially immersive displays
JPH06195472A (ja) 画像処理システム
JP2010230925A (ja) 投影システム、投影方法、投影プログラム及び投影ベクトル演算装置
JP2003023562A (ja) 画像撮影システムおよびカメラシステム
JPH05329793A (ja) 視覚センサ
JP2001175405A (ja) 3次元位置・姿勢計測装置及びその方法並びに記録媒体
JP5291389B2 (ja) ポインティングシステム、ポインティング方法、ポインティングプログラム及び指示ベクトル演算装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061020

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140115

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees