JP2009524849A - シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 - Google Patents

シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 Download PDF

Info

Publication number
JP2009524849A
JP2009524849A JP2008552409A JP2008552409A JP2009524849A JP 2009524849 A JP2009524849 A JP 2009524849A JP 2008552409 A JP2008552409 A JP 2008552409A JP 2008552409 A JP2008552409 A JP 2008552409A JP 2009524849 A JP2009524849 A JP 2009524849A
Authority
JP
Japan
Prior art keywords
image
scene
pixels
radiance
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008552409A
Other languages
English (en)
Inventor
リー ザン
シュリー ケイ ナヤル
Original Assignee
ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク filed Critical ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Publication of JP2009524849A publication Critical patent/JP2009524849A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

いくつかの実施形態において、プロジェクタ、光センサ、およびデジタル処理装置を含む、シーン画像および奥行き形状を取り込むシステムが提供される。プロジェクタはシーンに対してデフォーカスが可能であり、移動する周期的照明パターンを持つ光をシーン上に投影する。光センサは複数の画素を持ち、該画素の各々におけるシーンの少なくとも1つの画像の放射輝度の一部を検出する。デジタル処理装置は光センサに接続可能であり、画素の各々の放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得し、時間的な放射輝度プロファイルを用いて画素の各々の投影デフォーカス量を算出し、画素の各々において、画素の投影デフォーカス量を用いて画素のシーンの奥行きを算出する。
【選択図】図1

Description

本開示された主題は、シーン画像および奥行き(depth)形状(geometry)を取り込み、補償画像を生成するシステム、方法、および媒体に関する。
デジタルライトプロセッシング(DLP)(登録商標)および液晶ディスプレイ(LCD)のようなデジタル投影技術が、多くの通例とは違う民生、商業、および科学的応用においてますます使用されつつある。コンピュータグラフィックスおよびコンピュータビジョンでは、例えばビデオプロジェクタが、リアルタイムでの形状取得と複雑な外観の取り込みおよび制御のために、画素ごとに制御可能な光源として近年使用されている。これらの応用のほとんどは、焦点を合わせることに最高の性能を発揮できるようなプロジェクタを求めている。実際に、ほとんどすべてのプロジェクタは、被写界深度をより浅くしてもその明るさを最大にするように大口径で作られ、したがって、単一の前額平行スクリーン、すなわちプロジェクタの従来の用途、の上に焦点が合わされた画像を生成するように設計されている。
米国仮特許出願番号60/761,977号 Scharstein他、Proc. IEEE Conf. on Computer Vision and Pattern Recognition、195−202、2003年 Zhang、IEEE Trans. on Pattern Analysis and Machine Intelligence 22、11、1330−1334、2000年
しかしながら、いくつかの応用では、複数の平面またはドームのような非平面の構造上に画像を投影して、例えば仮想環境を作ることが望ましい。このような場合、投影された画像の大部分は投影デフォーカスによりぼやけるが、それは被写界深度が浅いことに起因している。この問題を解決する1つの方法は、画像が投影される特別な投影構造体のために高度な光学系を設計することである。しかしながら、そのような光学系を投影構造体の変化に合わせて後で変更するのは難しい。別の手法は複数のプロジェクタを使用することであるが、この手法では、投影画像に焦点を合わることができる奥行きの数は、要求されるプロジェクタの数と等しくなる。しかしながら、使用すべきプロジェクタの数は、投影構造体の大きさおよび複雑さが増大するにつれて増加する必要がある。
他の応用では、デジタルプロジェクタによって投影された画像は、ピクセレーション(pixelation)・アーティファクトを受けることが多い。該ピクセレーションは2つの要因によって引き起こされることができる。第1の要因は、デジタルプロジェクタの有限解像度による空間デジタル化である。第2の要因は、画素フィルファクタ(fill factor)が決して完全なものではないために生じるデジタルプロジェクタにおける物理的な画像面上の隣接画素間の隙間である。ピクセレーションは、投影される画像の解像度が画像を投影するために使用されるデジタルプロジェクタの解像度よりはるかに高い場合に画素の境界をより明確に示してしまう傾向がある。
シーン画像および奥行き形状を取り込み、補償画像を生成するシステム、方法、および媒体が提供される。いくつかの実施形態では、プロジェクタ、光センサ、およびデジタル処理装置を含む、シーン画像および奥行き形状を取り込むシステムが提供される。プロジェクタはシーンに対してデフォーカスが可能であり、移動する周期的照明パターンを持つ光をシーン上に投影する。光センサは複数の画素を持ち、該画素の各々におけるシーンの少なくとも1つの画像の放射輝度の一部を検出する。デジタル処理装置は光センサに接続可能であり、画素の各々の放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得し、時間的な放射輝度プロファイルを使用して画素の各々の投影デフォーカス量を算出し、前記画素の各々において、該画素の前記投影デフォーカス量を用いて前記画素における前記シーンに対する奥行きを算出する。
いくつかの実施形態では、プロジェクタと、光センサと、デジタル処理装置とを含む、補償画像を生成するシステムが提供される。該プロジェクタは投影構造体に画像を投影する。光センサは、複数の画素を持ち、画素の各々における画像の放射輝度の一部を検出する。デジタル処理装置は、光センサおよびプロジェクタに接続可能であり、画素の各々のデフォーカスカーネルを算出し、放射輝度およびデフォーカスカーネルを用いて補償画像を生成する。
いくつかの実施形態では、シーン画像および奥行き形状を取り込む方法が提供される。これらの方法は、移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影し、複数の画素の各々におけるデフォーカス画像の放射輝度の一部を検出し、画素の各々の放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得し、時間的な放射輝度プロファイルを用いて画素の各々の投影デフォーカス量を算出し、算出された投影デフォーカス量を用いて画素の各々のシーンの奥行きを算出する。
いくつかの実施形態では、補償画像を生成する方法が提供される。これらの方法は、画像を投影し、複数の画素の各々における画像の放射輝度の一部を検出し、画素の各々のデフォーカスカーネルを算出し、放射輝度および該デフォーカスカーネルを用いて補償画像を生成する。
いくつかの実施形態では、プロセッサによって実行される場合に、プロセッサにシーン画像および奥行き形状を取り込む方法を実行させるコンピュータ実行可能な命令を含んだコンピュータ可読媒体が提供される。該方法は、移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影し、複数の画素の各々におけるデフォーカス画像の放射輝度の一部を検出し、画素の各々の放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得し、時間的な放射輝度プロファイルを用いて画素の各々の投影デフォーカス量を算出し、算出された投影デフォーカス量を用いて画素の各々のシーンの奥行きを算出する。
いくつかの実施形態では、プロセッサによって実行される場合に、プロセッサに補償画像を生成する方法を実行させるコンピュータ実行可能な命令を含んだコンピュータ可読媒体が提供される。この方法は、画像を投影し、複数の画素の各々における画像の放射輝度の一部を検出し、画素の各々のデフォーカスカーネルを算出し、放射輝度およびデフォーカスカーネルを用いて補償画像を生成する。
いくつかの実施形態では、シーン画像および奥行き形状を取り込むシステムが提供される。これらのシステムは、移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影する手段と、複数の画素の各々におけるデフォーカス画像の放射輝度の一部を取り込む手段と、画素の各々の放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得する手段と、時間的な放射輝度プロファイルを用いて画素の各々の投影デフォーカス量を測定する手段と、算出された投影デフォーカス量を用いて画素の各々のシーンの奥行きを推定する手段と、を含んでいる。
いくつかの実施形態では、補償画像を生成するシステムが提供される。これらのシステムは、画像を投影する手段と、複数の画素の各々における画像の放射輝度の一部を取り込む手段と、画素の各々のデフォーカスカーネルを推定する手段と、放射輝度および該デフォーカスカーネルを用いて補償画像を算出する手段とを含んでいる。
(関連出願の相互参照)
本出願は、2006年1月24日に出願された米国仮特許出願番号第60/761,977号の利益を主張し、その全体は参照により本書に組み込まれる。
シーン画像および奥行き形状を取り込み、補償画像を生成するシステム、方法、および媒体が提供される。開示された主題のいくつかの実施形態では、時間的なデフォーカス解析を通して光センサの各画素の投影面の奥行きを推定するシステム、方法、および媒体が提供される。構造化パターンを含んだ光がシーン上に投影され、その結果生じたシーンの放射輝度の一部が検出される。シーンの表面の点の単純な線形モデルを使用して、プロジェクタのデフォーカス量を表すことができる。この線形モデルでは、投影されたパターンは入力であり、該シーンの放射輝度は出力である。シーンの表面の点のデフォーカスカーネルは、点単位で起こるデフォーカスぼやけ量を表すフィルタであり、デジタルカメラのような光センサの各画素において算出することができる。線形モデルの出力は、表面の点におけるデフォーカスカーネルの入力に対する時間的な応答である。デフォーカスカーネルはこの表面の点と投影レンズとの間の距離に依存するので、光センサの各画素の奥行きは、投影された移動するパターンの時間的な強度変化を用いて算出できる。
図1は、本開示された主題のいくつかの実施形態に係る、プロジェクタのデフォーカス特性を使用して、光センサの各画素の奥行きを正常な状態に戻すシステム100の概略図である。図示のように、システム100は、プロジェクタ102と、ビームスプリッタ104と、光センサ106と、デジタル処理装置108とを含んでいる。プロジェクタ102は、該プロジェクタ102のレンズから異なる距離に置かれたオブジェクト110A〜110Cがあるシーン114上に、構造化パターン116を含んだ光112Aを投影する。光112Aは、シーン114の後方またはシーン114の前方に焦点を合わせることができる。プロジェクタ102は、NEC LT260K DLPプロジェクタのような市販のプロジェクタ、または構造化パターン116のような構造化パターンを含んだ画像または光を投影するのに好適な任意の他の装置であってもよい。光センサ106は、Basler A311fの白黒カメラのような市販のカメラ、またはシーンを取り込むのに好適な任意の他の装置であってもよい。ビームスプリッタ104は、単純なハーフミラー、Edmund Optics #NT39−493ビームスプリッタのような市販のスプリッタ、または反対方向からの入射光を反射しながら一方向からの入射光を通すのに好適な任意の他の装置であってもよい。いくつかの実施形態では、ビームスプリッタは、あらゆる形態の迷光を吸収して背景からの光の影響を低減する特注のチャンバ内に置かれている。デジタル処理装置108は、マイクロプロセッサ、デジタル信号プロセッサ、ビデオプロセッサ、またはデータを処理および/または格納するのに好適な任意の他の装置であってもよい。光センサ106がカメラであるいくつかの実施形態においては、カメラの絞りは、カメラがほぼピンホールカメラとして働くようにF11まで絞られ、それにより極めて明るいプロジェクタ102のデフォーカスと比較して、カメラによってもたらされるどのようなデフォーカスも無視することができる。
焦点がはずれている点については、その放射照度は、プロジェクタ102の画像面上の構造化パターン116を含んだ光112Aとそのデフォーカスカーネルの畳み込みに等しくなる。オブジェクト110A〜110Cの表面が不透明であると仮定すると、任意の出射方向に沿ったオブジェクト110A〜110Cのいずれかの上にある点の放射輝度Iは、一次方程式である式(1):
I=αf(x;z)*P(x)+β
として書くことができ、ここで、*は畳み込みを示し、αは表面の反射率に依存する要因、βは周辺光による放射輝度、f(x;z)はデフォーカスカーネル、xはプロジェクタの画素座標、P(x)は、構造化された光パターン116の数学的表現である。式(1)は、構造化パターン116を含んだ光112Aが入力であり、シーンの放射輝度が出力である線形モデルを定義している。デフォーカスカーネルはシーンの奥行きzに依存するので、該奥行きはデフォーカスカーネルから正常な状態に戻すことができ、そのデフォーカスカーネルもやはり算出されたシーンの放射輝度から算出できる。その時のシーン114内の各点の放射輝度は、構造化パターン116による励起に対するデフォーカスカーネルの応答である。
ビームスプリッタ104を使用して、シーンのどの部分も逃すことなく、光センサ106のすべての画素において奥行きを算出できるように、プロジェクタ102および光センサ106は、該光センサ106およびプロジェクタ102が同一光学中心を共有する光学的に同軸の構成で配置することができる。このような同軸の構成を使用することにより、影およびオクルージョン(occlusion)を回避することもできる。
ここで図1、図2、図3A〜図3D、および図4を共に参照し、シーンの奥行き形状を維持しながらシーンの画像を取り込む方法が示されている。
ステップ402で、プロジェクタ102は点202で焦点を合わせられているが、この点は、オブジェクト110A〜110Cがあるシーン114の後方に位置している。プロジェクタ102の焦点をシーン114の後方に合わせることにより、シーン114上に投影された光112Aは投影デフォーカスが原因でぼやけ、双方向のデフォーカスによる曖昧さが回避される。ステップ404で、構造化パターン116がシーン114を横切って移動されるように、光112Aはシーン114上に投影される。いくつかの実施形態では、構造化パターン116は、ストライプパターンとして符号化される011011011011...のような、2値の周期シーケンスであってもよい。他の実施形態では、構造化パターン116は異なるパターンで符号化することができる。いくつかの実施形態では、2値の周期シーケンスは3ビットごとの周期性を持っており、ストライプパターンの各ビットは8画素幅のストライプに相当する。他の実施形態では、2値のシーケンス周期は上記周期性より小さいかまたは大きくてもよく、ストライプパターンはより広いまたはより狭いストライプに相当してもよい。いくつかの実施形態では、構造化パターン116は一度に1画素移動され、合計24のシーン114の画像が撮られる。他の実施形態では、構造化パターン116は異なる速度で移動されることができ、異なる数の画像を撮ることができる。
ステップ406で、シーン114内の表面の各点の放射輝度が、光センサ106の各画素においてある期間にわたって検出され、表面の各点の時間的な放射輝度プロファイルを取得する。構造化パターン116を持つ光112Aが、シーン114を横切って移動されると、オブジェクト110Bおよび110Cはプロジェクタ102の焦点面216により近いので、すなわちこの光がオブジェクト110Bまたはオブジェクト110C越える場合、構造化パターン116はより良く焦点を合わせられているので、光は、オブジェクト110Bまたはオブジェクト110Cを横切る場合よりもオブジェクト110Aを横切る場合に、(ぼやけたセクション113A、113B、および113Cによって表されるように)よりぼけたように見える。
図2は、このことをより詳細に示している。オブジェクト110C、110B、および110Aの表面の点にそれぞれ対応している3点204、206、および208は、構造化パターン212を持つ光が投影されるレンズ210による焦点面216の焦点ポイント202から異なる距離に位置している。プロジェクタ102の焦点ポイント202に投影された光は投影デフォーカスを起こさず、その放射輝度は図3Aに示すように投影された光と等しい。しかしながら、点204上に投影された光は焦点が合っていないので、投影面214上に示されるような投影デフォーカスを起こし、図3Bに示すようにその放射輝度は小さくなる。点206上に投影された光は、焦点面216からさらに離れ、図3Cに示すようにその放射輝度がさらに小さくなるので、より大きな投影デフォーカス量を発生する。図3Dに示すように、点208の放射輝度は、さらに大きな投影デフォーカス量およびその結果生じたぼやけの影響を受ける。
図1は、シーン114の後方に位置する焦点面216から異なる距離にあるオブジェクト110A〜110Cによって発生する異なる投影デフォーカス量も示している。焦点面216上に投影された光112Aは、明瞭であり焦点が合っているように見える。光112Aは、シーンを横切って移動されると、オブジェクト110A〜110Cに当たる。オブジェクト110A〜110Cはプロジェクタ102の被写界深度外にあり、したがって焦点がはずれているので、オブジェクト110A〜110Cに当たる投影された光112B〜112Dは、ぼやけてしまう。オブジェクト110Aがプロジェクタ102の焦点面216から最も遠くに位置しているので、オブジェクト110A上に当たる投影光112Bは、(この場合もまた、ぼやけたセクション113A、113B、および113Cによって表されるように)オブジェクト110Bおよびオブジェクト110Cにそれぞれ当たる投影光112Cまたは112Dよりもぼやけて見える。シーン114内の点の時間的な放射輝度プロファイルの強さは、図3A〜図3Dに示すように、投影光112A〜112Dがデフォーカスされる程度によって変わる。
ステップ408で、投影デフォーカス量が光センサ106の画素ごとに算出される。いくつかの実施形態では、周波数領域手法を用いて投影デフォーカス量を算出する。例えば、シーン114内の点の時間的な放射輝度プロファイルが与えられると、その点での投影デフォーカスすなわちぼやけは、その点の時間的な放射輝度プロファイルを式(2):
Figure 2009524849
ここで、
Figure 2009524849
で表される離散時間フーリエ級数に分解することにより、量子化することができる。
デフォーカスカーネルf(x;z)はローパスフィルタなので、係数AKがkに関して小さくなる速さがデフォーカス量の尺度であり、そしてそれは次にその点での奥行きを算出するのに使用される。A0は周辺光βに依存するので、奥行きを算出するのに使用できず、残りの係数はすべてアルベドαによって変化するが、最初の2つの係数A1およびA2の比率を用いて、投影デフォーカスが1次高調波に対してどれくらい激しく2次高調波を減衰させるかを決定することができる。したがって、奥行きは、式(3):
θ=A2/A1
ここで、A1>A2>0およびθ∈[0,1]
として表されるA1およびA2の比率を用いて算出することができる。
ステップ410で、光センサ106の各画素のシーンの奥行きが、画素ごとに算出された投影デフォーカス量を用いて算出される。いくつかの実施形態では、この奥行きの算出は、式(3)中のθの奥行きへのマッピングを較正することにより行われる。
図5は、異なる量の算出された投影デフォーカスに対応する奥行きを推定する説明図であるが、θの奥行きへのマッピングの較正をどのように行うことができるかを説明するのに参照される。最初に、プロジェクタ102の画素と光センサ106の画素との対応関係が算出される。この算出は、移動される正弦波を水平・垂直の両方向に投影することにより行われる。この技術は、非特許文献1に詳細に記載されており、その内容全体は参照により本明細書に組み込まれる。次に、発泡スチロール板のような均一な投影面502が同軸の光センサプロジェクタシステムの前に傾けられ、表面502上の各点の奥行きすなわち投影レンズ210からの各点の距離が、基準マーカ506A〜506Dを備えた投影面502の画像を撮影することおよび表面502から投影レンズ210までのホモグラフィ(homography)を算出することにより算出される。表面502上のすべての点の奥行きはホモグラフィから算出することができ、それは表面502の位置および方向を推定する助けとなる。ホモグラフィから奥行きを算出する方法は、非特許文献2に記載されており、その内容全体は参照により本書に組み込まれる。
次に、表面502を横切る構造化パターン116のような構造化パターンを含んだ光504を切り替えること、および光センサ106の各画素の時間的な放射輝度プロファイルの離散フーリエ級数から最初の2つの係数を算出することにより、表面502上のすべての点のθ値を算出できる。次に、算出されたθに対する算出された奥行きのマッピングが、各画素または各列のルックアップテーブルに作表される。
再び図4を参照して、ステップ412で、シーン114の奥行きマップは、各画素のシーンの算出された奥行きを用いて生成される。図1に示すように、奥行きマップ118は、3つのオブジェクト110A〜110Cを持つシーン114の正常な状態に戻された奥行き形状を示している。奥行きマップ118は、オブジェクト110A〜110Cに対応する3つの2次元形状、119A、119B、および119Cを含んでいる。オブジェクト119A〜119Cの形状内の異なるテクスチャは、3つのオブジェクトの各々が異なる奥行き形状を持っていることを示している。
ステップ414で、シーン114の取り込まれた画像は、奥行きマップ118を使用して画質を向上させることができる。いくつかの実施形態では、シーンから取り込まれた画像とシーンを層に分割する奥行きマップとを使用して、任意の所望の奥行きに焦点が合っている画像を生成できる。例えば、3つのオブジェクト110A〜110Cを持つシーン114から取り込まれた画像と、シーン114を3つの異なる層に分割する奥行きマップ118とを使用して、オブジェクト110A〜110Cの各々に焦点が合った、再度焦点が合わせられた画像を生成できる。いくつかの実施形態では、原画像の奥行きマップを参照として用いて原画像を編集することにより、追加のオブジェクトを正しいオクルージョン効果で原画像に挿入することができる。
図6は、本開示された主題のいくつかの実施形態に係る、シーンの奥行きマップを用いてシーンから取り込まれた画像にオブジェクトを挿入するグラフィカルな説明図である。図示のように、複数の奥行き層に配置された5枚のポーカーカードを含んだシーン602の奥行きマップ604を使用して、ポーカーカードの第1層と第2層との間のシーン602に三角形606を挿入することにより、新しい画像608を生成することができる。奥行きマップ604を参照することにより、三角形606を正しいオクルージョン効果で画像602に挿入することができる。他の可能な画質の向上として、ビューモーフィング、マッティング(matting)のセグメント化、オブジェクトの置換、および影の除去のための複合シーンの階層表現の生成が挙げられる。
ここで、図7および図8を共に参照して補償画像を生成する方法を説明する。図7Aは、投影面形状に基づいて投影デフォーカスを補償するシステム700の概略図である。図示のように、システム700は、プロジェクタ702と、ビームスプリッタ704と、光センサ706と、デジタル処理装置708とを含んでいる。プロジェクタ702、ビームスプリッタ704、光センサ706、およびデジタル処理装置708は、図1のプロジェクタ102、ビームスプリッタ104、光センサ106、およびデジタル処理装置108と同一またはほぼ類似のものであってもよい。プロジェクタ702は、非平面の投影構造体710上に画像を投影するのに使用される。いくつかの実施形態では、デジタル処理装置708は、プロジェクタ702および光センサ706に接続されている。ビームスプリッタ704を用いて、プロジェクタ702、および光センサ706は、光センサ706とプロジェクタ702とが同一光学中心を共有する光学的に同軸の構成で配置されている。非平面の投影構造体710は、種々の奥行きの複数の表面を持つ構造、ドーム、または好適な形状を持つ任意の他の構造であってもよい。
図8は、投影デフォーカスを補償する方法800の簡単な説明図である。ステップ802で、入力された画像は非平面の投影構造体710のような投影構造体上に投影される。プロジェクタ702からの照明による表面の点の放射輝度は、投影デフォーカス方程式すなわち式(1)によって表すことができる。ステップ804で、投影された画像のシーンの放射輝度が光センサ706の各画素で検出される。光センサ706は人間の目の代わりに使用される。方法800は、補償画像を投影することにより、光センサ706によって検出されたシーンの放射輝度を入力された画像と同じになるようにする。補償画像は、補償画像を取得する方程式として、投影デフォーカス方程式すなわち式(1)を解くことにより得ることができる。この解は、式(4)として下に示されている。
*=(αf)-1*(I−β)
ここで、(αf)-1はカーネルαfの逆数である。
ステップ806で、光センサ706の各画素のデフォーカスカーネルが算出される。いくつかの実施形態では、周辺項βは、プロジェクタ702を消して画像を撮影することにより得られる。光センサ706の各画素に対するカーネルαfを得るために、光センサ706が光センサ706の各画素において投影構造体710からのドットパターンの放射輝度を検出するように、プロジェクタ702は、投影構造体708にわたって図7Bに示されたパターンのようなドットパターンをある期間にわたって投影することができる。デジタル処理装置708によって得られた光センサ606の各画素の時間的な放射輝度プロファイルは、各画素のデフォーカスカーネルとして使用することができる。
ステップ808で、補償画像が、検出された放射輝度および算出されたデフォーカスカーネルを用いて生成される。いくつかの実施形態では、補償画像を算出する問題が、式(5):
Figure 2009524849
ここで、xはプロジェクタ702中の画素の座標であり、d(・,・)は像距離行列によって表される制約された最小化問題として提示される。式(5)は、プロジェクタ702のダイナミックレンジ内のすべての輝度値を使用して、入力された画像Iに最もよく適合する補償画像P*を見つける。いくつかの実施形態では、画素差の二乗和が像距離行列d(・,・)を構築するのに使用される。デフォーカス畳み込みαf*Pが行列乗算FPとして表される反復、制約、最急降下アルゴリズムを適用することにより、補償画像を見つけることができるが、ここでFの各行はそのアルベドによって変調された対応する画素のデフォーカスカーネルである。アルゴリズムはP0=Iで始まり、次の2つの方程式、式(6)および式(7)をそれぞれ反復する。
Figure 2009524849
ここで、Gi=FT(I−β−FPi)、ηi=‖Gi2/‖FGi2、CLAMPは画素に関するクランプ演算である。Giは、Pに対する像距離‖PF+β−I‖2の勾配である。Giを評価することは、カーネル行列FおよびFTによる2つの画像フィルタリングをそれぞれ包含する。これらのフィルタリングは、空間により変化し、シーンに依存する。式(6)は、式(4)の解に収束する標準の最急降下アルゴリズムである。しかしながら、式(6)および式(7)を組み合わせることにより、焦点がぼけた補償画像とプロジェクタ702のダイナミックレンジを持つ入力された原画像との間の差が最小化される。ステップ810で、補償画像を投影面上に投影することができる。
ここで、図9および10を共に参照してピクセレーション・アーティファクトを補償する方法を説明する。図9は、いくつかの実施形態に係る、ピクセレーション・アーティファクトを補償するシステム900の概略図である。図示のように、システム900は、プロジェクタ902と、ビームスプリッタ904と、光センサ906と、デジタル処理装置908とを含んでいる。プロジェクタ902、ビームスプリッタ904、光センサ906、およびデジタル処理装置908は、図1のプロジェクタ102、ビームスプリッタ104、光センサ106、およびデジタル処理装置108と同一またはほぼ類似のものであってもよい。プロジェクタ902は、単一の前額平行スクリーン910上、すなわち従来の投影面上に画像を投影するのに使用されている。いくつかの実施形態では、デジタル処理装置908は、プロジェクタ902および光センサ906に接続されている。ビームスプリッタ904、プロジェクタ902、および光センサ906は、光センサ906とプロジェクタ902とが同一光学中心を共有する光学的に同軸の構成で配置されている。
図10は、ピクセレーション・アーティファクトを補償する方法1000の簡単な説明図である。ステップ1002で、ピクセレーション・アーティファクト912の影響を受けている画像が投影スクリーン910上に投影される。ステップ1004で、プロジェクタ902は、該プロジェクタ902を投影スクリーン910の少し前方または後方に焦点を合わせることによりデフォーカスされ、その結果投影スクリーン910上の画像がわずかにぼやけ、それにより少量の光が画素間のデッドゾーンに漏れる。しかしながら、その結果、画像はここで、投影デフォーカスおよびその結果生じたぼやけ効果の影響を受ける。しかし、生じたぼやけは非常にわずかなので補償可能である。ステップ1006で、デフォーカスされたプロジェクタ902によって投影された画像のシーンの放射輝度は、各画素において光センサ906により検出される。ステップ1008で、各画素におけるデフォーカスカーネルは、図8のステップ806に関連して説明した方法と同一またはほぼ同一の方法で算出できる。ステップ1010で、補償画像は、図8のステップ808に関連して説明した方法と同一またはほぼ同一の方法で、検出された放射輝度および光センサ906の各画素において算出されたカーネルを使用して生成される。ステップ1012で、補償画像を投影スクリーン910上に投影することができる。
本発明を前述の実例となる実施形態において説明および図示したが、本開示は例示としてのみなされたものであり、本発明の実施の詳細における多くの変更を本発明の精神および範囲から逸脱することなく行うことができることは理解されるべきであろう。本開示された実施形態の特徴を種々の方法で組み合わせおよび再配置することができる。
本開示された主題のいくつかの実施形態に係る、プロジェクタのデフォーカス特性を用いて光センサの各画素において奥行きを正常な状態に戻すためのシステムの概略図である。 本開示された主題のいくつかの実施形態に係る、各点の時間的な放射輝度プロファイルを得ることによりシーン内の各点の奥行きを推定する原理の説明図である。 本開示された主題のいくつかの実施形態に係る、プロジェクタの投影面から異なる距離にある点においてある期間にわたり取得された時間的な放射輝度プロファイルの説明図である。 本開示された主題のいくつかの実施形態に係る、プロジェクタの投影面から異なる距離にある点においてある期間にわたり取得された時間的な放射輝度プロファイルの説明図である。 本開示された主題のいくつかの実施形態に係る、プロジェクタの投影面から異なる距離にある点においてある期間にわたり取得された時間的な放射輝度プロファイルの説明図である。 本開示された主題のいくつかの実施形態に係る、プロジェクタの投影面から異なる距離にある点においてある期間にわたり取得された時間的な放射輝度プロファイルの説明図である。 本開示された主題のいくつかの実施形態に係る、シーンの奥行きマップを生成および使用する方法の簡単な説明図である。 本開示された主題のいくつかの実施形態に係る、異なる量に対して算出された投影デフォーカスに対応する奥行きを推定する説明図である。 本開示された主題のいくつかの実施形態に係る、シーンの奥行きマップを用いてシーンから取り込まれた画像にオブジェクトを挿入するグラフィカルな説明図である。 本開示された主題のいくつかの実施形態に係る、投影面形状に基づいて投影デフォーカスを補償するシステムの概略図である。 本開示された主題のいくつかの実施形態に係る、光センサの各画素のデフォーカスカーネルを推定するのに使用されるドットパターンの説明図である。 本開示された主題のいくつかの実施形態に係る、投影デフォーカスを補償する方法の簡単な説明図である。 本開示された主題のいくつかの実施形態に係る、ピクセレーション・アーティファクトを補償するシステムの概略図である。 本開示された主題のいくつかの実施形態に係る、ピクセレーション・アーティファクトを補償する方法の簡単な説明図である。

Claims (61)

  1. シーン画像および奥行き形状を取り込むシステムであって、
    シーンに対してデフォーカス可能であり、移動する周期的照明パターンを持つ光を前記シーン上に投影するプロジェクタと、
    複数の画素を持ち、該画素の各々において前記シーンの少なくとも1つの画像の放射輝度の一部を検出する光センサと、
    該光センサに接続可能なデジタル処理装置と、
    を有し、該デジタル処理装置は、
    前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得し、
    前記時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出し、
    前記画素の各々において、該画素の前記投影デフォーカス量を用いて前記画素における前記シーンに対する奥行きを算出する、
    シーン画像および奥行き形状を取り込むシステム。
  2. 前記シーンの取り込まれた画像を表示する、前記デジタル処理装置に接続された表示装置をさらに有する、請求項1に記載のシステム。
  3. 前記デジタル処理装置は又、前記画素の各々における前記シーンに対する前記奥行きを用いて前記シーンを層に分割する奥行きマップを生成する、請求項1に記載のシステム。
  4. 前記デジタル処理装置は又、前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成する、請求項3に記載のシステム。
  5. 前記デジタル処理装置は又、前記奥行きマップを用いて前記シーンの画像を変更する、請求項3に記載のシステム。
  6. 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項1に記載のシステム。
  7. 前記プロジェクタおよび前記光センサは、ビームスプリッタを使用して光学的に同軸上に配置される、請求項1に記載のシステム。
  8. 前記ビームスプリッタは迷光を吸収するチャンバ内に置かれる、請求項7に記載のシステム。
  9. 前記プロジェクタは、前記プロジェクタの焦点を前記シーンの後方に合わせることにより該シーンに対してデフォーカスされる、請求項1に記載のシステム。
  10. 前記光センサはカメラを含む請求項1に記載のシステム。
  11. 補償画像を生成するシステムであって、
    投影構造体に画像を投影するプロジェクタと、
    複数の画素を持ち、該画素の各々において前記画像の前記放射輝度の一部を検出する光センサと、
    前記光センサおよび前記プロジェクタに接続可能なデジタル処理装置と、
    を有し、該デジタル処理装置は、
    前記画素の各々のデフォーカスカーネルを算出し、
    前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成する、
    補償画像を生成するシステム。
  12. 前記プロジェクタは、前記画像がピクセレーションを持っているかどうかに基づいてデフォーカスされる、請求項11に記載のシステム。
  13. 前記投影構造体は、異なる奥行き層において複数の表面を持った非平面の投影構造体を有する、請求項11に記載のシステム。
  14. 前記投影構造体は平面の投影スクリーンを含む請求項11に記載のシステム。
  15. 前記プロジェクタは又、前記投影構造体に前記補償画像を投影する、請求項11に記載のシステム。
  16. 前記プロジェクタは、ビームスプリッタを使用して前記光センサと光学的に同軸上に配置される、請求項11に記載のシステム。
  17. シーン画像および奥行き形状を取り込む方法であって、
    移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影するステップと、
    複数の画素の各々において前記デフォーカス画像の放射輝度の一部を検出するステップと、
    前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得するステップと、
    前記時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出するステップと、
    前記算出された投影デフォーカス量を用いて前記画素の各々における前記シーンに対する奥行きを算出するステップと、
    を含むシーン画像および奥行き形状を取り込む方法。
  18. 前記シーンの取り込まれた画像を表示するステップをさらに含む、請求項17に記載の方法。
  19. 前記画素の各々における前記シーンに対する前記奥行きを用いて、前記シーンを層に分割する奥行きマップを生成するステップをさらに含む、請求項17に記載の方法。
  20. 前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成するステップをさらに含む、請求項19に記載の方法。
  21. 前記奥行きマップを用いて前記シーンの画像を変更することにより新しい画像を生成するステップをさらに含む、請求項19に記載の方法。
  22. 前記画像を変更することは、前記画像に少なくとも1つの新しいオブジェクトを挿入することを含む、請求項21に記載の方法。
  23. 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項17に記載の方法。
  24. 前記デフォーカス画像は前記シーンの前方に焦点を合わせられている、請求項17に記載の方法。
  25. 補償画像を生成する方法であって、
    画像を投影するステップと、
    複数の画素の各々において前記画像の放射輝度の一部を検出するステップと、
    前記画素の各々のデフォーカスカーネルを算出するステップと、
    前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成するステップと、
    を含む補償画像を生成する方法。
  26. 前記画像がピクセレーションを持っているかどうかに基づいて、投影された前記画像をデフォーカスするステップをさらに含む、請求項25に記載の方法。
  27. 前記画素の各々の前記デフォーカスカーネルを推定するステップは、前記画像を投影して該画像の前記放射輝度を検出する前に完了する、請求項25に記載の方法。
  28. 前記画素の各々の周辺光に基づいて周辺の放射輝度を検出するステップをさらに含む、請求項25に記載の方法。
  29. 前記画素の各々の前記デフォーカスカーネルを推定するステップは、
    移動する周期的照明パターンを持つ光を投影するステップと、
    前記画素の各々の時間的な放射輝度プロファイルをある期間にわたって生成するステップと、
    を含む請求項25に記載の方法。
  30. 前記移動する周期的照明パターンはドットパターンを含む請求項29に記載の方法。
  31. 前記補償画像を投影するステップをさらに含む請求項25に記載の方法。
  32. プロセッサによって実行される場合に、前記プロセッサにシーン画像および奥行き形状を取り込む方法を実行させるコンピュータ実行可能な命令を含んだコンピュータ可読媒体であって、前記方法が、
    移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影するステップと、
    複数の画素の各々において前記デフォーカス画像の放射輝度の一部を検出するステップと、
    前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得するステップと、
    前記時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出するステップと、
    投影デフォーカスの前記測定量を用いて、前記画素の各々における前記シーンに対する奥行きを算出するステップと、
    を含むコンピュータ可読媒体。
  33. 前記方法が、前記シーンの取り込まれた画像を表示するステップをさらに含む、請求項32に記載のコンピュータ可読媒体。
  34. 前記画素の各々における前記シーンに対する前記奥行きを用いて、前記シーンを層に分割する奥行きマップを生成するステップをさらに含む、請求項32に記載のコンピュータ可読媒体。
  35. 前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成するステップをさらに含む、請求項34に記載のコンピュータ可読媒体。
  36. 前記奥行きマップを用いて前記シーンの画像を変更することにより新しい画像を生成するステップをさらに含む、請求項34に記載のコンピュータ可読媒体。
  37. 前記画像を変更することは、前記画像に少なくとも1つの新しいオブジェクトを挿入することを含む、請求項21に記載の方法。
  38. 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項32に記載のコンピュータ可読媒体。
  39. 前記デフォーカス画像は前記シーンの前方に焦点を合わせられている、請求項32に記載のコンピュータ可読媒体。
  40. プロセッサによって実行される場合に、前記プロセッサに補償画像を生成する方法を実行させるコンピュータ実行可能な命令を含んだ、コンピュータ可読媒体であって、前記方法が、
    画像を投影するステップと、
    複数の画素の各々において前記画像の放射輝度の一部を検出するステップと、
    前記画素の各々のデフォーカスカーネルを算出するステップと、
    前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成するステップと、
    を含むコンピュータ可読媒体。
  41. 前記画像がピクセレーションを持っているかどうかに基づいて、投影された前記画像をデフォーカスするステップをさらに含む、請求項40に記載のコンピュータ可読媒体。
  42. 前記画素の各々の前記デフォーカスカーネルを推定するステップは、前記画像を投影して該画像の前記放射輝度を検出する前に完了する、請求項40に記載のコンピュータ可読媒体。
  43. 前記画素の各々の周辺光に基づいて周辺の放射輝度を検出ステップことをさらに含む、請求項40に記載のコンピュータ可読媒体。
  44. 前記画素の各々の前記デフォーカスカーネルを推定するステップは、
    移動する周期的照明パターンを持つ光を投影するステップと、
    前記画素の各々の時間的な放射輝度プロファイルをある期間にわたって生成するステップと、
    を含む請求項40に記載のコンピュータ可読媒体。
  45. 前記移動する周期的照明パターンはドットパターンを含む、請求項44に記載のコンピュータ可読媒体。
  46. 前記方法は前記補償画像を投影するステップをさらに含む、請求項40に記載のコンピュータ可読媒体。
  47. シーン画像および奥行き形状を取り込むシステムであって、
    移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影する手段と、
    複数の画素の各々において前記デフォーカス画像の放射輝度の一部を検出する手段と、
    前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得する手段と、
    前時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出する手段と、
    前記算出された投影デフォーカス量を用いて前記画素の各々における前記シーンに対する奥行きを算出する手段と、
    を有するシーン画像および奥行き形状を取り込むシステム。
  48. 前記シーンの取り込まれた画像を表示する手段をさらに有する請求項47に記載のシステム。
  49. 前記画素の各々における前記シーンに対する前記奥行きを用いて、前記シーンを層に分割する奥行きマップを生成する手段をさらに有する、請求項47に記載のシステム。
  50. 前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成する手段をさらに有する、請求項49に記載のシステム。
  51. 前記奥行きマップを用いて前記シーンの画像を変更することにより新しい画像を生成する手段をさらに有する、請求項49に記載のシステム。
  52. 前記画像を変更する手段は、前記画像に少なくとも1つの新しいオブジェクトを挿入する手段を有する、請求項51に記載のシステム。
  53. 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項47に記載のシステム。
  54. 前記デフォーカス画像は前記シーンの前方に焦点を合わせられている、請求項47に記載のシステム。
  55. 補償画像を生成するシステムであって、
    画像を投影する手段と、
    複数の画素の各々において前記画像の放射輝度の一部を検出する手段と、
    前記画素の各々のデフォーカスカーネルを算出する手段と、
    前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成する手段と、
    を有する補償画像を生成するシステム。
  56. 前記画像がピクセレーションを持っているかどうかに基づいて、投影された前記画像をデフォーカスする手段をさらに有する、請求項55に記載のシステム。
  57. 前記画素の各々の前記デフォーカスカーネルは、前記画像が投影されて前記放射輝度の一部が検出される前に完了する、請求項55に記載のシステム。
  58. 前記画素の各々の周辺光に基づいて周辺の放射輝度を検出する手段をさらに有する、請求項55に記載のシステム。
  59. 前記画素の各々の前記デフォーカスカーネルを算出する手段は、
    移動する周期的照明パターンを持つ光を投影する手段と、
    前記画素の各々の時間的な放射輝度プロファイルをある期間にわたって生成する手段と、
    を有する請求項55に記載のシステム。
  60. 前記移動する周期的照明パターンはドットパターンを含む請求項59に記載のシステム。
  61. 前記補償画像を投影する手段をさらに有する、請求項55に記載のシステム。
JP2008552409A 2006-01-24 2007-01-24 シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 Pending JP2009524849A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US76197706P 2006-01-24 2006-01-24
PCT/US2007/002056 WO2007087405A2 (en) 2006-01-24 2007-01-24 Capturing scene images and depth geometry and generating a compensation image

Publications (1)

Publication Number Publication Date
JP2009524849A true JP2009524849A (ja) 2009-07-02

Family

ID=38309852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008552409A Pending JP2009524849A (ja) 2006-01-24 2007-01-24 シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体

Country Status (3)

Country Link
US (1) US9122946B2 (ja)
JP (1) JP2009524849A (ja)
WO (1) WO2007087405A2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157671A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び画像表示装置
JPWO2017085802A1 (ja) * 2015-11-18 2018-08-30 マクセル株式会社 画像投射装置
WO2019058415A1 (ja) * 2017-09-19 2019-03-28 Necディスプレイソリューションズ株式会社 マルチプロジェクションシステム、映像投射方法及びプロジェクタ
WO2019064968A1 (ja) * 2017-09-29 2019-04-04 富士フイルム株式会社 投影装置および投影方法
JP2019133190A (ja) * 2019-04-24 2019-08-08 マクセル株式会社 画像投射装置
WO2019167455A1 (ja) * 2018-03-02 2019-09-06 ソニー株式会社 情報処理装置、情報処理装置の演算方法、プログラム
WO2019230109A1 (ja) * 2018-05-28 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7794090B2 (en) * 2006-01-24 2010-09-14 Seiko Epson Corporation Efficient dual photography
US8693742B2 (en) 2008-12-17 2014-04-08 The Regents Of The University Of Colorado Three-dimensional single-molecule fluorescence imaging beyond the diffraction limit using a double-helix point spread function
JP5760324B2 (ja) * 2010-03-19 2015-08-05 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム並びにこの画像処理プログラムが記録された記録媒体
KR101789071B1 (ko) * 2011-01-13 2017-10-24 삼성전자주식회사 깊이 영상의 특징 추출 방법 및 장치
US8976256B2 (en) * 2011-03-21 2015-03-10 The United States Of America As Represented By The Secretary Of The Air Force Remote sensing of hidden objects
US9100574B2 (en) 2011-10-18 2015-08-04 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
EP2864468B1 (en) 2012-06-22 2020-08-05 The Regents of the University of Colorado, a body corporate Method and system for estimating a position and an angular orientation of a particle
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US9858464B2 (en) 2013-03-15 2018-01-02 The Regents Of The University Of Colorado, A Body Corporate 3-D localization and imaging of dense arrays of particles
US9696145B2 (en) * 2013-05-13 2017-07-04 Texas Instruments Incorporated Opportunistic structured light
US9792698B2 (en) 2013-05-30 2017-10-17 Nokia Technologies Oy Image refocusing
US10036735B2 (en) 2013-08-26 2018-07-31 The Regents Of The University Of Colorado, A Body Corporate Imaging through scattering media with high signal to noise ratio and resolution
WO2016073785A1 (en) * 2014-11-05 2016-05-12 The Regents Of The University Of Colorado 3d imaging, ranging, and/or tracking using active illumination and point spread function engineering
WO2018178517A1 (en) * 2017-03-29 2018-10-04 Engemma Oy Gemological object recognition
TWI672938B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 可校正遮蔽區的深度圖產生裝置
US10740913B2 (en) 2017-12-12 2020-08-11 Samsung Electronics Co., Ltd. Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system
US11262192B2 (en) 2017-12-12 2022-03-01 Samsung Electronics Co., Ltd. High contrast structured light patterns for QIS sensors
CN114746905A (zh) 2019-11-27 2022-07-12 特里纳米克斯股份有限公司 通过显示器的深度测量

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6184515A (ja) * 1984-09-24 1986-04-30 ウエスチングハウス エレクトリック コ−ポレ−ション 対象物上の複数の点までの距離を求める方法及び装置
JPH1183454A (ja) * 1997-09-10 1999-03-26 Citizen Watch Co Ltd 格子パターン投影法を用いた3次元形状測定装置
JP2005225111A (ja) * 2004-02-13 2005-08-25 Seiko Epson Corp 筆記装置
JP2005291839A (ja) * 2004-03-31 2005-10-20 Brother Ind Ltd 投影装置および3次元形状検出装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5300381A (en) * 1992-09-24 1994-04-05 Eastman Kodak Company Color image reproduction of scenes with preferential tone mapping
WO1996041304A1 (en) * 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US20030071813A1 (en) * 1996-06-05 2003-04-17 Alessandro Chiabrera Three-dimensional display system: apparatus and method
WO2002009424A2 (en) * 2000-07-21 2002-01-31 The Trustees Of Columbia University In The City Of New York Method and apparatus for image mosaicing
WO2003027766A2 (en) * 2001-09-27 2003-04-03 Eyesee360, Inc. System and method for panoramic imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6184515A (ja) * 1984-09-24 1986-04-30 ウエスチングハウス エレクトリック コ−ポレ−ション 対象物上の複数の点までの距離を求める方法及び装置
JPH1183454A (ja) * 1997-09-10 1999-03-26 Citizen Watch Co Ltd 格子パターン投影法を用いた3次元形状測定装置
JP2005225111A (ja) * 2004-02-13 2005-08-25 Seiko Epson Corp 筆記装置
JP2005291839A (ja) * 2004-03-31 2005-10-20 Brother Ind Ltd 投影装置および3次元形状検出装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157671A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び画像表示装置
JPWO2016157671A1 (ja) * 2015-03-27 2018-01-18 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び画像表示装置
US11069038B2 (en) 2015-03-27 2021-07-20 Sony Corporation Information processing apparatus, information processing method, and image display apparatus
JPWO2017085802A1 (ja) * 2015-11-18 2018-08-30 マクセル株式会社 画像投射装置
WO2019058415A1 (ja) * 2017-09-19 2019-03-28 Necディスプレイソリューションズ株式会社 マルチプロジェクションシステム、映像投射方法及びプロジェクタ
US11620732B2 (en) 2017-09-19 2023-04-04 Sharp Nec Display Solutions, Ltd. Multi-projection system, image projection method and projector
JPWO2019064968A1 (ja) * 2017-09-29 2020-11-26 富士フイルム株式会社 投影装置および投影方法
US11061312B2 (en) 2017-09-29 2021-07-13 Fujifilm Corporation Projection apparatus and projection method
WO2019064968A1 (ja) * 2017-09-29 2019-04-04 富士フイルム株式会社 投影装置および投影方法
WO2019167455A1 (ja) * 2018-03-02 2019-09-06 ソニー株式会社 情報処理装置、情報処理装置の演算方法、プログラム
US11218675B2 (en) 2018-03-02 2022-01-04 Sony Corporation Information processing apparatus, computation method of information processing apparatus, and program
WO2019230109A1 (ja) * 2018-05-28 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法
JPWO2019230109A1 (ja) * 2018-05-28 2021-07-08 ソニーグループ株式会社 画像処理装置、画像処理方法
US11394941B2 (en) 2018-05-28 2022-07-19 Sony Corporation Image processing device and image processing method
JP7287390B2 (ja) 2018-05-28 2023-06-06 ソニーグループ株式会社 画像処理装置、画像処理方法
JP2019133190A (ja) * 2019-04-24 2019-08-08 マクセル株式会社 画像投射装置

Also Published As

Publication number Publication date
US9122946B2 (en) 2015-09-01
WO2007087405A3 (en) 2008-07-24
WO2007087405A2 (en) 2007-08-02
US20090244090A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP2009524849A (ja) シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体
US11115633B2 (en) Method and system for projector calibration
CN112106105B (zh) 生成物体三维图像的方法和系统
Zhang et al. Projection defocus analysis for scene capture and image display
KR102618542B1 (ko) ToF (time of flight) 촬영 장치 및 ToF 촬영 장치에서 깊이 이미지의 블러 감소를 위하여 이미지를 처리하는 방법
US8334893B2 (en) Method and apparatus for combining range information with an optical image
KR101494066B1 (ko) 공간 광 패턴에 기초한 깊이 데이터의 생성
Bimber et al. Multifocal projection: A multiprojector technique for increasing focal depth
JP7270702B2 (ja) 深度感知システムおよび方法
JP2001116526A (ja) 3次元形状計測装置
JP2006292385A (ja) 視覚情報処理システム及びその視覚情報処理方法
JP2015021862A (ja) 3次元計測装置及び3次元計測方法
US20230199324A1 (en) Projection unit and photographing apparatus comprising same projection unit, processor, and imaging device
JP2016075658A (ja) 情報処理システムおよび情報処理方法
KR102160340B1 (ko) 이동하는 물체의 3차원 데이터를 생성하는 방법 및 장치
JP2011075336A (ja) 3次元形状計測装置、3次元形状計測方法
JP6182739B2 (ja) 投影装置及び投影方法
Drouin et al. Camera-projector matching using an unstructured video stream
JP2006023133A (ja) 3次元形状測定装置および方法
Morgenstern et al. X-maps: Direct depth lookup for event-based structured light systems
KR20220024901A (ko) 3d 이미지 획득 프로세스에서 사용할 하나 이상의 노출 설정 그룹을 결정하는 방법
JP4543821B2 (ja) 3次元形状測定装置および方法
WO2020203236A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR101765257B1 (ko) 삼차원 영상 정보 획득 방법 및 이를 구현한 컴퓨팅 장치
Chan et al. Light-Efficient Holographic Illumination for Continuous-Wave Time-of-Flight Imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130422

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130430

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130521

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130528

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130621

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140512

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140812

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150126