JP2009524849A - シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 - Google Patents
シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 Download PDFInfo
- Publication number
- JP2009524849A JP2009524849A JP2008552409A JP2008552409A JP2009524849A JP 2009524849 A JP2009524849 A JP 2009524849A JP 2008552409 A JP2008552409 A JP 2008552409A JP 2008552409 A JP2008552409 A JP 2008552409A JP 2009524849 A JP2009524849 A JP 2009524849A
- Authority
- JP
- Japan
- Prior art keywords
- image
- scene
- pixels
- radiance
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
- G06V2201/121—Acquisition of 3D measurements of objects using special illumination
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Projection Apparatus (AREA)
- Liquid Crystal Display Device Control (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
【選択図】図1
Description
本出願は、2006年1月24日に出願された米国仮特許出願番号第60/761,977号の利益を主張し、その全体は参照により本書に組み込まれる。
I=αf(x;z)*P(x)+β
として書くことができ、ここで、*は畳み込みを示し、αは表面の反射率に依存する要因、βは周辺光による放射輝度、f(x;z)はデフォーカスカーネル、xはプロジェクタの画素座標、P(x)は、構造化された光パターン116の数学的表現である。式(1)は、構造化パターン116を含んだ光112Aが入力であり、シーンの放射輝度が出力である線形モデルを定義している。デフォーカスカーネルはシーンの奥行きzに依存するので、該奥行きはデフォーカスカーネルから正常な状態に戻すことができ、そのデフォーカスカーネルもやはり算出されたシーンの放射輝度から算出できる。その時のシーン114内の各点の放射輝度は、構造化パターン116による励起に対するデフォーカスカーネルの応答である。
ここで、
で表される離散時間フーリエ級数に分解することにより、量子化することができる。
デフォーカスカーネルf(x;z)はローパスフィルタなので、係数AKがkに関して小さくなる速さがデフォーカス量の尺度であり、そしてそれは次にその点での奥行きを算出するのに使用される。A0は周辺光βに依存するので、奥行きを算出するのに使用できず、残りの係数はすべてアルベドαによって変化するが、最初の2つの係数A1およびA2の比率を用いて、投影デフォーカスが1次高調波に対してどれくらい激しく2次高調波を減衰させるかを決定することができる。したがって、奥行きは、式(3):
θ=A2/A1
ここで、A1>A2>0およびθ∈[0,1]
として表されるA1およびA2の比率を用いて算出することができる。
P*=(αf)-1*(I−β)
ここで、(αf)-1はカーネルαfの逆数である。
ここで、xはプロジェクタ702中の画素の座標であり、d(・,・)は像距離行列によって表される制約された最小化問題として提示される。式(5)は、プロジェクタ702のダイナミックレンジ内のすべての輝度値を使用して、入力された画像Iに最もよく適合する補償画像P*を見つける。いくつかの実施形態では、画素差の二乗和が像距離行列d(・,・)を構築するのに使用される。デフォーカス畳み込みαf*Pが行列乗算FPとして表される反復、制約、最急降下アルゴリズムを適用することにより、補償画像を見つけることができるが、ここでFの各行はそのアルベドによって変調された対応する画素のデフォーカスカーネルである。アルゴリズムはP0=Iで始まり、次の2つの方程式、式(6)および式(7)をそれぞれ反復する。
ここで、Gi=FT(I−β−FPi)、ηi=‖Gi‖2/‖FGi‖2、CLAMPは画素に関するクランプ演算である。Giは、Pに対する像距離‖PF+β−I‖2の勾配である。Giを評価することは、カーネル行列FおよびFTによる2つの画像フィルタリングをそれぞれ包含する。これらのフィルタリングは、空間により変化し、シーンに依存する。式(6)は、式(4)の解に収束する標準の最急降下アルゴリズムである。しかしながら、式(6)および式(7)を組み合わせることにより、焦点がぼけた補償画像とプロジェクタ702のダイナミックレンジを持つ入力された原画像との間の差が最小化される。ステップ810で、補償画像を投影面上に投影することができる。
Claims (61)
- シーン画像および奥行き形状を取り込むシステムであって、
シーンに対してデフォーカス可能であり、移動する周期的照明パターンを持つ光を前記シーン上に投影するプロジェクタと、
複数の画素を持ち、該画素の各々において前記シーンの少なくとも1つの画像の放射輝度の一部を検出する光センサと、
該光センサに接続可能なデジタル処理装置と、
を有し、該デジタル処理装置は、
前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得し、
前記時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出し、
前記画素の各々において、該画素の前記投影デフォーカス量を用いて前記画素における前記シーンに対する奥行きを算出する、
シーン画像および奥行き形状を取り込むシステム。 - 前記シーンの取り込まれた画像を表示する、前記デジタル処理装置に接続された表示装置をさらに有する、請求項1に記載のシステム。
- 前記デジタル処理装置は又、前記画素の各々における前記シーンに対する前記奥行きを用いて前記シーンを層に分割する奥行きマップを生成する、請求項1に記載のシステム。
- 前記デジタル処理装置は又、前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成する、請求項3に記載のシステム。
- 前記デジタル処理装置は又、前記奥行きマップを用いて前記シーンの画像を変更する、請求項3に記載のシステム。
- 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項1に記載のシステム。
- 前記プロジェクタおよび前記光センサは、ビームスプリッタを使用して光学的に同軸上に配置される、請求項1に記載のシステム。
- 前記ビームスプリッタは迷光を吸収するチャンバ内に置かれる、請求項7に記載のシステム。
- 前記プロジェクタは、前記プロジェクタの焦点を前記シーンの後方に合わせることにより該シーンに対してデフォーカスされる、請求項1に記載のシステム。
- 前記光センサはカメラを含む請求項1に記載のシステム。
- 補償画像を生成するシステムであって、
投影構造体に画像を投影するプロジェクタと、
複数の画素を持ち、該画素の各々において前記画像の前記放射輝度の一部を検出する光センサと、
前記光センサおよび前記プロジェクタに接続可能なデジタル処理装置と、
を有し、該デジタル処理装置は、
前記画素の各々のデフォーカスカーネルを算出し、
前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成する、
補償画像を生成するシステム。 - 前記プロジェクタは、前記画像がピクセレーションを持っているかどうかに基づいてデフォーカスされる、請求項11に記載のシステム。
- 前記投影構造体は、異なる奥行き層において複数の表面を持った非平面の投影構造体を有する、請求項11に記載のシステム。
- 前記投影構造体は平面の投影スクリーンを含む請求項11に記載のシステム。
- 前記プロジェクタは又、前記投影構造体に前記補償画像を投影する、請求項11に記載のシステム。
- 前記プロジェクタは、ビームスプリッタを使用して前記光センサと光学的に同軸上に配置される、請求項11に記載のシステム。
- シーン画像および奥行き形状を取り込む方法であって、
移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影するステップと、
複数の画素の各々において前記デフォーカス画像の放射輝度の一部を検出するステップと、
前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得するステップと、
前記時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出するステップと、
前記算出された投影デフォーカス量を用いて前記画素の各々における前記シーンに対する奥行きを算出するステップと、
を含むシーン画像および奥行き形状を取り込む方法。 - 前記シーンの取り込まれた画像を表示するステップをさらに含む、請求項17に記載の方法。
- 前記画素の各々における前記シーンに対する前記奥行きを用いて、前記シーンを層に分割する奥行きマップを生成するステップをさらに含む、請求項17に記載の方法。
- 前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成するステップをさらに含む、請求項19に記載の方法。
- 前記奥行きマップを用いて前記シーンの画像を変更することにより新しい画像を生成するステップをさらに含む、請求項19に記載の方法。
- 前記画像を変更することは、前記画像に少なくとも1つの新しいオブジェクトを挿入することを含む、請求項21に記載の方法。
- 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項17に記載の方法。
- 前記デフォーカス画像は前記シーンの前方に焦点を合わせられている、請求項17に記載の方法。
- 補償画像を生成する方法であって、
画像を投影するステップと、
複数の画素の各々において前記画像の放射輝度の一部を検出するステップと、
前記画素の各々のデフォーカスカーネルを算出するステップと、
前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成するステップと、
を含む補償画像を生成する方法。 - 前記画像がピクセレーションを持っているかどうかに基づいて、投影された前記画像をデフォーカスするステップをさらに含む、請求項25に記載の方法。
- 前記画素の各々の前記デフォーカスカーネルを推定するステップは、前記画像を投影して該画像の前記放射輝度を検出する前に完了する、請求項25に記載の方法。
- 前記画素の各々の周辺光に基づいて周辺の放射輝度を検出するステップをさらに含む、請求項25に記載の方法。
- 前記画素の各々の前記デフォーカスカーネルを推定するステップは、
移動する周期的照明パターンを持つ光を投影するステップと、
前記画素の各々の時間的な放射輝度プロファイルをある期間にわたって生成するステップと、
を含む請求項25に記載の方法。 - 前記移動する周期的照明パターンはドットパターンを含む請求項29に記載の方法。
- 前記補償画像を投影するステップをさらに含む請求項25に記載の方法。
- プロセッサによって実行される場合に、前記プロセッサにシーン画像および奥行き形状を取り込む方法を実行させるコンピュータ実行可能な命令を含んだコンピュータ可読媒体であって、前記方法が、
移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影するステップと、
複数の画素の各々において前記デフォーカス画像の放射輝度の一部を検出するステップと、
前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得するステップと、
前記時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出するステップと、
投影デフォーカスの前記測定量を用いて、前記画素の各々における前記シーンに対する奥行きを算出するステップと、
を含むコンピュータ可読媒体。 - 前記方法が、前記シーンの取り込まれた画像を表示するステップをさらに含む、請求項32に記載のコンピュータ可読媒体。
- 前記画素の各々における前記シーンに対する前記奥行きを用いて、前記シーンを層に分割する奥行きマップを生成するステップをさらに含む、請求項32に記載のコンピュータ可読媒体。
- 前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成するステップをさらに含む、請求項34に記載のコンピュータ可読媒体。
- 前記奥行きマップを用いて前記シーンの画像を変更することにより新しい画像を生成するステップをさらに含む、請求項34に記載のコンピュータ可読媒体。
- 前記画像を変更することは、前記画像に少なくとも1つの新しいオブジェクトを挿入することを含む、請求項21に記載の方法。
- 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項32に記載のコンピュータ可読媒体。
- 前記デフォーカス画像は前記シーンの前方に焦点を合わせられている、請求項32に記載のコンピュータ可読媒体。
- プロセッサによって実行される場合に、前記プロセッサに補償画像を生成する方法を実行させるコンピュータ実行可能な命令を含んだ、コンピュータ可読媒体であって、前記方法が、
画像を投影するステップと、
複数の画素の各々において前記画像の放射輝度の一部を検出するステップと、
前記画素の各々のデフォーカスカーネルを算出するステップと、
前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成するステップと、
を含むコンピュータ可読媒体。 - 前記画像がピクセレーションを持っているかどうかに基づいて、投影された前記画像をデフォーカスするステップをさらに含む、請求項40に記載のコンピュータ可読媒体。
- 前記画素の各々の前記デフォーカスカーネルを推定するステップは、前記画像を投影して該画像の前記放射輝度を検出する前に完了する、請求項40に記載のコンピュータ可読媒体。
- 前記画素の各々の周辺光に基づいて周辺の放射輝度を検出ステップことをさらに含む、請求項40に記載のコンピュータ可読媒体。
- 前記画素の各々の前記デフォーカスカーネルを推定するステップは、
移動する周期的照明パターンを持つ光を投影するステップと、
前記画素の各々の時間的な放射輝度プロファイルをある期間にわたって生成するステップと、
を含む請求項40に記載のコンピュータ可読媒体。 - 前記移動する周期的照明パターンはドットパターンを含む、請求項44に記載のコンピュータ可読媒体。
- 前記方法は前記補償画像を投影するステップをさらに含む、請求項40に記載のコンピュータ可読媒体。
- シーン画像および奥行き形状を取り込むシステムであって、
移動する周期的照明パターンを持つデフォーカス画像をシーン上に投影する手段と、
複数の画素の各々において前記デフォーカス画像の放射輝度の一部を検出する手段と、
前記画素の各々の前記放射輝度から時間的な放射輝度プロファイルをある期間にわたって取得する手段と、
前時間的な放射輝度プロファイルを用いて前記画素の各々の投影デフォーカス量を算出する手段と、
前記算出された投影デフォーカス量を用いて前記画素の各々における前記シーンに対する奥行きを算出する手段と、
を有するシーン画像および奥行き形状を取り込むシステム。 - 前記シーンの取り込まれた画像を表示する手段をさらに有する請求項47に記載のシステム。
- 前記画素の各々における前記シーンに対する前記奥行きを用いて、前記シーンを層に分割する奥行きマップを生成する手段をさらに有する、請求項47に記載のシステム。
- 前記奥行きマップを用いて種々の焦点の前記シーンの画像を生成する手段をさらに有する、請求項49に記載のシステム。
- 前記奥行きマップを用いて前記シーンの画像を変更することにより新しい画像を生成する手段をさらに有する、請求項49に記載のシステム。
- 前記画像を変更する手段は、前記画像に少なくとも1つの新しいオブジェクトを挿入する手段を有する、請求項51に記載のシステム。
- 前記移動する周期的照明パターンは、一度に少なくとも1画素移動される複数画素幅のストライプパターンを有する、請求項47に記載のシステム。
- 前記デフォーカス画像は前記シーンの前方に焦点を合わせられている、請求項47に記載のシステム。
- 補償画像を生成するシステムであって、
画像を投影する手段と、
複数の画素の各々において前記画像の放射輝度の一部を検出する手段と、
前記画素の各々のデフォーカスカーネルを算出する手段と、
前記放射輝度および前記デフォーカスカーネルを用いて補償画像を生成する手段と、
を有する補償画像を生成するシステム。 - 前記画像がピクセレーションを持っているかどうかに基づいて、投影された前記画像をデフォーカスする手段をさらに有する、請求項55に記載のシステム。
- 前記画素の各々の前記デフォーカスカーネルは、前記画像が投影されて前記放射輝度の一部が検出される前に完了する、請求項55に記載のシステム。
- 前記画素の各々の周辺光に基づいて周辺の放射輝度を検出する手段をさらに有する、請求項55に記載のシステム。
- 前記画素の各々の前記デフォーカスカーネルを算出する手段は、
移動する周期的照明パターンを持つ光を投影する手段と、
前記画素の各々の時間的な放射輝度プロファイルをある期間にわたって生成する手段と、
を有する請求項55に記載のシステム。 - 前記移動する周期的照明パターンはドットパターンを含む請求項59に記載のシステム。
- 前記補償画像を投影する手段をさらに有する、請求項55に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US76197706P | 2006-01-24 | 2006-01-24 | |
PCT/US2007/002056 WO2007087405A2 (en) | 2006-01-24 | 2007-01-24 | Capturing scene images and depth geometry and generating a compensation image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009524849A true JP2009524849A (ja) | 2009-07-02 |
Family
ID=38309852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008552409A Pending JP2009524849A (ja) | 2006-01-24 | 2007-01-24 | シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9122946B2 (ja) |
JP (1) | JP2009524849A (ja) |
WO (1) | WO2007087405A2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016157671A1 (ja) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び画像表示装置 |
JPWO2017085802A1 (ja) * | 2015-11-18 | 2018-08-30 | マクセル株式会社 | 画像投射装置 |
WO2019058415A1 (ja) * | 2017-09-19 | 2019-03-28 | Necディスプレイソリューションズ株式会社 | マルチプロジェクションシステム、映像投射方法及びプロジェクタ |
WO2019064968A1 (ja) * | 2017-09-29 | 2019-04-04 | 富士フイルム株式会社 | 投影装置および投影方法 |
JP2019133190A (ja) * | 2019-04-24 | 2019-08-08 | マクセル株式会社 | 画像投射装置 |
WO2019167455A1 (ja) * | 2018-03-02 | 2019-09-06 | ソニー株式会社 | 情報処理装置、情報処理装置の演算方法、プログラム |
WO2019230109A1 (ja) * | 2018-05-28 | 2019-12-05 | ソニー株式会社 | 画像処理装置、画像処理方法 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7794090B2 (en) * | 2006-01-24 | 2010-09-14 | Seiko Epson Corporation | Efficient dual photography |
US8693742B2 (en) | 2008-12-17 | 2014-04-08 | The Regents Of The University Of Colorado | Three-dimensional single-molecule fluorescence imaging beyond the diffraction limit using a double-helix point spread function |
JP5760324B2 (ja) * | 2010-03-19 | 2015-08-05 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラム並びにこの画像処理プログラムが記録された記録媒体 |
KR101789071B1 (ko) * | 2011-01-13 | 2017-10-24 | 삼성전자주식회사 | 깊이 영상의 특징 추출 방법 및 장치 |
US8976256B2 (en) * | 2011-03-21 | 2015-03-10 | The United States Of America As Represented By The Secretary Of The Air Force | Remote sensing of hidden objects |
US9100574B2 (en) | 2011-10-18 | 2015-08-04 | Hewlett-Packard Development Company, L.P. | Depth mask assisted video stabilization |
EP2864468B1 (en) | 2012-06-22 | 2020-08-05 | The Regents of the University of Colorado, a body corporate | Method and system for estimating a position and an angular orientation of a particle |
US8896594B2 (en) | 2012-06-30 | 2014-11-25 | Microsoft Corporation | Depth sensing with depth-adaptive illumination |
US9858464B2 (en) | 2013-03-15 | 2018-01-02 | The Regents Of The University Of Colorado, A Body Corporate | 3-D localization and imaging of dense arrays of particles |
US9696145B2 (en) * | 2013-05-13 | 2017-07-04 | Texas Instruments Incorporated | Opportunistic structured light |
US9792698B2 (en) | 2013-05-30 | 2017-10-17 | Nokia Technologies Oy | Image refocusing |
US10036735B2 (en) | 2013-08-26 | 2018-07-31 | The Regents Of The University Of Colorado, A Body Corporate | Imaging through scattering media with high signal to noise ratio and resolution |
WO2016073785A1 (en) * | 2014-11-05 | 2016-05-12 | The Regents Of The University Of Colorado | 3d imaging, ranging, and/or tracking using active illumination and point spread function engineering |
WO2018178517A1 (en) * | 2017-03-29 | 2018-10-04 | Engemma Oy | Gemological object recognition |
TWI672938B (zh) * | 2017-03-31 | 2019-09-21 | 鈺立微電子股份有限公司 | 可校正遮蔽區的深度圖產生裝置 |
US10740913B2 (en) | 2017-12-12 | 2020-08-11 | Samsung Electronics Co., Ltd. | Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system |
US11262192B2 (en) | 2017-12-12 | 2022-03-01 | Samsung Electronics Co., Ltd. | High contrast structured light patterns for QIS sensors |
CN114746905A (zh) | 2019-11-27 | 2022-07-12 | 特里纳米克斯股份有限公司 | 通过显示器的深度测量 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6184515A (ja) * | 1984-09-24 | 1986-04-30 | ウエスチングハウス エレクトリック コ−ポレ−ション | 対象物上の複数の点までの距離を求める方法及び装置 |
JPH1183454A (ja) * | 1997-09-10 | 1999-03-26 | Citizen Watch Co Ltd | 格子パターン投影法を用いた3次元形状測定装置 |
JP2005225111A (ja) * | 2004-02-13 | 2005-08-25 | Seiko Epson Corp | 筆記装置 |
JP2005291839A (ja) * | 2004-03-31 | 2005-10-20 | Brother Ind Ltd | 投影装置および3次元形状検出装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5300381A (en) * | 1992-09-24 | 1994-04-05 | Eastman Kodak Company | Color image reproduction of scenes with preferential tone mapping |
WO1996041304A1 (en) * | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
US20030071813A1 (en) * | 1996-06-05 | 2003-04-17 | Alessandro Chiabrera | Three-dimensional display system: apparatus and method |
WO2002009424A2 (en) * | 2000-07-21 | 2002-01-31 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for image mosaicing |
WO2003027766A2 (en) * | 2001-09-27 | 2003-04-03 | Eyesee360, Inc. | System and method for panoramic imaging |
-
2007
- 2007-01-24 US US12/161,415 patent/US9122946B2/en active Active
- 2007-01-24 WO PCT/US2007/002056 patent/WO2007087405A2/en active Application Filing
- 2007-01-24 JP JP2008552409A patent/JP2009524849A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6184515A (ja) * | 1984-09-24 | 1986-04-30 | ウエスチングハウス エレクトリック コ−ポレ−ション | 対象物上の複数の点までの距離を求める方法及び装置 |
JPH1183454A (ja) * | 1997-09-10 | 1999-03-26 | Citizen Watch Co Ltd | 格子パターン投影法を用いた3次元形状測定装置 |
JP2005225111A (ja) * | 2004-02-13 | 2005-08-25 | Seiko Epson Corp | 筆記装置 |
JP2005291839A (ja) * | 2004-03-31 | 2005-10-20 | Brother Ind Ltd | 投影装置および3次元形状検出装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016157671A1 (ja) * | 2015-03-27 | 2016-10-06 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び画像表示装置 |
JPWO2016157671A1 (ja) * | 2015-03-27 | 2018-01-18 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び画像表示装置 |
US11069038B2 (en) | 2015-03-27 | 2021-07-20 | Sony Corporation | Information processing apparatus, information processing method, and image display apparatus |
JPWO2017085802A1 (ja) * | 2015-11-18 | 2018-08-30 | マクセル株式会社 | 画像投射装置 |
WO2019058415A1 (ja) * | 2017-09-19 | 2019-03-28 | Necディスプレイソリューションズ株式会社 | マルチプロジェクションシステム、映像投射方法及びプロジェクタ |
US11620732B2 (en) | 2017-09-19 | 2023-04-04 | Sharp Nec Display Solutions, Ltd. | Multi-projection system, image projection method and projector |
JPWO2019064968A1 (ja) * | 2017-09-29 | 2020-11-26 | 富士フイルム株式会社 | 投影装置および投影方法 |
US11061312B2 (en) | 2017-09-29 | 2021-07-13 | Fujifilm Corporation | Projection apparatus and projection method |
WO2019064968A1 (ja) * | 2017-09-29 | 2019-04-04 | 富士フイルム株式会社 | 投影装置および投影方法 |
WO2019167455A1 (ja) * | 2018-03-02 | 2019-09-06 | ソニー株式会社 | 情報処理装置、情報処理装置の演算方法、プログラム |
US11218675B2 (en) | 2018-03-02 | 2022-01-04 | Sony Corporation | Information processing apparatus, computation method of information processing apparatus, and program |
WO2019230109A1 (ja) * | 2018-05-28 | 2019-12-05 | ソニー株式会社 | 画像処理装置、画像処理方法 |
JPWO2019230109A1 (ja) * | 2018-05-28 | 2021-07-08 | ソニーグループ株式会社 | 画像処理装置、画像処理方法 |
US11394941B2 (en) | 2018-05-28 | 2022-07-19 | Sony Corporation | Image processing device and image processing method |
JP7287390B2 (ja) | 2018-05-28 | 2023-06-06 | ソニーグループ株式会社 | 画像処理装置、画像処理方法 |
JP2019133190A (ja) * | 2019-04-24 | 2019-08-08 | マクセル株式会社 | 画像投射装置 |
Also Published As
Publication number | Publication date |
---|---|
US9122946B2 (en) | 2015-09-01 |
WO2007087405A3 (en) | 2008-07-24 |
WO2007087405A2 (en) | 2007-08-02 |
US20090244090A1 (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009524849A (ja) | シーン画像および奥行き形状を取り込んで補償画像を生成するためのシステム、方法、および媒体 | |
US11115633B2 (en) | Method and system for projector calibration | |
CN112106105B (zh) | 生成物体三维图像的方法和系统 | |
Zhang et al. | Projection defocus analysis for scene capture and image display | |
KR102618542B1 (ko) | ToF (time of flight) 촬영 장치 및 ToF 촬영 장치에서 깊이 이미지의 블러 감소를 위하여 이미지를 처리하는 방법 | |
US8334893B2 (en) | Method and apparatus for combining range information with an optical image | |
KR101494066B1 (ko) | 공간 광 패턴에 기초한 깊이 데이터의 생성 | |
Bimber et al. | Multifocal projection: A multiprojector technique for increasing focal depth | |
JP7270702B2 (ja) | 深度感知システムおよび方法 | |
JP2001116526A (ja) | 3次元形状計測装置 | |
JP2006292385A (ja) | 視覚情報処理システム及びその視覚情報処理方法 | |
JP2015021862A (ja) | 3次元計測装置及び3次元計測方法 | |
US20230199324A1 (en) | Projection unit and photographing apparatus comprising same projection unit, processor, and imaging device | |
JP2016075658A (ja) | 情報処理システムおよび情報処理方法 | |
KR102160340B1 (ko) | 이동하는 물체의 3차원 데이터를 생성하는 방법 및 장치 | |
JP2011075336A (ja) | 3次元形状計測装置、3次元形状計測方法 | |
JP6182739B2 (ja) | 投影装置及び投影方法 | |
Drouin et al. | Camera-projector matching using an unstructured video stream | |
JP2006023133A (ja) | 3次元形状測定装置および方法 | |
Morgenstern et al. | X-maps: Direct depth lookup for event-based structured light systems | |
KR20220024901A (ko) | 3d 이미지 획득 프로세스에서 사용할 하나 이상의 노출 설정 그룹을 결정하는 방법 | |
JP4543821B2 (ja) | 3次元形状測定装置および方法 | |
WO2020203236A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
KR101765257B1 (ko) | 삼차원 영상 정보 획득 방법 및 이를 구현한 컴퓨팅 장치 | |
Chan et al. | Light-Efficient Holographic Illumination for Continuous-Wave Time-of-Flight Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130121 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130422 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130430 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130521 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130528 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130621 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140512 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140812 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140819 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150126 |