JP6450982B2 - 構造化ステレオ - Google Patents
構造化ステレオ Download PDFInfo
- Publication number
- JP6450982B2 JP6450982B2 JP2016555765A JP2016555765A JP6450982B2 JP 6450982 B2 JP6450982 B2 JP 6450982B2 JP 2016555765 A JP2016555765 A JP 2016555765A JP 2016555765 A JP2016555765 A JP 2016555765A JP 6450982 B2 JP6450982 B2 JP 6450982B2
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- sensor
- low
- density
- precision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 66
- 230000003287 optical effect Effects 0.000 claims description 43
- 238000005516 engineering process Methods 0.000 claims description 34
- 239000003990 capacitor Substances 0.000 claims 8
- 230000006872 improvement Effects 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Description
Ol={0、0、0}
Or={d、0、0}
である。
{xl、yl}={x/z、y/z}
{xr、yr}={x−d/z、y/z}
z=d/(d/z)=d/(d/(xl−xr))
Z+E=d/(d/(xl−xr+ε))
E(d)=d/(xl−xr)−d/(xl−xr+ε)=d/(d/z)−d/((d/z)+ε)=εZ2/(d+εZ)
pl={x0/z0、y0/z0}、ql={(x0+k)/(z0+ak)、y0/(z0+ak)}
pr={(x0+d)/z0、y0/z0}、qr={(x0+k+d)/(z0+ak)、y0/(z0+ak)}
pl−pr=(x0/z0)−(x0+d)/z0=d/z0
ql−qr=((x0+k)/(z0+ak))−((x0+k+d)/(z0+ak))=d/(z0+ak)
[項目1]
構造化ステレオ用の装置であって、
エミッタと、
複数のセンサと、
を備え、
上記複数のセンサは、上記エミッタに対して非対称に配置される、
装置。
[項目2]
上記エミッタ及び上記複数のセンサは、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、正確な深度マップを取得するようさらに改良される、
項目1に記載の装置。
[項目3]
上記エミッタ及び上記複数のセンサは、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、上記エミッタと、上記複数のセンサのうちの1つのセンサとの間の短い光学距離の結果である、
項目1に記載の装置。
[項目4]
上記エミッタ及び上記複数のセンサは、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは正確な深度マップを取得するようさらに改良され、
上記改良は、上記エミッタと、上記複数のセンサの内の1つのセンサとの間の長い光学距離の結果として取得される、
項目1に記載の装置。
[項目5]
上記エミッタ及び上記複数のセンサは、高密度深度マップを低精度で生成するのに用いられるデータを取得する、
項目1に記載の装置。
[項目6]
構造化ステレオ用のシステムであって、
エミッタと、
複数のセンサであって、上記エミッタ及び上記複数のセンサは、上記システムにおいて、上記エミッタに対して非対称に配置される、複数のセンサと、
複数の命令を格納し、且つ上記エミッタ及び上記複数のセンサに通信可能に結合されるメモリと、
上記メモリに通信可能に結合されるプロセッサであって、上記プロセッサが上記複数の命令を実行する場合、上記プロセッサは、
高精度深度マップを生成し、
高密度深度マップを生成し、
上記高精度深度マップ及び上記高密度深度マップを用いて高分解能な高密度深度マップを計算する
プロセッサと、
を備える、
システム。
[項目7]
上記エミッタは、上記複数のセンサのうちの少なくとも2つのセンサの間にあり、上記エミッタと第1センサとの間の距離は、上記エミッタと第2センサとの間の距離より短い、
項目6に記載のシステム。
[項目8]
上記複数のセンサのうちの第1センサと第2センサとの間の距離は、上記第1センサと上記エミッタとの間の距離、及び上記第2センサと上記エミッタとの間の距離より短く、これにより、上記第1センサ及び上記第2センサは互いに近くにあり、上記第1センサ及び上記第2センサは上記エミッタから遠くにある、
項目6に記載のシステム。
[項目9]
上記プロセッサは、低精度の低密度深度マップを取得し、上記複数のセンサの間のマッチングにより、低精度の上記低密度深度マップを改良して上記高精度深度マップを取得することで、上記高精度深度マップを生成する、
項目6に記載のシステム。
[項目10]
上記プロセッサは、低精度の低密度深度マップを取得し、上記複数のセンサの間のマッチングにより、低精度の上記低密度深度マップを改良することで上記高精度深度マップを生成し、マッチングされるセンサからの画像が、上記センサと上記エミッタからのパターンとの間で構造化光を用いて取得される、
項目6に記載のシステム。
[項目11]
ハイブリッド方式のアクティブ型ステレオ及び構造化光のための方法であって、
低精度の低密度深度マップを取得する段階と、
初期近似として、低精度の上記低密度深度マップを用いて高精度深度マップを生成する段階と、
高密度低精度深度マップを取得する段階と、
上記高精度深度マップ及び上記高密度低精度深度マップを用いて、高密度高分解能深度マップを計算する段階と、
を備える、
方法。
[項目12]
センサ及びエミッタからのデータ用いて、低精度の上記低密度深度マップを取得する段階を備える、
項目11に記載の方法。
[項目13]
センサとエミッタとの間で構造化光技術を用いて、低精度の上記低密度深度マップを改良することで、上記高精度深度マップを生成する段階を備える、
項目11に記載の方法。
[項目14]
少なくとも2つのセンサの間でマッチング技術、及びセンサとエミッタとの間で構造化光技術を用いて、上記高精度深度マップを生成する段階を備える、
項目11に記載の方法。
[項目15]
少なくとも2つのセンサを用いて、上記高密度低精度深度マップを取得する段階を備える、
項目11に記載の方法。
[項目16]
有形の非一時的コンピュータ可読媒体であって、
高精度深度マップを生成し、
高密度深度マップを生成し、
上記高精度深度マップ及び上記高密度深度マップを用いて、高分解能な高密度深度マップを計算するよう、プロセッサに指示するコードを備える、
コンピュータ可読媒体。
[項目17]
センサ及びエミッタからのデータを用いて低精度の低密度深度マップを取得し、上記低密度深度マップを改良することで上記高精度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目18]
センサとエミッタとの間で構造化光技術を用いて低密度深度マップを改良することで、上記高精度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目19]
少なくとも2つのセンサの間でマッチング技術、及びセンサとエミッタとの間で構造化光技術を用いて、上記高精度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目20]
少なくとも2つのセンサを用いて上記高密度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目21]
構造化ステレオ用の装置であって、
エミッタと、
深度データを取得する手段と、
を備え、
深度データを取得する上記手段は、上記エミッタに対して非対称に配置される、
装置。
[項目22]
上記エミッタ、及び深度データを取得する上記手段は、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、正確な深度マップを取得するようさらに改良される、
項目21に記載の装置。
[項目23]
上記エミッタ、及び深度データを取得する上記手段は、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、上記エミッタと、深度データを取得する上記手段との間の短い光学距離の結果である、
項目21に記載の装置。
[項目24]
上記エミッタ、及び深度データを取得する上記手段は、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、正確な深度マップを取得するようさらに改良され、上記改良は、上記エミッタと、深度データを取得する上記手段との間の長い光学距離の結果として取得される、
項目21に記載の装置。
[項目25]
上記エミッタ、及び深度データを取得する上記手段は、高密度深度マップを低精度で生成するのに用いられるデータを取得する、
項目21に記載の装置。
Claims (10)
- 構造化ステレオ用のシステムであって、
第1エミッタ及び第2エミッタと、
第1センサ及び第2センサと、
複数の命令を格納し、且つ前記第1エミッタ、前記第2エミッタ、前記第1センサ及び前記第2センサに通信可能に結合されるメモリと、
前記メモリに通信可能に結合されるプロセッサであって、前記プロセッサが前記複数の命令を実行する場合、前記プロセッサは、
前記第1エミッタが前記第1センサと前記第2センサとの間にあり、かつ、前記第1エミッタと前記第1センサとの間の距離が、前記第1エミッタと前記第2センサとの間の距離より短くなるように、前記第1エミッタ、前記第1センサ及び前記第2センサが配置されている場合に、
前記第1エミッタ及び前記第1センサが構造化光技術を用いて取得したデータから低精度の低密度深度マップを生成し、
正確な深度マップを取得するよう低精度の前記低密度深度マップを前記第2センサ及び前記第1エミッタを用いてさらに改良することによって、低精度の前記低密度深度マップより精度が高い高精度深度マップを生成し、
前記第1センサと前記第2センサとの間の距離が、前記第1センサと前記第2エミッタとの間の距離及び前記第2センサと前記第2エミッタとの間の距離より短くなるように、前記第2エミッタ、前記第1センサ及び前記第2センサが配置されている場合に、
前記第1センサ及び前記第2センサが取得したデータから、低精度の前記低密度深度マップより密度が高い高密度深度マップを生成し、前記高密度深度マップは、前記第2センサと前記第2エミッタとの間のマッチングによって改良され、
前記高精度深度マップ及び前記高密度深度マップを用いて高精度かつ高密度な深度マップを計算する
プロセッサと、
を備え、
前記高精度深度マップは、前記高密度深度マップより精度が高く、
前記高密度深度マップは、前記高精度深度マップより密度が高く、
前記高精度かつ高密度な深度マップは、低精度の前記低密度深度マップ及び前記高密度深度マップより精度が高く、かつ、低精度の前記低密度深度マップ及び前記高精度深度マップより密度が高く、
2つの前記第1エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第1エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられ、
2つの前記第2エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第2エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられる、
システム。 - 前記プロセッサは、低精度の前記低密度深度マップを取得し、前記第1センサと前記第2センサとの間のマッチングにより、低精度の前記低密度深度マップを改良して前記高精度深度マップを取得することで、前記高精度深度マップを生成する、
請求項1に記載のシステム。 - 前記プロセッサは、低精度の前記低密度深度マップを取得し、前記第1センサと前記第2センサとの間のマッチングにより、低精度の前記低密度深度マップを改良することで前記高精度深度マップを生成し、マッチングされる前記第2センサからの画像が、前記第2センサと前記第1エミッタからのパターンとの間で構造化光を用いて取得される、
請求項1又は2に記載のシステム。 - ハイブリッド方式のアクティブ型ステレオ及び構造化光のための方法であって、
第1エミッタ及び第1センサが構造化光技術を用いて取得したデータから低精度の低密度深度マップを取得する段階と、
初期近似として、低精度の前記低密度深度マップを用いて、第2センサ及び前記第1エミッタを用いることによって低精度の前記低密度深度マップより精度が高い高精度深度マップを生成する段階と、
前記第1センサ及び第2センサを用いて、低精度の前記低密度深度マップより密度が高い高密度低精度深度マップを取得する段階であって、前記高密度低精度深度マップは、前記第2センサと第2エミッタとの間のマッチングによって改良される、段階と、
前記高精度深度マップ及び前記高密度低精度深度マップを用いて、高精度かつ高密度な深度マップを計算する段階と、
を備え、
前記高精度深度マップは、前記高密度低精度深度マップより精度が高く、
前記高密度低精度深度マップは、前記高精度深度マップより密度が高く、
前記高精度かつ高密度な深度マップは、低精度の前記低密度深度マップ及び前記高密度低精度深度マップより精度が高く、かつ、低精度の前記低密度深度マップ及び前記高精度深度マップより密度が高く、
2つの前記第1エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第1エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられ、
2つの前記第2エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第2エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられる、
方法。 - 前記第2センサと前記第1エミッタとの間で構造化光技術を用いて、低精度の前記低密度深度マップを改良することで、前記高精度深度マップを生成する段階を備える、
請求項4に記載の方法。 - 前記第1センサと前記第2センサとの間でマッチング技術、及び前記第2センサと前記第1エミッタとの間で構造化光技術を用いて、前記高精度深度マップを生成する段階を備える、
請求項4又は5に記載の方法。 - 第1エミッタ及び第1センサが構造化光技術を用いて取得したデータから低精度の低密度深度マップを生成する手順と、
第2センサ及び前記第1エミッタを用いることによって低精度の前記低密度深度マップを改良することで、低精度の前記低密度深度マップより精度が高い高精度深度マップを生成する手順と、
前記第1センサ及び第2センサを用いて、低精度の前記低密度深度マップより密度が高い高密度深度マップを生成する手順であって、前記高密度深度マップは、前記第2センサと第2エミッタとの間のマッチングによって改良される、手順と、
前記高精度深度マップ及び前記高密度深度マップを用いて、高精度かつ高密度な深度マップを計算する手順と、をコンピュータに実行させ、
前記高精度深度マップは、前記高密度深度マップより精度が高く、
前記高密度深度マップは、前記高精度深度マップより密度が高く、
前記高精度かつ高密度な深度マップは、低精度の前記低密度深度マップ及び前記高密度深度マップより精度が高く、かつ、低精度の前記低密度深度マップ及び前記高精度深度マップより密度が高く、
2つの前記第1エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第1エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられ、
2つの前記第2エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第2エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられる、
プログラム。 - 前記第2センサと前記第1エミッタとの間で構造化光技術を用いて前記低密度深度マップを改良することで、前記高精度深度マップを生成する手順を含む、
請求項7に記載のプログラム。 - 前記第1センサと前記第2センサの間でマッチング技術、及び前記第2センサと前記第1エミッタとの間で構造化光技術を用いて、前記高精度深度マップを生成する手順を含む、
請求項7又は8に記載のプログラム。 - 請求項7から9の何れか一項に記載のプログラムを格納する、
コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/260,783 US9589359B2 (en) | 2014-04-24 | 2014-04-24 | Structured stereo |
US14/260,783 | 2014-04-24 | ||
PCT/US2015/021133 WO2015163995A1 (en) | 2014-04-24 | 2015-03-18 | Structured stereo |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017511468A JP2017511468A (ja) | 2017-04-20 |
JP6450982B2 true JP6450982B2 (ja) | 2019-01-16 |
Family
ID=54332976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016555765A Active JP6450982B2 (ja) | 2014-04-24 | 2015-03-18 | 構造化ステレオ |
Country Status (6)
Country | Link |
---|---|
US (1) | US9589359B2 (ja) |
EP (1) | EP3135033B1 (ja) |
JP (1) | JP6450982B2 (ja) |
KR (1) | KR101903619B1 (ja) |
CN (1) | CN106256124B (ja) |
WO (1) | WO2015163995A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3055734A4 (en) * | 2014-10-28 | 2016-10-26 | Sz Dji Technology Co Ltd | RGB-D IMAGING SYSTEM AND METHOD USING ULTRASONIC DEPTH DETECTION |
CN107111598B (zh) * | 2014-12-19 | 2020-09-15 | 深圳市大疆创新科技有限公司 | 使用超声深度感测的光流成像系统以及方法 |
US9948920B2 (en) | 2015-02-27 | 2018-04-17 | Qualcomm Incorporated | Systems and methods for error correction in structured light |
US10068338B2 (en) * | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
US9846943B2 (en) | 2015-08-31 | 2017-12-19 | Qualcomm Incorporated | Code domain power control for structured light |
CN205671994U (zh) | 2015-12-16 | 2016-11-09 | 小米科技有限责任公司 | 自动清洁设备 |
CN107465911B (zh) * | 2016-06-01 | 2019-03-15 | 东南大学 | 一种深度信息提取方法及装置 |
US10771768B2 (en) | 2016-12-15 | 2020-09-08 | Qualcomm Incorporated | Systems and methods for improved depth sensing |
US10609350B1 (en) * | 2017-01-09 | 2020-03-31 | Amazon Technologies, Inc. | Multiple frequency band image display system |
US11763433B2 (en) | 2019-11-14 | 2023-09-19 | Samsung Electronics Co., Ltd. | Depth image generation method and device |
US11741671B2 (en) * | 2021-06-16 | 2023-08-29 | Samsung Electronics Co., Ltd. | Three-dimensional scene recreation using depth fusion |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0942940A (ja) * | 1995-08-03 | 1997-02-14 | Canon Inc | 3次元物体の形状計測方法及び装置 |
JP2001091232A (ja) * | 1999-09-24 | 2001-04-06 | Sony Corp | 3次元形状計測装置および方法、並びに記録媒体 |
US7103212B2 (en) | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
JP3738291B2 (ja) * | 2003-06-09 | 2006-01-25 | 住友大阪セメント株式会社 | 三次元形状測定装置 |
DE102007031157A1 (de) * | 2006-12-15 | 2008-06-26 | Sick Ag | Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts |
TWI433052B (zh) | 2007-04-02 | 2014-04-01 | Primesense Ltd | 使用投影圖案之深度製圖 |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
DE102011008655A1 (de) * | 2011-01-14 | 2012-07-19 | Inb Vision Ag | Vorrichtung und Verfahren zur dreidimensionalen optischen Vermessung von Oberflächen |
CN102760234B (zh) * | 2011-04-14 | 2014-08-20 | 财团法人工业技术研究院 | 深度图像采集装置、系统及其方法 |
EP2772676B1 (de) | 2011-05-18 | 2015-07-08 | Sick Ag | 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs |
KR101272574B1 (ko) | 2011-11-18 | 2013-06-10 | 재단법인대구경북과학기술원 | 구조광 패턴 기반의 3차원 영상 정보 추정 장치 및 방법 |
CN102761764B (zh) * | 2012-07-16 | 2014-07-16 | 清华大学 | 一种用于三维立体视频的深度图片的上采样方法 |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
CN103383776B (zh) * | 2013-07-14 | 2016-06-15 | 浙江大学 | 一种基于分段匹配和贝叶斯估计的递进式立体匹配算法 |
-
2014
- 2014-04-24 US US14/260,783 patent/US9589359B2/en active Active
-
2015
- 2015-03-18 EP EP15783427.6A patent/EP3135033B1/en active Active
- 2015-03-18 JP JP2016555765A patent/JP6450982B2/ja active Active
- 2015-03-18 CN CN201580015879.XA patent/CN106256124B/zh active Active
- 2015-03-18 KR KR1020167026152A patent/KR101903619B1/ko active IP Right Grant
- 2015-03-18 WO PCT/US2015/021133 patent/WO2015163995A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN106256124A (zh) | 2016-12-21 |
KR20160127057A (ko) | 2016-11-02 |
US20150310620A1 (en) | 2015-10-29 |
EP3135033A1 (en) | 2017-03-01 |
EP3135033A4 (en) | 2017-12-06 |
JP2017511468A (ja) | 2017-04-20 |
US9589359B2 (en) | 2017-03-07 |
WO2015163995A1 (en) | 2015-10-29 |
EP3135033B1 (en) | 2021-08-18 |
KR101903619B1 (ko) | 2018-11-22 |
CN106256124B (zh) | 2018-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6450982B2 (ja) | 構造化ステレオ | |
CN110300292B (zh) | 投影畸变校正方法、装置、系统及存储介质 | |
US9659408B2 (en) | Mesh reconstruction from heterogeneous sources of data | |
JP6657214B2 (ja) | 画像ベースの深さ検知システムの精度測定 | |
JP6883608B2 (ja) | 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム | |
CN111080687A (zh) | 用于主动深度感测的方法和装置及其校准方法 | |
US11282232B2 (en) | Camera calibration using depth data | |
WO2020119467A1 (zh) | 高精度稠密深度图像的生成方法和装置 | |
WO2019124248A1 (ja) | 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法 | |
CN109661815B (zh) | 存在相机阵列的显著强度变化的情况下的鲁棒视差估计 | |
Shim et al. | Time-of-flight sensor and color camera calibration for multi-view acquisition | |
JP3988879B2 (ja) | 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体 | |
JP2008216127A (ja) | 距離画像生成装置、距離画像生成方法及びプログラム | |
JP2014116012A (ja) | 画像間の色転送を行う方法および装置 | |
US10281265B2 (en) | Method and system for scene scanning | |
TW201715882A (zh) | 深度估測裝置及方法 | |
US10593054B2 (en) | Estimation of 3D point candidates from a location in a single image | |
JP5996233B2 (ja) | 画像撮像装置 | |
US11257235B2 (en) | Efficient sub-pixel disparity estimation for all sub-aperture images from densely sampled light field cameras | |
JP5728399B2 (ja) | 計測装置、方法及びプログラム | |
WO2022022136A1 (zh) | 深度图像生成方法及装置、参考图像生成方法及装置、电子设备以及计算机可读存储介质 | |
JP2018081424A (ja) | 画像処理装置および画像処理方法 | |
KR101358430B1 (ko) | 깊이 영상 생성 방법 및 시스템 | |
WO2021057582A1 (zh) | 图像匹配、3d成像及姿态识别方法、装置及系统 | |
CN117152244A (zh) | 屏幕间位置关系确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6450982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |