JP2017223667A - 複数の焦点面画像に基づく深度マップ - Google Patents
複数の焦点面画像に基づく深度マップ Download PDFInfo
- Publication number
- JP2017223667A JP2017223667A JP2017107927A JP2017107927A JP2017223667A JP 2017223667 A JP2017223667 A JP 2017223667A JP 2017107927 A JP2017107927 A JP 2017107927A JP 2017107927 A JP2017107927 A JP 2017107927A JP 2017223667 A JP2017223667 A JP 2017223667A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- variance
- value
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 25
- 239000006185 dispersion Substances 0.000 claims description 11
- 239000007788 liquid Substances 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/71—Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/12—Fluid-filled or evacuated lenses
- G02B3/14—Fluid-filled or evacuated lenses of variable focal length
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】3次元(3D)シーンにおける対象物の深度マップを作成するシステム100には画像取込みセンサ110及びプロセッサ160が含まれる。画像取込みセンサ110は異なる複数の焦点面において対象物の複数の画像を取込むように構成される。プロセッサ160は画像取込みセンサ110によって取込まれた各画像の複数の画像位置に対して複数の分散値を算出するように構成される。プロセッサ160は、異なる複数の焦点面において対象物の複数の画像のそれぞれの同じ画像位置に関して算出された分散値に基づいて複数の画像位置に対してピークの分散値を決定するように構成される。プロセッサ160は、各画像位置及び異なる複数の焦点面に対して決定されたピークの分散値に基づいて対象物の深度マップを作成するように構成されている。
【選択図】図1
Description
102、104、106 対象物
108 カメラ
110 画像取込みセンサ
112 レンズ
120 ロボットアーム
122 画像
124 ピクセル
126 カーネル
130 ディスプレイ
140 プロジェクタ
150 計算機器
160 処理装置ユニット(プロセッサ)
170 メモリ
Claims (20)
- 3次元(3D)シーンにおける対象物の深度マップを作成するためのシステムであって、
異なる複数の焦点面において前記対象物の複数の画像を取込むように構成されている画像取込みセンサと、
該画像取込みセンサによって取込まれた各画像の複数の画像位置に対して複数の分散値を算出するように構成され、前記異なる複数の焦点面において前記対象物の前記複数の画像のそれぞれの同じ前記画像位置に関して算出された前記分散値に基づいて前記複数の画像位置に対してピークの分散値を決定するように構成され、前記各画像位置及び前記異なる複数の焦点面に対して決定された前記ピークの分散値に基づいて前記対象物の前記深度マップを作成するように構成されているプロセッサとを含む、
システム。 - 前記画像取込みセンサが推定焦点面範囲に基づいて前記複数の画像を取込む、請求項1のシステム。
- 前記画像取込みセンサによって取込まれた前記各画像の焦点面を変えるために前記画像取込みセンサと関連付けられているリキッドレンズを具える、請求項1のシステム。
- 前記プロセッサが前記リキッドレンズに印加される電圧に基づいて前記対象物の前記複数の画像の各画像に対して前記焦点面を決定し、前記各画像に対して決定された前記焦点面を前記各画像に対して算出された前記分散と関連づけるように構成されている、請求項3のシステム。
- 前記プロセッサが前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値を補間することによって各画像位置に対して前記ピークの分散値を決定するように構成されている、請求項1のシステム。
- 前記プロセッサが前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値を補間することに基づいて各画像に位置に対して深度の値を決定するように構成されている、請求項1のシステム。
- 前記各画像位置が前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の座標系における位置の個別のピクセルに対応する、請求項6のシステム。
- 前記画像取込みセンサが前記対象物の前記複数の画像を取込んでいる間、前記対象物にパターンを投影するように構成されたプロジェクタを具える、請求項1のシステム。
- 前記複数の分散値の算出に先立って、前記プロセッサが前記複数の画像の各画像にフィルタを施す、請求項1のシステム。
- 前記フィルタがガウシアンフィルタのラプラシアンフィルタである、請求項9のシステム。
- 3次元(3D)シーンにおける対象物の深度マップを作成するための方法であって、
異なる複数の焦点面において各画像がピクセルのマトリクスからなる前記対象物の複数の画像を画像取込みセンサで取込み、
前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の複数の画像位置に対して複数の分散値を算出し、
前記異なる焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値に基づいて前記複数の画像位置の各画像位置に対してピークの分散値を決定し、
前記複数の画像位置の各画像位置に対して決定された前記ピークの分散値に基づいて前記複数の画像位置の各画像位置に対して深度の値を決定し
前記複数の画像位置の各画像位置に対して決定された前記深度の値に基づいて前記対象物に対して深度マップを作成することを含む、
方法。 - 前記画像取込みセンサによって取込まれた各画像に対して前記画像取込みセンサと関連付けられているリキッドレンズの焦点面を変えることを含む、請求項11の方法。
- 前記リキッドレンズに印加される電圧に基づいて前記対象物の前記複数の画像の各画像に対して前記焦点面を決定することを含む、請求項12の方法。
- 前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値を補間することによって各画像位置に対して前記ピークの分散値を決定する、請求項11の方法。
- 前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値の補間に基づいて各画像位置に対して前記深度の値を決定する、請求項11の方法。
- 前記各画像位置が前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の座標系における位置の個別のピクセルに対応する、請求項11の方法。
- 前記対象物の前記複数の画像を取込んでいる間、プロジェクタによって前記対象物にパターンを投影することを含む、請求項11の方法。
- 前記複数の分散値の算出に先立って、前記複数の画像の各画像にフィルタを施すことを含む、請求項11の方法。
- 前記フィルタがガウシアンフィルタのラプラシアンフィルタである、請求項18の方法。
- 前記深度マップの作成が前記深度の値に基づく深度マップ値を割り当てることを含み、前記深度マップ値が前記対象物の表面から各画像位置に対する画像取込みセンサまでの距離を示す、請求項11の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/173,011 | 2016-06-03 | ||
US15/173,011 US10097777B2 (en) | 2016-06-03 | 2016-06-03 | Depth map from multi-focal plane images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017223667A true JP2017223667A (ja) | 2017-12-21 |
Family
ID=59077802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017107927A Pending JP2017223667A (ja) | 2016-06-03 | 2017-05-31 | 複数の焦点面画像に基づく深度マップ |
Country Status (3)
Country | Link |
---|---|
US (1) | US10097777B2 (ja) |
EP (1) | EP3252716B1 (ja) |
JP (1) | JP2017223667A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10529117B2 (en) * | 2018-04-16 | 2020-01-07 | Facebook Technologies, Llc | Systems and methods for rendering optical distortion effects |
DE102018222865A1 (de) * | 2018-12-21 | 2020-06-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung mit einer Multiaperturabbildungsvorrichtung zur Erzeugung einer Tiefenkarte |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08226805A (ja) * | 1995-02-22 | 1996-09-03 | Mitsutoyo Corp | 撮像装置の合焦方式及びこれを用いた非接触測定装置 |
JPH11113027A (ja) * | 1997-10-02 | 1999-04-23 | Agency Of Ind Science & Technol | 三次元環境計測カメラ |
JP2006003335A (ja) * | 2004-06-17 | 2006-01-05 | Akira Ishii | 非接触三次元物体形状測定方法 |
JP2010181247A (ja) * | 2009-02-05 | 2010-08-19 | Nokodai Tlo Kk | 形状測定装置及び形状測定方法 |
JP2011047883A (ja) * | 2009-08-28 | 2011-03-10 | Victor Co Of Japan Ltd | 3次元形状センサ |
JP2011218156A (ja) * | 2010-03-19 | 2011-11-04 | Carestream Health Inc | テレセントリック焦点ぼかしを使用した3dイメージング |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5705803A (en) * | 1996-07-23 | 1998-01-06 | Eastman Kodak Company | Covariance focus sensor |
US7058233B2 (en) | 2001-05-30 | 2006-06-06 | Mitutoyo Corporation | Systems and methods for constructing an image having an extended depth of field |
CN101542529B (zh) | 2006-11-21 | 2012-10-03 | 皇家飞利浦电子股份有限公司 | 图像的深度图的生成方法和图像处理单元 |
US8131097B2 (en) | 2008-05-28 | 2012-03-06 | Aptina Imaging Corporation | Method and apparatus for extended depth-of-field image restoration |
US8405742B2 (en) | 2008-12-30 | 2013-03-26 | Massachusetts Institute Of Technology | Processing images having different focus |
US9208570B2 (en) | 2012-03-28 | 2015-12-08 | Sony Corporation | System and method for performing depth estimation by utilizing an adaptive kernel |
US8564712B2 (en) | 2011-03-15 | 2013-10-22 | Sony Corporation | Blur difference estimation using multi-kernel convolution |
US9300946B2 (en) | 2011-07-08 | 2016-03-29 | Personify, Inc. | System and method for generating a depth map and fusing images from a camera array |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
KR20150004397A (ko) | 2012-04-26 | 2015-01-12 | 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 | 이미지들 내에서의 대화형 리포커싱을 제공하기 위한 시스템들, 방법들, 및 매체들 |
US20140002674A1 (en) * | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
CN104662589B (zh) | 2012-08-21 | 2017-08-04 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
AU2013263760A1 (en) | 2013-11-28 | 2015-06-11 | Canon Kabushiki Kaisha | Method, system and apparatus for determining a depth value of a pixel |
US9292926B1 (en) | 2014-11-24 | 2016-03-22 | Adobe Systems Incorporated | Depth map generation |
-
2016
- 2016-06-03 US US15/173,011 patent/US10097777B2/en active Active
-
2017
- 2017-05-31 JP JP2017107927A patent/JP2017223667A/ja active Pending
- 2017-05-31 EP EP17173832.1A patent/EP3252716B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08226805A (ja) * | 1995-02-22 | 1996-09-03 | Mitsutoyo Corp | 撮像装置の合焦方式及びこれを用いた非接触測定装置 |
JPH11113027A (ja) * | 1997-10-02 | 1999-04-23 | Agency Of Ind Science & Technol | 三次元環境計測カメラ |
JP2006003335A (ja) * | 2004-06-17 | 2006-01-05 | Akira Ishii | 非接触三次元物体形状測定方法 |
JP2010181247A (ja) * | 2009-02-05 | 2010-08-19 | Nokodai Tlo Kk | 形状測定装置及び形状測定方法 |
JP2011047883A (ja) * | 2009-08-28 | 2011-03-10 | Victor Co Of Japan Ltd | 3次元形状センサ |
JP2011218156A (ja) * | 2010-03-19 | 2011-11-04 | Carestream Health Inc | テレセントリック焦点ぼかしを使用した3dイメージング |
Non-Patent Citations (1)
Title |
---|
マグローヒル 科学技術用語大辞典, JPN6022036473, 30 September 1996 (1996-09-30), pages 1073, ISSN: 0004866454 * |
Also Published As
Publication number | Publication date |
---|---|
US20170353682A1 (en) | 2017-12-07 |
EP3252716A1 (en) | 2017-12-06 |
EP3252716B1 (en) | 2022-03-16 |
US10097777B2 (en) | 2018-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11050994B2 (en) | Virtual reality parallax correction | |
US9746319B2 (en) | Generation of depth data based on spatial light pattern | |
JP2021507440A (ja) | 対象物の3次元画像を生成するための方法およびシステム | |
KR20170018009A (ko) | 이미지 처리 방법 및 장치 | |
KR102206108B1 (ko) | 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법 | |
JP5633058B1 (ja) | 3次元計測装置及び3次元計測方法 | |
JP2018511874A (ja) | 3次元モデリング方法及び装置 | |
JP2018004357A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
CN109474817B (zh) | 光学传感装置、方法及光学侦测模块 | |
TW201436552A (zh) | 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置 | |
CN113424194A (zh) | 使用高斯差异和斑点识别检测投影的红外图案 | |
JP2017223667A (ja) | 複数の焦点面画像に基づく深度マップ | |
JP2009530701A (ja) | 深度マップを画像から判定する方法、深度マップを判定する装置 | |
Angot et al. | A 2D to 3D video and image conversion technique based on a bilateral filter | |
JPWO2015186284A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6305232B2 (ja) | 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。 | |
JP6602412B2 (ja) | 情報処理装置及び方法、情報処理システム、ならびにプログラム。 | |
CN114402364A (zh) | 使用随机森林的3d对象检测 | |
US20240169492A1 (en) | Selective extended depth-of-field correction for image reconstruction | |
JP2020004219A (ja) | 3次元形状データを生成する装置、方法、及びプログラム | |
US9961327B2 (en) | Method for extracting eye center point | |
US20240169494A1 (en) | Extended depth-of-field correction using reconstructed depth map | |
US20240169496A1 (en) | Extended depth-of-field correction using reconstructed image | |
US20240169493A1 (en) | Determining and using point spread function for image deblurring | |
TWI627604B (zh) | 利用差異化圖案產生深度圖的系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230803 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20231027 |