JP2017223667A - 複数の焦点面画像に基づく深度マップ - Google Patents

複数の焦点面画像に基づく深度マップ Download PDF

Info

Publication number
JP2017223667A
JP2017223667A JP2017107927A JP2017107927A JP2017223667A JP 2017223667 A JP2017223667 A JP 2017223667A JP 2017107927 A JP2017107927 A JP 2017107927A JP 2017107927 A JP2017107927 A JP 2017107927A JP 2017223667 A JP2017223667 A JP 2017223667A
Authority
JP
Japan
Prior art keywords
image
images
variance
value
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017107927A
Other languages
English (en)
Inventor
サイモン・メリキアン
Melikian Simon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RECOGNITION ROBOTICS Inc
Original Assignee
RECOGNITION ROBOTICS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RECOGNITION ROBOTICS Inc filed Critical RECOGNITION ROBOTICS Inc
Publication of JP2017223667A publication Critical patent/JP2017223667A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/12Fluid-filled or evacuated lenses
    • G02B3/14Fluid-filled or evacuated lenses of variable focal length
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像取込みセンサにより、3次元(3D)シーンにおける対象物の深度マップを作成するシステムを提供する。
【解決手段】3次元(3D)シーンにおける対象物の深度マップを作成するシステム100には画像取込みセンサ110及びプロセッサ160が含まれる。画像取込みセンサ110は異なる複数の焦点面において対象物の複数の画像を取込むように構成される。プロセッサ160は画像取込みセンサ110によって取込まれた各画像の複数の画像位置に対して複数の分散値を算出するように構成される。プロセッサ160は、異なる複数の焦点面において対象物の複数の画像のそれぞれの同じ画像位置に関して算出された分散値に基づいて複数の画像位置に対してピークの分散値を決定するように構成される。プロセッサ160は、各画像位置及び異なる複数の焦点面に対して決定されたピークの分散値に基づいて対象物の深度マップを作成するように構成されている。
【選択図】図1

Description

3次元(3D)コンピュータ・グラフィックスにおいて、深度マップとは、観測者のような所定の視点から対象物の1以上の表面までの距離に関する情報を含む画像のことである。これらの深度マップを作成するために、複数のカメラが必要となることがある。例えば、デプスカメラ(depth camera)、TOFカメラ(time of flight camera)及びカラーカメラが、対象物のモデルを決定するために組合わせて用いられてもよい。同様に、三角測量方式のレーザーカメラも深度マップを作成するために使われる。
深度マップを作成するこれらの周知の方法は複数のカメラ、又は構造化光源(structured light source)を必要とする。複数のカメラ、又は構造化光源の使用が実用的ではなく、好まれない場合がある。
上記を考慮して、本発明の3次元(3D)シーンにおける対象物の深度マップを作成するシステムには、画像取込みセンサとプロセッサが含まれる。画像取込みセンサは、異なる複数の焦点面において、対象物の複数の画像を取込むように構成されている。プロセッサは、画像取込みセンサによって取込まれた各画像の複数の画像位置に対して複数の分散値を算出するように構成されている。プロセッサはまた、異なる複数の焦点面において対象物の複数の画像のそれぞれの同じ画像位置に関して算出された分散値に基づいて複数の画像位置に対してピークの分散値を決定するように構成されている。プロセッサはまた、各画像位置及び異なる複数の焦点面に対して決定されたピークの分散値に基づいて対象物の深度マップを作成するように構成されている。
本発明の3次元(3D)シーンにおける対象物の深度マップを作成するための方法には、異なる複数の焦点面において、画像取込みセンサで、複数の対象物の画像を取込むことが含まれる。複数の画像の各画像はピクセルのマトリクスで構成されている。方法にはまた、異なる複数の焦点面において対象物の複数の画像の各画像の複数の画像位置に対して複数の分散値を算出することが含まれる。方法にはさらに、異なる焦点面において対象物の複数の画像の各画像の同じ画像位置に関して算出された分散値に基づいて複数の画像位置の各画像位置のピークの分散値を決定することが含まれる。方法にはさらに、複数の画像位置の各画像位置に対して決定されたピークの分散値に基づいて複数の画像位置の各画像位置の深度の値を決定し、複数の画像位置の各画像位置に対して決定された深度の値に基づいて対象物の深度マップを作成することが含まれる。
図1は対象物の複数の焦点面の画像から対象物の深度マップを作成するためのシステムの図。
図2は複数のピクセルで構成され、画像位置に対しての分散値を決定する画像の例を示す。
図3は深度マップを作成するための方法のフロー図。
図4は対象物の複数の焦点面の画像のうちの1つのシリーズからなる対象物の画像。
図5は対象物の複数の焦点面の画像のうちの1つのシリーズからなる対象物の他の画像。
図6は特定の画像位置に関する分散値のグラフ。
図7は図4及び5で示されている対象物の深度マップのグラフ表示の例。
図面に示された実施形態又は例は、特定の用語を用いて以下に示されている。しかしながら、これによって、実施形態又は実施例が制限されないことを理解されたい。当業者が普通に思いつくような、本発明の実施形態の改変及び変更、並びに本明細書で示された原理のさらなる適用も考えられる。
図1は複数の焦点面の画像から深度マップを作成するためのシステム100の例である。システム100は画像取込センサ110とレンズ112を有するカメラ108を具えてもよい。システム100はさらにロボットアーム120、ディスプレイ130、プロジェクタ140、並びにプロセッサ、すなわち、処理装置ユニット160及びメモリ170を有する計算機器150を具えてもよい。
画像取込みセンサ110は、(対象物が存在するであろう領域の推定範囲において)1以上の異なる焦点面に関する複数の画像を取込むように構成されており、それによって対象物の複数の焦点面の画像のセットが集められる。画像取込みセンサ110はCCDアレイであってもよく、レンズ112は焦点面を変えるために画像取込みセンサ110と関連付けられてもよい。レンズ112は、レンズ112の焦点距離を変えるための印加電圧に対して非常に速い応答時間を有するリキッドレンズであってもよい。
システム100は3次元シーンにおける対象物の深度マップを作成するのに有益である。図1を参照して、対象物102、104、及び106は画像取込みセンサ110の視界に入っている。この例では、画像取込みセンサ110は、異なる複数の焦点面において対象物102の複数の画像を取込み、すなわち、撮り、これによって、異なる焦点距離における画像の、異なる「スライス」が取込まれる。このようにして、対象物102の表面上の異なる位置が、異なる画像で焦点が合って現れるであろう。複数の焦点面の画像の各画像、又は複数の画像は、画像取込みセンサ110から対応する焦点面まで、すなわち、焦点距離と関係がある。以下で説明される算出された分散値とともに、この情報は深度マップの作成を容易にするために後段階で利用される。作業は作成された深度マップに基づいて対象物102上で行なわれ得る。例えば、摘む、又は掴む位置が深度マップに基づいて決定されてもよいが、しかしながら、深度マップは他の環境で役立てられてもよい。
各画像は画素のマトリクスを有し、座標系の特定の位置で単一のピクセルとなり得る画像位置、及び複数のピクセルを有するカーネルのような、異なる任意の領域に分解、すなわち、分割される。図2には複数のピクセル124からなる画像122が示されており、ピクセル124からなるカーネル126は、特定の画像位置128の分散値を算出するために用いられる。例えば、カーネル126はピクセル124からなる3×3の正方形である。分散値が決定されつつある特定の画像位置128はカーネル126の中心であってもよい。計算機器150又はその処理装置ユニット160は、計算機器150で利用可能な計算能力、ハードウェア、又はメモリ170に基づいてカーネルのサイズを決定してもよい。他の要素として、対象物に対して推定される焦点面の範囲、及び3次元シーンにおける対象物の表面の質感(テクスチャー)又はコントラストが含まれる。分散値は重畳積分による分散計算方式を用いて計算されてもよい。
図3は複数の焦点面の画像から深度マップを作成するための方法200の流れの一例を示す図である。方法200には、202において、異なる複数の焦点面における対象物の複数の画像を取込むことが含まれる。このような画像の例が図4と図5に示されている。図4は、図1の画像取込みセンサ110から第一焦点距離で撮られた対象物の画像である。図4と同様に、図5は第二焦点距離で撮られた対象物の画像である。両方の画像は、以下により詳細に説明される特定の画像の位置を定めることを容易にするために画像上にグリッドを有するが、これらの画像の位置は、発明の特定の概念を説明するために任意に選ばれたものである。図4の画像位置「4A」及び「4AA」についてはより詳細に後述する。また、これらは、図5の「5A」及び「5AA」に対応する。
204では、複数の画像位置に対して複数の分散値が算出される。プロセッサ又は図1の処理装置ユニット160は、画像取込みセンサ110によって取込まれた全ての画像に共通の座標系における特定の位置の個別のピクセルと同じぐらい小さくなりうる1以上又は全ての画像位置の分散値を算出する。上述したとおり、画像は、例えばピクセルからなる3×3の正方形である複数のカーネルに分割されてもよい。各画像位置の分散値は、重畳積分による分散計算方式、又は分散を計算するための他の周知の方法を使って計算されてもよい。図4と図5は異なる2つの焦点面における異なる2つの画像を単に示しているが、例えば、画像取込みセンサ110が異なる20の焦点距離、すなわち、焦点面において異なる20の画像を取込む場合、それらの20の画像のひとつひとつは、(例えば、図4及び5上のグリッドと同様に)同じ座標系を用いて画像位置に分割され、処理装置ユニット160が20の画像のひとつひとつにおいて対応する画像位置のひとつひとつに対して分散値を算出する。これにより、処理装置ユニット160は複数の画像のそれぞれの画像についてそれぞれの画像位置の複数の分散値を算出することができる。
206では、同じ画像位置に関する分散値に基づいてそれぞれの画像位置のピークの分散値が決定される。処理装置ユニット160はその同じ画像位置に関して取込まれた全ての画像から得られた一組の分散値を使ってそれぞれの画像位置のピークの分散値を決定するように構成される。例えば、図4、5及び6を参照して、各画像の分散値は、図6のグラフに曲線610A及び610AAで示されている。曲線610Aは、図4の4A及び図5の5Aとして示される画像位置Aに対応し、曲線610AAは、図4の4AA及び図5の5AAとして示される画像位置AAに対応する。図6の横軸は画像番号で、各画像は異なる焦点面を有する。図6の縦軸は特定の画像位置の分散値である。図6に示されるように、異なる20の焦点面を有する異なる20の画像が取込まれた。異なる焦点面において、より少ない又はより多い数の画像が取込まれてもよい。各画像位置の分散値が各画像に対してプロットされてもよい。処理装置ユニット160は、異なる焦点面における異なる画像全てに亘る同じグリッド位置に関してその一組の分散値を補間することによって、ピークの分散値を決定する。ここで、処理装置ユニット160は、図6のグラフと同様に、画像番号に対して、1つ以上の分散値をプロットするように構成されてもよい。さらに、ピークの分散値を決定すべく、処理装置ユニット160は、異なる統計学的又は数学的手法を用いて、これらの分散値のピーク、すなわち、適する曲線を推測、すなわち、補間する。
複数の焦点面の画像の分散値は、どの画像(及び対応する焦点面)が提供された画像位置に対して最も焦点が合っているかを決定するのに利用されてもよい。なぜなら、分散値(例えば、又はカーネル内のピクセルに関するコントラスト)が大きい程、それぞれの画像位置の焦点が合うようになるからである。これは、図4と図5を比較すると分かることで、図4においては、図4の4A及び図5の5Aとして示される画像位置Aの方が図4の4AA及び図5の5AAとして示される画像位置AAよりもより焦点が合っていて、図5においては、図4の4AA及び図5の5AAとして示される画像位置AAの方が図4の4A及び図5の5Aとして示される画像位置Aよりもより焦点が合っている。
208では、深度の値が各画像位置に対して決定される。画像取込みセンサ110によって取込まれた各映像の焦点面距離は既知であるか、又は決定され得る。例えば、図6の画像番号1の焦点面が画像取込みセンサ110から110mm、画像番号2の焦点面が120mm、画像番号3の焦点面が130mm等となるように、レンズ112に与えられる電圧が変更されても、制御されてもよい。画像の間の距離の差は変更可能で、一定である必要はない。ピークの分散値を決定するために上記のような推測と補間に類似する方法を用いると、深度の値は各画像位置に対して決定され得る。例えば、図4の4A及び図5の5Aとして示される画像位置Aに対して、ピークの分散値は、画像取込みセンサ110から170mm離れた画像焦点面を有する画像番号7と180mm離れた画像焦点面を有する画像番号8の間に現れる。同様に、図4の4AA及び図5の5AAとして示される画像位置AAに対して、ピークの分散値は、画像取込みセンサ110から280mm離れた画像焦点面を有する画像番号18と290mm離れた画像焦点面を有する画像番号19の間に現れる。この特定の例では、ピークの分散値を決定するために上記の推測と補間方法を用いて、画像位置Aの深度の値は170mmと180mmの間の173mmと決定され、画像位置AAの深度の値は287mmと決定され得る。
210では、各画像位置に対するピークの分散値及び深度の値に基づいて深度マップが作り出される。このようにして、深度マップに対する深度マップ値は、異なる焦点面に関して異なる複数の画像の全てに亘る画像位置に関する深度の値とともに「まとめ」あげられる。図7は図5及び6に示されている対象物の深度マップのグラフ表示の例である。深度マップは各画像位置の最大、すなわち、ピークの分散値に基づいて作成される。画像の焦点が合うと、分散が最も大きいと考えられるので、その画像位置における複数の焦点の画像全てに亘る一組の分散値から得られるピークの分散値に基づいて、深度マップ上の各位置が集められる、すなわち、作成され得る。さらに、集められた複数の焦点の画像から選ばれた各画像は、周知の焦点面、又は決定された(例えば、補間された)画像取込みセンサ110から焦点距離と関係があるので、深度マップには各画像位置の焦点距離、又は焦点面を示す深度マップ値が含まれる。換言すれば、深度マップの作成には、各画像位置に対して対象物の表面から画像取込みセンサまでの距離を示す深度マップ値を割り当てることが含まれる。深度マップ値はグレースケール値又は色値であってもよい。1つ以上の実施形態において、深度マップは段階付けられてもよい(例えば、0-100又は0-255)。
分散値の算出に先立って、1つ以上の複数の焦点の画像に対して1つ以上のフィルタが処理装置ユニット160に用いられてもよい。例えば、ガウシアンフィルタのラプラシアンフィルタが用いられてもよい。1次微分フィルタのような、他のフィルタが用いられてもよい。このようにして、分散を計算、すなわち、算出する前に、画像処理機能は生の「スライス」、すなわち、画像に用いられ、このことによってピーク、すなわち、最大分散値が分かるとノイズの少ない深度測定が可能となる。これは分散値が変光(light variation)の影響を受けるためである。そのため、このようなフィルタの使用によって、より安定した深度測定となる。
特定の画像位置に対するピークの分散値の画像は焦点面、すなわち、画像取込みセンサ110からの焦点距離と関係があるため、複数の焦点面の画像の中からピークの分散値を求めることによって、処理装置ユニット160による、深度マップの作成が可能となる。この焦点距離を用いて、処理装置ユニット160は、表、チャート、又はマップの対応するセクション(例えば、図5及び6で示されているグリッドと同様な座標系上の画像位置)に、その画像位置のピークの分散値に関連して取られた画像の焦点距離を配置する(例えば、深度マップ値としてその碁盤の目の位置に対して割り当てられる。)。さらに、深度マップは(0-100)又は(0-255)のように、適宜、段階付けられてもよい。
ここに記載された手法を用いて幾つもの複数の焦点の画像が取込まれ、分析され得るということが理解されるであろう。いずれにしても、異なる焦点面の複数の画像全てに亘って同じ画像位置に関して一組の分散値に基づいた各画像位置のピークの分散値を決定することによって、処理装置ユニット160は、それに応じてピークの分散値を決定する。ディスプレイ130は対象物の深度マップに基づいて3次元シーンにおける対象物を映像化する。例えば、ディスプレイは特定の画像位置の深度の値に基づいた色、明るさ、コントラスト等の明暗、すなわち、濃淡の違いで深度マップを映し出す。
対象物に質感(texture)がない場合、すなわち、分散が1つ以上の画像の一部に亘ってしきい値を下回るような場合に、プロジェクタ140は、画像処理を容易にするために対象物にパターンを投影する。すなわち、対象物に質感がない場合には、画像取込みセンサ110が対象物102の複数の画像を取込む間、パターンがプロジェクタ140によって投影されていてもよく、対象物102に投影された質感の「助け」により、深度マップは作成される。
1つ以上の実施形態において、ロボットアーム120はその対象物のために作り出された深度マップに基づいて対象物102を掴むことができる。
発明の対象について構造的な特徴又は方法論的な行為に特化して言葉で説明してきたが、添付の特許請求の対象が必ずしも上記の構造的な特徴又は方法論的な行為に限定されるものではないとういことが理解されるべきである。上記の特定の特徴及び行為は実施例として開示されているに過ぎない。実施形態における様々な操作がここに示されている。記載された1以上又は全ての操作の順番は、これらの操作が必ず順番に左右されるという意味に解釈されるべきではない。本明細書に基づき、他の順番もあり得る。さらに、ここで示された各実施形態に、必ずしも全ての形態が存在しているわけではない。
様々な上記の記載、その他の特徴及び機能、又はそれらの代替若しくは変更が、望ましく組み合わされて、多くの他の異なるシステム又はアプリケーションになり得るということが理解されるべきである。また、現時点では予期せぬ、又は、想定外の種々の代替、変更、変形又は改良が当業者によって後になされるであろうが、それらもまた、次の請求項に含まれるものと意図されている。
100 システム
102、104、106 対象物
108 カメラ
110 画像取込みセンサ
112 レンズ
120 ロボットアーム
122 画像
124 ピクセル
126 カーネル
130 ディスプレイ
140 プロジェクタ
150 計算機器
160 処理装置ユニット(プロセッサ)
170 メモリ

Claims (20)

  1. 3次元(3D)シーンにおける対象物の深度マップを作成するためのシステムであって、
    異なる複数の焦点面において前記対象物の複数の画像を取込むように構成されている画像取込みセンサと、
    該画像取込みセンサによって取込まれた各画像の複数の画像位置に対して複数の分散値を算出するように構成され、前記異なる複数の焦点面において前記対象物の前記複数の画像のそれぞれの同じ前記画像位置に関して算出された前記分散値に基づいて前記複数の画像位置に対してピークの分散値を決定するように構成され、前記各画像位置及び前記異なる複数の焦点面に対して決定された前記ピークの分散値に基づいて前記対象物の前記深度マップを作成するように構成されているプロセッサとを含む、
    システム。
  2. 前記画像取込みセンサが推定焦点面範囲に基づいて前記複数の画像を取込む、請求項1のシステム。
  3. 前記画像取込みセンサによって取込まれた前記各画像の焦点面を変えるために前記画像取込みセンサと関連付けられているリキッドレンズを具える、請求項1のシステム。
  4. 前記プロセッサが前記リキッドレンズに印加される電圧に基づいて前記対象物の前記複数の画像の各画像に対して前記焦点面を決定し、前記各画像に対して決定された前記焦点面を前記各画像に対して算出された前記分散と関連づけるように構成されている、請求項3のシステム。
  5. 前記プロセッサが前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値を補間することによって各画像位置に対して前記ピークの分散値を決定するように構成されている、請求項1のシステム。
  6. 前記プロセッサが前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値を補間することに基づいて各画像に位置に対して深度の値を決定するように構成されている、請求項1のシステム。
  7. 前記各画像位置が前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の座標系における位置の個別のピクセルに対応する、請求項6のシステム。
  8. 前記画像取込みセンサが前記対象物の前記複数の画像を取込んでいる間、前記対象物にパターンを投影するように構成されたプロジェクタを具える、請求項1のシステム。
  9. 前記複数の分散値の算出に先立って、前記プロセッサが前記複数の画像の各画像にフィルタを施す、請求項1のシステム。
  10. 前記フィルタがガウシアンフィルタのラプラシアンフィルタである、請求項9のシステム。
  11. 3次元(3D)シーンにおける対象物の深度マップを作成するための方法であって、
    異なる複数の焦点面において各画像がピクセルのマトリクスからなる前記対象物の複数の画像を画像取込みセンサで取込み、
    前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の複数の画像位置に対して複数の分散値を算出し、
    前記異なる焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値に基づいて前記複数の画像位置の各画像位置に対してピークの分散値を決定し、
    前記複数の画像位置の各画像位置に対して決定された前記ピークの分散値に基づいて前記複数の画像位置の各画像位置に対して深度の値を決定し
    前記複数の画像位置の各画像位置に対して決定された前記深度の値に基づいて前記対象物に対して深度マップを作成することを含む、
    方法。
  12. 前記画像取込みセンサによって取込まれた各画像に対して前記画像取込みセンサと関連付けられているリキッドレンズの焦点面を変えることを含む、請求項11の方法。
  13. 前記リキッドレンズに印加される電圧に基づいて前記対象物の前記複数の画像の各画像に対して前記焦点面を決定することを含む、請求項12の方法。
  14. 前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値を補間することによって各画像位置に対して前記ピークの分散値を決定する、請求項11の方法。
  15. 前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の同じ画像位置に関して算出された前記分散値の補間に基づいて各画像位置に対して前記深度の値を決定する、請求項11の方法。
  16. 前記各画像位置が前記異なる複数の焦点面において前記対象物の前記複数の画像の各画像の座標系における位置の個別のピクセルに対応する、請求項11の方法。
  17. 前記対象物の前記複数の画像を取込んでいる間、プロジェクタによって前記対象物にパターンを投影することを含む、請求項11の方法。
  18. 前記複数の分散値の算出に先立って、前記複数の画像の各画像にフィルタを施すことを含む、請求項11の方法。
  19. 前記フィルタがガウシアンフィルタのラプラシアンフィルタである、請求項18の方法。
  20. 前記深度マップの作成が前記深度の値に基づく深度マップ値を割り当てることを含み、前記深度マップ値が前記対象物の表面から各画像位置に対する画像取込みセンサまでの距離を示す、請求項11の方法。
JP2017107927A 2016-06-03 2017-05-31 複数の焦点面画像に基づく深度マップ Pending JP2017223667A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/173,011 2016-06-03
US15/173,011 US10097777B2 (en) 2016-06-03 2016-06-03 Depth map from multi-focal plane images

Publications (1)

Publication Number Publication Date
JP2017223667A true JP2017223667A (ja) 2017-12-21

Family

ID=59077802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017107927A Pending JP2017223667A (ja) 2016-06-03 2017-05-31 複数の焦点面画像に基づく深度マップ

Country Status (3)

Country Link
US (1) US10097777B2 (ja)
EP (1) EP3252716B1 (ja)
JP (1) JP2017223667A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10529117B2 (en) * 2018-04-16 2020-01-07 Facebook Technologies, Llc Systems and methods for rendering optical distortion effects
DE102018222865A1 (de) * 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung mit einer Multiaperturabbildungsvorrichtung zur Erzeugung einer Tiefenkarte

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08226805A (ja) * 1995-02-22 1996-09-03 Mitsutoyo Corp 撮像装置の合焦方式及びこれを用いた非接触測定装置
JPH11113027A (ja) * 1997-10-02 1999-04-23 Agency Of Ind Science & Technol 三次元環境計測カメラ
JP2006003335A (ja) * 2004-06-17 2006-01-05 Akira Ishii 非接触三次元物体形状測定方法
JP2010181247A (ja) * 2009-02-05 2010-08-19 Nokodai Tlo Kk 形状測定装置及び形状測定方法
JP2011047883A (ja) * 2009-08-28 2011-03-10 Victor Co Of Japan Ltd 3次元形状センサ
JP2011218156A (ja) * 2010-03-19 2011-11-04 Carestream Health Inc テレセントリック焦点ぼかしを使用した3dイメージング

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5705803A (en) * 1996-07-23 1998-01-06 Eastman Kodak Company Covariance focus sensor
US7058233B2 (en) 2001-05-30 2006-06-06 Mitutoyo Corporation Systems and methods for constructing an image having an extended depth of field
CN101542529B (zh) 2006-11-21 2012-10-03 皇家飞利浦电子股份有限公司 图像的深度图的生成方法和图像处理单元
US8131097B2 (en) 2008-05-28 2012-03-06 Aptina Imaging Corporation Method and apparatus for extended depth-of-field image restoration
US8405742B2 (en) 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US9208570B2 (en) 2012-03-28 2015-12-08 Sony Corporation System and method for performing depth estimation by utilizing an adaptive kernel
US8564712B2 (en) 2011-03-15 2013-10-22 Sony Corporation Blur difference estimation using multi-kernel convolution
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR20150004397A (ko) 2012-04-26 2015-01-12 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지들 내에서의 대화형 리포커싱을 제공하기 위한 시스템들, 방법들, 및 매체들
US20140002674A1 (en) * 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN104662589B (zh) 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
AU2013263760A1 (en) 2013-11-28 2015-06-11 Canon Kabushiki Kaisha Method, system and apparatus for determining a depth value of a pixel
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08226805A (ja) * 1995-02-22 1996-09-03 Mitsutoyo Corp 撮像装置の合焦方式及びこれを用いた非接触測定装置
JPH11113027A (ja) * 1997-10-02 1999-04-23 Agency Of Ind Science & Technol 三次元環境計測カメラ
JP2006003335A (ja) * 2004-06-17 2006-01-05 Akira Ishii 非接触三次元物体形状測定方法
JP2010181247A (ja) * 2009-02-05 2010-08-19 Nokodai Tlo Kk 形状測定装置及び形状測定方法
JP2011047883A (ja) * 2009-08-28 2011-03-10 Victor Co Of Japan Ltd 3次元形状センサ
JP2011218156A (ja) * 2010-03-19 2011-11-04 Carestream Health Inc テレセントリック焦点ぼかしを使用した3dイメージング

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
マグローヒル 科学技術用語大辞典, JPN6022036473, 30 September 1996 (1996-09-30), pages 1073, ISSN: 0004866454 *

Also Published As

Publication number Publication date
US20170353682A1 (en) 2017-12-07
EP3252716A1 (en) 2017-12-06
EP3252716B1 (en) 2022-03-16
US10097777B2 (en) 2018-10-09

Similar Documents

Publication Publication Date Title
US11050994B2 (en) Virtual reality parallax correction
US9746319B2 (en) Generation of depth data based on spatial light pattern
JP2021507440A (ja) 対象物の3次元画像を生成するための方法およびシステム
KR20170018009A (ko) 이미지 처리 방법 및 장치
KR102206108B1 (ko) 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
JP2018511874A (ja) 3次元モデリング方法及び装置
JP2018004357A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN109474817B (zh) 光学传感装置、方法及光学侦测模块
TW201436552A (zh) 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置
CN113424194A (zh) 使用高斯差异和斑点识别检测投影的红外图案
JP2017223667A (ja) 複数の焦点面画像に基づく深度マップ
JP2009530701A (ja) 深度マップを画像から判定する方法、深度マップを判定する装置
Angot et al. A 2D to 3D video and image conversion technique based on a bilateral filter
JPWO2015186284A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
CN114402364A (zh) 使用随机森林的3d对象检测
US20240169492A1 (en) Selective extended depth-of-field correction for image reconstruction
JP2020004219A (ja) 3次元形状データを生成する装置、方法、及びプログラム
US9961327B2 (en) Method for extracting eye center point
US20240169494A1 (en) Extended depth-of-field correction using reconstructed depth map
US20240169496A1 (en) Extended depth-of-field correction using reconstructed image
US20240169493A1 (en) Determining and using point spread function for image deblurring
TWI627604B (zh) 利用差異化圖案產生深度圖的系統及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230803

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231027