JP2023519467A - より深い被写界深度の分割ピクセルデータの合併 - Google Patents
より深い被写界深度の分割ピクセルデータの合併 Download PDFInfo
- Publication number
- JP2023519467A JP2023519467A JP2022528667A JP2022528667A JP2023519467A JP 2023519467 A JP2023519467 A JP 2023519467A JP 2022528667 A JP2022528667 A JP 2022528667A JP 2022528667 A JP2022528667 A JP 2022528667A JP 2023519467 A JP2023519467 A JP 2023519467A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- weight
- focus
- depth
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000036961 partial effect Effects 0.000 claims abstract description 98
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 229920013655 poly(bisphenol-A sulfone) Polymers 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/704—Pixels specially adapted for focusing, e.g. phase difference pixel sets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
Description
シーンの対応する一部が画像を撮影するカメラ装置の被写界深度の外側に位置することによって、当該画像の一部は、ぼける可能性がある。ぼけの度合いは、被写界深度に対するシーンの対応する一部の位置に依存すると共に、ぼけ量は、シーンの対応する一部がカメラに向かう方向またはカメラから離れる方向のいずれかに沿って被写界深度から遠ざかることにつれて増加する。場合によって、画像のぼけは、望ましくないため、様々な画像処理技術、画像処理モデルおよび/または画像処理アルゴリズムを用いて調整または補正されてもよい。
分割ピクセルカメラは、複数の部分画像を含む分割ピクセル画像データを生成するように構成されてもよい。分割ピクセル画像データの焦点外れピクセルの場合、部分画像の周波数コンテンツは、(i)画像データ内の焦点外れピクセルの位置と、(ii)焦点外れピクセルによって示された、分割ピクセルカメラの被写界深度(すなわち、ピクセル深度)に対するシーン特徴の位置との関数として変化することができる。具体的には、特定の焦点外れピクセルの場合、部分画像のうちの1つの部分画像は、特定の焦点外れピクセルに関連する位置および深度に応じて、他の部分画像に比べてより鮮明に見えることがある。したがって、ピクセル位置と、ピクセル深度と、部分画像周波数コンテンツとの間の関係は、分割ピクセルカメラに特徴付けられ、分割ピクセル画像データの一部の鮮明度を改善するために使用されてもよい。特に、部分画像のピクセルを合計するまたは等しく重み付けるのではなく、低周波数成分のみを含む部分画像ピクセルに比べて、低周波数成分および高周波数成分の両方を含む部分画像ピクセルにより大きな重みを付与することによって、得られた画像の見かけ鮮明度を高めることができる。
本明細書において、例示的な方法、装置、およびシステムを説明する。理解すべきことは、「例示」および「例示的な」という用語が、本明細書において、「例示、事例、または実例として機能する」という意味で使用されることである。本明細書において、「例示的な」、「例証的な」、および/または「実例的な」ものとして記載された任意の実施形態または特徴は、特に明記しない限り、必ずしも他の実施形態または特徴よりも好ましいまたは有利であると解釈されるべきではない。したがって、本明細書に記載された主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。
分割ピクセルカメラを用いて、2つ以上の部分画像を含む分割ピクセル画像データを生成することができる。各部分画像は、分割ピクセルカメラのフォトサイトの対応するサブセットによって生成される。例えば、分割ピクセルカメラは、デュアルピクセル(dual-pixel)画像センサを含んでもよく、デュアルピクセル画像センサの各ピクセルは、2つのフォトサイトで構成される。したがって、分割ピクセル画像データは、ピクセルの左フォトサイトによって生成された第1の部分画像と、ピクセルの右フォトサイトによって生成された第2の部分画像とを含むデュアルピクセル画像データであってもよい。別の例において、分割ピクセルカメラは、クワッドピクセル(quad-pixel)画像センサを含んでもよく、クワッドピクセル画像センサの各ピクセルは、4つのフォトサイトで構成される。したがって、分割ピクセル画像データは、ピクセルの左上のフォトサイトによって生成された第1の部分画像と、ピクセルの右上のフォトサイトによって生成された第2の部分画像と、ピクセルの左下のフォトサイトによって生成された第3の部分画像と、ピクセルの右下のフォトサイトによって生成された第4の部分画像とを含むクワッドピクセル画像データであってもよい。
図1は、例示的なコンピューティング装置100を示す。コンピューティング装置100は、携帯電話のフォームファクタ(form factor)で示されている。しかしながら、代替的に、コンピューティング装置100は、他の可能性の中でも特に、ラップトップコンピュータ、タブレットコンピュータ、および/またはウェアラブルコンピューティング装置として実装されてもよい。コンピューティング装置100は、様々な要素、例えば、本体102、ディスプレイ106、およびボタン108、110を含むことができる。コンピューティング装置100は、1つ以上のカメラ、例えば、前面カメラ104および背面カメラ112をさらに含むことができる。1つ以上のカメラは、デュアルピクセル(dual-pixel)画像データを生成するように構成されてもよい。
図3は、分割ピクセル画像データを生成するように構成された分割ピクセル画像センサ300を示す。具体的には、分割ピクセル画像センサ300は、列302、304、306、および308~310(すなわち、列302~310)ならびに行312、314、316、および318~320(すなわち、行312~320)を含むグリッドに配置された複数のピクセルを含むデュアルピクセル画像センサとして示されている。各ピクセルは、ハッチング領域として示される第1の(例えば、左)フォトサイトと、白塗り領域として示される第2の(例えば、右)フォトサイトとに分割されるように示されている。したがって、列302および行312に位置するピクセルの右半分は、右フォトサイトを示すように「R」と標記され、ピクセルの左半分は、左フォトサイトを示すように「L」と標記される。
図4は、焦点外れ平面を撮像することに関連するデュアルピクセル画像センサ(例えば、分割ピクセル画像センサ300)の点像分布関数(PSF)の例示的な空間変動を示す。具体的には、図4は、各々がデュアルピクセル画像センサの領域に対応する領域400、402および404を示す。焦点外れ平面を撮像している間に、領域402に位置するPSFは、左の部分画像に関連するPSFの空間変動を示し、領域404に位置するPSFは、右の部分画像に関連するPSFの空間変動を示し、領域400に位置するPSFは、デュアルピクセル画像の全体に関連するPSFの空間変動を示す。図4に示すように、デュアルピクセル画像全体のPSFは、左の部分画像と右の部分画像とのPSFの合計に等しい。デュアルピクセル画像センサのサイズに対するPSFのサイズスケールは、説明を明確にするために選択されたものであり、様々な実装形態では異なってもよい。
分割ピクセル部分画像の異なる部分に存在する高周波空間情報を用いて、分割ピクセル画像の鮮明度を改善し、対応する被写界深度を効果的に拡張することによって、分割ピクセル画像を増強することができる。具体的には、図5は、分割ピクセル部分画像の一部に存在する高周波情報を利用して増強画像を生成するための例示的なシステムを示す。図5は、分割ピクセル画像データ502に基づいて増強画像528を生成するように構成されたシステム500を示す。システム500は、ピクセル深度計算器508と、ピクセル深度分類器512と、ピクセル周波数分類器520と、ピクセル値合併器526とを含んでもよい。システム500の構成要素は、ハードウェア、ソフトウェア、またはそれらの組み合わせとして実装されてもよい。
図6A~6Fは、デュアルピクセル画像データ内の各ピクセルの位置と、各ピクセルに関連する深度値と、高周波画像コンテンツを含む部分画像との間の例示的なマッピングを示す。具体的には、図6A~6Fの各々は、左側において、対応する深度で標記された4つの象限に分割されたデュアルピクセル画像の領域を示し、右側において、対応する深度が与えられた場合、デュアルピクセル画像の各象限に対して高周波コンテンツを提供する対応する部分画像の象限を示す。
図5に戻って、ピクセル値合併器526は、複数の方法で高周波数ピクセルソース522の対応するピクセル値および低周波数ピクセルソース524の対応するピクセル値を合成するように構成されてもよい。特に、焦点外れピクセル516の場合、ピクセル値合併器526は、低周波数ピクセルソース524よりも高周波数ピクセルソース522に特権を付与するまたはより大きな重みを与えるように構成されてもよい。場合によって、全ての周波数に関して、低周波数ピクセルソース524よりも高周波数ピクセルソース522により大きな重みを与えてもよい。他の場合に、閾値周波数(例えば、異なる部分画像の周波数成分を分離するカットオフ周波数)を上回る周波数に関して、低周波数ピクセルソース524よりも高周波数ピクセルソース522に大きな重みを与えてもよく、閾値周波数以下の周波数に等しい重みを与えてもよい。
図8は、増強された鮮明度および/または被写界深度を有する画像の生成に関連する動作のフローチャートを示す。これらの動作は、他の可能性の中でも、コンピューティング装置100、コンピューティングシステム200、および/またはシステム500によって実行されてもよい。図8の実施形態は、図示された特徴のうち、任意の1つ以上を除去することによって、簡略化されてもよい。さらに、これらの実施形態は、さらに、これらの実施形態は、前述した図面または本明細書に記載された特徴、特性および/または実装例と組み合わせられてもよい。
本開示は、本明細書に記載された特定の実施形態に限定されない。これらの実施形態は、様々な態様の例示として意図される。当業者には明らかなように、本開示の範囲から逸脱することなく、多くの修正および変形を行うことができる。本明細書に記載されるものに加えて、本開示の範囲と機能的に等価な方法および装置は、前述した説明から当業者には明らかであろう。このような修正および変形は、添付の特許請求の範囲に含まれることが意図される。
Claims (15)
- コンピュータ実施方法であって、
分割ピクセルカメラによって撮影された分割ピクセル画像データを取得することを含み、前記分割ピクセル画像データは、第1の部分画像と第2の部分画像とを含み、
前記分割ピクセル画像データの複数のピクセルの各ピクセルによって示された、前記分割ピクセルカメラの被写界深度に対するシーン特徴の対応する位置を決定することと、
前記複数のピクセルの各ピクセルによって示された前記シーン特徴の前記対応する位置に基づいて、前記複数のピクセルのうちの1つ以上の焦点外れピクセルを特定することとを含み、前記1つ以上の焦点外れピクセルによって示されたシーン特徴は、前記被写界深度の外側に位置し、
(i)前記1つ以上の焦点外れピクセルの各焦点外れピクセルによって示された、前記被写界深度に対する前記シーン特徴の前記対応する位置、(ii)前記分割ピクセル画像データ内の前記各焦点外れピクセルの位置、および(iii)前記第1の部分画像内の対応する第1のピクセルの第1の値または前記第2の部分画像内の対応する第2のピクセルの第2の値うちの少なくとも1つに基づいて、前記各焦点外れピクセルの対応するピクセル値を決定することと、
決定された前記各焦点外れピクセルの前記対応するピクセル値に基づいて、拡張被写界深度を有する増強画像を生成することとを含む、コンピュータ実施方法。 - 前記対応するピクセル値を決定することは、
(i)前記各焦点外れピクセルによって示された、前記被写界深度に対する前記シーン特徴の前記対応する位置、および(ii)前記分割ピクセル画像データ内の前記各焦点外れピクセルの前記位置に基づいて、前記各焦点外れピクセルの前記対応する第1のピクセルまたは前記対応する第2のピクセルのうちの1つを、前記各焦点外れピクセルのソースピクセルとして選択することと、
前記ソースピクセルの値に基づいて、前記各焦点外れピクセルの前記対応するピクセル値を決定することとを含む、請求項1に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データの第1の半分に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第1のピクセルは、前記ソースピクセルとして選択され、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第2のピクセルは、前記ソースピクセルとして選択され、
前記分割ピクセル画像データの第2の半分に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第2のピクセルは、前記ソースピクセルとして選択され、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第1のピクセルは、前記ソースピクセルとして選択される、請求項2に記載のコンピュータ実施方法。 - 前記対応するピクセル値を決定することは、
(i)前記各焦点外れピクセルによって示された、前記被写界深度に対する前記シーン特徴の前記対応する位置、および(ii)前記分割ピクセル画像データ内の前記各焦点外れピクセルの前記位置に基づいて、前記各焦点外れピクセルの前記対応する第1のピクセルの第1の重みおよび前記対応する第2のピクセルの第2の重みを決定することと、
(i)前記対応する第1のピクセルの前記第1の重みと前記第1の値の第1の積、および(ii)前記対応する第2のピクセルの前記第2の重みと前記第2の値の第2の積に基づいて、前記各焦点外れピクセルの前記対応するピクセル値を決定することとを含む、請求項1に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データの第1の半分に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第1のピクセルの前記第1の重みは、前記対応する第2のピクセルの前記第2の重みよりも大きく、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第2のピクセルの前記第2の重みは、前記対応する第1のピクセルの前記第1の重みよりも大きく、
前記分割ピクセル画像データの第2の半分に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第2のピクセルの前記第2の重みは、前記対応する第1のピクセルの前記第1の重みよりも大きく、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第1のピクセルの前記第1の重みは、前記対応する第2のピクセルの前記第2の重みよりも大きい、請求項4に記載のコンピュータ実施方法。 - 前記第1の重みおよび前記第2の重みを決定することは、
前記分割ピクセル画像データ内に存在する複数の空間周波数の各空間周波数に対して、(i)前記第1の部分画像内の前記各空間周波数の第1の大きさ、および(ii)前記第2の部分画像内の前記各空間周波数の第2の大きさを決定することと、
各空間周波数の前記第1の大きさと前記第2の大きさとの間の差を決定することと、
各空間周波数の前記第1の大きさの前記第1の重みおよび前記第2の大きさの前記第2の重みを決定することとを含み、
閾値周波数を上回り、閾値を超える差に関連する各空間周波数の前記第1の重みは、前記第2の重みとは異なり、前記第1の重みおよび前記第2の重みは、前記各焦点外れピクセルによって示された、前記被写界深度に対する前記シーン特徴の前記対応する位置に依存しており、
(i)前記閾値周波数を下回る各空間周波数、または(ii)前記閾値周波数を上回り、前記閾値を超えない差に関連する各空間周波数の前記第1の重みは、前記第2の重みに等しく、
(i)各焦点外れピクセルの前記対応する第1のピクセルの前記第1の値によって示された各空間周波数の前記第1の重みと前記第1の大きさとの第1の複数の積と、(ii)各焦点外れピクセルの前記対応する第2のピクセルの前記第2の値によって示された各空間周波数の前記第2の重みと前記第2の大きさとの第2の複数の積との和に基づいて、各焦点外れピクセルの前記対応するピクセル値を決定することを含む、請求項4から5のいずれか一項に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データは、前記第1の部分画像と、前記第2の部分画像と、第3の部分画像と、第4の部分画像とを含み、
前記対応するピクセル値を決定することは、
(i)前記各焦点外れピクセルによって示された、前記被写界深度に対する前記シーン特徴の前記対応する位置、および(ii)前記分割ピクセル画像データ内の前記各焦点外れピクセルの前記位置に基づいて、前記第1の部分画像内の前記対応する第1のピクセル、前記第2の部分画像内の前記対応する第2のピクセル、前記第3の部分画像内の対応する第3のピクセル、または前記第4の部分画像内の対応する第4のピクセルのうちの1つを、前記各焦点外れピクセルのソースピクセルとして選択することと、
前記ソースピクセルの値に基づいて、前記各焦点外れピクセルの前記対応するピクセル値を決定することとを含む、請求項1に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データの第1象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第1のピクセルは、前記ソースピクセルとして選択され、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第4のピクセルは、前記ソースピクセルとして選択され、
前記分割ピクセル画像データの第2象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第2のピクセルは、前記ソースピクセルとして選択され、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第3のピクセルは、前記ソースピクセルとして選択され、
前記分割ピクセル画像データの第3象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第3のピクセルは、前記ソースピクセルとして選択され、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第2のピクセルは、前記ソースピクセルとして選択され、
前記分割ピクセル画像データの第4象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第4のピクセルは、前記ソースピクセルとして選択され、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第1のピクセルは、前記ソースピクセルとして選択される、請求項7に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データは、前記第1の部分画像と、前記第2の部分画像と、第3の部分画像と、第4の部分画像とを含み、
前記対応するピクセル値を決定することは、
前記各焦点外れピクセルによって示された、前記被写界深度に対する前記シーン特徴の前記対応する位置、および(ii)前記分割ピクセル画像データ内の前記各焦点外れピクセルの前記位置に基づいて、各焦点外れピクセルに対して、前記対応する第1のピクセルの第1の重み、前記対応する第2のピクセルの第2の重み、前記第3の部分画像内の対応する第3のピクセルの第3の重み、および前記第4の部分画像内の対応する第4のピクセルの第4の重みを決定することと、
(i)前記対応する第1のピクセルの前記第1の重みと前記第1の値との第1の積、(ii)前記対応する第2のピクセルの前記第2の重みと前記第2の値との第2の積、(iii)前記対応する第3のピクセルの前記第3の重みと前記第3の値との第3の積、および(iv)前記対応する第4のピクセルの前記第4の重みと前記第4の値との第4の積に基づいて、各焦点外れピクセルの前記対応するピクセル値を決定することとを含む、請求項1に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データの第1象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第1のピクセルの前記第1の重みは、前記対応する第2のピクセルの前記第2の重み、前記対応する第3のピクセルの前記第3の重み、および前記対応する第4のピクセルの前記第4の重みよりも大きく、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第4のピクセルの前記第4の重みは、前記対応する第1のピクセルの前記第1の重み、前記対応する第2のピクセルの前記第2の重み、および前記対応する第3のピクセルの前記第3の重みよりも大きく、
前記分割ピクセル画像データの第2象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第2のピクセルの前記第2の重みは、前記対応する第1のピクセルの前記第1の重み、前記対応する第3のピクセルの前記第3の重み、および前記対応する第4のピクセルの前記第4の重みよりも大きく、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第3のピクセルの前記第3の重みは、前記対応する第1のピクセルの前記第1の重み、前記対応する第2のピクセルの前記第2の重み、および前記対応する第4のピクセルの前記第4の重みよりも大きく、
前記分割ピクセル画像データの第3象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第3のピクセルの前記第3の重みは、前記対応する第1のピクセルの前記第1の重み、前記対応する第2のピクセルの前記第2の重み、および前記対応する第4のピクセルの前記第4の重みよりも大きく、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第2のピクセルの前記第2の重みは、前記対応する第1のピクセルの前記第1の重み、前記対応する第3のピクセルの前記第3の重み、および前記対応する第4のピクセルの前記第4の重みよりも大きく、
前記分割ピクセル画像データの第4象限に位置する焦点外れピクセルに対して、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の後方に位置するときに、前記対応する第4のピクセルの前記第4の重みは、前記対応する第1のピクセルの前記第1の重み、前記対応する第2のピクセルの前記第2の重み、および前記対応する第3のピクセルの前記第3の重みよりも大きく、
前記各焦点外れピクセルによって示された前記シーン特徴が前記被写界深度の前方に位置するときに、前記対応する第1のピクセルの前記第1の重みは、前記対応する第2のピクセルの前記第2の重み、前記対応する第3のピクセルの前記第3の重み、および前記対応する第4のピクセルの前記第4の重みよりも大きい、請求項9に記載のコンピュータ実施方法。 - 前記分割ピクセル画像データの各部分画像は、前記分割ピクセルカメラの対応するフォトサイトによって、単一露光の一部として撮影される、請求項1から10のいずれか一項に記載のコンピュータ実施方法。
- 前記複数のピクセルの各ピクセルによって示された前記シーン特徴の前記対応する位置に基づいて、前記複数のピクセルのうちの1つ以上の合焦ピクセルを特定することをさらに含み、前記1つ以上の合焦ピクセルによって示されたシーン特徴は、前記被写界深度内に位置し、
前記第1の部分画像内の前記対応する第1のピクセルの前記第1の値と前記第2の部分画像内の前記対応する第2のピクセルの前記第2の値とを加算することによって、前記1つ以上の合焦ピクセルの各合焦ピクセルの対応するピクセル値を決定することをさらに含み、前記増強画像は、決定された各合焦ピクセルの前記対応するピクセル値にさらに基づいて生成される、請求項1から11のいずれか一項に記載のコンピュータ実施方法。 - 前記各ピクセルによって示された、前記分割ピクセルカメラの前記被写界深度に対する前記シーン特徴の前記対応する位置を決定することは、
前記分割ピクセル画像データの前記複数のピクセルの各ピクセルに対して、前記第1の部分画像内の前記対応する第1のピクセルと前記第2の部分画像内の前記対応する第2のピクセルとの間の差を決定することと、
前記差に基づいて、前記分割ピクセル画像データの前記複数のピクセルの各ピクセルの前記対応する位置を決定することとを含む、請求項1から12のいずれか一項に記載のコンピュータ実施方法。 - システムであって、
プロセッサと、
前記プロセッサによって実行されると、前記プロセッサに請求項1から13のいずれか一項に記載の動作を実行させる命令を記憶する非一時的なコンピュータ可読媒体とを含む、システム。 - コンピューティング装置によって実行されると、前記コンピューティング装置に請求項1から13のいずれか一項に記載の動作を実行させる命令を記憶する非一時的なコンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2021/019390 WO2022182340A1 (en) | 2021-02-24 | 2021-02-24 | Merging split-pixel data for deeper depth of field |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023519467A true JP2023519467A (ja) | 2023-05-11 |
JP7527368B2 JP7527368B2 (ja) | 2024-08-02 |
Family
ID=74875375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022528667A Active JP7527368B2 (ja) | 2021-02-24 | 2021-02-24 | より深い被写界深度の分割ピクセルデータの合併 |
Country Status (6)
Country | Link |
---|---|
US (1) | US12118697B2 (ja) |
EP (1) | EP4121938A1 (ja) |
JP (1) | JP7527368B2 (ja) |
KR (1) | KR102664373B1 (ja) |
CN (1) | CN115244570A (ja) |
WO (1) | WO2022182340A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230034727A1 (en) * | 2021-07-29 | 2023-02-02 | Rakuten Group, Inc. | Blur-robust image segmentation |
CN116363351A (zh) * | 2021-12-27 | 2023-06-30 | 安霸国际有限合伙企业 | 用于低位宽浮点表示的高分辨率图像和深度图的加速对齐 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015119416A (ja) * | 2013-12-19 | 2015-06-25 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2019071596A (ja) * | 2017-10-11 | 2019-05-09 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP2019129374A (ja) * | 2018-01-23 | 2019-08-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体及び撮像装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10239606B2 (en) | 2013-12-04 | 2019-03-26 | Tamarack Aerospace Group, Inc. | Airflow interrupting devices |
US11210799B2 (en) * | 2017-10-04 | 2021-12-28 | Google Llc | Estimating depth using a single camera |
-
2021
- 2021-02-24 CN CN202180006421.3A patent/CN115244570A/zh active Pending
- 2021-02-24 EP EP21712380.1A patent/EP4121938A1/en active Pending
- 2021-02-24 JP JP2022528667A patent/JP7527368B2/ja active Active
- 2021-02-24 KR KR1020227015352A patent/KR102664373B1/ko active IP Right Grant
- 2021-02-24 US US17/753,279 patent/US12118697B2/en active Active
- 2021-02-24 WO PCT/US2021/019390 patent/WO2022182340A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015119416A (ja) * | 2013-12-19 | 2015-06-25 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2019071596A (ja) * | 2017-10-11 | 2019-05-09 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP2019129374A (ja) * | 2018-01-23 | 2019-08-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体及び撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
US12118697B2 (en) | 2024-10-15 |
WO2022182340A1 (en) | 2022-09-01 |
US20230153960A1 (en) | 2023-05-18 |
KR102664373B1 (ko) | 2024-05-10 |
KR20220123219A (ko) | 2022-09-06 |
CN115244570A (zh) | 2022-10-25 |
JP7527368B2 (ja) | 2024-08-02 |
EP4121938A1 (en) | 2023-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11210799B2 (en) | Estimating depth using a single camera | |
CN109565551B (zh) | 对齐于参考帧合成图像 | |
US9230306B2 (en) | System for reducing depth of field with digital image processing | |
KR20190021138A (ko) | 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법 | |
KR20170005009A (ko) | 3d 라돈 이미지의 생성 및 사용 | |
JP2014014076A (ja) | 3d深度情報に基づいたイメージぼかし | |
US11282176B2 (en) | Image refocusing | |
US12008738B2 (en) | Defocus blur removal and depth estimation using dual-pixel image data | |
JP7527368B2 (ja) | より深い被写界深度の分割ピクセルデータの合併 | |
JP2013061850A (ja) | ノイズ低減のための画像処理装置及び画像処理方法 | |
JP2013026844A (ja) | 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ | |
US20230033956A1 (en) | Estimating depth based on iris size | |
JP6270413B2 (ja) | 画像処理装置、撮像装置、および画像処理方法 | |
EP4090006A2 (en) | Image signal processing based on virtual superimposition | |
US11688046B2 (en) | Selective image signal processing | |
JP2019057798A (ja) | 画像処理装置、撮像装置、撮像装置の制御方法、および、プログラム | |
JP2013026773A (ja) | 画像処理装置および画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220831 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240723 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7527368 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |