JP2023091707A - 画像処理方法および画像処理システム - Google Patents

画像処理方法および画像処理システム Download PDF

Info

Publication number
JP2023091707A
JP2023091707A JP2022082140A JP2022082140A JP2023091707A JP 2023091707 A JP2023091707 A JP 2023091707A JP 2022082140 A JP2022082140 A JP 2022082140A JP 2022082140 A JP2022082140 A JP 2022082140A JP 2023091707 A JP2023091707 A JP 2023091707A
Authority
JP
Japan
Prior art keywords
image
sub
depth
lens array
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022082140A
Other languages
English (en)
Other versions
JP7429731B2 (ja
Inventor
信宏 郭
Hsin-Hung Kuo
育淇 張
Yu-Chi Chang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VisEra Technologies Co Ltd
Original Assignee
VisEra Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VisEra Technologies Co Ltd filed Critical VisEra Technologies Co Ltd
Publication of JP2023091707A publication Critical patent/JP2023091707A/ja
Application granted granted Critical
Publication of JP7429731B2 publication Critical patent/JP7429731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】鮮明な画像を生成することができる画像処理方法および画像処理システムを提供する。【解決手段】画像処理方法は、表示画面の下方のカメラを用いて第1の画像を得るステップ、第1の画像の第1のサブ画像を判定し、第1の画像から第1の深さを有する第1のサブ画像を撮像するステップ、表示画面の下方のカメラを用いて第2の画像を得るステップ及び第2の画像の第2のサブ画像を判定し、第2の画像から第2の深さを有する第2のサブ画像を撮像するステップを含む。方法はさらに、第1のサブ画像と第2のサブ画像を重畳するステップ及び第1のサブ画像と第2のサブ画像を重畳した後、重畳画像を生成するステップを含む。第1の深さは第2の深さと異なる。【選択図】図7A

Description

本発明は、画像処理方法および画像処理システムに関するものであり、特に、鮮明な画像を生成することができる画像処理方法および画像処理システムに関するものである。
表示画面の下方に配置されたカメラは、透明ディスプレイ、画像処理、およびカメラ設計技術を統合する必要がある。しかしながら、カメラの前にディスプレイ画面を配置すると、ヘイズ、グレア、および色かぶりなどの深刻な問題が生じる。
表示画面の周期的スリット構造は、光が画面を通過するときに回折と干渉を引き起こし、これらは、画像がオーバーレイされてぼやけることになる。さらに、撮影されたオブジェクトがカメラから遠く離れている場合、回折現象がより顕著になり、オブジェクトの画像がよりぼやけたものになる。
従って、鮮明な画像を生成することができる表示画面の下方の画像処理方法および画像処理システムが求められている。
鮮明な画像を生成することができる画像処理方法および画像処理システムを提供する。
本発明の実施形態は、表示画面の下方のカメラを用いて第1の画像を得るステップ、プロセッサを用いて第1の画像を処理するステップ、表示画面の下方のカメラを用いて第2の画像を得るステップ、プロセッサを用いて第2の画像を処理するステップ、および第1のサブ画像と第2のサブ画像を重畳した後、重畳画像を生成するステップを含む画像処理方法を提供する。プロセッサを用いて第1の画像を処理するステップは、第1の画像の第1のサブ画像を判定し、第1の画像から、第1の深さを有する第1の画像のサブ画像である第1のサブ画像を撮像するステップを含む。プロセッサを用いて第2の画像を処理するステップは、第2の画像の第2のサブ画像を判定し、第2の画像から、第2の深さを有する第2の画像のサブ画像である第2のサブ画像を撮像し、第1のサブ画像と第2のサブ画像を重畳するステップを含む。第1の深さは第2の深さと異なる。
いくつかの実施形態では、第1のサブ画像を判定するステップは、二層レンズアレイCISを用いて、第1の画像の位置情報および方向情報を得るステップ、第1の画像の複数のサブ画像の複数の深さを判定するステップ、および第1の深さを選び、第1のサブ画像を得るステップを含む。第2のサブ画像を判定するステップは、二層レンズアレイCISを用いて、第2の画像の位置情報および方向情報を得るステップ、第2の画像の複数のサブ画像の複数の深さを判定するステップ、および第2の深さを選び、第2のサブ画像を得るステップを含む。いくつかの実施形態では、画像処理方法は、第1のサブ画像と前記第2のサブ画像を重畳する前に、ユーザによって第1のサブ画像および第2のサブ画像を選択するステップ、および重畳画像が生成された後、重畳画像を出力するステップをさらに含む。いくつかの実施形態では、画像処理方法は、プロセッサを用いて重畳画像の鮮明さを判定するステップをさらに含む。いくつかの実施形態では、画像処理方法は、重畳画像が鮮明であるという判定に応じて、重畳画像を出力するステップをさらに含む。いくつかの実施形態では、画像処理方法は、重畳画像が鮮明でないという判定に応じて、表示画面の下方のカメラを用いて第3の画像を得るステップをさらに含む。いくつかの実施形態では、画像処理方法は、プロセッサを用いて第3の画像を処理するステップをさらに含む。プロセッサを用いて第3の画像を処理するステップは、第3の画像の第3のサブ画像を判定し、プロセッサを用いて第3の画像から、第1の深さおよび第2の深さと異なる第3の深さを有する第3のサブ画像を撮像するステップを含む。いくつかの実施形態では、重畳するステップは、第1のサブ画像、第2のサブ画像、および第3のサブ画像を重畳するステップを含む。いくつかの実施形態では、第3の深さは、第1の深さと第2の深さの間である。
さらに、本発明の実施形態は、表示画面、二層レンズアレイCIS、およびプロセッサを含む画像処理システムを提供する。二層レンズアレイCISは、表示画面の下方に配置され、第1の光および第2の光を受光するように構成される。第1の光の受光に応じて、二層レンズアレイCISは、第1の画像を生成する。第2の光の受光に応じて、二層レンズアレイCISは、第2の画像を生成する。プロセッサは、第1の画像の第1のサブ画像と第2の画像の第2のサブ画像を重畳して、重畳画像を生成するように構成される。第1のサブ画像は、第1の深さを有する第1の画像のサブ画像である。第2のサブ画像は、第2の深さを有する第2の画像のサブ画像である。第1の深さは第2の深さと異なる。
いくつかの実施形態では、二層レンズアレイCISは、第1の層レンズアレイ、第2の層レンズアレイ、およびセンサを含む。第1の層レンズアレイは、複数の第1の層レンズを含む。第2の層レンズアレイは、第1の層レンズアレイの上方に配置され、複数の第2の層レンズを含む。センサは複数の画素を含む。第1の層レンズのそれぞれのサイズは、画素のそれぞれのサイズと等しい。第2の層レンズのそれぞれのサイズは、画素のそれぞれのサイズの3倍以上である。いくつかの実施形態では、第1の光および第2の光は、表示画面、第2の層レンズアレイ、および第1の層レンズアレイを通過し、次いでセンサに到達する。第2の層レンズのそれぞれの面積は、センサの感知面積の30%以下である。いくつかの実施形態では、第1の層レンズアレイと第2の層レンズアレイとの間の配置は、三角形配置、長方形配置、六角形配置、または多角形配置であり得る。いくつかの実施形態では、第1のサブ画像は、プロセッサによって第1の画像から撮像され、第2の画像から撮像された第2のサブ画像は、プロセッサによって撮像され、重畳される。重畳画像の鮮明さはプロセッサによって判定される。いくつかの実施形態では、二層レンズアレイCISは、重畳画像が鮮明でないという判定に応じて、第3の光を受光する。第3の光を受光することに応じて、二層レンズアレイCISは第3の画像を生成する。プロセッサは、第1のサブ画像、第2のサブ画像、および第3の画像の第3のサブ画像を重畳して、重畳画像を生成するように構成される。第3のサブ画像は、第3の深さを有する第3の画像のサブ画像である。第3の深さは第1の深さと第2の深さと異なる。いくつかの実施形態では、表示画面は、重畳画像が鮮明であるという判定に応じて重畳画像を出力する。いくつかの実施形態では、第3の深さは、第1の深さと第2の深さの間にある。いくつかの実施形態では、重畳するための第1のサブ画像および第2のサブ画像は、ユーザによって選択される。表示画面は重畳画像を出力する。いくつかの実施形態では、第1のオブジェクトの画像は第1の画像で鮮明であり、第2のオブジェクトの画像は第2の画像で鮮明である。第1のオブジェクトの画像は、第2の画像では鮮明でなく、第2のオブジェクトの画像は、第1の画像では鮮明でない。第1のオブジェクトは、画像処理システムから離れた第1の深さである。第2のオブジェクトは、画像処理システムから離れた第2の深さである。
本発明によれば、鮮明な重畳画像を生成できる。
図1は、本開示のいくつかの実施形態による、画像処理システムおよび第1のオブジェクト、第2のオブジェクト、および第3のオブジェクトの概略図を示している。 図2は、本開示のいくつかの実施形態による、二層レンズアレイCISの概略図を示している。 図3Aは、本開示のいくつかの実施形態による、第1の層レンズアレイおよび第2の層レンズアレイの概略図を示している。 図3Bは、本開示のいくつかの実施形態による、第1の層レンズアレイおよび第2の層レンズアレイの概略図を示している。 図3Cは、本開示のいくつかの実施形態による、第1の層レンズアレイおよび第2の層レンズアレイの概略図を示している。 図4Aは、本開示のいくつかの実施形態による、第1の画像、第2の画像、および第3の画像の概略図を示している。 図4Bは、本開示のいくつかの実施形態による、第1の画像、第2の画像、および第3の画像の概略図を示している。 図4Cは、本開示のいくつかの実施形態による、第1の画像、第2の画像、および第3の画像の概略図を示している。 図5Aは、本開示のいくつかの実施形態による、画像処理の概略図を示している。 図5Bは、本開示のいくつかの実施形態による、画像処理の概略図を示している。 図5Cは、本開示のいくつかの実施形態による、画像処理の概略図を示している。 本開示のいくつかの実施形態による、第1のサブ画像、第2のサブ画像、および第3のサブ画像を重畳する概略図を示している。 図7Aは、本開示のいくつかの実施形態による、画像処理方法のフローチャートを示している。 図7Bは、本開示のいくつかの実施形態による、画像処理方法のフローチャートを示している。 図8Aは、本開示のいくつかの実施形態による、もう1つの画像処理方法のフローチャートを示している。 図8Bは、本開示のいくつかの実施形態による、もう1つの画像処理方法のフローチャートを示している。
次の開示では、異なる特徴を実施するために、多くの異なる実施形態または実施例を提供する。本開示を簡潔に説明するために、複数の要素および複数の配列の特定の実施形態が以下に述べられる。例えば、下記の開示において、第1の特徴が第2の特徴の上(または「上(on)」または「上方(over)」)に形成されるということは、第1と第2の特徴が直接接触して形成される複数の実施形態を含むことができ、且つ第1と第2の特徴が直接接触しないように、付加的な特徴が第1と第2の特徴間に形成される複数の実施形態を含むこともできる。
また、本開示は、複数の例において同じ構成要素の符号または文字を繰り返し用いる可能性がある。繰り返し用いる目的は、簡易化した、明確な説明を提供するためのもので、説明される様々な実施形態および/または構成の関係を限定するものではない。また、図の形状、サイズ、または厚さは、説明を明確にするために縮尺通りに描かれない、または簡素化される可能性もある。
図1に示すように、本開示のいくつかの実施形態による、画像処理システム100および第1のオブジェクトO1、第2のオブジェクトO2、および第3のオブジェクトO3の概略図を示している。画像処理システム100は、スマートフォン、タブレット、ラップトップなどの電子機器に搭載されることができる。画像処理システム100は、表示画面10、二層レンズアレイCIS20、およびプロセッサ30を含み得る。
二層レンズアレイCIS20およびプロセッサ30は、総称してカメラと呼ばれることがある。二層レンズアレイCIS20(またはカメラ)は、表示画面10の下方(below)または下(under)に配置されることができる。プロセッサ30は、二層レンズアレイCIS20に電気的に接続されることができ、その接続は、二層レンズアレイCIS20とプロセッサ30を接続する線によって示されている。
いくつかの実施形態では、画像処理システム100は、画像処理システム100に入射する光のプレノプティック関数(POF)を得ることができるライトフィールドカメラであり得る。いくつかの実施形態では、画像処理システム100は、異なる波長を有する入射光に対する4Dプレノプティック関数(POF)を得ることができるライトフィールドカメラであり得る。
4Dプレノプティック関数は、平面座標および入射光の方向を含み得る。いくつかの実施形態では、平面座標は、第1のオブジェクトO1、第2のオブジェクトO2、および第3のオブジェクトO3のXおよびY座標であり、それらは、位置情報と呼ばれ得る。いくつかの実施形態では、画像処理システム100に関する第1のオブジェクトO1、第2のオブジェクトO2、および第3のオブジェクトO3の水平角および垂直角であり、これらは方向情報と呼ばれ得る。換言すれば、画像処理システム100は、第1のオブジェクトO1、第2のオブジェクトO2、および第3のオブジェクトO3から入射する光のプレノプティック関数を得ることができる。
図1に示されるように、第1のオブジェクトO1は、画像処理システム100から離れている。画像処理システム100と第1のオブジェクトO1との間の距離は、第1の深さD1である。画像処理システム100と第2のオブジェクトO2との間の距離は、第2の深さD2である。画像処理システム100と第3のオブジェクトO3との間の距離は、第3の深さD3である。いくつかの実施形態では、第1の深さD1は、第2の深さD2とは異なる。いくつかの実施形態では、第3の深さD3は、第1の深さD1または第2の深さD2とは異なる。いくつかの実施形態では、第3の深さD3は、第1の深さD1と第2の深さD2との間にある。
図1に示されるように、第1の光L1は、第1のオブジェクトO1から画像処理システム100に入射し; 第2の光L2は、第2のオブジェクトO2から画像処理システム100に入射し; 第3の光L3は、第3のオブジェクトO3から画像処理システム100に入射する。
画像処理システム100は、第1の光L1を受光し、第1のオブジェクトO1の位置情報および方向情報を得ることができる。画像処理システム100は、第2の光L2を受光し、第2のオブジェクトO2の位置情報および方向情報を得ることができる。画像処理システム100は、第31の光L3を受光し、第3のオブジェクトO3の位置情報および方向情報を得ることができる。
図2に示すように、図2は、本開示のいくつかの実施形態による、二層レンズアレイCIS20の概略図を示している。二層レンズアレイCIS20は、第1の層レンズアレイ21、第2の層レンズアレイ22、センサ23、および中間層24を含み得る。第2の層レンズアレイ22は、第1の層レンズアレイ21の上方に配置され、センサ23は、第1の層レンズアレイ21の下方に配置される。換言すれば、第1の層レンズアレイ21は、第2の層レンズアレイ22とセンサ23との間に配置される。中間層24は、第1の層レンズアレイ21と第2の層レンズアレイ22との間に配置される。
図2に示されるように、いくつかの実施形態では、第1の光L1、第2の光L2、および第3の光L3は、表示画面10、第2の層レンズアレイ22、中間層24、および第1の層レンズアレイ21を順次に通過し、次いでセンサ23に到達する。
図3A、図3B、および図3Cに示すように、図3A、図3B、および図3Cは、本開示のいくつかの実施形態による、第1の層レンズアレイ21および第2の層レンズアレイ22の概略図を示している。1つの第2の層レンズ221のみが図2に示されているが、第2の層レンズアレイ22が複数の第2の層レンズ221を含んでもよい(図3A、図3B、および図3Cを参照されたい)。図2、図3A、図3B、および図3Cに示すように、第1層レンズアレイ21は、複数の第1層レンズ211を含み得る。第2の層レンズ221のサイズは、第1の層レンズ211のサイズより大きい。いくつかの実施形態では、第2の層レンズ221のサイズは、第1の層レンズ211のサイズの3倍以上である。しかしながら、いくつかの実施形態では、第2の層レンズ221のそれぞれの面積は、センサ23の感知面積の30%以下である(または以上でない)。センサ23の感知領域は、光(または画像)を感知することができるセンサ23の総面積として定義され得る。
図3A、図3B、および図3Cは、第1の層レンズアレイ21と第2の層レンズアレイ22との間の配置のいくつかの例示的な実施形態を示している。図3A、図3B、および図3Cに示されるように、1つの第2の層レンズ221は、いくつかの第1の層レンズ211に対応し得る。第1の層レンズアレイ21と第2の層レンズアレイ22との間の配置は、三角形配置(図3A)、長方形配置(図3B)、六角形配置(図3C)、または多角形配置(図示せず)であり得る。
図2に示されるように、センサ23は、複数の画素231を含み得る。いくつかの実施形態では、画素231のそれぞれのサイズは、第1の層レンズ211のそれぞれのサイズと等しい。
さらに、いくつかの実施形態では、中間層24の屈折率は、1以上であり得、中間層24の屈折率は、第1の層レンズアレイ21の屈折率以下であり得る。いくつかの実施形態では、中間層24の屈折率は1以上であり得、中間層24の屈折率は第2の層レンズアレイ22の屈折率以下であり得る。
いくつかの実施形態では、第1の層レンズアレイ21の屈折率は、第2の層レンズアレイ22の屈折率と等しくてもよい。いくつかの実施形態では、第1の層レンズアレイ21の屈折率は、第2の層レンズアレイ22の屈折率と等しくなくてもよい。
上記の構成により、二層レンズアレイCIS20は、画像処理システム100が、異なる波長の入射光の4Dプレノプティック関数(POF)を得るようにすることができる。
図4A、図4B、および図4Cに示すように、これらは本開示のいくつかの実施形態による、第1の画像IM1、第2の画像IM2、および第3の画像IM3の概略図を示している。画像処理装置100は、異なる深さに焦点を合わせた画像処理装置100で複数の写真を撮影することできる。図4A、図4B、および図4Cに示された実施形態では、画像処理システム100は、3つの写真を撮影することができ、これは、第1の画像IM1、第2の画像IM2、および第3の画像IM3であり得る。
図4Aは、第1の画像IM1が、第1の深さD1に焦点を合わせている画像処理システム100によって得られることを示している。具体的には、第1の画像IM1は、第1の光L1を受光している二層レンズアレイCIS20に応じて、二層レンズアレイCIS20によって生成される。第1のオブジェクトO1は、第1の深さD1で画像処理システム100から離れており、第1の画像IM1は、第1の深さD1に焦点を合わせている画像処理システム100によって得られているため、第1の画像IM1の第1のオブジェクトO1は鮮明である。
図5A、図5B、および図5Cに示すように、本開示のいくつかの実施形態による、画像処理の概略図を示している。画像処理システム100によって得られた画像は、フィルタ関数FFによって処理され得る。フィルタ関数FFは、異なる深さで画像を処理する複数のフィルタ関数を含むことができ、次いで、サブ画像が生成される。いくつかの実施形態では、フィルタ関数FFは、第1の深さのフィルタ関数FF1、第2の深さのフィルタ関数FF2、および第3の深さのフィルタ関数FF3を含み得る。第1の深さフィルタ関数FF1は、第1の深さD1で得られた画像を処理するためのものであり、第2の深さフィルタ関数FF2は、第2の深さD2で得られた画像を処理するためのものであり、第3の深さフィルタ関数FF3は、第3の深さD3で得られた画像を処理するためのものである。
図5Aでは、第1の画像IM1は、第1の深さフィルタ関数FF1によって処理される。第1の深さフィルタ関数FF1は、第1の深さD1にない画像をフィルタリングし、第1のサブ画像SIM1が残存する。第1のサブ画像SIM1は、第1の画像IM1で鮮明であり、第1のオブジェクトO1の画像は、第1の画像IM1で鮮明であるため、第1のサブ画像SIM1、第1のオブジェクトO1の画像を含む。即ち、第1の画像IM1で鮮明でない画像(第2のオブジェクトO2および第3のオブジェクトO3の画像など)はフィルタリングされる。
図4Bは、第2の画像IM2が、第2の深さD2に焦点を合わせている画像処理システム100によって得られることを示している。具体的には、第2の画像IM2は、第2の光L2を受光している二層レンズアレイCIS20に応じて、二層レンズアレイCIS20によって生成される。第2のオブジェクトO2は、第2の深さD2で画像処理システム100から離れており、第2の画像IM2は、第2の深さD2に焦点を合わせている画像処理システム100によって得られているため、第2の画像IM2の第2のオブジェクトO2は鮮明である。
図5Bでは、第2の画像IM2は、第2の深さフィルタ関数FF2によって処理される。第2の深さフィルタ関数FF2は、第2の深さD2にない画像をフィルタリングし、第2のサブ画像SIM2が残存する。第2のサブ画像SIM2は、第2の画像IM2で鮮明であり、第2のオブジェクトO2の画像は、第2の画像IM2で鮮明であるため、第2のサブ画像SIM2は、第2のオブジェクトO2の画像を含む。即ち、第2の画像IM2で鮮明でない画像(第1のオブジェクトO1および第3のオブジェクトO3の画像など)はフィルタリングされる。
図4Cは、第3の画像IM3が、第3の深さD3に焦点を合わせている画像処理システム100によって得られることを示している。具体的には、第3の画像IM3は、第3の光L3を受光している二層レンズアレイCIS20に応じて、二層レンズアレイCIS20によって生成される。第3のオブジェクトO3は、第3の深さD3で画像処理システム100から離れており、第3の画像IM3は、第3の深さD3に焦点を合わせている画像処理システム100によって得られているため、第3の画像IM3の第3のオブジェクトO3は鮮明である。
図5Cでは、第3の画像IM3は、第3の深さフィルタ関数FF3によって処理される。第3の深さフィルタ関数FF3は、第3の深さD3にない画像をフィルタリングし、第3のサブ画像SIM3が残存する。第3のサブ画像SIM3は、第3の画像IM3で鮮明であり、第3のオブジェクトO3の画像は、第3の画像IM3で鮮明であるため、第3のサブ画像SIM3は、第3のオブジェクトO3の画像を含む。即ち、第3の画像IM3で鮮明でない画像(第1のオブジェクトO1および第3のオブジェクトO3の画像など)はフィルタリングされる。
図6に示すように、図6は、本開示のいくつかの実施形態による、第1のサブ画像SIM1、第2のサブ画像SIM2、および第3のサブ画像SIM3を重畳する概略図を示している。第1のサブ画像SIM1、第2のサブ画像SIM2、および第3のサブ画像SIM3を重畳することは、第1のサブ画像SIM1、第2のサブ画像SIM2、および第3のサブ画像SIM3が新しい画像に「合成(merged)」されることを意味する。図6に示されるように、第1のサブ画像SIM1、第2のサブ画像SIM2、および第3のサブ画像SIM3は、プロセッサ30によって、重畳画像SIIMに重畳され得る。
重畳画像SIIMは、第1のサブ画像SIM1、第2のサブ画像SIM2、および第3のサブ画像SIM3の組み合わせであるため、全ての深さで鮮明である。また、重畳画像SIIMでは、第1のオブジェクトO1、第2のオブジェクトO2、および第3のオブジェクトO3は鮮明である。
上述の実施形態は単に例であり、いくつかの実施形態では、画像処理システム100は、第3の画像IM3を得る必要がないことに留意されたい。即ち、いくつかの実施形態では、画像処理システム100は、第1の画像IM1および第2の画像IM2のみを得て、重畳画像SIIMを生成する。
上述の画像処理システム100は、異なる深さで画像を処理することにより、全ての深さで鮮明な重畳画像が生成されるようにすることができる。さらに、上述の画像処理システム100は、光が表示画面を通過した後の回折および干渉影響によって引き起こされた画像のオーバーレイおよびぼやけの問題を解決することができる。
図7Aおよび図7Bに示すように、これらは本開示のいくつかの実施形態による、画像処理方法200のフローチャートを示している。いくつかの実施形態では、画像処理方法は、ステップ202から開始することができる。
ステップ202では、表示画面10の下方のカメラ(二層レンズアレイCIS20およびプロセッサ30)は、第1の光L1を受光し、カメラを第1の深さD1に焦点を合わせることによって、第1の画像IM1を取得する。次いで、画像処理方法200は、ステップ204に進む。
ステップ204では、第1の画像IM1は、プロセッサ30によって処理される。ステップ204は、ステップ2041およびステップ2042を含み得る。ステップ2041では、プロセッサ30によって、第1の画像IM1の第1のサブ画像SIM1が第1の深さD1にあると判定される。ステップ2041は、ステップ2041aを含み得る。ステップ2041aでは、第1のサブ画像SIM1の位置情報および方向情報は、二層レンズアレイCIS20によって得られる。ステップ2042では、第1のサブ画像SIM1は、第1の画像IM1から撮像される。次いで、画像処理方法200は、ステップ206に進む。
ステップ206では、表示画面10の下方のカメラ(二層レンズアレイCIS20およびプロセッサ30)は、第2の光L2を受光し、第2の画像IM2は、カメラを第2の深さD2に焦点を合わせることによって得られる。次いで、画像処理方法200は、ステップ208に進む。
ステップ208では、第2の画像IM2は、プロセッサ30によって処理される。ステップ208は、ステップ2081およびステップ2082を含み得る。ステップ2081では、プロセッサ30によって、第2の画像IM2の第2のサブ画像SIM2が第2の深さD2にあると判定される。ステップ2081は、ステップ2081aを含み得る。ステップ2081aでは、第2のサブ画像SIM2の位置情報および方向情報は、二層レンズアレイCIS20によって得られる。ステップ2082では、第2のサブ画像SIM2は、第2の画像IM2から撮像される。次いで、画像処理方法200は、ステップ210に進む。
ステップ210では、ユーザは、第1のサブ画像SIM1および第2のサブ画像SIM2を選択する。次いで、画像処理方法200は、ステップ212に進む。
ステップ212では、プロセッサ30によって第1のサブ画像SIM1および第2のサブ画像SIM2が重畳される。次いで、画像処理方法200は、ステップ214に進む。
ステップ214では、重畳画像SIIMは、プロセッサ30が第1のサブ画像SIM1および第2のサブ画像SIM2を重畳した後、プロセッサ30によって生成される。次いで、画像処理方法200は、ステップ216に進む。
ステップ216では、重畳画像SIIMは、表示画面10に出力される。
図8Aおよび図8Bに示すように、これらは本開示のいくつかの実施形態による、画像処理方法300のフローチャートを示している。いくつかの実施形態では、画像処理方法は、ステップ302から開始することができる。
ステップ302では、表示画面10の下方のカメラ(二層レンズアレイCIS20およびプロセッサ30)は、第1の光L1を受光し、第1の画像IM1は、カメラを第1の深さD1に焦点を合わせることによって得られる。次いで、画像処理方法300は、ステップ304に進む。
ステップ304では、第1の画像IM1は、プロセッサ30によって処理される。ステップ304は、ステップ3041およびステップ3042を含み得る。ステップ3041では、プロセッサ30によって、第1の画像IM1の第1のサブ画像SIM1が第1の深さD1にあると判定される。ステップ3041は、ステップ3041aを含み得る。ステップ3041aでは、第1のサブ画像SIM1の位置情報および方向情報は、二層レンズアレイCIS20によって得られる。ステップ3042では、第1のサブ画像SIM1は、第1の画像IM1からプロセッサ30によって撮像される。次いで、画像処理方法300は、ステップ306に進む。
ステップ306では、表示画面10の下方のカメラ(二層レンズアレイCIS20およびプロセッサ30)は、第2の光L2を受光し、第2の画像IM2は、カメラを第2の深さD2に焦点を合わせることによって得られる。次いで、画像処理方法300は、ステップ308に進む。
ステップ308では、第2の画像IM2は、プロセッサ30によって処理される。ステップ308は、ステップ3081およびステップ3082を含み得る。ステップ3081では、プロセッサ30によって、第2の画像IM2の第2のサブ画像SIM2が第2の深さD2にあると判定される。ステップ3081は、ステップ3081aを含み得る。ステップ3081aでは、第2のサブ画像SIM2の位置情報および方向情報は、二層レンズアレイCIS20によって得られる。ステップ3082では、第2のサブ画像SIM2は、第2の画像IM2からプロセッサ30によって撮像される。次いで、画像処理方法300は、ステップ310に進む。
ステップ310では、サブ画像(第1のサブ画像SIM1および第2のサブ画像SIM2を含み得る)は、プロセッサ30によって重畳される。次いで、画像処理方法300は、ステップ312に進む。
ステップ312では、重畳画像SIIMは、プロセッサ30が第1のサブ画像SIM1および第2のサブ画像SIM2を重畳した後、プロセッサ30によって生成される。次いで、画像処理方法300は、ステップ314に進む。
ステップ314では、重畳画像SIIMの鮮明さは、プロセッサ30によって判定される。次いで、画像処理方法300は、重畳画像SIIMが鮮明でないと判定された場合、ステップ316に進む。次いで、画像処理方法300は、重畳画像SIIMが鮮明でないと判定された場合、ステップ320に進む。
ステップ316では、表示画面10の下方のカメラ(二層レンズアレイCIS20およびプロセッサ30)は、第3の光L3を受光し、第3の画像IM3は、カメラを第3の深さD3に焦点を合わせることによって得られる。第3の深さD3は、第1の深さD1および第2の深さD2とは異なる。いくつかの実施形態では、第3の深さD3は、第1の深さD1と第2の深さD2との間にある。次いで、画像処理方法300は、ステップ318に進む。
ステップ318では、第3の画像IM3は、プロセッサ30によって処理される。ステップ318は、ステップ3181およびステップ3182を含み得る。ステップ3181では、プロセッサ30によって、第3の画像IM3の第3のサブ画像SIM3が第3の深さD3にあると判定される。ステップ3181は、ステップ3181aを含み得る。ステップ3181aでは、第3のサブ画像SIM3の位置情報および方向情報は、二層レンズアレイCIS20によって得られる。ステップ3182では、第3のサブ画像SIM3は、第3の画像IM3からプロセッサ30によって撮像される。次いで、画像処理方法300は、ステップ320に進む。次いで、画像処理方法300は、ステップ310に戻る。
ステップ310~318は、数回繰り返されることができ、複数のサブ画像は鮮明な重畳画像を生成する目的で、撮影されることができることに留意されたい。
ステップ320では、重畳画像SIIMは、表示画面10に出力される。
ステップの順序は変更可能であることに留意されたい。例えば、ステップ206は、ステップ204の前に行なわれてもよく、またはステップ306は、ステップ304の前に行なわれてもよい。
上述の画像処理方法200および画像処理方法300は、異なる深さで画像を処理することにより、全ての深さで鮮明な重畳画像が生成されるようにすることができる。さらに、上述の画像処理方法200および画像処理方法300は、光が表示画面を通過した後の回折および干渉影響によって引き起こされた画像のオーバーレイおよびぼやけの問題を解決することができる。
本開示は、実施例の方法を用いて、且つ実施形態の観点から記述されてきたが、本開示は開示された実施形態に限定するものではないということを理解されたい。逆に、(当業者には明らかであるように)種々の変更及び同様の配置を含むように意図される。よって、添付の特許請求の範囲は、全てのそのような変更および類似の配置を包含するように、最も広義な解釈が与えられるべきである。
100 画像処理システム
O1 第1のオブジェクト
O2 第2のオブジェクト
O3 第3のオブジェクト
10 表示画面
20 二層レンズアレイCIS
21 第1の層レンズアレイ
22 第2の層レンズアレイ
23 センサ
24 中間層
211 第1の層レンズ
221 第2の層レンズ
231 画素
30 プロセッサ
D1 第1の深さ
D2 第2の深さ
D3 第3の深さ
L1 第1の光
L2 第2の光
L3 第3の光
IM1 第1の画像
IM2 第2の画像
IM3 第3の画像
FF1 第1の深さのフィルタ関数
FF2 第2の深さのフィルタ関数
FF3 第3の深さのフィルタ関数
SIM1 第1のサブ画像
SIM2 第2のサブ画像
SIM3 第3のサブ画像
SIIM 重畳画像
X、Y、Z 座標

Claims (10)

  1. 表示画面の下方のカメラを用いて第1の画像を得るステップ、
    前記第1の画像の第1のサブ画像を判定し、前記第1の画像から前記第1のサブ画像を撮像するステップを含み、プロセッサを用いて前記第1の画像を処理するステップであり、前記第1のサブ画像は第1の深さを有する前記第1の画像のサブ画像である、ステップと、
    前記表示画面の下方の前記カメラを用いて第2の画像を得るステップ、
    前記第2の画像の第2のサブ画像を判定し、前記第2の画像から第2のサブ画像を撮像し、前記第1のサブ画像と前記第2のサブ画像を重畳するステップを含み、前記プロセッサを用いて前記第2の画像を処理するステップであり、前記第2のサブ画像は第2の深さを有する前記第2の画像のサブ画像である、ステップ、および
    前記第1のサブ画像と前記第2のサブ画像を重畳した後、重畳画像を生成するステップを含み、
    前記第1の深さは前記第2の深さと異なる画像処理方法。
  2. 前記第1のサブ画像を判定するステップは、
    二層レンズアレイCISを用いて、前記第1の画像の位置情報および方向情報を得るステップ、
    第1の画像の複数のサブ画像の複数の深さを判定するステップ、および
    前記第1の深さを選び、前記第1のサブ画像を得るステップを含み、
    前記第2のサブ画像を判定するステップは、
    二層レンズアレイCISを用いて、前記第2の画像の位置情報および方向情報を得るステップ、
    前記第2の画像の複数のサブ画像の複数の深さを判定するステップ、および
    前記第2の深さを選び、前記第2のサブ画像を得るステップを含む請求項1に記載の画像処理方法。
  3. 前記第1のサブ画像と前記第2のサブ画像を重畳する前に、ユーザによって前記第1のサブ画像および前記第2のサブ画像を選択するステップ、および
    前記重畳画像が生成された後、前記重畳画像を出力するステップをさらに含む請求項1に記載の画像処理方法。
  4. 前記プロセッサを用いて前記重畳画像の鮮明さを判定するステップ、
    前記重畳画像が鮮明であるという判定に応じて、前記重畳画像を出力するステップ、および
    前記重畳画像が鮮明でないという判定に応じて、前記表示画面の下方のカメラを用いて第3の画像を得るステップをさらに含む請求項1に記載の画像処理方法。
  5. 前記プロセッサを用いて前記第3の画像を処理するステップであり、前記第3の画像の第3のサブ画像を判定し、前記プロセッサを用いて前記第3の画像から第3のサブ画像を撮像するステップを含み、前記第3のサブ画像は、前記第1の深さおよび前記第2の深さと異なる第3の深さを有する、ステップを含み、
    前記重畳するステップは、前記第1のサブ画像、前記第2のサブ画像、および前記第3のサブ画像を重畳するステップを含み、
    前記第3の深さは、前記第1の深さと前記第2の深さの間である請求項4に記載の画像処理方法。
  6. 表示画面、
    前記表示画面の下方に配置され、第1の光および第2の光を受光するように構成される二層レンズアレイCIS、および
    プロセッサを含み、
    前記第1の光の受光に応じて、前記二層レンズアレイCISは、第1の画像を生成し、前記第2の光の受光に応じて、前記二層レンズアレイCISは、第2の画像を生成し、
    前記プロセッサは、前記第1の画像の第1のサブ画像と前記第2の画像の第2のサブ画像を重畳して、重畳画像を生成するように構成され、
    前記第1のサブ画像は、第1の深さを有する前記第1の画像のサブ画像であり、
    前記第2のサブ画像は、第2の深さを有する前記第2の画像のサブ画像であり、
    前記第1の深さは前記第2の深さと異なる画像処理システム。
  7. 前記二層レンズアレイCISは、
    複数の第1の層レンズを含む第1の層レンズアレイ、
    前記第1の層レンズアレイの上方に配置され、複数の第2の層レンズを含む第2の層レンズアレイ、および
    複数の画素を含むセンサを含み、
    前記第1の層レンズのそれぞれのサイズは、前記複数の画素のそれぞれのサイズと等しく、
    前記第2の層レンズのそれぞれのサイズは、前記複数の画素のそれぞれのサイズの3倍以上であり、
    前記第1の光および前記第2の光は、前記表示画面、前記第2の層レンズアレイ、および前記第1の層レンズアレイを通過し、次いで前記センサに到達し、
    前記第2の層レンズのそれぞれの面積は、前記センサの感知面積の30%以下であり、
    前記第1の層レンズアレイと前記第2の層レンズアレイとの間の配置は、三角形配置、長方形配置、六角形配置、および多角形配置のいずれか1つの配置である請求項6に記載の画像処理システム。
  8. 前記第1のサブ画像は、前記プロセッサによって前記第1の画像から撮像され、
    前記第2の画像から撮像された前記第2のサブ画像は、重畳されるために、前記プロセッサによって撮像され、
    前記重畳画像の鮮明さは前記プロセッサによって判定され、
    重畳するための前記第1のサブ画像および前記第2のサブ画像は、ユーザによって選択され、
    前記表示画面は前記重畳画像を出力する請求項6に記載の画像処理システム。
  9. 前記二層レンズアレイCISは、前記重畳画像が鮮明でないという判定に応じて、第3の光を受光し、
    前記第3の光を受光することに応じて、前記二層レンズアレイCISは第3の画像を生成し、
    前記プロセッサは、前記第1のサブ画像、前記第2のサブ画像、および前記第3の画像の第3のサブ画像を重畳して、重畳画像を生成するように構成され、
    前記第3のサブ画像は、第3の深さを有する前記第3の画像のサブ画像であり、
    前記第3の深さは前記第1の深さと前記第2の深さと異なり、
    前記表示画面は、前記重畳画像が鮮明であるという判定に応じて前記重畳画像を出力し、
    前記第3の深さは、前記第1の深さと前記第2の深さの間にある請求項8に記載の画像処理システム。
  10. 第1のオブジェクトの前記画像は前記第1の画像で鮮明であり、第2のオブジェクトの前記画像は前記第2の画像で鮮明であり、
    前記第1のオブジェクトの前記画像は前記第2の画像では鮮明でなく、前記第2のオブジェクトの前記画像は前記第1の画像では鮮明でなく、
    前記第1のオブジェクトは前記画像処理システムから離れた前記第1の深さであり、前記第2のオブジェクトは前記画像処理システムから離れた前記第2の深さである請求項6に記載の画像処理システム。
JP2022082140A 2021-12-20 2022-05-19 画像処理方法および画像処理システム Active JP7429731B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/555,676 US11832001B2 (en) 2021-12-20 2021-12-20 Image processing method and image processing system
US17/555,676 2021-12-20

Publications (2)

Publication Number Publication Date
JP2023091707A true JP2023091707A (ja) 2023-06-30
JP7429731B2 JP7429731B2 (ja) 2024-02-08

Family

ID=80999284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022082140A Active JP7429731B2 (ja) 2021-12-20 2022-05-19 画像処理方法および画像処理システム

Country Status (6)

Country Link
US (1) US11832001B2 (ja)
EP (1) EP4198880A1 (ja)
JP (1) JP7429731B2 (ja)
KR (1) KR102611713B1 (ja)
CN (1) CN116320700A (ja)
TW (1) TWI796236B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11837617B2 (en) * 2022-04-27 2023-12-05 Visera Technologies Company Ltd. Under-display camera system and operating method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189708A (ja) * 2011-03-09 2012-10-04 Sony Corp 撮像装置
JP2018107614A (ja) * 2016-12-26 2018-07-05 キヤノン株式会社 動画再生装置、撮像装置、動画再生方法及びプログラム
CN109379454A (zh) * 2018-09-17 2019-02-22 深圳奥比中光科技有限公司 电子设备
US20200099836A1 (en) * 2018-09-26 2020-03-26 Shenzhen GOODIX Technology Co., Ltd. Elecronic apparatus, and light field imaging system and method with optical metasurface
CN113645422A (zh) * 2020-05-11 2021-11-12 三星电子株式会社 图像传感器

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019688A1 (en) 2010-07-20 2012-01-26 Research In Motion Limited Method for decreasing depth of field of a camera having fixed aperture
WO2013169671A1 (en) 2012-05-09 2013-11-14 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
US9057931B1 (en) 2012-06-14 2015-06-16 Amazon Technologies, Inc. Display integrated camera
US20140168471A1 (en) * 2012-12-19 2014-06-19 Research In Motion Limited Device with virtual plenoptic camera functionality
JP6159097B2 (ja) * 2013-02-07 2017-07-05 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
US8849064B2 (en) 2013-02-14 2014-09-30 Fotonation Limited Method and apparatus for viewing images
EP3916786A3 (en) * 2013-05-21 2022-03-09 Photonic Sensors & Algorithms, S.L. Monolithic integration of plenoptic lenses on photosensor substrates
CN105335950B (zh) 2014-05-28 2019-02-12 华为技术有限公司 图像处理方法和图像处理装置
JP2018037998A (ja) 2016-09-02 2018-03-08 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
CA3084679C (en) 2017-12-05 2023-03-07 Airy3D Inc. Light field image processing method for depth acquisition
CN107967946B (zh) 2017-12-21 2021-05-11 武汉楚精灵医疗科技有限公司 基于深度学习的胃镜操作实时辅助系统及方法
TWI691932B (zh) 2018-06-12 2020-04-21 大陸商光寶電子(廣州)有限公司 影像處理系統及影像處理方法
DE102019133642A1 (de) 2018-12-12 2020-06-18 Magna Closures Inc. Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten
CN110060215B (zh) 2019-04-16 2021-09-10 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
US20210360154A1 (en) 2020-05-14 2021-11-18 David Elliott Slobodin Display and image-capture device
US11863729B2 (en) * 2021-09-21 2024-01-02 Qualcomm Incorporated Systems and methods for generating synthetic depth of field effects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189708A (ja) * 2011-03-09 2012-10-04 Sony Corp 撮像装置
JP2018107614A (ja) * 2016-12-26 2018-07-05 キヤノン株式会社 動画再生装置、撮像装置、動画再生方法及びプログラム
CN109379454A (zh) * 2018-09-17 2019-02-22 深圳奥比中光科技有限公司 电子设备
US20200099836A1 (en) * 2018-09-26 2020-03-26 Shenzhen GOODIX Technology Co., Ltd. Elecronic apparatus, and light field imaging system and method with optical metasurface
CN113645422A (zh) * 2020-05-11 2021-11-12 三星电子株式会社 图像传感器

Also Published As

Publication number Publication date
KR20230094103A (ko) 2023-06-27
US20230199325A1 (en) 2023-06-22
TWI796236B (zh) 2023-03-11
KR102611713B1 (ko) 2023-12-11
JP7429731B2 (ja) 2024-02-08
CN116320700A (zh) 2023-06-23
TW202326597A (zh) 2023-07-01
EP4198880A1 (en) 2023-06-21
US11832001B2 (en) 2023-11-28

Similar Documents

Publication Publication Date Title
CN108141571B (zh) 无掩模相位检测自动聚焦
EP3134759B1 (en) Image pickup apparatus including lens elements having different diameters
US20140204183A1 (en) Photographing device and photographing method for taking picture by using a plurality of microlenses
JP6789833B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2011118235A (ja) 撮像装置
CN112866549B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN104717482A (zh) 多光谱多景深阵列拍摄方法与拍摄相机
KR20180123117A (ko) 화상 처리장치, 촬상장치 및 이들의 제어방법과, 기억매체
US20140168371A1 (en) Image processing apparatus and image refocusing method
Georgiev et al. Rich image capture with plenoptic cameras
JP2013061850A (ja) ノイズ低減のための画像処理装置及び画像処理方法
US20180288306A1 (en) Mask-less phase detection autofocus
JP7429731B2 (ja) 画像処理方法および画像処理システム
JP6611531B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JPWO2013027507A1 (ja) 撮像装置
CN108810326B (zh) 一种拍照方法、装置及移动终端
US8953899B2 (en) Method and system for rendering an image from a light-field camera
US11323689B2 (en) Image processing device, imaging device, image processing method, and recording medium
JP6976754B2 (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
US9743007B2 (en) Lens module array, image sensing device and fusing method for digital zoomed images
CN107979715B (zh) 摄像装置
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
JP6006506B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP2016010080A (ja) 画像処理装置、画像処理方法及びプログラム
KR102125775B1 (ko) 배제 픽셀 데이터를 보상하여 영상을 생성하는 방법 및 그것을 이용하는 영상 생성 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R150 Certificate of patent or registration of utility model

Ref document number: 7429731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150