JP2023079210A - イメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置 - Google Patents
イメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置 Download PDFInfo
- Publication number
- JP2023079210A JP2023079210A JP2022188038A JP2022188038A JP2023079210A JP 2023079210 A JP2023079210 A JP 2023079210A JP 2022188038 A JP2022188038 A JP 2022188038A JP 2022188038 A JP2022188038 A JP 2022188038A JP 2023079210 A JP2023079210 A JP 2023079210A
- Authority
- JP
- Japan
- Prior art keywords
- pixel signal
- variance value
- pixel
- signal
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000012937 correction Methods 0.000 claims abstract description 60
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 238000002156 mixing Methods 0.000 claims description 5
- 239000006185 dispersion Substances 0.000 abstract 4
- 238000010586 diagram Methods 0.000 description 34
- 230000000875 corresponding effect Effects 0.000 description 26
- 230000003287 optical effect Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 238000009499 grossing Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- PBGKNXWGYQPUJK-UHFFFAOYSA-N 4-chloro-2-nitroaniline Chemical compound NC1=CC=C(Cl)C=C1[N+]([O-])=O PBGKNXWGYQPUJK-UHFFFAOYSA-N 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/82—Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
【課題】イメージ品質を改善させるイメージ信号プロセッサ及びその動作方法を提供する。
【解決手段】本発明によるイメージ信号プロセッサは、外部装置からピクセル信号を受信するグラデーション検出モジュールと、ピクセル信号を受信し、グラデーション検出モジュールに接続された補正モジュールと、を有し、グラデーション検出モジュールは、ピクセル信号に対するグラジエントを測定し、グラジエントに基づいてピクセル信号を補正して補正ピクセル信号を生成し、ピクセル信号に基づいて第1分散値を計算し、補正ピクセル信号に基づいて第2分散値を計算し、第1分散値と第2分散値との比較に基づいてグラデーション確率値を計算し、ピクセル信号に対するグラデーション確率値の情報であるグラデーションマップを生成し、補正モジュールは、グラデーションマップに基づいてピクセル信号を補正する。
【選択図】図13
【解決手段】本発明によるイメージ信号プロセッサは、外部装置からピクセル信号を受信するグラデーション検出モジュールと、ピクセル信号を受信し、グラデーション検出モジュールに接続された補正モジュールと、を有し、グラデーション検出モジュールは、ピクセル信号に対するグラジエントを測定し、グラジエントに基づいてピクセル信号を補正して補正ピクセル信号を生成し、ピクセル信号に基づいて第1分散値を計算し、補正ピクセル信号に基づいて第2分散値を計算し、第1分散値と第2分散値との比較に基づいてグラデーション確率値を計算し、ピクセル信号に対するグラデーション確率値の情報であるグラデーションマップを生成し、補正モジュールは、グラデーションマップに基づいてピクセル信号を補正する。
【選択図】図13
Description
本発明は、イメージ信号プロセッサに関し、特に、イメージ品質を改善させるイメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置に関する。
イメージセンシング装置(image sensing device)は、光学情報を電気信号に変換させる半導体素子の一つである。
このようなイメージセンシング装置は、電荷結合型(Charge Coupled Device:CCD)イメージセンシング装置とシーモス型(Complementary Metal-Oxide Semiconductor:CMOS)イメージセンシング装置を含み得る。
このようなイメージセンシング装置は、電荷結合型(Charge Coupled Device:CCD)イメージセンシング装置とシーモス型(Complementary Metal-Oxide Semiconductor:CMOS)イメージセンシング装置を含み得る。
CMOS型イメージセンサは、CIS(CMOS image sensor)と略称することができる。
CISは、2次元的に配列された複数のピクセルを備える。
ピクセルそれぞれは、例えば、フォトダイオード(photodiode:PD)を含む。
フォトダイオードは、入射した光を電気信号に変換する役割をする。
CISは、2次元的に配列された複数のピクセルを備える。
ピクセルそれぞれは、例えば、フォトダイオード(photodiode:PD)を含む。
フォトダイオードは、入射した光を電気信号に変換する役割をする。
近年、コンピュータ産業と通信産業の発達につれて、デジタルカメラ、カムコーダ、スマートフォン、ゲーム機器、警備用カメラ、医療用マイクロカメラ、ロボットなど多様な分野で、性能が向上したイメージセンサの需要が増大しており、その提供が課題となっている。
本発明は上記従来のイメージセンサにおける課題に鑑みてなされたものであって、本発明の目的は、イメージ品質を改善させるイメージ信号プロセッサ及びその動作方法を提供することにある。
また、本発明の目的は、本願イメージ信号プロセッサを用いた電力消費が減少するイメージセンシング装置を提供することにある。
また、本発明の目的は、本願イメージ信号プロセッサを用いた電力消費が減少するイメージセンシング装置を提供することにある。
上記目的を達成するためになされた本発明によるイメージ信号プロセッサは、外部装置からピクセル信号を受信するグラデーション検出モジュールと、前記ピクセル信号を受信し、前記グラデーション検出モジュールに接続された補正モジュールと、を有し、前記グラデーション検出モジュールは、前記ピクセル信号に対するグラジエントを測定し、前記グラジエントに基づいて前記ピクセル信号を補正して補正ピクセル信号を生成し、前記ピクセル信号に基づいて第1分散値を計算し、前記補正ピクセル信号に基づいて第2分散値を計算し、前記第1分散値と前記第2分散値との比較に基づいてグラデーション確率値を計算し、前記ピクセル信号に対する前記グラデーション確率値の情報であるグラデーションマップを生成し、前記補正モジュールは、前記グラデーションマップに基づいて前記ピクセル信号を補正することを特徴とする。
上記目的を達成するためになされた本発明によるイメージセンシング装置は、互いに異なる第1領域、第2領域、及び第3領域を含むイメージセンサと、前記第1領域から生成された第1ピクセル信号、前記第2領域から生成された第2ピクセル信号、及び前記第3領域から生成された第3ピクセル信号を受信するイメージ信号プロセッサと、を有し、前記イメージ信号プロセッサは、前記第1ピクセル信号に対する補正を行って第1補正ピクセル信号を生成し、前記第2ピクセル信号に対する補正を行って第2補正ピクセル信号を生成し、前記第3ピクセル信号に対する補正を行って第3補正ピクセル信号を生成し、前記第1ピクセル信号に基づいて第1ピクセル信号分散値を計算し、前記第2ピクセル信号に基づいて第2ピクセル信号分散値を計算し、前記第3ピクセル信号に基づいて第3ピクセル信号分散値を計算し、前記第1補正ピクセル信号に基づいて第1補正ピクセル信号分散値を計算し、前記第2補正ピクセル信号に基づいて第2補正ピクセル信号分散値を計算し、前記第3補正ピクセル信号に基づいて第3補正ピクセル信号分散値を計算し、前記第3ピクセル信号分散値と前記第3補正ピクセル信号分散値との比較に基づいて第1グラデーション確率値を計算し、前記第3ピクセル信号分散値は、前記第3補正ピクセル信号分散値より大きいことを特徴とする。
上記目的を達成するためになされた本発明によるイメージ信号プロセッサの動作方法は、複数の第1ピクセル値を含む第1ピクセル信号、複数の第2ピクセル値を含む第2ピクセル信号、及び複数の第3ピクセル値を含む第3ピクセル信号を受信する段階と、前記第1ピクセル値に対する第1グラジエントを測定し、前記第2ピクセル値に対する第2グラジエントを測定し、前記第3ピクセル値に対する第3グラジエントを測定する段階と、前記第1グラジエントに基づいて前記第1ピクセル値を補正して第1補正ピクセル値を生成し、前記第2グラジエントに基づいて前記第2ピクセル値を補正して第2補正ピクセル値を生成し、前記第3グラジエントに基づいて前記第3ピクセル値を補正して第3補正ピクセル値を生成する段階と、前記第1ピクセル値に基づいて第1分散値を生成し、前記第2ピクセル値に基づいて第2分散値を生成し、前記第3ピクセル値に基づいて第3分散値を生成する段階と、前記第1補正ピクセル値に基づいて第4分散値を生成し、前記第2補正ピクセル値に基づいて第5分散値を生成し、前記第3補正ピクセル値に基づいて第6分散値を生成する段階と、前記第1分散値と前記第4分散値とを比較して前記第1ピクセル信号をフラット領域として決定する段階と、前記第2分散値と前記第5分散値とを比較して前記第2ピクセル信号をエッジ領域として決定する段階と、前記第3分散値と前記第6分散値とを比較して前記第3ピクセル信号をグラデーション領域として決定する段階と、を有することを特徴とする。
本発明に係るイメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置によれば、ピクセル信号をフラット領域、エッジ領域、及びグラデーション領域に区分し、区分した領域別に補正して、出力されるイメージ信号の品質を改善させることができる。
次に、本発明に係るイメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置を実施するための形態の具体例を図面を参照しながら説明する。
図1は、本発明の実施形態によるイメージセンシング装置の概略構成を示すブロック図である。
図1を参照すると、イメージセンシング装置1は、イメージセンサ100とイメージ信号プロセッサ400を含む。
イメージセンサ100は、光を用いてセンシング対象のイメージをセンシングして、ピクセル信号(SIG_PX)を生成する。
一実施形態で、生成されたピクセル信号(SIG_PX)は、例えば、デジタル信号であり得るが、本発明の技術的思想による実施形態はこれに制限されるものではない。
図1を参照すると、イメージセンシング装置1は、イメージセンサ100とイメージ信号プロセッサ400を含む。
イメージセンサ100は、光を用いてセンシング対象のイメージをセンシングして、ピクセル信号(SIG_PX)を生成する。
一実施形態で、生成されたピクセル信号(SIG_PX)は、例えば、デジタル信号であり得るが、本発明の技術的思想による実施形態はこれに制限されるものではない。
ピクセル信号(SIG_PX)は、イメージ信号プロセッサ400に提供されて処理される。
イメージ信号プロセッサ400は、イメージセンサ100のバッファ部1170から出力されたピクセル信号(SIG_PX)を受信して受信したピクセル信号(SIG_PX)をディスプレイに容易なように加工又は処理する。
一実施形態で、イメージ信号プロセッサ400は、イメージセンサ100で出力されたピクセル信号(SIG_PX)に対してデジタルビニングを行う。
この際、イメージセンサ100から出力されたピクセル信号(SIG_PX)は、アナログビニングなしにピクセルアレイPAからのrawイメージ信号であり得、アナログビニングが既に行われたピクセル信号(SIG_PX)でもあり得る。
イメージ信号プロセッサ400は、イメージセンサ100のバッファ部1170から出力されたピクセル信号(SIG_PX)を受信して受信したピクセル信号(SIG_PX)をディスプレイに容易なように加工又は処理する。
一実施形態で、イメージ信号プロセッサ400は、イメージセンサ100で出力されたピクセル信号(SIG_PX)に対してデジタルビニングを行う。
この際、イメージセンサ100から出力されたピクセル信号(SIG_PX)は、アナログビニングなしにピクセルアレイPAからのrawイメージ信号であり得、アナログビニングが既に行われたピクセル信号(SIG_PX)でもあり得る。
一実施形態で、イメージセンサ100とイメージ信号プロセッサ400は、図に示すように互いに分離して配置される。
例えば、イメージセンサ100が第1チップに搭載され、イメージ信号プロセッサ400が第2チップに搭載されて所定のインターフェースを介して互いに通信する。
しかし、実施形態はこれに制限されるものではなく、イメージセンサ100とイメージ信号プロセッサ400は、一つのパッケージ、例えば、MCP(multi-chip package)として実現することができる。
例えば、イメージセンサ100が第1チップに搭載され、イメージ信号プロセッサ400が第2チップに搭載されて所定のインターフェースを介して互いに通信する。
しかし、実施形態はこれに制限されるものではなく、イメージセンサ100とイメージ信号プロセッサ400は、一つのパッケージ、例えば、MCP(multi-chip package)として実現することができる。
イメージセンサ100は、コントロールレジスタブロック1110、タイミングジェネレータ1120、ロウ(row)ドライバ1130、ピクセルアレイPA、リードアウト回路1150、ランプ信号生成器1160、バッファ部1170を含む。
コントロールレジスタブロック1110は、イメージセンサ100の動作を全体的に制御する。
特に、コントロールレジスタブロック1110は、タイミングジェネレータ1120、ランプ信号生成器1160、及びバッファ部1170に直接動作信号を伝送する。
タイミングジェネレータ1120は、イメージセンサ100のいくつの構成要素の動作タイミングの基準になる信号を発生させる。
タイミングジェネレータ1120で発生した動作タイミング基準信号は、ロウドライバ1130、リードアウト回路1150、ランプ信号生成器1160等に伝達される。
コントロールレジスタブロック1110は、イメージセンサ100の動作を全体的に制御する。
特に、コントロールレジスタブロック1110は、タイミングジェネレータ1120、ランプ信号生成器1160、及びバッファ部1170に直接動作信号を伝送する。
タイミングジェネレータ1120は、イメージセンサ100のいくつの構成要素の動作タイミングの基準になる信号を発生させる。
タイミングジェネレータ1120で発生した動作タイミング基準信号は、ロウドライバ1130、リードアウト回路1150、ランプ信号生成器1160等に伝達される。
ランプ信号生成器1160は、リードアウト回路1150に使用されるランプ信号を生成して伝送する。
例えば、リードアウト回路1150は、相関二重サンプラ(CDS)、比較器などを含み得るが、ランプ信号生成器1160は、相関二重サンプラ(CDS)、比較器などに使用されるランプ信号を生成して伝送する。
バッファ部1170は、例えば、ラッチ部を含む。
バッファ部1170は、外部に提供するピクセル信号(SIG_PX)を一時的に保存し、ピクセル信号(SIG_PX)を外部メモリ又は外部装置に伝送する。
バッファ部1170は、DRAM又はSRAMのようなメモリを含み得る。
例えば、リードアウト回路1150は、相関二重サンプラ(CDS)、比較器などを含み得るが、ランプ信号生成器1160は、相関二重サンプラ(CDS)、比較器などに使用されるランプ信号を生成して伝送する。
バッファ部1170は、例えば、ラッチ部を含む。
バッファ部1170は、外部に提供するピクセル信号(SIG_PX)を一時的に保存し、ピクセル信号(SIG_PX)を外部メモリ又は外部装置に伝送する。
バッファ部1170は、DRAM又はSRAMのようなメモリを含み得る。
ピクセルアレイPAは、外部イメージをセンシングする。
ピクセルアレイPAは、複数のピクセル(又は単位ピクセル)を含む。
ロウドライバ1130は、ピクセルアレイPAのロウ(row)を選択的に活性化させる。
リードアウト回路1150は、ピクセルアレイPAから提供されたピクセル信号をサンプリングし、これをランプ信号と比較した後、比較結果に基づいてアナログイメージ信号(データ)をデジタルイメージ信号(データ)に変換する。
ピクセルアレイPAは、複数のピクセル(又は単位ピクセル)を含む。
ロウドライバ1130は、ピクセルアレイPAのロウ(row)を選択的に活性化させる。
リードアウト回路1150は、ピクセルアレイPAから提供されたピクセル信号をサンプリングし、これをランプ信号と比較した後、比較結果に基づいてアナログイメージ信号(データ)をデジタルイメージ信号(データ)に変換する。
図2は、本発明の実施形態によるイメージセンサの概念的なレイアウトを示す斜視図である。
図2を参照すると、本実施形態のイメージセンサ100は、積層された上部チップ200と下部チップ300を含む。
上部チップ200には複数のピクセルが2次元アレイ構造で配置される。
すなわち、上部チップ200は、ピクセルアレイPAを含む。
下部チップ300は、ロジック領域LCとメモリ領域などを含む。
下部チップ300は、上部チップ200の下部に配置され、上部チップ200に電気的に接続される。
図2を参照すると、本実施形態のイメージセンサ100は、積層された上部チップ200と下部チップ300を含む。
上部チップ200には複数のピクセルが2次元アレイ構造で配置される。
すなわち、上部チップ200は、ピクセルアレイPAを含む。
下部チップ300は、ロジック領域LCとメモリ領域などを含む。
下部チップ300は、上部チップ200の下部に配置され、上部チップ200に電気的に接続される。
下部チップ300は、上部チップ200から伝達されたピクセル信号が下部チップ300のロジック領域LCに伝達されるようにする。
下部チップ300のロジック領域LCにはロジック素子が配置される。
ロジック素子は、ピクセルからのピクセル信号を処理するための回路を含む。
例えば、ロジック素子は、図1のコントロールレジスタブロック1110、タイミングジェネレータ1120、ロウ(row)ドライバ1130、リードアウト回路1150、ランプ信号生成器1160等を含み得る。
下部チップ300のロジック領域LCにはロジック素子が配置される。
ロジック素子は、ピクセルからのピクセル信号を処理するための回路を含む。
例えば、ロジック素子は、図1のコントロールレジスタブロック1110、タイミングジェネレータ1120、ロウ(row)ドライバ1130、リードアウト回路1150、ランプ信号生成器1160等を含み得る。
図3は、本発明の実施形態によるイメージセンサの概略構成を示す上面図である。
図4は、図3のピクセルアレイを説明するための図である。
図3を参照すると、イメージセンサ100の上面にはピクセルアレイPAが配置される。
詳細にはイメージセンサ100の上部チップ200の上面にピクセルアレイPAが配置される。
図4は、図3のピクセルアレイを説明するための図である。
図3を参照すると、イメージセンサ100の上面にはピクセルアレイPAが配置される。
詳細にはイメージセンサ100の上部チップ200の上面にピクセルアレイPAが配置される。
ピクセルアレイPAは、入射する光を受信する。
ここで、ピクセルアレイPAは、各ピクセルごとに配置されたフォトダイオードPD及びマイクロレンズMLを含む。
フォトダイオードPDは、ピクセルアレイPAに含まれる基板内に配置される。
フォトダイオードPDは、光電変換部に該当し、ピクセルアレイPAに入射した光を電荷に変換させる。
ここで、ピクセルアレイPAは、各ピクセルごとに配置されたフォトダイオードPD及びマイクロレンズMLを含む。
フォトダイオードPDは、ピクセルアレイPAに含まれる基板内に配置される。
フォトダイオードPDは、光電変換部に該当し、ピクセルアレイPAに入射した光を電荷に変換させる。
マイクロレンズMLは、フォトダイオードPDごとに配置される。
すなわち、マイクロレンズMLは、ピクセルアレイPAのピクセルごとに配置され、光を受信する。
マイクロレンズMLを通過した光は、フォトダイオードPDに伝達される。
本図では、ピクセルアレイPAのピクセルが第1方向X及び第2方向Yに規則的に配列されたものを示したが、本発明の実施形態はこれに制限されない。
すなわち、マイクロレンズMLは、ピクセルアレイPAのピクセルごとに配置され、光を受信する。
マイクロレンズMLを通過した光は、フォトダイオードPDに伝達される。
本図では、ピクセルアレイPAのピクセルが第1方向X及び第2方向Yに規則的に配列されたものを示したが、本発明の実施形態はこれに制限されない。
図4を参照すると、ピクセルアレイPAは、第1~第8グリーンピクセル(G1~G8)、第1~第4ブルーピクセル(B1~B4)、及び第1~第4レッドピクセル(R1~R4)を含む。
ピクセルアレイPAの複数のピクセルは、RGBベイヤーパターンで配列される。
例えば、第1~第8グリーンピクセル(G1~G8)を含むグリーンピクセルは、第1~第4ブルーピクセル(B1~B4)を含むブルーピクセル、及び第1~第4レッドピクセル(R1~R4)を含むレッドピクセルを囲む。
このようにピクセルアレイPAの複数のピクセルは、規則的に配列される。
また、本発明の実施形態はこれに制限されず、ピクセルアレイPAは、RGBテトラパターン又はノナパターンで配列することもできる。
また、ピクセルアレイPAは、YUVパターンで配列することもできる。
ピクセルアレイPAの複数のピクセルは、RGBベイヤーパターンで配列される。
例えば、第1~第8グリーンピクセル(G1~G8)を含むグリーンピクセルは、第1~第4ブルーピクセル(B1~B4)を含むブルーピクセル、及び第1~第4レッドピクセル(R1~R4)を含むレッドピクセルを囲む。
このようにピクセルアレイPAの複数のピクセルは、規則的に配列される。
また、本発明の実施形態はこれに制限されず、ピクセルアレイPAは、RGBテトラパターン又はノナパターンで配列することもできる。
また、ピクセルアレイPAは、YUVパターンで配列することもできる。
第1~第8グリーンピクセル(G1~G8)は、それぞれに対応する第1~第8グリーンピクセル信号を出力する。
第1~第4ブルーピクセル(B1~B4)は、それぞれに対応する第1~第4ブルーピクセル信号を出力する。
第1~第4レッドピクセル(R1~R4)は、それぞれに対応する第1~第4レッドピクセル信号を出力する。
すなわち、ピクセルアレイPAが出力する一つのフレームのイメージ信号又はピクセル信号(SIG_PX)は、第1~第8グリーンピクセル信号、第1~第4ブルーピクセル信号、及び第1~第4レッドピクセル信号を含む。
しかし、本発明の実施形態はこれに制限されず、ピクセルアレイPAから出力されるピクセル信号(SIG_PX)は、YUVパターンのイメージ信号を含み得る。
第1~第4ブルーピクセル(B1~B4)は、それぞれに対応する第1~第4ブルーピクセル信号を出力する。
第1~第4レッドピクセル(R1~R4)は、それぞれに対応する第1~第4レッドピクセル信号を出力する。
すなわち、ピクセルアレイPAが出力する一つのフレームのイメージ信号又はピクセル信号(SIG_PX)は、第1~第8グリーンピクセル信号、第1~第4ブルーピクセル信号、及び第1~第4レッドピクセル信号を含む。
しかし、本発明の実施形態はこれに制限されず、ピクセルアレイPAから出力されるピクセル信号(SIG_PX)は、YUVパターンのイメージ信号を含み得る。
図5は、本発明の実施形態によるピクセル信号を説明するための図であり、図6は、図5の第1~第3領域から出力される第1~第3ピクセル信号に関するイメージであり、図7は、図6の第1~第3ピクセル信号のピクセル値を説明するための図である。
図5を参照すると、ピクセル信号(SIG_PX)は、第1ピクセル信号PS1、第2ピクセル信号PS2、及び第3ピクセル信号PS3を含む。
ここで、第1ピクセル信号PS1は、ピクセルアレイPAの第1領域RG1から生成されて出力されるピクセル信号に該当する。
また、第2ピクセル信号PS2は、ピクセルアレイPAの第2領域RG2から生成されて出力されるピクセル信号に該当し、第3ピクセル信号PS3は、ピクセルアレイPAの第3領域RG3から生成されて出力されるピクセル信号に該当する。
ここで第1~第3領域(RG1~RG3)は、例示的なものである。
また、第1~第3領域(RG1~RG3)は、ピクセル信号(SIG_PX)に対応する領域を意味する。
ここで、第1ピクセル信号PS1は、ピクセルアレイPAの第1領域RG1から生成されて出力されるピクセル信号に該当する。
また、第2ピクセル信号PS2は、ピクセルアレイPAの第2領域RG2から生成されて出力されるピクセル信号に該当し、第3ピクセル信号PS3は、ピクセルアレイPAの第3領域RG3から生成されて出力されるピクセル信号に該当する。
ここで第1~第3領域(RG1~RG3)は、例示的なものである。
また、第1~第3領域(RG1~RG3)は、ピクセル信号(SIG_PX)に対応する領域を意味する。
ピクセル信号(SIG_PX)は、イメージセンサ100から出力される一つのフレームのイメージ信号に該当する。
すなわち、ピクセル信号(SIG_PX)は、同時にイメージセンサ100から出力される第1~第3ピクセル信号(PS1~PS3)を含む。
ピクセル信号(SIG_PX)は、イメージ信号プロセッサ400により補正され、ディスプレイに出力される。
一実施形態で、第1ピクセル信号PS1は、第1~第nピクセル値(Pa1~Pan)とセンターピクセル値Pacを含む。
ここで、センターピクセル値Pacは、第1ピクセル信号PS1に該当する第1領域RG1の中央部分に該当し、第1~第nピクセル値(Pa1~Pan)は、センターピクセル値Pacの周辺領域に該当する。
ここで、センターピクセル値Pacは、第1ピクセル信号PS1で補正の基準になるピクセル値に該当する。
これに関連する詳細な内容は後述する。
すなわち、ピクセル信号(SIG_PX)は、同時にイメージセンサ100から出力される第1~第3ピクセル信号(PS1~PS3)を含む。
ピクセル信号(SIG_PX)は、イメージ信号プロセッサ400により補正され、ディスプレイに出力される。
一実施形態で、第1ピクセル信号PS1は、第1~第nピクセル値(Pa1~Pan)とセンターピクセル値Pacを含む。
ここで、センターピクセル値Pacは、第1ピクセル信号PS1に該当する第1領域RG1の中央部分に該当し、第1~第nピクセル値(Pa1~Pan)は、センターピクセル値Pacの周辺領域に該当する。
ここで、センターピクセル値Pacは、第1ピクセル信号PS1で補正の基準になるピクセル値に該当する。
これに関連する詳細な内容は後述する。
第2ピクセル信号PS2は、第1~第nピクセル値(Pb1~Pbn)とセンターピクセル値Pbcを含む。
ここで、センターピクセル値Pbcは、第2ピクセル信号PS2に該当する第2領域RG2の中央部分に該当し、第1~第nピクセル値(Pb1~Pbn)は、センターピクセル値Pbcの周辺領域に該当する。
ここで、センターピクセル値Pbcは、第2ピクセル信号PS2で補正の基準になるピクセル値に該当する。
第3ピクセル信号PS3は第1~第nピクセル値(Pc1~Pcn)とセンターピクセル値Pccを含む。
ここで、センターピクセル値Pccは、第3ピクセル信号PS3に該当する第3領域RG3の中央部分に該当し、第1~第nピクセル値(Pc1~Pcn)は、センターピクセル値Pccの周辺領域に該当する。
ここで、センターピクセル値Pccは、第3ピクセル信号PS3で補正の基準になるピクセル値に該当する。
ここで、センターピクセル値Pbcは、第2ピクセル信号PS2に該当する第2領域RG2の中央部分に該当し、第1~第nピクセル値(Pb1~Pbn)は、センターピクセル値Pbcの周辺領域に該当する。
ここで、センターピクセル値Pbcは、第2ピクセル信号PS2で補正の基準になるピクセル値に該当する。
第3ピクセル信号PS3は第1~第nピクセル値(Pc1~Pcn)とセンターピクセル値Pccを含む。
ここで、センターピクセル値Pccは、第3ピクセル信号PS3に該当する第3領域RG3の中央部分に該当し、第1~第nピクセル値(Pc1~Pcn)は、センターピクセル値Pccの周辺領域に該当する。
ここで、センターピクセル値Pccは、第3ピクセル信号PS3で補正の基準になるピクセル値に該当する。
図6及び図7を参照すると、第1ピクセル信号PS1は、フラット領域(flat region)に該当する。
すなわち、第1ピクセル信号PS1は、比較的均一なピクセル値を有するピクセルから出力される。
また、第1領域RG1は、フラット領域に該当する。
例えば、第1領域RG1で第1方向Xに沿って配列されるピクセルから出力されるピクセル値は、ほぼ均一な値に該当する。
すなわち、第1ピクセル信号PS1は、互いに差が大きいピクセル値を含まない。
すなわち、第1ピクセル信号PS1は、比較的均一なピクセル値を有するピクセルから出力される。
また、第1領域RG1は、フラット領域に該当する。
例えば、第1領域RG1で第1方向Xに沿って配列されるピクセルから出力されるピクセル値は、ほぼ均一な値に該当する。
すなわち、第1ピクセル信号PS1は、互いに差が大きいピクセル値を含まない。
第2ピクセル信号PS2は、エッジ領域(edge region)に該当する。
第2ピクセル信号PS2は、比較的大きな差を有するピクセル値を含む。
すなわち、第2ピクセル信号PS2は、互いに異なる明るさを有する。
また、第2領域RG2は、エッジ領域に該当する。
第2領域RG2で第1方向Xに沿って配列されるピクセルから出力されるピクセル値の間の差は比較的大きい。
第3ピクセル信号PS3は、グラデーション領域(gradation region)に該当する。
第3ピクセル信号PS3は、徐々に増加するピクセル値を含む。
第3ピクセル信号PS3は、徐々に明るくなるピクセル値を含む。
第3領域RG3は、グラデーション領域に該当する。
第3領域RG3で第1方向Xに沿って配列されるピクセルから出力されるピクセル値は徐々に増加し、比較的急激には増加しない。
第2ピクセル信号PS2は、比較的大きな差を有するピクセル値を含む。
すなわち、第2ピクセル信号PS2は、互いに異なる明るさを有する。
また、第2領域RG2は、エッジ領域に該当する。
第2領域RG2で第1方向Xに沿って配列されるピクセルから出力されるピクセル値の間の差は比較的大きい。
第3ピクセル信号PS3は、グラデーション領域(gradation region)に該当する。
第3ピクセル信号PS3は、徐々に増加するピクセル値を含む。
第3ピクセル信号PS3は、徐々に明るくなるピクセル値を含む。
第3領域RG3は、グラデーション領域に該当する。
第3領域RG3で第1方向Xに沿って配列されるピクセルから出力されるピクセル値は徐々に増加し、比較的急激には増加しない。
まとめると、第1ピクセル信号PS1は、フラット領域に該当し、第2ピクセル信号PS2は、エッジ領域に該当し、第3ピクセル信号PS3は、グラデーション領域に該当する。
すなわち、ピクセル信号(SIG_PX)は、フラット領域、エッジ領域、及びグラデーション領域をすべて含む。
ここでグラデーション領域は、被写体の顔、傾いた平面などを撮影したイメージに該当する。
イメージ信号プロセッサ400は、ピクセル信号(SIG_PX)をフラット領域、エッジ領域、及びグラデーション領域に区分する。
また、イメージ信号プロセッサ400は、ピクセル信号(SIG_PX)を区分した領域別に補正し、出力されるイメージ信号の品質を改善させることができる。
これについてのより詳細な説明は、以下で説明する。
すなわち、ピクセル信号(SIG_PX)は、フラット領域、エッジ領域、及びグラデーション領域をすべて含む。
ここでグラデーション領域は、被写体の顔、傾いた平面などを撮影したイメージに該当する。
イメージ信号プロセッサ400は、ピクセル信号(SIG_PX)をフラット領域、エッジ領域、及びグラデーション領域に区分する。
また、イメージ信号プロセッサ400は、ピクセル信号(SIG_PX)を区分した領域別に補正し、出力されるイメージ信号の品質を改善させることができる。
これについてのより詳細な説明は、以下で説明する。
図8は、本発明の実施形態によるイメージ信号プロセッサの概略構成を示すブロック図である。
図8を参照すると、イメージ信号プロセッサ400は、グラデーション検出モジュール410及び補正モジュール420を含む。
グラデーション検出モジュール410は、イメージセンサ100からピクセル信号(SIG_PX)を受信し、ピクセル信号(SIG_PX)に基づいてグラデーションマップGRMを生成する。
グラデーションマップGRMは、ピクセル信号(SIG_PX)でグラデーション領域に該当する確率を含む。
図8を参照すると、イメージ信号プロセッサ400は、グラデーション検出モジュール410及び補正モジュール420を含む。
グラデーション検出モジュール410は、イメージセンサ100からピクセル信号(SIG_PX)を受信し、ピクセル信号(SIG_PX)に基づいてグラデーションマップGRMを生成する。
グラデーションマップGRMは、ピクセル信号(SIG_PX)でグラデーション領域に該当する確率を含む。
補正モジュール420は、イメージ信号プロセッサ400からピクセル信号(SIG_PX)を受信し、グラデーション検出モジュール410からグラデーションマップGRMを受信する。
補正モジュール420は、グラデーションマップGRMに基づいてピクセル信号(SIG_PX)を補正することによって、最終補正ピクセル信号(SIG_PX_CF)を生成する。
すなわち、最終補正ピクセル信号(SIG_PX_CF)は、グラデーションマップGRMに該当するグラデーション領域に含まれるピクセル値に対して補正を行った結果である。
そのため、最終補正ピクセル信号(SIG_PX_CF)のノイズ(noise)は、ピクセル信号(SIG_PX)のノイズに比べて改善され得る。
補正モジュール420は、グラデーションマップGRMに基づいてピクセル信号(SIG_PX)を補正することによって、最終補正ピクセル信号(SIG_PX_CF)を生成する。
すなわち、最終補正ピクセル信号(SIG_PX_CF)は、グラデーションマップGRMに該当するグラデーション領域に含まれるピクセル値に対して補正を行った結果である。
そのため、最終補正ピクセル信号(SIG_PX_CF)のノイズ(noise)は、ピクセル信号(SIG_PX)のノイズに比べて改善され得る。
図9は、本発明の実施形態によるグラデーション検出モジュールの動作方法を説明するためのフローチャートであり、図10は、本発明の実施形態による分散値を生成するグラデーション検出モジュールの概略構成を示すブロック図であり、図11は、図10のグラデーション検出モジュールの第3ピクセル信号に対する補正方法を説明するための図である。
図9~図10を参照すると、グラデーション検出モジュール410は、ピクセル信号(SIG_PX)のグラジエントGRDを測定する(ステップS500)。
例えば、グラデーション検出モジュール410に含まれるグラジエント測定モジュール411は、ピクセル信号(SIG_PX)のグラジエントGRDを測定する。
ここで、グラジエント測定モジュール411は、第1~第3ピクセル信号(PS1~PS3)それぞれのグラジエントGRDを測定する。
グラジエントGRDとは複数のピクセルに対するピクセル値の傾きを意味する。
例えば、グラデーション検出モジュール410に含まれるグラジエント測定モジュール411は、ピクセル信号(SIG_PX)のグラジエントGRDを測定する。
ここで、グラジエント測定モジュール411は、第1~第3ピクセル信号(PS1~PS3)それぞれのグラジエントGRDを測定する。
グラジエントGRDとは複数のピクセルに対するピクセル値の傾きを意味する。
図11を参照すると、第3ピクセル信号PS3は、複数のピクセルに対応する複数のピクセル値を含む。
すなわち、第3ピクセル信号PS3は、図5を参照して説明した第1~第nピクセル値(Pc1~Pcn)とセンターピクセル値Pccを含む。
本実施形態では、グラデーション領域に該当する第3ピクセル信号PS3に対してグラジエントGRD測定を行うことで説明されるが、本発明の実施形態はこれに制限されない。
すなわち、第3ピクセル信号PS3は、図5を参照して説明した第1~第nピクセル値(Pc1~Pcn)とセンターピクセル値Pccを含む。
本実施形態では、グラデーション領域に該当する第3ピクセル信号PS3に対してグラジエントGRD測定を行うことで説明されるが、本発明の実施形態はこれに制限されない。
センターピクセル値Pccを出力するピクセルから第1方向Xに配置されるピクセルから出力されるピクセル値は、センターピクセル値Pccより大きい。
また、センターピクセル値Pccを出力するピクセルから第1方向Xと反対になる方向に配置されるピクセルから出力されるピクセル値は、センターピクセル値Pccより小さい。
すなわち、第3ピクセル信号PS3のグラジエントGRDは、正(positive)の値に該当する。
また、第3ピクセル信号PS3に含まれるピクセル値は、第1方向Xに沿って徐々に増加し、急激には増加しない。
また、センターピクセル値Pccを出力するピクセルから第1方向Xと反対になる方向に配置されるピクセルから出力されるピクセル値は、センターピクセル値Pccより小さい。
すなわち、第3ピクセル信号PS3のグラジエントGRDは、正(positive)の値に該当する。
また、第3ピクセル信号PS3に含まれるピクセル値は、第1方向Xに沿って徐々に増加し、急激には増加しない。
グラジエント測定モジュール411は、下記に示す数式1を用いて、第1方向XへのグラジエントGRDである第1グラジエントaxを生成し、下記に示す数式2を用いて第2方向YへのグラジエントGRDである第2グラジエントayを生成する。
ここで、第1方向Xと第2方向Yは、互いに交差する。
しかし、本発明の実施形態はこれに制限されず、第1方向Xと第2方向Yは互いに交差しなくてもよい。
ここで、第1方向Xと第2方向Yは、互いに交差する。
しかし、本発明の実施形態はこれに制限されず、第1方向Xと第2方向Yは互いに交差しなくてもよい。
ここで、Inは、n番目ピクセルのピクセル値を意味し、nx及びnyは、n番目ピクセルのx軸とy軸に対する位置を意味し、cx及びcyは、センターピクセルのx軸とy軸に対する位置を意味する。
すなわち、各ピクセルのInは、第1~第nピクセル値(Pc1~Pcn)とセンターピクセル値Pccを含む。
すなわち、各ピクセルのInは、第1~第nピクセル値(Pc1~Pcn)とセンターピクセル値Pccを含む。
例えば、グラジエント測定モジュール411は、線形回帰モデル(linear regression model)を用いて第3ピクセル信号PS3に対するグラジエントGRDを測定する。
図11は、第3ピクセル信号PS3に対してグラジエントGRDを測定することのみを示すが、グラジエント測定モジュール411は、第1及び第2ピクセル信号(PS1及びPS2)に対してグラジエントGRDを測定することができる。
また、第1~第3ピクセル信号(PS1~PS3)に対して測定されたグラジエントGRDは、互いに異なり得る。
例えば、第2ピクセル信号PS2に対して測定されたグラジエントGRDが第1及び第3ピクセル信号(PS1及びPS3)に対して測定されたグラジエントGRDより大きくてもよい。
図11は、第3ピクセル信号PS3に対してグラジエントGRDを測定することのみを示すが、グラジエント測定モジュール411は、第1及び第2ピクセル信号(PS1及びPS2)に対してグラジエントGRDを測定することができる。
また、第1~第3ピクセル信号(PS1~PS3)に対して測定されたグラジエントGRDは、互いに異なり得る。
例えば、第2ピクセル信号PS2に対して測定されたグラジエントGRDが第1及び第3ピクセル信号(PS1及びPS3)に対して測定されたグラジエントGRDより大きくてもよい。
再び、図9及び図10を参照すると、グラデーション検出モジュール410は、グラジエントGRDに基づいてピクセル信号(SIG_PX)を補正する(ステップS501)。
例えば、グラジエント補正モジュール412は、第1ピクセル信号PS1に対するグラジエントGRDに基づいて第1ピクセル信号PS1を補正し、第2ピクセル信号PS2に対するグラジエントGRDに基づいて第2ピクセル信号PS2を補正し、第3ピクセル信号PS3に対するグラジエントGRDに基づいて第3ピクセル信号PS3を補正する。
そのため、グラジエント補正モジュール412は、第1補正ピクセル信号(PS1_C)、第2補正ピクセル信号(PS2_C)、及び第3補正ピクセル信号(PS3_C)を含む補正ピクセル信号(SIG_PX_C)を出力する。
例えば、グラジエント補正モジュール412は、第1ピクセル信号PS1に対するグラジエントGRDに基づいて第1ピクセル信号PS1を補正し、第2ピクセル信号PS2に対するグラジエントGRDに基づいて第2ピクセル信号PS2を補正し、第3ピクセル信号PS3に対するグラジエントGRDに基づいて第3ピクセル信号PS3を補正する。
そのため、グラジエント補正モジュール412は、第1補正ピクセル信号(PS1_C)、第2補正ピクセル信号(PS2_C)、及び第3補正ピクセル信号(PS3_C)を含む補正ピクセル信号(SIG_PX_C)を出力する。
図11を参照すると、グラジエント補正モジュール412は、第3ピクセル信号PS3に対するグラジエントGRDに基づいて第3ピクセル信号PS3を補正することによって、第3補正ピクセル信号(PS3_C)を生成する。
ここで、グラジエント補正モジュール412は、下記に示す数式3を用いて第3ピクセル信号PS3に対するグラジエントGRDに基づいて第3ピクセル信号PS3を補正する。
ここで、グラジエント補正モジュール412は、下記に示す数式3を用いて第3ピクセル信号PS3に対するグラジエントGRDに基づいて第3ピクセル信号PS3を補正する。
ここで、I’nは、n番目ピクセルの補正ピクセル値を意味する。
出力される第3補正ピクセル信号(PS3_C)は、第1方向X又は第2方向Yに沿ってほぼ均等のピクセル値を含む。
すなわち、第1方向X又は第2方向Yへの第3補正ピクセル信号(PS3_C)のグラジエントは、第3ピクセル信号PS3のグラジエントより小さい。
本実施形態では第3補正ピクセル信号(PS3_C)に対する生成のみを示したが、第1及び第2補正ピクセル信号(PS1_C及びPS2_C)に対する補正動作もまた、これと同一である。
しかし、第1及び第2補正ピクセル信号(PS1_C及びPS2_C)のピクセル値は、第3補正ピクセル信号(PS3_C)のピクセル値と異なってもよい。
出力される第3補正ピクセル信号(PS3_C)は、第1方向X又は第2方向Yに沿ってほぼ均等のピクセル値を含む。
すなわち、第1方向X又は第2方向Yへの第3補正ピクセル信号(PS3_C)のグラジエントは、第3ピクセル信号PS3のグラジエントより小さい。
本実施形態では第3補正ピクセル信号(PS3_C)に対する生成のみを示したが、第1及び第2補正ピクセル信号(PS1_C及びPS2_C)に対する補正動作もまた、これと同一である。
しかし、第1及び第2補正ピクセル信号(PS1_C及びPS2_C)のピクセル値は、第3補正ピクセル信号(PS3_C)のピクセル値と異なってもよい。
再び、図9及び図10を参照すると、グラデーション検出モジュール410は、ピクセル信号(SIG_PX)に基づいて分散Vを計算し、補正ピクセル信号(SIG_PX_C)に基づいて補正分散値(V_C)を計算する(ステップS502)。
すなわち、グラデーション検出モジュール410に含まれる分散値計算モジュール413は、ピクセル信号(SIG_PX)に基づいて分散Vを計算し、補正ピクセル信号(SIG_PX_C)に基づいて補正分散値(V_C)を計算する。
分散値計算モジュール413は、ピクセル信号(SIG_PX)と補正ピクセル信号(SIG_PX_C)を受信する。
すなわち、グラデーション検出モジュール410に含まれる分散値計算モジュール413は、ピクセル信号(SIG_PX)に基づいて分散Vを計算し、補正ピクセル信号(SIG_PX_C)に基づいて補正分散値(V_C)を計算する。
分散値計算モジュール413は、ピクセル信号(SIG_PX)と補正ピクセル信号(SIG_PX_C)を受信する。
分散値計算モジュール413は、下記に示す数式4を用いてピクセル信号(SIG_PX)に含まれる第1~第3ピクセル信号(PS1~PS3)に対する分散Vを計算する。
ここで、Inは、n番目ピクセルのピクセル値を意味する。
Nは、全体ピクセルの個数を意味する。
そのため、分散値計算モジュール413は、第1ピクセル信号PS1から第1ピクセル信号分散値(V_PS1)を計算し、第2ピクセル信号PS2から第2ピクセル信号分散値(V_PS2)を計算し、第3ピクセル信号PS3から第3ピクセル信号分散値(V_PS3)を計算する。
Nは、全体ピクセルの個数を意味する。
そのため、分散値計算モジュール413は、第1ピクセル信号PS1から第1ピクセル信号分散値(V_PS1)を計算し、第2ピクセル信号PS2から第2ピクセル信号分散値(V_PS2)を計算し、第3ピクセル信号PS3から第3ピクセル信号分散値(V_PS3)を計算する。
分散値計算モジュール413は、下記に示す数式5を用いて補正ピクセル信号(SIG_PX_C)に含まれる第1~第3補正ピクセル信号(PS1_C~PS3_C)に対する補正分散値(V_C)を計算する。
ここで、I’nは、n番目ピクセルの補正ピクセル値を意味する。
そのため、分散値計算モジュール413は、第1補正ピクセル信号(PS1_C)から第1補正ピクセル信号分散値(V_PS1_C)を計算し、第2補正ピクセル信号(PS2_C)から第2補正ピクセル信号分散値(V_PS2_C)を計算し、第3補正ピクセル信号(PS3_C)から第3補正ピクセル信号分散値(V_PS3_C)を計算する。
そのため、分散値計算モジュール413は、第1補正ピクセル信号(PS1_C)から第1補正ピクセル信号分散値(V_PS1_C)を計算し、第2補正ピクセル信号(PS2_C)から第2補正ピクセル信号分散値(V_PS2_C)を計算し、第3補正ピクセル信号(PS3_C)から第3補正ピクセル信号分散値(V_PS3_C)を計算する。
図12は、本発明の実施形態によるグラデーションマップを生成するグラデーション検出モジュールの概略構成及び動作を説明するためのブロック図である。
図13は、図12での分散値と補正分散値の比較によって計算されるグラデーション確率値に対する表である。
図13は、図12での分散値と補正分散値の比較によって計算されるグラデーション確率値に対する表である。
再び、図9を参照すると、グラデーション検出モジュール410は、分散Vと補正分散値(V_C)の比較に基づいてグラデーション確率値GPRを計算する(ステップS503)。
図12及び図13を参照すると、グラデーション検出モジュール410に含まれるグラデーション確率計算モジュール414は、分散Vと補正分散値(V_C)の比較に基づいてグラデーション確率値GPRを計算する。
図12及び図13を参照すると、グラデーション検出モジュール410に含まれるグラデーション確率計算モジュール414は、分散Vと補正分散値(V_C)の比較に基づいてグラデーション確率値GPRを計算する。
第1ピクセル信号PS1に対する分散Vは、第1ピクセル信号分散値(V_PS1)に該当し、第1補正ピクセル信号(PS1_C)に対する補正分散値(V_C)は、第1補正ピクセル信号分散値(V_PS1_C)に該当する。
第1ピクセル信号PS1に対する第1領域RG1は、フラット領域に該当する。
第1ピクセル信号分散値(V_PS1)は、比較的小さい値に該当し、第1補正ピクセル信号分散値(V_PS1_C)もまた、比較的小さい値に該当する。
また、第1ピクセル信号分散値(V_PS1)と第1補正ピクセル信号分散値(V_PS1_C)は、類似の値を有する。
そのため、グラデーション確率計算モジュール414は、第1ピクセル信号グラデーション確率値(GPR_PS1)を出力する。
ここで、第1ピクセル信号グラデーション確率値(GPR_PS1)は、「0」と「1」の間の値の内の「0」に近い値に該当する。
第1ピクセル信号PS1に対する第1領域RG1は、フラット領域に該当する。
第1ピクセル信号分散値(V_PS1)は、比較的小さい値に該当し、第1補正ピクセル信号分散値(V_PS1_C)もまた、比較的小さい値に該当する。
また、第1ピクセル信号分散値(V_PS1)と第1補正ピクセル信号分散値(V_PS1_C)は、類似の値を有する。
そのため、グラデーション確率計算モジュール414は、第1ピクセル信号グラデーション確率値(GPR_PS1)を出力する。
ここで、第1ピクセル信号グラデーション確率値(GPR_PS1)は、「0」と「1」の間の値の内の「0」に近い値に該当する。
すなわち、第1ピクセル信号PS1がフラット領域に該当し、グラデーション領域に該当しないために、第1ピクセル信号グラデーション確率値(GRP_PS1)は、0に近い値である。
また、グラデーション検出モジュール410は、第1ピクセル信号分散値(V_PS1)と第1補正ピクセル信号分散値(V_PS1_C)がすべて比較的小さい値に該当する場合に、第1ピクセル信号PS1をフラット領域として区分する。
第2ピクセル信号PS2に対する分散Vは、第2ピクセル信号分散値(V_PS2)に該当し、第2補正ピクセル信号(PS2_C)に対する補正分散値(V_C)は、第2補正ピクセル信号分散値(V_PS2_C)に該当する。
また、グラデーション検出モジュール410は、第1ピクセル信号分散値(V_PS1)と第1補正ピクセル信号分散値(V_PS1_C)がすべて比較的小さい値に該当する場合に、第1ピクセル信号PS1をフラット領域として区分する。
第2ピクセル信号PS2に対する分散Vは、第2ピクセル信号分散値(V_PS2)に該当し、第2補正ピクセル信号(PS2_C)に対する補正分散値(V_C)は、第2補正ピクセル信号分散値(V_PS2_C)に該当する。
第2ピクセル信号PS2に対する第2領域RG2は、エッジ領域に該当する。
第2ピクセル信号分散値(V_PS2)は、比較的大きい値に該当し、第2補正ピクセル信号分散値(V_PS2_C)もまた、比較的大きい値に該当する。
また、第2ピクセル信号分散値(V_PS2)と第2補正ピクセル信号分散値(V_PS2_C)は、類似の値を有する。
そのため、グラデーション確率計算モジュール414は、第2ピクセル信号グラデーション確率値(GPR_PS2)を出力する。
ここで、第2ピクセル信号グラデーション確率値(GPR_PS2)は、「0」と「1」の間の値の内の「0」に近い値に該当する。
第2ピクセル信号分散値(V_PS2)は、比較的大きい値に該当し、第2補正ピクセル信号分散値(V_PS2_C)もまた、比較的大きい値に該当する。
また、第2ピクセル信号分散値(V_PS2)と第2補正ピクセル信号分散値(V_PS2_C)は、類似の値を有する。
そのため、グラデーション確率計算モジュール414は、第2ピクセル信号グラデーション確率値(GPR_PS2)を出力する。
ここで、第2ピクセル信号グラデーション確率値(GPR_PS2)は、「0」と「1」の間の値の内の「0」に近い値に該当する。
すなわち、第2ピクセル信号PS2がエッジ領域に該当し、グラデーション領域に該当しないため、第2ピクセル信号グラデーション確率値(GPR_PS2)は、0に近い値である。
また、グラデーション検出モジュール410は、第2ピクセル信号分散値(V_PS2)と第2補正ピクセル信号分散値(V_PS2_C)がすべて比較的大きい値に該当する場合に、第2ピクセル信号PS2をエッジ領域として区分する。
また、グラデーション検出モジュール410は、第2ピクセル信号分散値(V_PS2)と第2補正ピクセル信号分散値(V_PS2_C)がすべて比較的大きい値に該当する場合に、第2ピクセル信号PS2をエッジ領域として区分する。
第3ピクセル信号PS3に対する分散Vは、第3ピクセル信号分散値(V_PS3)に該当し、第3補正ピクセル信号(PS3_C)に対する補正分散値(V_C)は、第3補正ピクセル信号分散値(V_PS3_C)に該当する。
第3ピクセル信号PS3に対する第3領域RG3は、グラデーション領域に該当する。
第3ピクセル信号分散値(V_PS3)は、比較的大きい値に該当し、第3補正ピクセル信号分散値(V_PS3_C)は、比較的小さい値に該当する。
第3ピクセル信号PS3に対する第3領域RG3は、グラデーション領域に該当する。
第3ピクセル信号分散値(V_PS3)は、比較的大きい値に該当し、第3補正ピクセル信号分散値(V_PS3_C)は、比較的小さい値に該当する。
図11を参照すると、第3ピクセル信号PS3のピクセル値は正の傾きを有するが、第3補正ピクセル信号(PS3_C)のピクセル値は、0に近い傾きを有する。
したがって、第3ピクセル信号分散値(V_PS3)は、第3補正ピクセル信号分散値(V_PS3_C)より小さい値に該当する。
第3ピクセル信号分散値(V_PS3)が第3補正ピクセル信号分散値(V_PS3_C)より小さい値に該当する場合、グラデーション確率計算モジュール414は、第3ピクセル信号グラデーション確率値(GPR_PS3)を出力する。
ここで、第3ピクセル信号グラデーション確率値(GPR_PS3)は、「0」と「1」の間の値の内の「1」に近い値に該当する。
したがって、第3ピクセル信号分散値(V_PS3)は、第3補正ピクセル信号分散値(V_PS3_C)より小さい値に該当する。
第3ピクセル信号分散値(V_PS3)が第3補正ピクセル信号分散値(V_PS3_C)より小さい値に該当する場合、グラデーション確率計算モジュール414は、第3ピクセル信号グラデーション確率値(GPR_PS3)を出力する。
ここで、第3ピクセル信号グラデーション確率値(GPR_PS3)は、「0」と「1」の間の値の内の「1」に近い値に該当する。
すなわち、第3ピクセル信号PS3がグラデーション領域に該当するので、第3ピクセル信号グラデーション確率値(GRP_PS3)は、「1」に近い値である。
また、グラデーション検出モジュール410は、第3ピクセル信号分散値(V_PS3)と第3補正ピクセル信号分散値(V_PS3_C)の差が比較的大きい値に該当する場合に、第3ピクセル信号PS3をグラデーション領域として区分する。
一実施形態で、第3ピクセル信号分散値(V_PS3)と第3補正ピクセル信号分散値(V_PS3_C)の差は、第1ピクセル信号分散値(V_PS1)と第1補正ピクセル信号分散値(V_PS1_C)の差より大きい。
また、第3ピクセル信号分散値(V_PS3)と第3補正ピクセル信号分散値(V_PS3_C)の差は、第2ピクセル信号分散値(V_PS2)と第2補正ピクセル信号分散値(V_PS2_C)の差より大きい。
また、グラデーション検出モジュール410は、第3ピクセル信号分散値(V_PS3)と第3補正ピクセル信号分散値(V_PS3_C)の差が比較的大きい値に該当する場合に、第3ピクセル信号PS3をグラデーション領域として区分する。
一実施形態で、第3ピクセル信号分散値(V_PS3)と第3補正ピクセル信号分散値(V_PS3_C)の差は、第1ピクセル信号分散値(V_PS1)と第1補正ピクセル信号分散値(V_PS1_C)の差より大きい。
また、第3ピクセル信号分散値(V_PS3)と第3補正ピクセル信号分散値(V_PS3_C)の差は、第2ピクセル信号分散値(V_PS2)と第2補正ピクセル信号分散値(V_PS2_C)の差より大きい。
まとめると、グラデーション確率計算モジュール414は、分散V及び補正分散値(V_C)の比較に基づいてグラデーション確率値GPRを決定し出力する。
グラデーション検出モジュール410は、ピクセル信号(SIG_PX)に対して上記工程を行うことによって、第1~第3ピクセル信号(PS1~PS3)をフラット領域、エッジ領域、及びグラデーション領域に区分し、グラデーション領域に該当するかどうかをグラデーション確率値GPRで示す。
イメージ信号プロセッサ400が生成されたグラデーション確率値GPRを用いてピクセル信号(SIG_PX)に対する補正を行うことによってイメージ品質が改善される。
グラデーション検出モジュール410は、ピクセル信号(SIG_PX)に対して上記工程を行うことによって、第1~第3ピクセル信号(PS1~PS3)をフラット領域、エッジ領域、及びグラデーション領域に区分し、グラデーション領域に該当するかどうかをグラデーション確率値GPRで示す。
イメージ信号プロセッサ400が生成されたグラデーション確率値GPRを用いてピクセル信号(SIG_PX)に対する補正を行うことによってイメージ品質が改善される。
図14は、図12での分散値と補正分散値の比較に基づいて各ピクセル信号をフラット領域、エッジ領域、及びグラデーション領域の内の一つに決定する動作を説明するためのフローチャートである。
図10及び図14を参照すると、分散値計算モジュール413は、分散V及び補正分散値(V_C)を出力する(ステップS510)。
図10及び図14を参照すると、分散値計算モジュール413は、分散V及び補正分散値(V_C)を出力する(ステップS510)。
次に、グラデーション検出モジュール410は、分散V及び補正分散値(V_C)に基づいて第1~第3ピクセル信号(PS1~PS3)をフラット領域、エッジ領域、及びグラデーション領域の内の一つに決定する。
補正分散値(V_C)が分散Vと類似しない場合(ステップS511での「N」o)、グラデーション検出モジュール410は、第3ピクセル信号PS3をグラデーション領域として決定し、第3ピクセル信号グラデーション確率値(GPR_PS3)を生成する(ステップS513)。
すなわち、分散Vが補正分散値(V_C)より大きい場合に、グラデーション検出モジュール410は、第3ピクセル信号PS3をグラデーション領域として決定する。
補正分散値(V_C)が分散Vと類似しない場合(ステップS511での「N」o)、グラデーション検出モジュール410は、第3ピクセル信号PS3をグラデーション領域として決定し、第3ピクセル信号グラデーション確率値(GPR_PS3)を生成する(ステップS513)。
すなわち、分散Vが補正分散値(V_C)より大きい場合に、グラデーション検出モジュール410は、第3ピクセル信号PS3をグラデーション領域として決定する。
補正分散値(V_C)が分散Vと類似する場合(ステップS511での「Y」es)、グラデーション検出モジュール410は、補正分散値(V_C)と分散Vが大きい値であるかどうかを判断する(ステップS512)。
補正分散値(V_C)と分散Vが比較的大きい値に該当しない場合(ステップS512での「N」o)、グラデーション検出モジュール410は、第1ピクセル信号PS1をフラット領域として決定し、第1ピクセル信号グラデーション確率値(GPR_PS1)を生成する(ステップS514)。
補正分散値(V_C)と分散Vが比較的大きい値に該当する場合(ステップS512での「Y」es)、グラデーション検出モジュール410は、第2ピクセル信号PS2をエッジ領域として決定し、第2ピクセル信号グラデーション確率値(GPR_PS2)を生成する(ステップS515)。
補正分散値(V_C)と分散Vが比較的大きい値に該当しない場合(ステップS512での「N」o)、グラデーション検出モジュール410は、第1ピクセル信号PS1をフラット領域として決定し、第1ピクセル信号グラデーション確率値(GPR_PS1)を生成する(ステップS514)。
補正分散値(V_C)と分散Vが比較的大きい値に該当する場合(ステップS512での「Y」es)、グラデーション検出モジュール410は、第2ピクセル信号PS2をエッジ領域として決定し、第2ピクセル信号グラデーション確率値(GPR_PS2)を生成する(ステップS515)。
図15は、本発明の実施形態によるグラデーションマップ生成を説明するための図である。
図9、図12及び図15を参照すると、グラデーション検出モジュール410に含まれるグラデーションマップ生成モジュール415は、グラデーション確率値GPRに基づいてグラデーションマップGRMを生成する(図9のステップS504)。
グラデーションマップGRMは、第1領域RG1及び第1ピクセル信号PS1に対応する第1ピクセル信号グラデーション確率値(GPR_PS1)、第2領域RG2及び第2ピクセル信号PS2に対応する第2ピクセル信号グラデーション確率値(GPR_PS2)と第3領域RG3及び第3ピクセル信号PS3に対応する第3ピクセル信号グラデーション確率値(GPR_PS3)を含む。
すなわち、グラデーションマップGRMは、該当領域又はピクセル信号がグラデーション領域に該当する確率に関連する情報を含む。
結果的にグラデーションマップGRMがグラデーション検出モジュール410から出力される。
図9、図12及び図15を参照すると、グラデーション検出モジュール410に含まれるグラデーションマップ生成モジュール415は、グラデーション確率値GPRに基づいてグラデーションマップGRMを生成する(図9のステップS504)。
グラデーションマップGRMは、第1領域RG1及び第1ピクセル信号PS1に対応する第1ピクセル信号グラデーション確率値(GPR_PS1)、第2領域RG2及び第2ピクセル信号PS2に対応する第2ピクセル信号グラデーション確率値(GPR_PS2)と第3領域RG3及び第3ピクセル信号PS3に対応する第3ピクセル信号グラデーション確率値(GPR_PS3)を含む。
すなわち、グラデーションマップGRMは、該当領域又はピクセル信号がグラデーション領域に該当する確率に関連する情報を含む。
結果的にグラデーションマップGRMがグラデーション検出モジュール410から出力される。
図16は、本発明の実施形態による最終補正ピクセル信号を生成する方法説明するためのフローチャートであり、図17は、本発明の実施形態による補正モジュールの概略構成及び動作を説明するためのブロック図であり、図18は、ピクセル信号と最終補正ピクセル信号を比較したイメージである。
図16~図18を参照すると、補正モジュール420は、ピクセル信号(SIG_PX)のグラジエントGRDを測定する(ステップS520)。
例えば、補正モジュール420に含まれたグラジエント測定モジュール421は、第1~第3ピクセル信号(PS1~PS3)のグラジエントGRDを測定する。
図16~図18を参照すると、補正モジュール420は、ピクセル信号(SIG_PX)のグラジエントGRDを測定する(ステップS520)。
例えば、補正モジュール420に含まれたグラジエント測定モジュール421は、第1~第3ピクセル信号(PS1~PS3)のグラジエントGRDを測定する。
次に、グラジエント補正モジュール422は、グラジエントGRDに基づいてピクセル信号(SIG_PX)を補正する(ステップS521)。
そのため、グラジエント補正モジュール422から補正ピクセル信号(SIG_PX_C)が出力される。
ここで、グラジエント測定モジュール421とグラジエント補正モジュール422は、グラジエント測定モジュール411とグラジエント補正モジュール412と同じ機能を行う。
そのため、グラジエント補正モジュール422から補正ピクセル信号(SIG_PX_C)が出力される。
ここで、グラジエント測定モジュール421とグラジエント補正モジュール422は、グラジエント測定モジュール411とグラジエント補正モジュール412と同じ機能を行う。
エッジ保存スムージングフィルタ423は、受信したピクセル信号(SIG_PX)と補正ピクセル信号(SIG_PX_C)に対してエッジ保存スムージングフィルタリング(edge preserving smoothing filtering)を実行する(ステップS522)。
ここで、エッジ保存スムージングフィルタリングは、エッジ領域に対するピクセル信号を保存し、エッジ領域でない領域に対するピクセル信号に対するノイズを除去する動作を意味する。
例えば、エッジ保存スムージングフィルタリングは、非線形平均(non local mean)アルゴリズムを含む。
ここで、エッジ保存スムージングフィルタリングは、エッジ領域に対するピクセル信号を保存し、エッジ領域でない領域に対するピクセル信号に対するノイズを除去する動作を意味する。
例えば、エッジ保存スムージングフィルタリングは、非線形平均(non local mean)アルゴリズムを含む。
エッジ保存スムージングフィルタ423は、下記に示す数式6を用いてピクセル信号(SIG_PX)に対してエッジ保存スムージングフィルタリングを実行する。
ここで、Inは、ピクセル信号(SIG_PX)のn番目ピクセルのピクセル値を意味する。
wnは、Inの非線形平均加重値を意味する。
これにより、エッジ保存スムージングフィルタ423は、ピクセル信号(SIG_PX)に対する補正を行うことによって、第1補正ピクセル信号(SIG_PX_C1)を生成する。
wnは、Inの非線形平均加重値を意味する。
これにより、エッジ保存スムージングフィルタ423は、ピクセル信号(SIG_PX)に対する補正を行うことによって、第1補正ピクセル信号(SIG_PX_C1)を生成する。
エッジ保存スムージングフィルタ423は、下記に示す数式7を用いて補正ピクセル信号(SIG_PX_C)に対してエッジ保存スムージングフィルタリングを実行する。
ここで、I’nは、補正ピクセル信号(SIG_PX_C)のn番目ピクセルのピクセル値を意味する。
w’nは、I’nの非線形平均加重値を意味する。
これにより、エッジ保存スムージングフィルタ423は、補正ピクセル信号(SIG_PX_C)に対する補正を行うことによって、第2補正ピクセル信号(SIG_PX_C2)を生成する。
w’nは、I’nの非線形平均加重値を意味する。
これにより、エッジ保存スムージングフィルタ423は、補正ピクセル信号(SIG_PX_C)に対する補正を行うことによって、第2補正ピクセル信号(SIG_PX_C2)を生成する。
次に、補正モジュール420に含まれるブレンドモジュール424は、第1補正ピクセル信号(SIG_PX_C1)、第2補正ピクセル信号(SIG_PX_C2)及びグラデーションマップGRMに基づいて最終補正ピクセル信号(SIG_PX_CF)を生成する(ステップS523)。
すなわち、ブレンドモジュール424は、第2補正ピクセル信号(SIG_PX_C2)をグラデーションマップGRMに該当するグラデーション確率値GPRに基づいて補正する。
また、ブレンドモジュール424は、第1補正ピクセル信号(SIG_PX_C1)をグラデーションマップGRMに該当するグラデーション確率値GPRに基づいて補正する。
また、ブレンドモジュール424は、グラデーションマップGRMに基づいて補正した第1及び第2補正ピクセル信号(SIG_PX_C1及びSIG_PX_C2)をブレンドして最終補正ピクセル信号(SIG_PX_CF)を生成する。
すなわち、ブレンドモジュール424は、第2補正ピクセル信号(SIG_PX_C2)をグラデーションマップGRMに該当するグラデーション確率値GPRに基づいて補正する。
また、ブレンドモジュール424は、第1補正ピクセル信号(SIG_PX_C1)をグラデーションマップGRMに該当するグラデーション確率値GPRに基づいて補正する。
また、ブレンドモジュール424は、グラデーションマップGRMに基づいて補正した第1及び第2補正ピクセル信号(SIG_PX_C1及びSIG_PX_C2)をブレンドして最終補正ピクセル信号(SIG_PX_CF)を生成する。
該当する工程は、下記に示す数式8のとおりである。
ここで、Outは、第1補正ピクセル信号(SIG_PX_C1)のピクセル値に該当し、Out’は、第2補正ピクセル信号(SIG_PX_C)のピクセル値に該当し、GPRは、各ピクセルに該当するグラデーション確率値GPRを意味する。
すなわち、該当ピクセルがグラデーション領域に該当する場合、最終補正ピクセル信号(SIG_PX_CF)は、第2補正ピクセル信号(SIG_PX_C2)に該当する。
また、該当ピクセルがグラデーション領域に該当しない場合、最終補正ピクセル信号(SIG_PX_CF)は、第1補正ピクセル信号(SIG_PX_C1)に該当する。
そのため、グラデーション領域に該当するピクセル値は補正され、イメージ品質が改善される。
すなわち、該当ピクセルがグラデーション領域に該当する場合、最終補正ピクセル信号(SIG_PX_CF)は、第2補正ピクセル信号(SIG_PX_C2)に該当する。
また、該当ピクセルがグラデーション領域に該当しない場合、最終補正ピクセル信号(SIG_PX_CF)は、第1補正ピクセル信号(SIG_PX_C1)に該当する。
そのため、グラデーション領域に該当するピクセル値は補正され、イメージ品質が改善される。
以下、図19を参照して本発明の他の実施形態による補正モジュール420’について説明する。
図19は、本発明の他の実施形態による補正モジュールの概略構成及び動作を説明するためのブロック図である。
説明の便宜上、図1~図18を用いて説明した内容と重複する部分は簡略に説明するか又は省略する。
図19を参照すると、補正モジュール420’は、エッジ保存スムージングフィルタ423とブレンドモジュール424を含む。
図19は、本発明の他の実施形態による補正モジュールの概略構成及び動作を説明するためのブロック図である。
説明の便宜上、図1~図18を用いて説明した内容と重複する部分は簡略に説明するか又は省略する。
図19を参照すると、補正モジュール420’は、エッジ保存スムージングフィルタ423とブレンドモジュール424を含む。
すなわち、図17を参照して説明した補正モジュール420とは異なり、補正モジュール420’は、グラジエント測定モジュール421とグラジエント補正モジュール422を含まなくてもよい。
ブレンドモジュール424は、ピクセル信号(SIG_PX)と第1補正ピクセル信号(SIG_PX_C1)を受信する。
ブレンドモジュール424は、グラデーションマップGRMに基づいてピクセル信号(SIG_PX)と第1補正ピクセル信号(SIG_PX_C1)に対して補正を行う。
この際、ブレンドモジュール424は、第2補正ピクセル信号(SIG_PX_C2)の代わりにピクセル信号(SIG_PX)とグラデーションマップGRMのグラデーション確率値GPRを乗じて最終補正ピクセル信号(SIG_PX_CF)を生成する。
ブレンドモジュール424は、ピクセル信号(SIG_PX)と第1補正ピクセル信号(SIG_PX_C1)を受信する。
ブレンドモジュール424は、グラデーションマップGRMに基づいてピクセル信号(SIG_PX)と第1補正ピクセル信号(SIG_PX_C1)に対して補正を行う。
この際、ブレンドモジュール424は、第2補正ピクセル信号(SIG_PX_C2)の代わりにピクセル信号(SIG_PX)とグラデーションマップGRMのグラデーション確率値GPRを乗じて最終補正ピクセル信号(SIG_PX_CF)を生成する。
以下、図20及び図21を参照して本発明の他の実施形態によるイメージ信号プロセッサ400’について説明する。
図20は、本発明の他の実施形態によるイメージ信号プロセッサの概略構成を示すブロック図であり、図21は、図20の補正モジュールの概略構成を示すブロック図である。
説明の便宜上、図1~図18を用いて説明した内容と重複する部分は、簡略に説明するか又は省略する。
図20は、本発明の他の実施形態によるイメージ信号プロセッサの概略構成を示すブロック図であり、図21は、図20の補正モジュールの概略構成を示すブロック図である。
説明の便宜上、図1~図18を用いて説明した内容と重複する部分は、簡略に説明するか又は省略する。
図20及び図21を参照すると、イメージ信号プロセッサ400’は、グラデーション検出モジュール410及び補正モジュール420”を含む。
ここで補正モジュール420”は、グラデーション検出モジュール410からグラデーションマップGRMだけでなく補正ピクセル信号(SIG_PX_C)も受信する。
補正モジュール420”に含まれるエッジ保存スムージングフィルタ423は、補正ピクセル信号(SIG_PX_C)に対して補正を行うことによって第2補正ピクセル信号(SIG_PX_C2)を出力する。
本実施形態で、グラジエント補正モジュール412から生成される補正ピクセル信号(SIG_PX_C)が補正モジュール420”に伝達されることによって、補正ピクセル信号(SIG_PX_C)を再び生成する必要はなく、電力を減少させることができる。
ここで補正モジュール420”は、グラデーション検出モジュール410からグラデーションマップGRMだけでなく補正ピクセル信号(SIG_PX_C)も受信する。
補正モジュール420”に含まれるエッジ保存スムージングフィルタ423は、補正ピクセル信号(SIG_PX_C)に対して補正を行うことによって第2補正ピクセル信号(SIG_PX_C2)を出力する。
本実施形態で、グラジエント補正モジュール412から生成される補正ピクセル信号(SIG_PX_C)が補正モジュール420”に伝達されることによって、補正ピクセル信号(SIG_PX_C)を再び生成する必要はなく、電力を減少させることができる。
以下、図22及び図23を参照して、本発明の実施形態による電子装置(600、600’)について説明する。
図22は、本発明の実施形態による電子装置の概略構成を示すブロック図であり、図23は、本発明の他の実施形態による電子装置の概略構成を示すブロック図である。
説明の便宜上、図1~図21を用いて説明した内容と重複する部分は簡略に説明するか又は省略する。
図22は、本発明の実施形態による電子装置の概略構成を示すブロック図であり、図23は、本発明の他の実施形態による電子装置の概略構成を示すブロック図である。
説明の便宜上、図1~図21を用いて説明した内容と重複する部分は簡略に説明するか又は省略する。
図22を参照すると、電子装置600は、カメラモジュール610及びアプリケーションプロセッサ620を含む。
アプリケーションプロセッサ620は、カメラモジュール610から出力されたイメージ信号を処理してディスプレイ(表示)し、カメラモジュール610を制御する。
カメラモジュール610は、イメージセンサ100を含み、アプリケーションプロセッサ620は、イメージ信号プロセッサ400を含む。
イメージセンサ100は、カメラモジュール610に配置され、イメージセンサ100は、ピクセル信号(SIG_PX)を生成してアプリケーションプロセッサ620に提供する。
アプリケーションプロセッサ620は、カメラモジュール610から出力されたイメージ信号を処理してディスプレイ(表示)し、カメラモジュール610を制御する。
カメラモジュール610は、イメージセンサ100を含み、アプリケーションプロセッサ620は、イメージ信号プロセッサ400を含む。
イメージセンサ100は、カメラモジュール610に配置され、イメージセンサ100は、ピクセル信号(SIG_PX)を生成してアプリケーションプロセッサ620に提供する。
図23を参照すると、電子装置600’は、カメラモジュール610及びアプリケーションプロセッサ620を含む。
カメラモジュール610は、イメージセンサ100とイメージ信号プロセッサ400をすべて含む。
すなわち、イメージセンサ100とイメージ信号プロセッサ400は、すべてカメラモジュール610に配置され得る。
カメラモジュール610は、イメージセンサ100とイメージ信号プロセッサ400をすべて含む。
すなわち、イメージセンサ100とイメージ信号プロセッサ400は、すべてカメラモジュール610に配置され得る。
以下、図24を参照して本発明の他の実施形態によるイメージセンサ100”について説明する。
図24は、本発明の他の実施形態によるイメージセンサの概念的なレイアウトを示す斜視図である。
説明の便宜上、図1~図21を用いて説明した内容と重複する部分は、簡略に説明するか又は省略する。
図24は、本発明の他の実施形態によるイメージセンサの概念的なレイアウトを示す斜視図である。
説明の便宜上、図1~図21を用いて説明した内容と重複する部分は、簡略に説明するか又は省略する。
図24を参照すると、イメージセンサ100”は、上部チップ200、下部チップ300、及びメモリチップ300’を含む。
ここで、上部チップ200、下部チップ300、及びメモリチップ300’は、第3方向Zに沿って順次積層される。
メモリチップ300’は、下部チップ300の下部に配置される。
メモリチップ300’は、メモリ装置を含む。
例えば、メモリチップ300’は、DRAM、SRAMなどの揮発性メモリ装置を含む。
メモリチップ300’は、上部チップ200及び下部チップ300から信号の伝達を受け、メモリ装置を介して信号を処理する。
すなわち、メモリチップ300’を含むイメージセンサ100”は、3スタックイメージセンサに該当する。
ここで、上部チップ200、下部チップ300、及びメモリチップ300’は、第3方向Zに沿って順次積層される。
メモリチップ300’は、下部チップ300の下部に配置される。
メモリチップ300’は、メモリ装置を含む。
例えば、メモリチップ300’は、DRAM、SRAMなどの揮発性メモリ装置を含む。
メモリチップ300’は、上部チップ200及び下部チップ300から信号の伝達を受け、メモリ装置を介して信号を処理する。
すなわち、メモリチップ300’を含むイメージセンサ100”は、3スタックイメージセンサに該当する。
以下、図25及び図26を参照して本発明の他の実施形態による電子装置2000について説明する。
図25は、本発明の他の実施形態によるマルチカメラモジュールを含む電子装置の概略構成を説明するためのブロック図であり、図26は、図25のカメラモジュールの部分詳細を示すブロック図である。
説明の便宜上、図1~図24を用いて説明した内容と重複する部分は簡略に説明するか又は省略する。
図25は、本発明の他の実施形態によるマルチカメラモジュールを含む電子装置の概略構成を説明するためのブロック図であり、図26は、図25のカメラモジュールの部分詳細を示すブロック図である。
説明の便宜上、図1~図24を用いて説明した内容と重複する部分は簡略に説明するか又は省略する。
図25を参照すると、電子装置2000は、カメラモジュールグループ2100、アプリケーションプロセッサ2200、PMIC2300、外部メモリ2400、及びディスプレイ2500を含む。
カメラモジュールグループ2100は、複数のカメラモジュール(2100a、2100b、2100c)を含む。
図には3個のカメラモジュール(2100a、2100b、2100c)が配置された実施形態を示しているが、実施形態はこれに制限されるものではない。
一実施形態で、カメラモジュールグループ2100は、2個のカメラモジュールのみを含むように変形して実施することができる。
また、一実施形態で、カメラモジュールグループ2100は、n個(nは4以上の自然数)のカメラモジュールを含むように変形して実施することもできる。
カメラモジュールグループ2100は、複数のカメラモジュール(2100a、2100b、2100c)を含む。
図には3個のカメラモジュール(2100a、2100b、2100c)が配置された実施形態を示しているが、実施形態はこれに制限されるものではない。
一実施形態で、カメラモジュールグループ2100は、2個のカメラモジュールのみを含むように変形して実施することができる。
また、一実施形態で、カメラモジュールグループ2100は、n個(nは4以上の自然数)のカメラモジュールを含むように変形して実施することもできる。
以下、図26を参照して、カメラモジュール2100bの詳細構成についてより具体的に説明するが、以下の説明は、実施形態により他のカメラモジュール(2100a、2100c)に対しても同様に適用することができる。
図26を参照すると、カメラモジュール2100bは、プリズム2105、光路フォールディング要素2110(Optical Path Folding Element、以下、「OPFE」)、アクチュエータ2130、イメージセンシング装置2140及び保存部2150を含む。
プリズム2105は、光反射物質の反射面2107を含んで外部から入射した光Lの経路を変更させる。
図26を参照すると、カメラモジュール2100bは、プリズム2105、光路フォールディング要素2110(Optical Path Folding Element、以下、「OPFE」)、アクチュエータ2130、イメージセンシング装置2140及び保存部2150を含む。
プリズム2105は、光反射物質の反射面2107を含んで外部から入射した光Lの経路を変更させる。
一実施形態で、プリズム2105は、第1方向Xに入射した光Lの経路を第1方向Xに垂直な第2方向Yに変更させる。
また、プリズム2105は、光反射物質の反射面2107を、中心軸2106を中心にA方向に回転させたり、中心軸2106をB方向に回転させて、第1方向Xに入射した光Lの経路を垂直な第2方向Yに変更させる。
この時、OPFE2110も第1方向X及び第2方向Yと垂直な第3方向Zに移動する。
また、プリズム2105は、光反射物質の反射面2107を、中心軸2106を中心にA方向に回転させたり、中心軸2106をB方向に回転させて、第1方向Xに入射した光Lの経路を垂直な第2方向Yに変更させる。
この時、OPFE2110も第1方向X及び第2方向Yと垂直な第3方向Zに移動する。
一実施形態で、図に示すように、プリズム2105のA方向の最大回転角度は、プラス(+)A方向には15度(degree)以下であり、マイナス(-)A方向には、15度より大きくてもよいが、実施形態はこれに制限されるものではない。
一実施形態で、プリズム2105は、プラス(+)又はマイナス(-)B方向に、20度内外、又は10度から20度、又は15度から20度の間で動くことができ、ここで、動く角度は、プラス(+)又はマイナス(-)B方向に同じ角度で動いたり、1度内外の範囲でほぼ類似の角度まで動くことができる。
一実施形態で、プリズム2105は、プラス(+)又はマイナス(-)B方向に、20度内外、又は10度から20度、又は15度から20度の間で動くことができ、ここで、動く角度は、プラス(+)又はマイナス(-)B方向に同じ角度で動いたり、1度内外の範囲でほぼ類似の角度まで動くことができる。
一実施形態で、プリズム2105は、光反射物質の反射面2107を中心軸2106の延長方向と平行な第3方向(例えば、Z方向)に移動する。
OPFE2110は、例えばm(ここで、mは自然数)個のグループからなる光学レンズを含む。
m個のレンズは、第2方向Yに移動してカメラモジュール2100bの光学ズーム倍率(optical zoom ratio)を変更する。
例えば、カメラモジュール2100bの基本光学ズーム倍率をZとする時、OPFE2110に含まれたm個の光学レンズを移動させる場合、カメラモジュール2100bの光学ズーム倍率は、3Z又は5Z以上の光学ズーム倍率に変更させることができる。
OPFE2110は、例えばm(ここで、mは自然数)個のグループからなる光学レンズを含む。
m個のレンズは、第2方向Yに移動してカメラモジュール2100bの光学ズーム倍率(optical zoom ratio)を変更する。
例えば、カメラモジュール2100bの基本光学ズーム倍率をZとする時、OPFE2110に含まれたm個の光学レンズを移動させる場合、カメラモジュール2100bの光学ズーム倍率は、3Z又は5Z以上の光学ズーム倍率に変更させることができる。
アクチュエータ2130は、OPFE2110又は光学レンズ(以下、光学レンズという)を特定位置に移動させる。
例えば、アクチュエータ2130は、正確なセンシングのためにイメージセンサ2142が光学レンズの焦点距離(focal length)に位置するように光学レンズの位置を調整する。
イメージセンシング装置2140は、イメージセンサ2142、制御ロジック2144、及びメモリ2146を含む。
イメージセンサ2142は、光学レンズを介して提供される光Lを用いてセンシング対象のイメージをセンシングする。
一実施形態で、イメージセンサ2142は、先立って説明したピクセル信号(SIG_PX)を出力する。
例えば、アクチュエータ2130は、正確なセンシングのためにイメージセンサ2142が光学レンズの焦点距離(focal length)に位置するように光学レンズの位置を調整する。
イメージセンシング装置2140は、イメージセンサ2142、制御ロジック2144、及びメモリ2146を含む。
イメージセンサ2142は、光学レンズを介して提供される光Lを用いてセンシング対象のイメージをセンシングする。
一実施形態で、イメージセンサ2142は、先立って説明したピクセル信号(SIG_PX)を出力する。
制御ロジック2144は、カメラモジュール2100bの全般的な動作を制御する。
例えば、制御ロジック2144は、制御信号ラインCSLbを介して提供された制御信号に応じてカメラモジュール2100bの動作を制御する。
メモリ2146は、キャリブレーションデータ2147のようなカメラモジュール2100bの動作に必要な情報を保存する。
キャリブレーションデータ2147は、カメラモジュール2100bが外部から提供された光Lを用いてイメージデータを生成するために必要な情報を含む。
キャリブレーションデータ2147は、例えば、先立って説明した回転度(degree of rotation)に関する情報、焦点距離(focal length)に関する情報、光学軸(optical axis)に関する情報などを含む。
例えば、制御ロジック2144は、制御信号ラインCSLbを介して提供された制御信号に応じてカメラモジュール2100bの動作を制御する。
メモリ2146は、キャリブレーションデータ2147のようなカメラモジュール2100bの動作に必要な情報を保存する。
キャリブレーションデータ2147は、カメラモジュール2100bが外部から提供された光Lを用いてイメージデータを生成するために必要な情報を含む。
キャリブレーションデータ2147は、例えば、先立って説明した回転度(degree of rotation)に関する情報、焦点距離(focal length)に関する情報、光学軸(optical axis)に関する情報などを含む。
カメラモジュール2100bが光学レンズの位置に応じて焦点距離が変わるマルチステート(multi state)カメラの形態で実現される場合、キャリブレーションデータ2147は、光学レンズの各位置別(又はステート別)の焦点距離値とオートフォーカシング(auto focusing)と関連する情報を含み得る。
保存部2150は、イメージセンサ2142によりセンシングされたイメージデータを保存する。
保存部2150は、イメージセンシング装置2140の外部に配置され、イメージセンシング装置2140を構成するセンサチップとスタックされた(stacked)形態で実現することができる。
一実施形態で、保存部2150は、EEPROM(Electrically Erasable Programmable Read-Only Memory)として実現されるが、実施形態はこれに制限されるものではない。
保存部2150は、イメージセンサ2142によりセンシングされたイメージデータを保存する。
保存部2150は、イメージセンシング装置2140の外部に配置され、イメージセンシング装置2140を構成するセンサチップとスタックされた(stacked)形態で実現することができる。
一実施形態で、保存部2150は、EEPROM(Electrically Erasable Programmable Read-Only Memory)として実現されるが、実施形態はこれに制限されるものではない。
図25と図26を共に参照すると、本発明の一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)それぞれは、アクチュエータ2130を含む。
そのため、複数のカメラモジュール(2100a、2100b、2100c)それぞれは、その内部に含まれたアクチュエータ2130の動作による互いに同一であるか又は互いに異なるキャリブレーションデータ2147を含む。
一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)の内の一つのカメラモジュール(例えば、2100b)は、先立って説明したプリズム2105とOPFE2110を含む折り畳んだレンズ(folded lens)形態のカメラモジュールであり、残りのカメラモジュール(例えば、2100a、2100c)は、プリズム2105とOPFE2110が含まれていないバーチカル(vertical)形態のカメラモジュールであり得るが、実施形態はこれに制限されるものではない。
そのため、複数のカメラモジュール(2100a、2100b、2100c)それぞれは、その内部に含まれたアクチュエータ2130の動作による互いに同一であるか又は互いに異なるキャリブレーションデータ2147を含む。
一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)の内の一つのカメラモジュール(例えば、2100b)は、先立って説明したプリズム2105とOPFE2110を含む折り畳んだレンズ(folded lens)形態のカメラモジュールであり、残りのカメラモジュール(例えば、2100a、2100c)は、プリズム2105とOPFE2110が含まれていないバーチカル(vertical)形態のカメラモジュールであり得るが、実施形態はこれに制限されるものではない。
一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)の内の一つのカメラモジュール(例えば、2100c)は、例えば、IR(Infrared Ray)を用いて深さ(depth)情報を抽出するバーチカル形態の深度カメラ(depth camera)である。
この場合、アプリケーションプロセッサ2200は、このような深度カメラから提供されたイメージデータと異なるカメラモジュール(例えば、2100a又は2100b)から提供されたイメージデータを併合(merge)して3次元深度イメージ(3D depth image)を生成する。
この場合、アプリケーションプロセッサ2200は、このような深度カメラから提供されたイメージデータと異なるカメラモジュール(例えば、2100a又は2100b)から提供されたイメージデータを併合(merge)して3次元深度イメージ(3D depth image)を生成する。
一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)の内の少なくとも二つのカメラモジュール(例えば、2100a、2100c)は、互いに異なる観測視野(Field of View、視野角)を有する。
この場合、例えば、複数のカメラモジュール(2100a、2100b、2100c)の内の少なくとも二つのカメラモジュール(例えば、2100a、2100c)の光学レンズが互いに異なってもよいが、これに制限されるものではない。
また、一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)それぞれの視野角は、互いに異なってもよい。
この場合、複数のカメラモジュール(2100a、2100b、2100c)それぞれに含まれた光学レンズも互いに異なってもよいが、これに制限されるものではない。
この場合、例えば、複数のカメラモジュール(2100a、2100b、2100c)の内の少なくとも二つのカメラモジュール(例えば、2100a、2100c)の光学レンズが互いに異なってもよいが、これに制限されるものではない。
また、一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)それぞれの視野角は、互いに異なってもよい。
この場合、複数のカメラモジュール(2100a、2100b、2100c)それぞれに含まれた光学レンズも互いに異なってもよいが、これに制限されるものではない。
一実施形態で、複数のカメラモジュール(2100a、2100b、2100c)それぞれは、互いに物理的に分離して配置される。
すなわち、一つのイメージセンサ2142のセンシング領域を複数のカメラモジュール(2100a、2100b、2100c)が分割して使用するのではなく、複数のカメラモジュール(2100a、2100b、2100c)それぞれの内部に独立してイメージセンサ2142が配置される。
すなわち、一つのイメージセンサ2142のセンシング領域を複数のカメラモジュール(2100a、2100b、2100c)が分割して使用するのではなく、複数のカメラモジュール(2100a、2100b、2100c)それぞれの内部に独立してイメージセンサ2142が配置される。
再び、図25を参照すると、アプリケーションプロセッサ2200は、イメージ処理装置2210、メモリコントローラ2220、内部メモリ2230を含む。
アプリケーションプロセッサ2200は、複数のカメラモジュール(2100a、2100b、2100c)と分離して実現することができる。
例えば、アプリケーションプロセッサ2200と複数のカメラモジュール(2100a、2100b、2100c)は、別途の半導体チップで互いに分離して実現することができる。
イメージ処理装置2210は、複数のサブイメージプロセッサ(2212a、2212b、2212c)、イメージ生成器2214、及びカメラモジュールコントローラ2216を含む。
イメージ処理装置2210は、複数のカメラモジュール(2100a、2100b、2100c)の個数に対応する個数の複数のサブイメージプロセッサ(2212a、2212b、2212c)を含む。
アプリケーションプロセッサ2200は、複数のカメラモジュール(2100a、2100b、2100c)と分離して実現することができる。
例えば、アプリケーションプロセッサ2200と複数のカメラモジュール(2100a、2100b、2100c)は、別途の半導体チップで互いに分離して実現することができる。
イメージ処理装置2210は、複数のサブイメージプロセッサ(2212a、2212b、2212c)、イメージ生成器2214、及びカメラモジュールコントローラ2216を含む。
イメージ処理装置2210は、複数のカメラモジュール(2100a、2100b、2100c)の個数に対応する個数の複数のサブイメージプロセッサ(2212a、2212b、2212c)を含む。
それぞれのカメラモジュール(2100a、2100b、2100c)から生成されたイメージデータは、互いに分離したイメージ信号ライン(ISLa、ISLb、ISLc)を介して対応するサブイメージプロセッサ(2212a、2212b、2212c)に提供される。
例えば、カメラモジュール2100aから生成されたイメージデータは、イメージ信号ラインISLaを介してサブイメージプロセッサ2212aに提供され、カメラモジュール2100bから生成されたイメージデータは、イメージ信号ラインISLbを介してサブイメージプロセッサ2212bに提供され、カメラモジュール2100cから生成されたイメージデータは、イメージ信号ラインISLcを介してサブイメージプロセッサ2212cに提供される。
このようなイメージデータ伝送は、例えば、MIPI(Mobile Industry Processor Interface)に基づいたカメラ直列インターフェース(Camera Serial Interface:CSI)を用いて行われるが、実施形態はこれに制限されるものではない。
例えば、カメラモジュール2100aから生成されたイメージデータは、イメージ信号ラインISLaを介してサブイメージプロセッサ2212aに提供され、カメラモジュール2100bから生成されたイメージデータは、イメージ信号ラインISLbを介してサブイメージプロセッサ2212bに提供され、カメラモジュール2100cから生成されたイメージデータは、イメージ信号ラインISLcを介してサブイメージプロセッサ2212cに提供される。
このようなイメージデータ伝送は、例えば、MIPI(Mobile Industry Processor Interface)に基づいたカメラ直列インターフェース(Camera Serial Interface:CSI)を用いて行われるが、実施形態はこれに制限されるものではない。
一方、一実施形態で、一つのサブイメージプロセッサが複数のカメラモジュールに対応するように配置することもできる。
例えば、サブイメージプロセッサ2212aとサブイメージプロセッサ2212cが図に示すように互いに分離されて実現されるのではなく一つのサブイメージプロセッサに統合して実現され、カメラモジュール2100aとカメラモジュール2100cから提供されたイメージデータは、選択素子(例えば、マルチプレクサ)等により選択された後、統合されたサブイメージプロセッサに提供することができる。
それぞれのサブイメージプロセッサ(2212a、2212b、2212c)に提供されたイメージデータは、イメージ生成器2214に提供される。
イメージ生成器2214は、イメージ生成情報(Generating Information)又はモード信号(Mode Signal)に応じてそれぞれのサブイメージプロセッサ(2212a、2212b、2212c)から提供されたイメージデータを用いて出力イメージを生成する。
例えば、サブイメージプロセッサ2212aとサブイメージプロセッサ2212cが図に示すように互いに分離されて実現されるのではなく一つのサブイメージプロセッサに統合して実現され、カメラモジュール2100aとカメラモジュール2100cから提供されたイメージデータは、選択素子(例えば、マルチプレクサ)等により選択された後、統合されたサブイメージプロセッサに提供することができる。
それぞれのサブイメージプロセッサ(2212a、2212b、2212c)に提供されたイメージデータは、イメージ生成器2214に提供される。
イメージ生成器2214は、イメージ生成情報(Generating Information)又はモード信号(Mode Signal)に応じてそれぞれのサブイメージプロセッサ(2212a、2212b、2212c)から提供されたイメージデータを用いて出力イメージを生成する。
具体的には、イメージ生成器2214は、イメージ生成情報又はモード信号に応じて、互いに異なる視野角を有するカメラモジュール(2100a、2100b、2100c)から生成されたイメージデータの内の少なくとも一部を併合(merge)して出力イメージを生成する。
また、イメージ生成器2214は、イメージ生成情報又はモード信号に応じて、互いに異なる視野角を有するカメラモジュール(2100a、2100b、2100c)から生成されたイメージデータの内のいずれか一つを選択して出力イメージを生成する。
また、イメージ生成器2214は、イメージ生成情報又はモード信号に応じて、互いに異なる視野角を有するカメラモジュール(2100a、2100b、2100c)から生成されたイメージデータの内のいずれか一つを選択して出力イメージを生成する。
一実施形態で、イメージ生成情報は、ズーム信号(zoom signal or zoom factor)を含む。
また、一実施形態で、モード信号は、例えば、ユーザー(user)から選択されたモードに基づいた信号であり得る。
イメージ生成情報がズーム信号(ズームファクタ)であり、それぞれのカメラモジュール(2100a、2100b、2100c)が互いに異なる観測視野(視野角)を有する場合、イメージ生成器2214は、ズーム信号の種類によって互いに異なる動作を行い得る。
また、一実施形態で、モード信号は、例えば、ユーザー(user)から選択されたモードに基づいた信号であり得る。
イメージ生成情報がズーム信号(ズームファクタ)であり、それぞれのカメラモジュール(2100a、2100b、2100c)が互いに異なる観測視野(視野角)を有する場合、イメージ生成器2214は、ズーム信号の種類によって互いに異なる動作を行い得る。
例えば、ズーム信号が第1信号の場合、カメラモジュール2100aから出力されたイメージデータとカメラモジュール2100cから出力されたイメージデータを併合した後、併合されたイメージ信号と併合に使用していないカメラモジュール2100bから出力されたイメージデータを用いて、出力イメージを生成する。
仮に、ズーム信号が第1信号と異なる第2信号である場合、イメージ生成器2214はこのようなイメージデータ併合を行わず、それぞれのカメラモジュール(2100a、2100b、2100c)から出力されたイメージデータの内のいずれか一つを選択して出力イメージを生成する。
しかし、実施形態はこれに制限されるものではなく、必要に応じてイメージデータを処理する方法はいくらでも変形して実施することができる。
仮に、ズーム信号が第1信号と異なる第2信号である場合、イメージ生成器2214はこのようなイメージデータ併合を行わず、それぞれのカメラモジュール(2100a、2100b、2100c)から出力されたイメージデータの内のいずれか一つを選択して出力イメージを生成する。
しかし、実施形態はこれに制限されるものではなく、必要に応じてイメージデータを処理する方法はいくらでも変形して実施することができる。
一実施形態で、イメージ生成器2214は、複数のサブイメージプロセッサ(2212a、2212b、2212c)の内の少なくとも一つから露出時間が相異なる複数のイメージデータを受信し、複数のイメージデータに対してHDR(high dynamic range)処理を行うことで、ダイナミックレンジが増加した併合されたイメージデータを生成する。
カメラモジュールコントローラ2216は、それぞれのカメラモジュール(2100a、2100b、2100c)に制御信号を提供する。
カメラモジュールコントローラ2216から生成された制御信号は、互いに分離された制御信号ライン(CSLa、CSLb、CSLc)を介して対応するカメラモジュール(2100a、2100b、2100c)に提供される。
カメラモジュールコントローラ2216は、それぞれのカメラモジュール(2100a、2100b、2100c)に制御信号を提供する。
カメラモジュールコントローラ2216から生成された制御信号は、互いに分離された制御信号ライン(CSLa、CSLb、CSLc)を介して対応するカメラモジュール(2100a、2100b、2100c)に提供される。
複数のカメラモジュール(2100a、2100b、2100c)の内のいずれか一つは、ズーム信号を含むイメージ生成情報又はモード信号に応じてマスター(master)カメラ(例えば、2100a)と指定され、残りのカメラモジュール(例えば、2100b及び2100c)は、スレーブ(slave)カメラと指定される。
このような情報は、制御信号に含まれ、互いに分離された制御信号ライン(CSLa、CSLb、CSLc)を介して対応するカメラモジュール(2100a、2100b、2100c)に提供される。
このような情報は、制御信号に含まれ、互いに分離された制御信号ライン(CSLa、CSLb、CSLc)を介して対応するカメラモジュール(2100a、2100b、2100c)に提供される。
ズームファクタ又は動作モード信号に応じて、マスター及びスレーブとして動作するカメラモジュールを変更することができる。
例えば、カメラモジュール2100aの視野角がカメラモジュール2100cの視野角より広く、ズームファクタが低いズーム倍率を示す場合、カメラモジュール2100cがマスターとして動作し、カメラモジュール2100aがスレーブとして動作する。
逆に、ズームファクタが高いズーム倍率を示す場合、カメラモジュール2100aがマスターとして動作し、カメラモジュール2100cがスレーブとして動作する。
例えば、カメラモジュール2100aの視野角がカメラモジュール2100cの視野角より広く、ズームファクタが低いズーム倍率を示す場合、カメラモジュール2100cがマスターとして動作し、カメラモジュール2100aがスレーブとして動作する。
逆に、ズームファクタが高いズーム倍率を示す場合、カメラモジュール2100aがマスターとして動作し、カメラモジュール2100cがスレーブとして動作する。
一実施形態で、カメラモジュールコントローラ2216からそれぞれのカメラモジュール(2100a、2100b、2100c)に提供される制御信号は、シンクイネーブル(sync enable)信号を含む。
例えば、カメラモジュール2100bがマスタカメラであり、カメラモジュール(2100a、2100c)がスレーブカメラである場合、カメラモジュールコントローラ2216は、カメラモジュール2100bにシンクイネーブル信号を伝送する。
このようなシンクイネーブル信号の提供を受けたカメラモジュール2100bは、提供されたシンクイネーブル信号に基づいてシンク信号(sync signal)を生成し、生成されたシンク信号をシンク信号ラインSSLを介してカメラモジュール(2100a及び2100c)に提供する。
カメラモジュール2100bとカメラモジュール(2100a及び2100c)は、このようなシンク信号に同期化されてイメージデータをアプリケーションプロセッサ2200に伝送する。
例えば、カメラモジュール2100bがマスタカメラであり、カメラモジュール(2100a、2100c)がスレーブカメラである場合、カメラモジュールコントローラ2216は、カメラモジュール2100bにシンクイネーブル信号を伝送する。
このようなシンクイネーブル信号の提供を受けたカメラモジュール2100bは、提供されたシンクイネーブル信号に基づいてシンク信号(sync signal)を生成し、生成されたシンク信号をシンク信号ラインSSLを介してカメラモジュール(2100a及び2100c)に提供する。
カメラモジュール2100bとカメラモジュール(2100a及び2100c)は、このようなシンク信号に同期化されてイメージデータをアプリケーションプロセッサ2200に伝送する。
一実施形態で、カメラモジュールコントローラ2216から複数のカメラモジュール(2100a、2100b、2100c)に提供される制御信号は、モード信号によるモード情報を含む。
このようなモード情報に基づいて複数のカメラモジュール(2100a、2100b、2100c)は、センシング速度と関連して第1動作モード及び第2動作モードで動作する。
複数のカメラモジュール(2100a、2100b、2100c)は、第1動作モードで、第1速度でイメージ信号を生成(例えば、第1フレームレートのイメージ信号を生成)し、これを第1速度より高い第2速度でエンコーディング(例えば、第1フレームレートより高い第2フレームレートのイメージ信号をエンコーディング)し、エンコーディングされたイメージ信号をアプリケーションプロセッサ2200に伝送する。
この時、第2速度は、第1速度の30倍以下であり得る。
このようなモード情報に基づいて複数のカメラモジュール(2100a、2100b、2100c)は、センシング速度と関連して第1動作モード及び第2動作モードで動作する。
複数のカメラモジュール(2100a、2100b、2100c)は、第1動作モードで、第1速度でイメージ信号を生成(例えば、第1フレームレートのイメージ信号を生成)し、これを第1速度より高い第2速度でエンコーディング(例えば、第1フレームレートより高い第2フレームレートのイメージ信号をエンコーディング)し、エンコーディングされたイメージ信号をアプリケーションプロセッサ2200に伝送する。
この時、第2速度は、第1速度の30倍以下であり得る。
アプリケーションプロセッサ2200は、受信したイメージ信号、言い換えれば、エンコーディングされたイメージ信号を内部に備えられるメモリ2230、又はアプリケーションプロセッサ2200の外部メモリ2400に保存し、その後、メモリ2230又は外部メモリ2400からエンコーディングされたイメージ信号を読み出してデコーディングし、デコーディングされたイメージ信号に基づいて生成されるイメージデータをディスプレイする。
例えば、イメージ処理装置2210の複数のサブプロセッサ(2212a、2212b、2212c)に対応するサブプロセッサがデコーディングを行い、また、デコーディングされたイメージ信号に対してイメージ処理を行う。
例えば、ディスプレイ2500にデコーディングされたイメージ信号に基づいて生成されるイメージデータがディスプレイされる。
例えば、イメージ処理装置2210の複数のサブプロセッサ(2212a、2212b、2212c)に対応するサブプロセッサがデコーディングを行い、また、デコーディングされたイメージ信号に対してイメージ処理を行う。
例えば、ディスプレイ2500にデコーディングされたイメージ信号に基づいて生成されるイメージデータがディスプレイされる。
複数のカメラモジュール(2100a、2100b、2100c)は、第2動作モードで、第1速度より低い第3速度でイメージ信号を生成(例えば、第1フレームレートより低い第3フレームレートのイメージ信号を生成)し、イメージ信号をアプリケーションプロセッサ2200に伝送する。
アプリケーションプロセッサ2200に提供されるイメージ信号は、エンコーディングされていない信号であり得る。
アプリケーションプロセッサ2200は、受信したイメージ信号に対してイメージ処理を行うか、又はイメージ信号をメモリ2230又は外部メモリ2400に保存する。
アプリケーションプロセッサ2200に提供されるイメージ信号は、エンコーディングされていない信号であり得る。
アプリケーションプロセッサ2200は、受信したイメージ信号に対してイメージ処理を行うか、又はイメージ信号をメモリ2230又は外部メモリ2400に保存する。
PMIC2300は、複数のカメラモジュール(2100a、2100b、2100c)それぞれに電力、例えば、電源電圧を供給する。
例えば、PMIC2300は、アプリケーションプロセッサ2200の制御下で、パワー信号ラインPSLaを介してカメラモジュール2100aに第1電力を供給し、パワー信号ラインPSLbを介してカメラモジュール2100bに第2電力を供給し、パワー信号ラインPSLcを介してカメラモジュール2100cに第3電力を供給する。
PMIC2300は、アプリケーションプロセッサ2200からの電力制御信号PCONに応答し、複数のカメラモジュール(2100a、2100b、2100c)それぞれに対応する電力を生成し、また、電力のレベルを調整する。
例えば、PMIC2300は、アプリケーションプロセッサ2200の制御下で、パワー信号ラインPSLaを介してカメラモジュール2100aに第1電力を供給し、パワー信号ラインPSLbを介してカメラモジュール2100bに第2電力を供給し、パワー信号ラインPSLcを介してカメラモジュール2100cに第3電力を供給する。
PMIC2300は、アプリケーションプロセッサ2200からの電力制御信号PCONに応答し、複数のカメラモジュール(2100a、2100b、2100c)それぞれに対応する電力を生成し、また、電力のレベルを調整する。
電力制御信号PCONは、複数のカメラモジュール(2100a、2100b、2100c)の動作モード別の電力調整信号を含む。
例えば、動作モードは、低電力モード(low power mode)と高電力モード(high power mode)を含み、この時、電力制御信号PCONは、低電力モードで動作するカメラモジュール及び設定される電力レベルに関連する情報を含む。
複数のカメラモジュール(2100a、2100b、2100c)それぞれに提供される電力のレベルは互いに同一又は互いに異なり得る。
また、電力のレベルは、動的に変更することができる。
例えば、動作モードは、低電力モード(low power mode)と高電力モード(high power mode)を含み、この時、電力制御信号PCONは、低電力モードで動作するカメラモジュール及び設定される電力レベルに関連する情報を含む。
複数のカメラモジュール(2100a、2100b、2100c)それぞれに提供される電力のレベルは互いに同一又は互いに異なり得る。
また、電力のレベルは、動的に変更することができる。
尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
1 イメージセンシング装置
100、100” イメージセンサ
200 上部チップ
300 下部チップ
300’ メモリチップ
400、400’ イメージ信号プロセッサ
410 グラデーション検出モジュール
411、421 グラジエント測定モジュール
412、422 グラジエント補正モジュール
413 分散値計算モジュール
414 グラデーション確率計算モジュール
415 グラデーションマップ生成モジュール
420、420’、420” 補正モジュール
423 エッジ保存スムージングフィルタ
424 ブレンドモジュール
600、600’ 電子装置
610 カメラモジュール
620 アプリケーションプロセッサ
1110 コントロールレジスタブロック
1120 タイミングジェネレータ
1130 ロウ(row)ドライバ
1150 リードアウト回路
1160 ランプ信号生成器
1170 バッファ部
PA ピクセルアレイ
PD フォトダイオード
ML マイクロレンズ
100、100” イメージセンサ
200 上部チップ
300 下部チップ
300’ メモリチップ
400、400’ イメージ信号プロセッサ
410 グラデーション検出モジュール
411、421 グラジエント測定モジュール
412、422 グラジエント補正モジュール
413 分散値計算モジュール
414 グラデーション確率計算モジュール
415 グラデーションマップ生成モジュール
420、420’、420” 補正モジュール
423 エッジ保存スムージングフィルタ
424 ブレンドモジュール
600、600’ 電子装置
610 カメラモジュール
620 アプリケーションプロセッサ
1110 コントロールレジスタブロック
1120 タイミングジェネレータ
1130 ロウ(row)ドライバ
1150 リードアウト回路
1160 ランプ信号生成器
1170 バッファ部
PA ピクセルアレイ
PD フォトダイオード
ML マイクロレンズ
Claims (10)
- 外部装置からピクセル信号を受信するグラデーション検出モジュールと、
前記ピクセル信号を受信し、前記グラデーション検出モジュールに接続された補正モジュールと、を有し、
前記グラデーション検出モジュールは、前記ピクセル信号に対するグラジエントを測定し、
前記グラジエントに基づいて前記ピクセル信号を補正して補正ピクセル信号を生成し、
前記ピクセル信号に基づいて第1分散値を計算し、
前記補正ピクセル信号に基づいて第2分散値を計算し、
前記第1分散値と前記第2分散値との比較に基づいてグラデーション確率値を計算し、
前記ピクセル信号に対する前記グラデーション確率値の情報であるグラデーションマップを生成し、
前記補正モジュールは、前記グラデーションマップに基づいて前記ピクセル信号を補正することを特徴とするイメージ信号プロセッサ。 - 前記第1分散値が前記第2分散値より大きい場合の前記グラデーション確率値は、前記第2分散値が前記第1分散値より大きい場合の前記グラデーション確率値より大きいことを特徴とする請求項1に記載のイメージ信号プロセッサ。
- 前記第1分散値が前記第2分散値より大きい場合の前記グラデーション確率値は、前記第1分散値が前記第2分散値と同じである場合の前記グラデーション確率値より大きいことを特徴とする請求項2に記載のイメージ信号プロセッサ。
- 前記補正モジュールは、前記ピクセル信号を補正して第1補正ピクセル信号を生成する補正フィルタと、
前記ピクセル信号、前記第1補正ピクセル信号、及び前記グラデーションマップに基づいて補正を行うことによって、最終補正ピクセル信号を生成するブレンドモジュールと、を含むことを特徴とする請求項1に記載のイメージ信号プロセッサ。 - 互いに異なる第1領域、第2領域、及び第3領域を含むイメージセンサと、
前記第1領域から生成された第1ピクセル信号、前記第2領域から生成された第2ピクセル信号、及び前記第3領域から生成された第3ピクセル信号を受信するイメージ信号プロセッサと、を有し、
前記イメージ信号プロセッサは、前記第1ピクセル信号に対する補正を行って第1補正ピクセル信号を生成し、前記第2ピクセル信号に対する補正を行って第2補正ピクセル信号を生成し、前記第3ピクセル信号に対する補正を行って第3補正ピクセル信号を生成し、
前記第1ピクセル信号に基づいて第1ピクセル信号分散値を計算し、前記第2ピクセル信号に基づいて第2ピクセル信号分散値を計算し、前記第3ピクセル信号に基づいて第3ピクセル信号分散値を計算し、
前記第1補正ピクセル信号に基づいて第1補正ピクセル信号分散値を計算し、前記第2補正ピクセル信号に基づいて第2補正ピクセル信号分散値を計算し、前記第3補正ピクセル信号に基づいて第3補正ピクセル信号分散値を計算し、
前記第3ピクセル信号分散値と前記第3補正ピクセル信号分散値との比較に基づいて第1グラデーション確率値を計算し、
前記第3ピクセル信号分散値は、前記第3補正ピクセル信号分散値より大きいことを特徴とするイメージセンシング装置。 - 前記イメージ信号プロセッサは、前記第1ピクセル信号分散値と前記第1補正ピクセル信号分散値との比較に基づいて第2グラデーション確率値を計算し、
前記第2ピクセル信号分散値と前記第2補正ピクセル信号分散値との比較に基づいて第3グラデーション確率値を計算することを特徴とする請求項5に記載のイメージセンシング装置。 - 前記第3ピクセル信号分散値と前記第3補正ピクセル信号分散値との差は、前記第1ピクセル信号分散値と前記第1補正ピクセル信号分散値との差、及び前記第2ピクセル信号分散値と前記第2補正ピクセル信号分散値との差より大きいことを特徴とする請求項6に記載のイメージセンシング装置。
- 前記第1グラデーション確率値は、前記第2及び第3グラデーション確率値より大きいことを特徴とする請求項7に記載のイメージセンシング装置。
- 複数の第1ピクセル値を含む第1ピクセル信号、複数の第2ピクセル値を含む第2ピクセル信号、及び複数の第3ピクセル値を含む第3ピクセル信号を受信する段階と、
前記第1ピクセル値に対する第1グラジエントを測定し、前記第2ピクセル値に対する第2グラジエントを測定し、前記第3ピクセル値に対する第3グラジエントを測定する段階と、
前記第1グラジエントに基づいて前記第1ピクセル値を補正して第1補正ピクセル値を生成し、前記第2グラジエントに基づいて前記第2ピクセル値を補正して第2補正ピクセル値を生成し、前記第3グラジエントに基づいて前記第3ピクセル値を補正して第3補正ピクセル値を生成する段階と、
前記第1ピクセル値に基づいて第1分散値を生成し、前記第2ピクセル値に基づいて第2分散値を生成し、前記第3ピクセル値に基づいて第3分散値を生成する段階と、
前記第1補正ピクセル値に基づいて第4分散値を生成し、前記第2補正ピクセル値に基づいて第5分散値を生成し、前記第3補正ピクセル値に基づいて第6分散値を生成する段階と、
前記第1分散値と前記第4分散値とを比較して前記第1ピクセル信号をフラット領域として決定する段階と、
前記第2分散値と前記第5分散値とを比較して前記第2ピクセル信号をエッジ領域として決定する段階と、
前記第3分散値と前記第6分散値とを比較して前記第3ピクセル信号をグラデーション領域として決定する段階と、を有することを特徴とするイメージ信号プロセッサの動作方法。 - 前記第3分散値は、前記第6分散値より大きく、
前記第3分散値と前記第6分散値との差は、前記第1分散値と前記第4分散値との差、及び前記第2分散値と前記第5分散値との差より大きいことを特徴とする請求項9に記載のイメージ信号プロセッサの動作方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0164986 | 2021-11-26 | ||
KR1020210164986A KR20230077833A (ko) | 2021-11-26 | 2021-11-26 | 이미지 신호 프로세서, 이미지 신호 프로세서의 동작 방법 및 이미지 센싱 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023079210A true JP2023079210A (ja) | 2023-06-07 |
Family
ID=86500340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022188038A Pending JP2023079210A (ja) | 2021-11-26 | 2022-11-25 | イメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12118696B2 (ja) |
JP (1) | JP2023079210A (ja) |
KR (1) | KR20230077833A (ja) |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3097785B2 (ja) | 1992-04-30 | 2000-10-10 | 株式会社リコー | 画像処理装置 |
KR20060055776A (ko) | 2004-11-19 | 2006-05-24 | 삼성전자주식회사 | 잡음 제거 기능을 가지는 적응형 에지-보존 평활 필터 및필터링 방법 |
JP2006319634A (ja) | 2005-05-12 | 2006-11-24 | Toshiba Corp | 映像信号処理装置とグラデーション段差検出方法 |
JP5158202B2 (ja) | 2008-08-19 | 2013-03-06 | 富士通株式会社 | 画像補正装置および画像補正方法 |
US9390478B2 (en) | 2014-09-19 | 2016-07-12 | Intel Corporation | Real time skin smoothing image enhancement filter |
US9489720B2 (en) | 2014-09-23 | 2016-11-08 | Intel Corporation | Non-local means image denoising with detail preservation using self-similarity driven blending |
JP2016086347A (ja) * | 2014-10-28 | 2016-05-19 | 三星ディスプレイ株式會社Samsung Display Co.,Ltd. | 画像処理装置、画像処理方法、及びプログラム |
US9449248B1 (en) | 2015-03-12 | 2016-09-20 | Adobe Systems Incorporated | Generation of salient contours using live video |
JP6317413B1 (ja) | 2016-10-28 | 2018-04-25 | 株式会社Pfu | 画像処理装置、画像処理方法及び画像処理プログラム |
KR101846743B1 (ko) | 2016-11-28 | 2018-04-09 | 연세대학교 산학협력단 | 톤 맵핑 영상에 대한 객관적 화질 평가 방법 및 장치 |
JP7471832B2 (ja) | 2020-01-23 | 2024-04-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2021
- 2021-11-26 KR KR1020210164986A patent/KR20230077833A/ko active Search and Examination
-
2022
- 2022-05-27 US US17/827,101 patent/US12118696B2/en active Active
- 2022-11-25 JP JP2022188038A patent/JP2023079210A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230169629A1 (en) | 2023-06-01 |
US12118696B2 (en) | 2024-10-15 |
KR20230077833A (ko) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102632474B1 (ko) | 이미지 센서의 픽셀 어레이 및 이를 포함하는 이미지 센서 | |
US11616934B2 (en) | Image sensor | |
US11889240B2 (en) | Image device and operation method of image device | |
KR20220122008A (ko) | 이미지 신호 프로세싱 방법, 이미지 신호 프로세서 및 그 이미지 센싱 장치 | |
US11178372B1 (en) | Image signal processor, image signal processing method and electronic device thereof | |
US11412197B2 (en) | Electronic device including image sensor | |
US20230073138A1 (en) | Image sensor, image processing system including the same, and image processing method | |
US11700460B2 (en) | Image sensing apparatus and image binning method thereof | |
US11729374B2 (en) | Camera module test apparatus, camera module test method and image generating device | |
US20220385841A1 (en) | Image sensor including image signal processor and operating method of the image sensor | |
JP2023079210A (ja) | イメージ信号プロセッサ及びその動作方法並びにイメージセンシング装置 | |
US20240185558A1 (en) | Image signal processor and image sensing device thereof | |
US20230300481A1 (en) | Image sensing device and image processing method of the same | |
US20230108491A1 (en) | Image signal processor, image sensing device, image sensing method and electronic device | |
US20240005448A1 (en) | Imaging device and image processing method | |
US20230254474A1 (en) | Image sensor, processor of image sensor, and image processing method | |
EP4096217A1 (en) | Image sensor and image signal processing method | |
KR20220161124A (ko) | 이미지 신호 프로세서를 포함하는 이미지 센서 및 이의 동작 방법 | |
KR20230120074A (ko) | 이미지 센서, 이미지 센서의 프로세서 및 이미지 처리방법 | |
JP2024000506A (ja) | クロストークを補正するイメージセンサ、イメージセンサの動作方法およびイメージセンサを含む電子機器 | |
KR20220161110A (ko) | 이미지 센서 및 이미지 신호 처리 방법 | |
KR20240080099A (ko) | 이미지를 보상하는 이미지 처리부, 이미지 신호 처리부 및 이미지 센서에 의해 캡처 된 이미지 보정 방법 | |
KR20230152464A (ko) | 이미지 센서의 비닝 방법 및 이를 수행하는 이미지 센서 | |
JP2015103972A (ja) | デジタルカメラ及び固体撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240925 |