JP2022094319A - イメージセンシング装置 - Google Patents
イメージセンシング装置 Download PDFInfo
- Publication number
- JP2022094319A JP2022094319A JP2021190906A JP2021190906A JP2022094319A JP 2022094319 A JP2022094319 A JP 2022094319A JP 2021190906 A JP2021190906 A JP 2021190906A JP 2021190906 A JP2021190906 A JP 2021190906A JP 2022094319 A JP2022094319 A JP 2022094319A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- learning
- module
- exposure time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005070 sampling Methods 0.000 claims abstract description 51
- 238000012937 correction Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 7
- 229920006395 saturated elastomer Polymers 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/57—Control of the dynamic range
- H04N25/58—Control of the dynamic range involving two or more exposures
- H04N25/581—Control of the dynamic range involving two or more exposures acquired simultaneously
- H04N25/583—Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
【課題】ディープラーニングに基づいてハイダイナミックレンジのイメージを生成できるイメージセンシング装置を提供する。【解決手段】本発明の一実施形態は、シングルフレームの間に生成されたシングルイメージSIMGに基づいて、露出時間が互いに異なる複数のイメージI1S,I2S,I3S,I4Sをカラー別に生成するためのサンプリングモジュール210と、複数のイメージと予定された学習アルゴリズムとに基づいてシングルイメージの補正パラメータを学習し、複数のイメージから補正パラメータを除去して複数の補正されたイメージJ1S,J2S,J3S,J4Sを生成するための補正モジュール220と、複数の補正されたイメージに基づいてシングルイメージに対応するハイダイナミックレンジのイメージHDRIMGを生成するためのイメージ処理モジュール230とを備えるイメージセンシング装置を提供する。【選択図】図3
Description
本発明は、半導体設計技術に関し、より詳細には、イメージセンシング装置に関する。
イメージセンシング装置は、光に反応する半導体の性質を利用してイメージをキャプチャ(capture)する素子である。イメージセンシング装置は、大別してCCD(Charge Coupled Device)を用いたイメージセンシング装置と、CMOS(Complementary Metal Oxide Semiconductor)を用いたイメージセンシング装置とに区分されることができる。近年、アナログ及びデジタル制御回路を1つの集積回路(IC)上に直接実現できるという長所により、CMOSを用いたイメージセンシング装置が多用されている。
本発明の実施形態は、ディープラーニング(deep learning)に基づいてハイダイナミックレンジ(high dynamic range)イメージを生成できるイメージセンシング装置を提供する。
本発明の一側面によれば、イメージセンシング装置は、シングルフレーム(single frame)の間に生成されたシングルイメージに基づいて、露出時間が互いに異なる複数のイメージをカラー別に生成するためのサンプリングモジュールと、予定された学習アルゴリズムを利用して前記複数のイメージに基づいた前記シングルイメージの補正パラメータを学習し、前記複数のイメージから前記補正パラメータを除去して複数の補正されたイメージを生成するための補正モジュールと、前記複数の補正されたイメージに基づいて前記シングルイメージに対応するハイダイナミックレンジ(high dynamic range)のイメージを生成するためのイメージ処理モジュールとを備えることができる。
前記補正パラメータは、ノイズ(noise)成分とゴースト(ghost)成分とを含むことができる。
前記補正モジュールは、第1の学習アルゴリズムを利用して前記複数のイメージに基づいた前記複数のイメージの各々のノイズ(noise)成分を学習し、前記複数のイメージの各々から前記ノイズ成分を除去して複数のデノイジングされたイメージを生成するためのデノイズモジュールと、前記複数のデノイジングされたイメージとカラー別加重値とに基づいて複数のグレーイメージを生成するための計算モジュールと、第2の学習アルゴリズムを利用して前記複数のグレーイメージに基づいた前記複数のグレーイメージの各々のゴースト(ghost)成分を学習し、前記複数のグレーイメージの各々から前記ゴースト成分を除去して前記複数の補正されたイメージを生成するためのデゴーストモジュールとを備えることができる。
前記シングルイメージは、クアッド(quad)パターンを有することができ、前記ハイダイナミックレンジのイメージは、ベイヤー(bayer)パターンを有することができる。
本発明の他の側面によれば、イメージセンシング装置は、クアッドパターンで配列されたカラーフィルタを有し、パターン別に互いに異なる露出時間で制御されるピクセルアレイを備え、シングルフレーム(single frame)の間、前記クアッドパターンに対応するシングルイメージを生成するためのイメージセンサと、予定された学習アルゴリズムを利用して前記シングルイメージに基づいたカラー別補正パラメータを学習し、前記補正パラメータに基づいてベイヤー(bayer)パターンを有するハイダイナミックレンジのイメージを生成するためのイメージプロセッサとを備えることができる。
前記補正パラメータは、ノイズ(noise)成分とゴースト(ghost)成分とを含むことができる。
本発明のさらに他の側面によれば、イメージセンシング装置は、クアッドパターンイメージを受信し、カラーチャネルによって前記クアッドパターンイメージをサンプリングし、複数のチャネルイメージを生成するためのサンプリングモジュールと、複数のデノイズされたチャネルイメージを生成するためのデノイズモジュールと、複数のデゴーストされたチャネルイメージを生成するためのデゴーストモジュールと、前記複数のデゴーストされたチャネルイメージに基づいてベイヤーパターンを有する出力イメージを生成するためのイメージ処理モジュールとを備えることができ、前記複数のデノイズされたチャネルイメージの各々は、2つのチャネルのイメージ対を用いて学習することによって生成されることができ、前記2つのチャネルのうち1つのチャネルは、相対的に長い露出時間と関連していることができ、前記2つのチャネルのうち残りのチャネルは、相対的に短い露出時間と関連していることができ、前記複数のデゴーストされたチャネルイメージの各々は、2つの選択チャネルのイメージ対を用いて学習することによって生成されることができ、前記2つの選択チャネルのうち、いずれか1つは、最も短い露出時間と関連していることができる。
本発明の実施形態は、ディープラーニング(deep learning)に基づいてハイダイナミックレンジ(high dynamic range)イメージを生成することにより、前記ハイダイナミックレンジ(high dynamic range)イメージを生成する際に発生する信号対雑音比ディップ(SNR dip)現象とモーションアーティファクト(motion artifact)現象とを除去できるという効果がある。
以下、本発明の属する技術分野における通常の知識を有する者が本発明の技術的思想を容易に実施できる程度に詳細に説明するために、本発明の実施形態を添付図面を参照して説明する。
そして、明細書全体において、ある部分が他の部分と「接続」されているとするとき、これは、「直接的に接続」されている場合だけでなく、その中間に他の素子を挟んで「電気的に接続」されている場合も含む。また、ある部分がある構成要素を「含む」または「備える」とするとき、これは、特に反対される記載がない限り、他の構成要素を除くことでなく、他の構成要素をさらに含むか、備えることができるということを意味する。また、明細書全体の記載において、一部構成要素を単数型に記載したとして、本発明がそれに限定されるものではなく、当該構成要素が複数個からなり得ることが分かるであろう。
図1には、本発明の実施形態に係るイメージセンシング装置がブロック構成図で図示されている。
図1に示すように、イメージセンシング装置10は、イメージセンサ100、及びイメージプロセッサ200を備えることができる。
イメージセンサ100は、シングルフレーム(single frame)の間にシングルイメージSIMGを生成できる。例えば、イメージセンサ100は、クアッド(quad)パターンで配列されたカラーフィルタを有するピクセルアレイを備えることができ、前記クアッドパターンに対応するシングルイメージSIMGを生成できる。
イメージプロセッサ200は、ディープラーニング(deep learning)と関連した学習アルゴリズムを利用してシングルイメージSIMGに基づいたハイダイナミックレンジ(high dynamic range)を有するイメージ(以下、「HDRイメージ」と称する)HDRIMGを生成できる。例えば、イメージプロセッサ200は、前記学習アルゴリズムを利用してシングルイメージSIMGに基づいたカラー別補正パラメータを学習でき、前記補正パラメータに基づいてベイヤー(bayer)パターンを有するHDRイメージHDRIMGを生成できる。前記補正パラメータは、ノイズ(noise)成分とゴースト(ghost)成分とを含むことができる。
図2には、図1のイメージセンサ100に備えられた前記ピクセルアレイの一例を見せた図面が示されている。
図2に示すように、前記ピクセルアレイは、前記クアッドパターンによって配列された複数のピクセルを含むことができる。前記クアッドパターンは、同じカラーフィルタを有するピクセルが2×2単位で配列されたパターンをいう。例えば、第1及び第2の行、そして第1及び第2の列に配列された2×2単位の第1のピクセルは、グリーン(green)カラーフィルタを有することができ、第1及び第2の行、そして第3及び第4の列に配列された2×2単位の第2のピクセルは、レッド(red)カラーフィルタを有することができ、第3及び第4の行、そして第1及び第2の列に配列された2×2単位の第3のピクセルは、ブルー(blue)カラーフィルタを有することができ、第3及び第4の行、そして第3及び第4の列に配列された2×2単位の第4のピクセルは、グリーンカラーフィルタを有することができる。
前記ピクセルアレイは、前記クアッドパターン別に互いに異なる露出時間によって制御されることができる。例えば、前記第1のピクセルのうち、左上に配置されたピクセルは、第1の露出時間Lによって制御されることができ、第1の露出時間Lの間に蓄積された電荷に対応するイメージ値を生成でき、前記第1のピクセルのうち、右上に配置されたピクセルは、第2の露出時間MHによって制御されることができ、第2の露出時間MHの間に蓄積された電荷に対応するイメージ値を生成でき、前記第1のピクセルのうち、左下に配置されたピクセルは、第3の露出時間MLによって制御されることができ、第3の露出時間MLの間に蓄積された電荷に対応するイメージ値を生成でき、前記第1のピクセルのうち、右下に配置されたピクセルは、第4の露出時間Sによって制御されることができ、第4の露出時間Sの間に蓄積された電荷に対応するイメージ値を生成できる。第1の露出時間Lは、第1ないし第4の露出時間L、MH、ML、Sのうち、最も長い露出時間であることができ、第2の露出時間MHは、第1の露出時間Lより短い露出時間であることができ、第3の露出時間MLは、第2の露出時間MHより短い露出時間であることができ、第4の露出時間Sは、第1ないし第4の露出時間L、MH、ML、Sのうち、最も短い露出時間であることができる。前記第2ないし第4のピクセルは、前記第1のピクセルと同様に第1ないし第4の露出時間L、MH、ML、Sによって制御されることができる。
図3には、図1に示されたイメージプロセッサ200がブロック構成図で示されている。
図3に示すように、イメージプロセッサ200は、サンプリングモジュール210、補正モジュール220、及びイメージ処理モジュール230を備えることができる。
サンプリングモジュール210は、前記シングルフレームの間に生成されたシングルイメージSIMGに基づいて、第1ないし第4の露出時間L、MH、ML、Sに対応する第1ないし第4のイメージI1S、I2S、I3S、I4Sをカラー別に生成することができる。
補正モジュール220は、前記学習アルゴリズムを利用して第1ないし第4のイメージI1S、I2S、I3S、I4Sに基づいたシングルイメージSIMGの前記補正パラメータを学習でき、第1ないし第4のイメージI1S、I2S、I3S、I4Sから前記補正パラメータを除去して第1ないし第4の補正されたイメージJ1S、J2S、J3S、J4Sを生成できる。
イメージ処理モジュール230は、第1ないし第4の補正されたイメージJ1S、J2S、J3S、J4Sに基づいてシングルイメージSIMGに対応するHDRイメージHDRIMGを生成できる。
図4には、図3に示されたサンプリングモジュール210がブロック構成図で示されている。
図4に示すように、サンプリングモジュール210は、第1のサンプリングモジュール211、及び第2のサンプリングモジュール213を備えることができる。
第1のサンプリングモジュール211は、シングルイメージSIMGに含まれたイメージ値を露出時間別にサンプリングして第1ないし第4のサンプリングイメージA1S、A2S、A3S、A4Sを生成できる。
第2のサンプリングモジュール213は、第1ないし第4のサンプリングイメージA1S、A2S、A3S、A4Sに含まれたイメージ値をカラー別にサンプリングして第1ないし第4のイメージI1S、I2S、I3S、I4Sを生成できる。
図5には、図3に示された補正モジュール220がブロック構成図で示されている。
図5に示すように、補正モジュール220は、デノイズモジュール221、計算モジュール223、及びデゴーストモジュール225を備えることができる。
デノイズモジュール221は、第1の学習アルゴリズムを利用して第1ないし第4のイメージI1S、I2S、I3S、I4Sと第1ないし第4のデノイジングされたイメージB1S、B2S、B3S、B4Sとに基づいた第1ないし第4のイメージI1S、I2S、I3S、I4Sの第1ないし第4のノイズ成分を学習できる。前記第1の学習アルゴリズムは、ユー-ネット(U-Net)モデル、ブイジージーネット(VGGnet)モデル、及びレズネット(Resnet)モデルのうち、いずれか1つを用いたアルゴリズムであることができる。デノイズモジュール221は、第1ないし第4のイメージI1S、I2S、I3S、I4Sから各々前記第1ないし第4のノイズ成分を除去することにより、第1ないし第4のデノイジングされたイメージB1S、B2S、B3S、B4Sを生成できる。
計算モジュール223は、第1ないし第4のデノイジングされたイメージB1S、B2S、B3S、B4Sとカラー別に予め設定された加重値とに基づいて第1ないし第4のグレー(gray)イメージC1、C2、C3、C4を生成できる。例えば、計算モジュール223は、第1のデノイジングされたイメージB1Sと第1のグリーンカラーに対応する加重値とに基づいて第1のグレーイメージC1を生成でき、第2のデノイジングされたイメージB2Sとレッドカラーに対応する加重値とに基づいて第2のグレーイメージC2を生成でき、第3のデノイジングされたイメージB3Sとブルーカラーに対応する加重値とに基づいて第3のグレーイメージC3を生成でき、第4のデノイジングされたイメージB4Sと第2のグリーンカラーに対応する加重値とに基づいて第4のグレーイメージC4を生成できる。前記第1のグリーンカラーに対応する加重値と前記第2のグリーンカラーに対応する加重値とは、設計によっては、同じであることができ、または異なることもできる。
デゴーストモジュール225は、第1ないし第4のグレーイメージC1、C2、C3、C4と第2の学習アルゴリズムとに基づいて第1ないし第4のグレーイメージC1、C2、C3、C4の第1ないし第4のゴースト成分を学習できる。前記第2の学習アルゴリズムは、ユー-ネット(U-Net)モデル、ブイジージーネット(VGGnet)モデル、レズネット(Resnet)モデルなどに基づくことができる。デゴーストモジュール225は、第1ないし第4のグレーイメージC1、C2、C3、C4から各々前記第1ないし第4のゴースト成分を除去して第1ないし第4の補正されたイメージJ1S、I2S、J3S、J4Sを生成できる。
図6には、図5に示されたデノイズモジュール221がブロック構成図で示されている。
図6に示すように、デノイズモジュール221は、第1の学習モジュール2211、第2の学習モジュール2213、及び第3の学習モジュール2215を備えることができる。
第1の学習モジュール2211は、第1のイメージI1Sと第2のイメージI2Sとに基づいて第2のイメージI2Sに対応する第2のデノイジングされたイメージB2Sを生成できる。第1の学習モジュール2211は、第1のイメージI1Sを各々ラベル(label)として用い、第2のイメージI2Sを各々入力データとして用いて第2のイメージI2Sの各々に対応する前記第2のノイズ成分を学習できる。第1の学習モジュール2211は、前記第2のノイズ成分を学習するとき、第1のイメージI1Sに対応する第1の飽和マップ(saturation map)を生成及び利用することができる。例えば、第1の学習モジュール2211は、第1のイメージI1Sに基づいて前記第1の飽和マップを生成でき、前記第1の飽和マップに基づいて第1のイメージI1Sに含まれたイメージ値のうち、飽和されたイメージ値を分かることができ、第2のイメージI2Sに含まれたイメージ値のうち、前記飽和されたイメージ値に対応するイメージ値を前記第2のノイズ成分を学習するときに除外させることができる。第1の学習モジュール2211は、前記第2のノイズ成分を学習する前に第1の露出割合(exposure ratio)に基づいて第2のイメージI2Sをスケーリング(scaling)することができる。例えば、前記第1の露出割合は、次の数式1のとおりである。
ここで、「ER1」は、前記第1の露出割合を意味することができ、「VL」は、第1のイメージI1Sに含まれた各々のイメージ値を意味することができ、「VMH」は、第2のイメージI2Sに含まれた各々のイメージ値を意味することができる。
第2の学習モジュール2213は、第2のイメージI2Sと第3のイメージI3Sとに基づいて第3のイメージI3Sに対応する第3のデノイジングされたイメージB3Sを生成できる。第2の学習モジュール2213は、第2のイメージI2Sを各々ラベル(label)として用い、第3のイメージI3Sを各々入力データとして用いて第3のイメージI3Sの各々に対応する前記第3のノイズ成分を学習できる。第2の学習モジュール2213は、前記第3のノイズ成分を学習するとき、第2のイメージI2Sに対応する第2の飽和マップを生成及び利用することができる。例えば、第2の学習モジュール2213は、第2のイメージI2Sに基づいて前記第2の飽和マップを生成でき、前記第2の飽和マップに基づいて第2のイメージI2Sに含まれたイメージ値のうち、飽和されたイメージ値を分かることができ、第3のイメージI3Sに含まれたイメージ値のうち、前記飽和されたイメージ値に対応するイメージ値を前記第3のノイズ成分を学習するときに除外させることができる。第2の学習モジュール2213は、前記第3のノイズ成分を学習する前に第2の露出割合に基づいて第3のイメージI3Sをスケーリングできる。例えば、前記第2の露出割合は、次の数式2のとおりである。
ここで、「ER2」は、前記第2の露出割合を意味することができ、「VMH」は、第2のイメージI2Sに含まれた各々のイメージ値を意味することができ、「VML」は、第3のイメージI3Sに含まれた各々のイメージ値を意味することができる。
第3の学習モジュール2215は、第3のイメージI3Sと第4のイメージI4Sとに基づいて第4のイメージI4Sに対応する第4のデノイジングされたイメージB4Sを生成できる。第3の学習モジュール2215は、第3のイメージI3Sを各々ラベル(label)として用い、第4のイメージI4Sを各々入力データとして用いて第4のイメージI4Sの各々に対応する前記第4のノイズ成分を学習できる。第3の学習モジュール2215は、前記第4のノイズ成分を学習するとき、第3のイメージI3Sの各々に対応する第3の飽和マップを生成及び利用することができる。例えば、第3の学習モジュール2215は、第3のイメージI3Sに基づいて前記第3の飽和マップを生成でき、前記第3の飽和マップに基づいて第3のイメージI3Sに含まれたイメージ値のうち、飽和されたイメージ値を分かることができ、第4のイメージI4Sに含まれたイメージ値のうち、前記飽和されたイメージ値に対応するイメージ値を前記第4のノイズ成分を学習するときに除外させることができる。第3の学習モジュール2215は、前記第4のノイズ成分を学習する前に第3の露出割合に基づいて第4のイメージI4Sをスケーリングできる。例えば、前記第3の露出割合は、次の数式3のとおりである。
ここで、「ER3」は、前記第3の露出割合を意味することができ、「VML」は、第3のイメージI3Sに含まれた各々のイメージ値を意味することができ、「VS」は、第4のイメージI4Sに含まれた各々のイメージ値を意味することができる。
一方、デノイズモジュール221は、第1のイメージI1Sを第1のデノイジングされたイメージB1Sとして生成(すなわち、出力)することができる。このような場合、前記第1のノイズ成分は学習する必要がない。
図7には、図5に示されたデゴーストモジュール225がブロック構成図で示されている。
図7に示すように、デゴーストモジュール225は、第4の学習モジュール2251、第1の生成モジュール2252、第5の学習モジュール2253、第2の生成モジュール2254、第6の学習モジュール2255、第3の生成モジュール2256、及び第4の生成モジュール2257を備えることができる。
第4の学習モジュール2251は、第4の露出時間Sを有する第4のグレーイメージC4と第1の露出時間Lを有する第1のグレーイメージC1とに基づいて、第1のグレーイメージC1に対応する第1の補正されたグレーイメージD1を生成できる。第4の学習モジュール2251は、第4のグレーイメージC4をラベル(label)として用い、第1のグレーイメージC1を入力データとして用いて第1のグレーイメージC1の前記第1のゴースト成分を学習できる。第4の学習モジュール2251は、第1のグレーイメージC1の前記第1のゴースト成分を学習するとき、第1のグレーイメージC1に対応する第4の飽和マップを生成及び利用することができる。例えば、第4の学習モジュール2251は、第1のグレーイメージC1に基づいて前記第4の飽和マップを生成でき、前記第4の飽和マップに基づいて第1のグレーイメージC1に含まれたイメージ値のうち、飽和されたイメージ値を前記第1のゴースト成分を学習するときに除外させることができる。第4の学習モジュール2251は、前記第1のゴースト成分を学習する前に第4の露出割合に基づいて第1のグレーイメージC1をスケーリングできる。前記第4の露出割合は、次の数式4のとおりである。
ここで、「ER4」は、前記第4の露出割合を意味することができ、「GVL」は、第1のグレーイメージC1に含まれた各々のイメージ値を意味することができ、「GVS」は、第4のグレーイメージC4に含まれた各々のイメージ値を意味することができる。
第1の生成モジュール2252は、第1の補正されたグレーイメージD1と第1のグレーイメージC1と第1のデノイジングイメージB1Sとに基づいて、カラー別に第1の露出時間Lを有する第1の補正されたイメージJ1Sを生成できる。例えば、第1の補正されたイメージJ1Sは、前記第1のグリーンカラーに対応し、第1の露出時間Lを有するイメージと、前記レッドカラーに対応し、第1の露出時間Lを有するイメージと、前記ブルーカラーに対応し、第1の露出時間Lを有するイメージと、前記第2のグリーンカラーに対応し、第1の露出時間Lを有するイメージとを備えることができる。例えば、第1の生成モジュール2252は、次の「数式5」によって第1の補正されたイメージJ1Sを生成できる。
第5の学習モジュール2253は、第4の露出時間Sを有する第4のグレーイメージC4と第2の露出時間MHを有する第2のグレーイメージC2とに基づいて、第2のグレーイメージC2に対応する第2の補正されたグレーイメージD2を生成できる。第5の学習モジュール2253は、第4のグレーイメージC4をラベルとして用い、第2のグレーイメージC2を入力データとして用いて第2のグレーイメージC2の前記第2のゴースト成分を学習できる。第5の学習モジュール2253は、第2のグレーイメージC2の前記第2のゴースト成分を学習するとき、第2のグレーイメージC2に対応する第5の飽和マップを生成及び利用することができる。例えば、第5の学習モジュール2253は、第2のグレーイメージC2に基づいて前記第5の飽和マップを生成でき、前記第5の飽和マップに基づいて第2のグレーイメージC2に含まれたイメージ値のうち、飽和されたイメージ値を前記第2のゴースト成分を学習するときに除外させることができる。第5の学習モジュール2253は、前記第2のゴースト成分を学習する前に第5の露出割合に基づいて第2のグレーイメージC2をスケーリングできる。前記第5の露出割合は、次の数式6のとおりである。
ここで、「ER5」は、前記第5の露出割合を意味することができ、「GVMH」は、第2のグレーイメージC2に含まれた各々のイメージ値を意味することができ、「GVS」は、第4のグレーイメージC4に含まれた各々のイメージ値を意味することができる。
第2の生成モジュール2254は、第2の補正されたグレーイメージD2と第2のグレーイメージC2と第2のデノイジングイメージB2Sとに基づいて、カラー別に第2の露出時間MHを有する第2の補正されたイメージJ2Sを生成できる。例えば、第2の補正されたイメージJ2Sは、前記第1のグリーンカラーに対応し、第2の露出時間MHを有するイメージと、前記レッドカラーに対応し、第2の露出時間MHを有するイメージと、前記ブルーカラーに対応し、第2の露出時間MHを有するイメージと、前記第2のグリーンカラーに対応し、第2の露出時間MHを有するイメージとを備えることができる。例えば、第2の生成モジュール2254は、次の「数式7」によって第2の補正されたイメージJ2Sを生成できる。
第6の学習モジュール2255は、第4の露出時間Sを有する第4のグレーイメージC4と第3の露出時間MLを有する第3のグレーイメージC3とに基づいて、第3のグレーイメージC3に対応する第3の補正されたグレーイメージD3を生成できる。第6の学習モジュール2255は、第4のグレーイメージC4をラベルとして用い、第3のグレーイメージC3を入力データとして用いて第3のグレーイメージC3の前記第3のゴースト成分を学習できる。第6の学習モジュール2255は、第3のグレーイメージC3の前記第3のゴースト成分を学習するとき、第3のグレーイメージC3に対応する第6の飽和マップを生成及び利用することができる。例えば、第6の学習モジュール2255は、前記第6の飽和マップに基づいて第3のグレーイメージC3に含まれたイメージ値のうち、飽和されたイメージ値を前記第3のゴースト成分を学習するときに除外させることができる。第6の学習モジュール2255は、前記第3のゴースト成分を学習する前に第6の露出割合に基づいて第3のグレーイメージC3をスケーリングできる。前記第6の露出割合は、次の数式8のとおりである。
ここで、「ER6」は、前記第6の露出割合を意味することができ、「GVML」は、第3のグレーイメージC3に含まれた各々のイメージ値を意味することができ、「GVS」は、第4のグレーイメージC4に含まれた各々のイメージ値を意味することができる。
第3の生成モジュール2256は、第3の補正されたグレーイメージD3と第3のグレーイメージC3と第3のデノイジングイメージB3Sとに基づいて、カラー別に第3の露出時間MLを有する第3の補正されたイメージJ3Sを生成できる。例えば、第3の補正されたイメージJ3Sは、前記第1のグリーンカラーに対応し、第3の露出時間MLを有するイメージと、前記レッドカラーに対応し、第3の露出時間MLを有するイメージと、前記ブルーカラーに対応し、第3の露出時間MLを有するイメージと、前記第2のグリーンカラーに対応し、第3の露出時間MLを有するイメージとを備えることができる。例えば、第3の生成モジュール2256は、次の「数式9」によって第3の補正されたイメージJ3Sを生成できる。
第4の生成モジュール2257は、第4のグレーイメージC4と第4のデノイジングイメージB4Sとに基づいて、カラー別に第4の露出時間Sを有する第4の補正されたイメージJ4Sを生成できる。例えば、第4の補正されたイメージJ4Sは、前記第1のグリーンカラーに対応し、第4の露出時間Sを有するイメージと、前記レッドカラーに対応し、第4の露出時間Sを有するイメージと、前記ブルーカラーに対応し、第4の露出時間Sを有するイメージと、前記第2のグリーンカラーに対応し、第4の露出時間Sを有するイメージとを備えることができる。例えば、第4の生成モジュール2257は、次の「数式10」によって第4の補正されたイメージJ4Sを生成できる。
一方、デゴーストモジュール225は、第4のグレーイメージC4を第4の補正されたグレーイメージとして用いることができる。このような場合、前記第4のゴースト成分は学習する必要がない。
図8には、図3に示されたイメージ処理モジュール230がブロック構成図で示されている。
図8に示すように、イメージ処理モジュール230は、合成モジュール231、及びトーンマッピングモジュール233を備えることができる。
合成モジュール231は、第1ないし第4の補正されたイメージJ1S、J2S、J3S、J4Sをカラー別に合成(fusion)してシングル合成イメージFIMGを生成できる。例えば、シングル合成イメージFIMGは、前記ベイヤーパターンを有することができる。
トーンマッピングモジュール233は、シングル合成イメージFIMGに基づいてHDRイメージHDRIMGを生成できる。
一方、前記イメージセンシング装置は、クアッドパターンイメージを受信し、カラーチャネルによって前記クアッドパターンイメージをサンプリングし、複数のチャネルイメージを生成するためのサンプリングモジュールと、複数のデノイズされたチャネルイメージを生成するためのデノイズモジュールと、複数のデゴーストされたチャネルイメージを生成するためのデゴーストモジュールと、前記複数のデノイズされたチャネルイメージに基づいてベイヤーパターンを有する出力イメージを生成するためのイメージ処理モジュールとを備えることができる。前記複数のデノイズされたチャネルイメージの各々は、2つのチャネルのイメージ対を用いて学習することによって生成されることができ、前記2つのチャネルのうち1つのチャネルは、相対的に長い露出時間と関連していることができ、前記2つのチャネルのうち残りのチャネルは、相対的に短い露出時間と関連していることができる。前記複数のデゴーストされたチャネルイメージの各々は、2つの選択チャネルのイメージ対を用いて学習することによって生成されることができる。前記2つの選択チャネルのうち、いずれか1つは、最も短い露出時間と関連していることができる。
以下、上記のような構成を有する本発明の実施形態に係るイメージセンシング装置10の動作を図9~図12を参照して説明する。本発明の実施形態は、説明の都合上、イメージセンサ100から8×8のピクセルに対応するシングルイメージSIMGが生成されることを例に挙げて説明する。
図9には、図3及び図4に示されたサンプリングモジュール210の動作を説明するための図面が示されている。
図9に示すように、第1のサンプリングモジュール211は、シングルイメージSIMGに含まれたイメージ値を露出時間別にサンプリングして第1ないし第4のサンプリングイメージA1S、A2S、A3S、A4Sを生成できる。例えば、第1のサンプリングモジュール211は、シングルイメージSIMGに含まれたイメージ値のうち、第1の露出時間Lによって制御されるピクセルのイメージ値をサンプリングすることにより第1のサンプリングイメージA1Sを生成でき、シングルイメージSIMGに含まれたイメージ値のうち、第2の露出時間MHによって制御されるピクセルのイメージ値をサンプリングすることにより第2のサンプリングイメージA2Sを生成でき、シングルイメージSIMGに含まれたイメージ値のうち、第3の露出時間MLによって制御されるピクセルのイメージ値をサンプリングすることにより第3のサンプリングイメージA3Sを生成でき、シングルイメージSIMGに含まれたイメージ値のうち、第4の露出時間Sによって制御されるピクセルのイメージ値をサンプリングすることにより第4のサンプリングイメージA4Sを生成できる。
第2のサンプリングモジュール213は、第1ないし第4のサンプリングイメージA1S、A2S、A3S、A4Sに含まれたイメージ値をカラー別にサンプリングして第1ないし第4のイメージI1S、I2S、I3S、I4Sを生成できる。例えば、第2のサンプリングモジュール213は、第1のサンプリングイメージA1Sに含まれたイメージ値のうち、前記第1のグリーンカラーに対応するイメージ値をサンプリングし、第1のサンプリングイメージA1Sに含まれたイメージ値のうち、前記レッドカラーに対応するイメージ値をサンプリングし、第1のサンプリングイメージA1Sに含まれたイメージ値のうち、前記ブルーカラーに対応するイメージ値をサンプリングし、第1のサンプリングイメージA1Sに含まれたイメージ値のうち、前記第2のグリーンカラーに対応するイメージ値をサンプリングすることにより第1のイメージI1Sを生成できる。第2のサンプリングモジュール213は、第1のイメージI1Sを生成する方式と同様に、第2ないし第4のイメージI2S、I3S、I4Sを生成できる。
例えば、第1のイメージI1Sは、第1の露出時間Lによって制御されるピクセルのイメージ値のうち、前記第1のグリーンカラーに対応するイメージ値を含むイメージと、第1の露出時間Lによって制御されるピクセルのイメージ値のうち、前記レッドカラーに対応するイメージ値を含むイメージと、第1の露出時間Lによって制御されるピクセルのイメージ値のうち、前記ブルーカラーフィルタを有するピクセルから生成されたイメージ値を含むイメージと、第1の露出時間Lによって制御されるピクセルのイメージ値のうち、前記第2のグリーンカラーに対応するイメージ値を含むイメージとを備えることができる。第2のイメージI2Sは、第2の露出時間MHによって制御されるピクセルのイメージ値のうち、前記第1のグリーンカラーに対応するイメージ値を含むイメージと、第2の露出時間MHによって制御されるピクセルのイメージ値のうち、前記レッドカラーに対応するイメージ値を含むイメージと、第2の露出時間MHによって制御されるピクセルのイメージ値のうち、前記ブルーカラーフィルタを有するピクセルから生成されたイメージ値を含むイメージと、第2の露出時間MHによって制御されるピクセルのイメージ値のうち、前記第2のグリーンカラーに対応するイメージ値を含むイメージとを備えることができる。第3のイメージI3Sは、第3の露出時間MLによって制御されるピクセルのイメージ値のうち、前記第1のグリーンカラーに対応するイメージ値を含むイメージと、第3の露出時間MLによって制御されるピクセルのイメージ値のうち、前記レッドカラーに対応するイメージ値を含むイメージと、第3の露出時間MLによって制御されるピクセルのイメージ値のうち、前記ブルーカラーフィルタを有するピクセルから生成されたイメージ値を含むイメージと、第3の露出時間MLによって制御されるピクセルのイメージ値のうち、前記第2のグリーンカラーに対応するイメージ値を含むイメージとを備えることができる。第4のイメージI4Sは、第4の露出時間Sによって制御されるピクセルのイメージ値のうち、前記第1のグリーンカラーに対応するイメージ値を含むイメージと、第4の露出時間Sによって制御されるピクセルのイメージ値のうち、前記レッドカラーに対応するイメージ値を含むイメージと、第4の露出時間Sによって制御されるピクセルのイメージ値のうち、前記ブルーカラーフィルタを有するピクセルから生成されたイメージ値を含むイメージと、第4の露出時間Sによって制御されるピクセルのイメージ値のうち、前記第2のグリーンカラーに対応するイメージ値を含むイメージとを備えることができる。
図10には、図5及び図6に示されたデノイズモジュール221の動作を説明するための図面が示されている。
図10に示すように、デノイズモジュール221は、第1ないし第4のイメージI1S、I2S、I3S、I4Sに対応する第1ないし第4のデノイジングされたイメージB1S、B2S、B3S、B4Sを生成できる。このとき、第1のイメージI1Sは、第1のデノイジングされたイメージB1Sとして出力されることができる。
第1ないし第3の学習モジュール2211、2213、2215は、各々ディープラーニングネットワーク構造の前記第1の学習アルゴリズムに基づいてシングルイメージIMGの前記第2ないし第4のノイズ成分を学習し、前記第2ないし第4のノイズ成分が除去された第2ないし第4のデノイジングされたイメージB2S、S3S、B4Sを生成できる。
第1の学習モジュール2211は、露出時間が相対的に長い第1のイメージI1Sを各々ラベル(label)として用い、露出時間が相対的に短い第2のイメージI2Sを各々入力データとして用いて第2のイメージI2Sの各々に対応する前記第2のノイズ成分を学習できる。このとき、第1の学習モジュール2211は、第1のイメージI1Sに基づいて第1の飽和マップLSMを生成できる。第1の学習モジュール2211は、第1の飽和マップLSMに基づいて第1のイメージI1Sに含まれたイメージ値のうち、飽和されたイメージ値を分かることができ、第2のイメージI2Sに含まれたイメージ値のうち、前記飽和されたイメージ値に対応するイメージ値を前記第2のノイズ成分を学習するときに除外させることができる。一方、第1の学習モジュール2211は、前記第2のノイズ成分を学習する前に前記第1の露出割合に基づいて第2のイメージI2Sをスケーリングできる。
第2の学習モジュール2213は、露出時間が相対的に長い第2のイメージI2Sを各々ラベルとして用い、露出時間が相対的に短い第3のイメージI3Sを各々入力データとして用いて第3のイメージI3Sの各々に対応する前記第3のノイズ成分を学習できる。このとき、第2の学習モジュール2213は、第2のイメージI2Sに基づいて第2の飽和マップMHSMを生成できる。第2の学習モジュール2213は、第2の飽和マップMHSMに基づいて第2のイメージI2Sに含まれたイメージ値のうち、飽和されたイメージ値を分かることができ、第3のイメージI3Sに含まれたイメージ値のうち、前記飽和されたイメージ値に対応するイメージ値を前記第3のノイズ成分を学習するときに除外させることができる。一方、第2の学習モジュール2213は、前記第3のノイズ成分を学習する前に前記第2の露出割合に基づいて第3のイメージI3Sをスケーリングできる。
第3の学習モジュール2215は、露出時間が相対的に長い第3のイメージI3Sを各々ラベルとして用い、露出時間が相対的に短い第4のイメージI4Sを各々入力データとして用いて第4のイメージI4Sの各々に対応する前記第4のノイズ成分を学習できる。このとき、第3の学習モジュール2215は、第3のイメージI3Sの各々に基づいて第3の飽和マップMLSMを生成できる。第3の学習モジュール2215は、第3の飽和マップMLSMに基づいて第3のイメージI3Sに含まれたイメージ値のうち、飽和されたイメージ値を分かることができ、第4のイメージI4Sに含まれたイメージ値のうち、前記飽和されたイメージ値に対応するイメージ値を前記第4のノイズ成分を学習するときに除外させることができる。一方、第3の学習モジュール2215は、前記第4のノイズ成分を学習する前に前記第3の露出割合に基づいて第4のイメージI4Sをスケーリングできる。
第1ないし第3の学習モジュール2211、2213、2215は、各々サンプリングモジュール210から生成された第1ないし第3のイメージI1S、I2S、I3Sをラベルとして用いていることが分かる。すなわち、デノイズモジュール221は、教師なし学習(unsupervised learning)方式によって前記第2ないし第4のデノイズを学習するものである。
一方、第1ないし第3の学習モジュール2211、2213、2215は、前記第2ないし第4のノイズ成分を学習するときに必要なカラー別加重値W1を共有できる。例えば、加重値W1は、カラー別に固定された値を有することができる。
図11には、図5及び図7に示されたデゴーストモジュール225の動作を説明するための図面が示されている。
図11に示すように、デゴーストモジュール225は、第1ないし第4のグレーイメージC1、C2、C3、C4と第1ないし第4のデノイジングイメージB1S、B2S、B3S、B4Sとに基づいて第1ないし第4の補正されたイメージJ1S、J2S、J3S、J4Sを生成できる。
第4ないし第6の学習モジュール2251、2253、2255は、各々ディープラーニングネットワーク構造の前記第2の学習アルゴリズムに基づいて前記第1ないし第3のゴースト成分を学習し、前記第1ないし第3のゴースト成分に基づいて第1ないし第3の補正されたイメージJ1S、J2S、J3Sを生成できる。
第4の学習モジュール2251は、露出時間が最も短い第4のグレーイメージC4をラベルとして用い、露出時間が相対的に長い第1のグレーイメージC1を入力データとして用いて第1のグレーイメージC1に対応する前記第1のゴースト成分を学習できる。このとき、第4の学習モジュール2251は、第1のグレーイメージC1に基づいて第4の飽和マップGLSMを生成できる。第4の学習モジュール2251は、第4の飽和マップGLSMに基づいて第1のグレーイメージC1に含まれたイメージ値のうち、飽和されたイメージ値を前記第1のゴースト成分を学習するときに除外させることができる。一方、第4の学習モジュール2251は、前記第1のゴースト成分を学習する前に前記第4の露出割合に基づいて第1のグレーイメージC1をスケーリングできる。
第5の学習モジュール2253は、露出時間が最も短い第4のグレーイメージC4をラベルとして用い、露出時間が相対的に長い第2のグレーイメージC2を入力データとして用いて第2のグレーイメージC2に対応する前記第2のゴースト成分を学習できる。このとき、第5の学習モジュール2253は、第2のグレーイメージC2に基づいて第5の飽和マップGMHSMを生成できる。第5の学習モジュール2253は、第5の飽和マップGMHSMに基づいて第2のグレーイメージC2に含まれたイメージ値のうち、飽和されたイメージ値を前記第2のゴースト成分を学習するときに除外させることができる。一方、第5の学習モジュール2253は、前記第2のゴースト成分を学習する前に前記第5の露出割合に基づいて第2のグレーイメージC2をスケーリングできる。
第6の学習モジュール2255は、露出時間が最も短い第4のグレーイメージC4をラベルとして用い、露出時間が相対的に長い第3のグレーイメージC3を入力データとして用いて第3のグレーイメージC3に対応する前記第3のゴースト成分を学習できる。このとき、第6の学習モジュール2255は、第3のグレーイメージC3に対応する第6の飽和マップGMLSMを生成できる。第6の学習モジュール2255は、第6の飽和マップGMLSMに基づいて第3のグレーイメージC3に含まれたイメージ値のうち、飽和されたイメージ値を前記第3のゴースト成分を学習するときに除外させることができる。一方、第6の学習モジュール2255は、前記第3のゴースト成分を学習する前に前記第6の露出割合に基づいて第3のグレーイメージC3をスケーリングできる。
第4ないし第6の学習モジュール2251、2253、2255は、各々計算モジュール223から生成された第4のグレーイメージC4をラベルとして用いていることが分かる。すなわち、デゴーストモジュール225は、教師なし学習(unsupervised learning)方式によって前記第1ないし第3のゴースト成分を学習するものである。
一方、第4ないし第6の学習モジュール2251、2253、2255は、前記第1ないし第3のゴースト成分を学習するときに必要な加重値W3を共有できる。例えば、加重値W3は、固定された値を有することができる。
第1ないし第4の生成モジュール2252、2254、2256、2257は、各々予定されたアルゴリズムY2Bayerに基づいて第1ないし第4の補正されたイメージJ1S、J2S、J3S、J4Sを生成できる。予定されたアルゴリズムY2Bayerは、上記の「数式5」または「数式7」または「数式9」または「数式10」であることができる。
第1の生成モジュール2252は、上記の「数式5」にしたがって、第1の補正されたグレーイメージD1と第1のグレーイメージC1と第1のデノイジングされたイメージB1Sとに基づいて第1の補正されたイメージJ1Sを生成できる。
第2の生成モジュール2254は、上記の「数式7」にしたがって、第2の補正されたグレーイメージD2と第2のグレーイメージC2と第2のデノイジングされたイメージB2Sとに基づいて第2の補正されたイメージJ2Sを生成できる。
第3の生成モジュール2256は、上記の「数式9」にしたがって、第3の補正されたグレーイメージD3と第3のグレーイメージC3と第3のデノイジングされたイメージB3Sとに基づいて第3の補正されたイメージJ3Sを生成できる。
第4の生成モジュール2257は、上記の「数式10」にしたがって、第4の補正されたグレーイメージD4と第4のグレーイメージC4と第4のデノイジングされたイメージB4Sとに基づいて第4の補正されたイメージJ4Sを生成できる。
図12には、図8に示された合成モジュール231の動作を説明するための図面が示されている。
図12に示すように、合成モジュール231は、第1ないし第4の補正されたイメージJ1S、J2S、J3S、J4Sから同じカラーと同じ位置の第1ないし第4のイメージ値を合成することにより、シングルイメージSIMGに対応する合成イメージFIMGを生成できる。例えば、合成モジュール231は、第1の補正されたイメージJ1Sに含まれたイメージ値のうち、前記第1のグリーンカラーに対応する1個のイメージ値と、第2の補正されたイメージJ2Sに含まれたイメージ値のうち、前記第1のグリーンカラーに対応する1個のイメージ値と、第3の補正されたイメージJ3Sに含まれたイメージ値のうち、前記第1のグリーンカラーに対応する1個のイメージ値と、第4の補正されたイメージJ4Sに含まれたイメージ値のうち、前記第1のグリーンカラーに対応する1個のイメージ値とを合成することにより、合成イメージFIMGに含まれたイメージ値のうち、前記第1のグリーンカラーに対応する1個のイメージ値を生成できる。合成モジュール231は、8×8サイズのシングルイメージSIMGに対応して4×4サイズの合成イメージFIMGを生成できる。
このような本発明の実施形態によれば、イメージを合成するとき、ディープラーニングネットワークを利用してノイズ成分及びゴースト成分を学習及び除去することができるという利点がある。
本発明の技術思想は、上記実施形態によって具体的に記述されたが、以上で説明した実施形態は、その説明のためのものであり、その制限のためのものでないことに注意すべきである。また、本発明の技術分野の通常の専門家であれば、本発明の技術思想の範囲内で種々の置換、変形、及び変更により様々な実施形態が可能であることが理解できるであろう。
10 イメージセンシング装置
100 イメージセンサ
200 イメージプロセッサ
210 サンプリングモジュール
220 補正モジュール
230 イメージ処理モジュール
100 イメージセンサ
200 イメージプロセッサ
210 サンプリングモジュール
220 補正モジュール
230 イメージ処理モジュール
Claims (20)
- シングルフレーム(single frame)の間に生成されたシングルイメージに基づいて、露出時間が互いに異なる複数のイメージをカラー別に生成するためのサンプリングモジュールと、
予定された学習アルゴリズムを利用して前記複数のイメージに基づいた前記シングルイメージの補正パラメータを学習し、前記複数のイメージから前記補正パラメータを除去して複数の補正されたイメージを生成するための補正モジュールと、
前記複数の補正されたイメージに基づいて前記シングルイメージに対応するハイダイナミックレンジ(high dynamic range)のイメージを生成するためのイメージ処理モジュールと、
を備えるイメージセンシング装置。 - 前記補正パラメータは、ノイズ(noise)成分とゴースト(ghost)成分とを含む請求項1に記載のイメージセンシング装置。
- 前記補正モジュールは、
第1の学習アルゴリズムを利用して前記複数のイメージに基づいた前記複数のイメージの各々のノイズ(noise)成分を学習し、前記複数のイメージの各々から前記ノイズ成分を除去して複数のデノイジングされたイメージを生成するためのデノイズモジュールと、
前記複数のデノイジングされたイメージとカラー別加重値とに基づいて複数のグレーイメージを生成するための計算モジュールと、
第2の学習アルゴリズムを利用して前記複数のグレーイメージに基づいた前記複数のグレーイメージの各々のゴースト(ghost)成分を学習し、前記複数のグレーイメージの各々から前記ゴースト成分を除去して前記複数の補正されたイメージを生成するためのデゴーストモジュールと、
を備える請求項1に記載のイメージセンシング装置。 - 前記デノイズモジュールは、カラー別に第1の露出時間を有する複数の第1のイメージを複数の第1のデノイジングされたイメージとして生成し、
前記デノイズモジュールは、
前記複数の第1のイメージとカラー別に第2の露出時間を有する複数の第2のイメージとに基づいて、前記複数の第2のイメージに対応する複数の第2のデノイジングされたイメージを生成するための第1の学習モジュールと、
前記複数の第2のイメージとカラー別に第3の露出時間を有する複数の第3のイメージとに基づいて、前記複数の第3のイメージに対応する複数の第3のデノイジングされたイメージを生成するための第2の学習モジュールと、
前記複数の第3のイメージとカラー別に第4の露出時間を有する複数の第4のイメージとに基づいて、前記複数の第4のイメージに対応する複数の第4のデノイジングされたイメージを生成するための第3の学習モジュールと、
を備える請求項3に記載のイメージセンシング装置。 - 前記第1の学習モジュールは、前記複数の第1のイメージの各々をラベル(label)として用い、前記複数の第2のイメージの各々を入力データとして用いて前記複数の第2のイメージの各々のノイズ成分を学習し、
前記第2の学習モジュールは、前記複数の第2のイメージの各々をラベルとして用い、前記複数の第3のイメージの各々を入力データとして用いて前記複数の第3のイメージの各々のノイズ成分を学習し、
前記第3の学習モジュールは、前記複数の第3のイメージの各々をラベルとして用い、前記複数の第4のイメージの各々を入力データとして用いて前記複数の第4のイメージの各々のノイズ成分を学習する請求項4に記載のイメージセンシング装置。 - 前記第1の学習モジュールは、前記複数の第2のイメージの各々のノイズ成分を学習するとき、前記複数の第1のイメージに対応する第1の飽和マップ(saturation map)を生成及び利用し、
前記第2の学習モジュールは、前記複数の第3のイメージの各々のノイズ成分を学習するとき、前記複数の第2のイメージに対応する第2の飽和マップを生成及び利用し、
前記第3の学習モジュールは、前記複数の第4のイメージの各々のノイズ成分を学習するとき、前記複数の第3のイメージに対応する第3の飽和マップを生成及び利用する請求項5に記載のイメージセンシング装置。 - 前記第1の学習モジュールは、前記複数の第2のイメージの各々のノイズ成分を学習する前に第1の露出割合(exposure ratio)に基づいて前記複数の第2のイメージをスケーリング(scaling)し、
前記第2の学習モジュールは、前記複数の第3のイメージの各々のノイズ成分を学習する前に第2の露出割合に基づいて前記複数の第3のイメージをスケーリングし、
前記第3の学習モジュールは、前記複数の第4のイメージの各々のノイズ成分を学習する前に第3の露出割合に基づいて前記複数の第4のイメージをスケーリングする請求項4に記載のイメージセンシング装置。 - 前記第1ないし第4の露出時間のうち、前記第1の露出時間が最も長い露出時間であり、前記第2の露出時間は、前記第1の露出時間より短い露出時間であり、前記第3の露出時間は、前記第2の露出時間より短い露出時間であり、前記第4の露出時間は、最も短い露出時間である請求項4に記載のイメージセンシング装置。
- 前記第1ないし第3の学習モジュールは、学習の際に用いられるカラー別加重値を共有する請求項4に記載のイメージセンシング装置。
- 前記デノイズモジュールは、
第4の露出時間を有する第4のグレーイメージと第1の露出時間を有する第1のグレーイメージとに基づいて、前記第1のグレーイメージに対応する第1の補正されたグレーイメージを生成するための第4の学習モジュールと、
前記第1の補正されたグレーイメージに基づいて、カラー別に前記第1の露出時間を有する複数の第1の補正されたイメージを生成するための第1の生成モジュールと、
前記第4のグレーイメージと第2の露出時間を有する第2のグレーイメージとに基づいて、前記第2のグレーイメージに対応する第2の補正されたグレーイメージを生成するための第5の学習モジュールと、
前記第2の補正されたグレーイメージに基づいて、カラー別に前記第2の露出時間を有する複数の第2の補正されたイメージを生成するための第2の生成モジュールと、
前記第4のグレーイメージと第3の露出時間を有する第3のグレーイメージとに基づいて、前記第3のグレーイメージに対応する第3の補正されたグレーイメージを生成するための第6の学習モジュールと、
前記第3の補正されたグレーイメージに基づいて、カラー別に前記第3の露出時間を有する複数の第3の補正されたイメージを生成するための第3の生成モジュールと、
前記第4のグレーイメージに基づいて、カラー別に前記第4の露出時間を有する複数の第4の補正されたイメージを生成するための第4の生成モジュールと、
を備える請求項3に記載のイメージセンシング装置。 - 前記第4の学習モジュールは、前記第4のグレーイメージをラベル(label)として用い、前記第1のグレーイメージを入力データとして用いて前記第1のグレーイメージのゴースト成分を学習し、
前記第5の学習モジュールは、前記第4のグレーイメージをラベルとして用い、前記第2のグレーイメージを入力データとして用いて前記第2のグレーイメージのゴースト成分を学習し、
前記第6の学習モジュールは、前記第4のグレーイメージをラベルとして用い、前記複数の第3のグレーイメージを入力データとして用いて前記複数の第3のグレーイメージのゴースト成分を学習する請求項10に記載のイメージセンシング装置。 - 前記第4の学習モジュールは、前記第1のグレーイメージのゴースト成分を学習するとき、前記第1のグレーイメージに対応する第4の飽和マップ(saturation map)を生成及び利用し、
前記第5の学習モジュールは、前記第2のグレーイメージのゴースト成分を学習するとき、前記第2のグレーイメージに対応する第5の飽和マップを生成及び利用し、
前記第6の学習モジュールは、前記第3のグレーイメージのゴースト成分を学習するとき、前記第3のグレーイメージに対応する第6の飽和マップを生成及び利用する請求項11に記載のイメージセンシング装置。 - 前記第4の学習モジュールは、前記第1のグレーイメージのゴースト成分を学習する前に第4の露出割合(exposure ratio)に基づいて前記第1のグレーイメージをスケーリング(scaling)し、
前記第5の学習モジュールは、前記第2のグレーイメージのゴースト成分を学習する前に第5の露出割合に基づいて前記第2のグレーイメージをスケーリングし、
前記第6の学習モジュールは、前記第3のグレーイメージのゴースト成分を学習する前に第6の露出割合に基づいて前記第3のグレーイメージをスケーリングする請求項10に記載のイメージセンシング装置。 - 前記第1ないし第4の露出時間のうち、前記第1の露出時間が最も長い露出時間であり、前記第2の露出時間は、前記第1の露出時間より短い露出時間であり、前記第3の露出時間は、前記第2の露出時間より短い露出時間であり、前記第4の露出時間は、最も短い露出時間である請求項10に記載のイメージセンシング装置。
- 前記第4ないし第6の学習モジュールは、学習の際に用いられるカラー別加重値を共有する請求項10に記載のイメージセンシング装置。
- 前記サンプリングモジュールは、
前記シングルイメージに含まれたイメージ値を露出時間別にサンプリングして複数のサンプリングイメージを生成するための第1のサンプリングモジュールと、
前記複数のサンプリングイメージに含まれたイメージ値をカラー別にサンプリングして前記複数のイメージを生成するための第2のサンプリングモジュールと、
を備える請求項1に記載のイメージセンシング装置。 - 前記イメージ処理モジュールは、
前記複数の補正されたイメージをカラー別に合成(fusion)してシングル合成イメージを生成するための合成モジュールと、
前記シングル合成イメージに基づいて前記ハイダイナミックレンジのイメージを生成するためのトーンマッピング(tone mapping)モジュールと、
を備える請求項1に記載のイメージセンシング装置。 - クアッドパターンで配列されたカラーフィルタを有し、パターン別に互いに異なる露出時間で制御されるピクセルアレイを備え、シングルフレーム(single frame)の間、前記クアッドパターンに対応するシングルイメージを生成するためのイメージセンサと、
予定された学習アルゴリズムを利用して前記シングルイメージに基づいたカラー別補正パラメータを学習し、前記補正パラメータに基づいてベイヤー(bayer)パターンを有するハイダイナミックレンジのイメージを生成するためのイメージプロセッサと、
を備えるイメージセンシング装置。 - 前記補正パラメータは、ノイズ(noise)成分とゴースト(ghost)成分とを含む請求項18に記載のイメージセンシング装置。
- クアッドパターンイメージを受信し、カラーチャネルによって前記クアッドパターンイメージをサンプリングし、複数のチャネルイメージを生成するためのサンプリングモジュールと、
複数のデノイズされたチャネルイメージを生成するためのデノイズモジュールと、複数のデゴーストされたチャネルイメージを生成するためのデゴーストモジュールと、
前記複数のデゴーストされたチャネルイメージに基づいてベイヤーパターンを有する出力イメージを生成するためのイメージ処理モジュールと、
を備え、
前記複数のデノイズされたチャネルイメージの各々は、2つのチャネルのイメージ対を用いて学習することによって生成され、
前記2つのチャネルのうち1つのチャネルは、相対的に長い露出時間と関連しており、前記2つのチャネルのうち残りのチャネルは、相対的に短い露出時間と関連しており、
前記複数のデゴーストされたチャネルイメージの各々は、2つの選択チャネルのイメージ対を用いて学習することによって生成され、
前記2つの選択チャネルのうち、いずれか1つは、最も短い露出時間と関連があるイメージセンシング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0174188 | 2020-12-14 | ||
KR1020200174188A KR20220084578A (ko) | 2020-12-14 | 2020-12-14 | 이미지 센싱 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022094319A true JP2022094319A (ja) | 2022-06-24 |
Family
ID=80855534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021190906A Pending JP2022094319A (ja) | 2020-12-14 | 2021-11-25 | イメージセンシング装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11290655B1 (ja) |
JP (1) | JP2022094319A (ja) |
KR (1) | KR20220084578A (ja) |
CN (1) | CN114630010A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI803424B (zh) * | 2022-09-08 | 2023-05-21 | 大陸商廣州印芯半導體技術有限公司 | 動態影像產生方法及其動態影像感測器 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4872830B2 (ja) * | 2007-06-28 | 2012-02-08 | セイコーエプソン株式会社 | 撮像装置、撮像方法、画像処理装置、画像処理プログラム及び画像処理方法 |
US8346008B2 (en) * | 2009-06-09 | 2013-01-01 | Aptina Imaging Corporation | Systems and methods for noise reduction in high dynamic range imaging |
US8345144B1 (en) * | 2009-07-15 | 2013-01-01 | Adobe Systems Incorporated | Methods and apparatus for rich image capture with focused plenoptic cameras |
TWI513326B (zh) * | 2009-12-08 | 2015-12-11 | Univ Nat Taiwan Normal | 高動態範圍合成影像之色彩校正方法 |
JP2012234393A (ja) * | 2011-05-02 | 2012-11-29 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2012257193A (ja) * | 2011-05-13 | 2012-12-27 | Sony Corp | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム |
JP2013066145A (ja) * | 2011-08-31 | 2013-04-11 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
JP2013258596A (ja) * | 2012-06-13 | 2013-12-26 | Denso Corp | 撮像装置 |
CN102970549B (zh) * | 2012-09-20 | 2015-03-18 | 华为技术有限公司 | 图像处理方法及装置 |
JP2015019293A (ja) * | 2013-07-11 | 2015-01-29 | ソニー株式会社 | 固体撮像装置および方法、並びに、電子機器 |
CN104301638B (zh) * | 2013-07-16 | 2018-03-13 | 聚晶半导体股份有限公司 | 坏像素处理方法与图像处理装置 |
JP2015033107A (ja) * | 2013-08-07 | 2015-02-16 | ソニー株式会社 | 画像処理装置および画像処理方法、並びに、電子機器 |
KR102145201B1 (ko) | 2013-08-12 | 2020-08-18 | 삼성전자주식회사 | 이미지의 동적 범위 향상을 위한 방법 및 장치 |
JP2015142342A (ja) * | 2014-01-30 | 2015-08-03 | オリンパス株式会社 | 撮像装置、画像生成方法及び画像生成プログラム |
KR20150118213A (ko) * | 2014-04-11 | 2015-10-22 | 에스케이하이닉스 주식회사 | 이미지 센싱 장치 |
JP6460653B2 (ja) * | 2014-06-11 | 2019-01-30 | オリンパス株式会社 | 画像処理装置、それを備えた撮像装置、画像処理方法、及び画像処理プログラム |
WO2018021053A1 (ja) * | 2016-07-28 | 2018-02-01 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子 |
JP2018207413A (ja) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | 撮像装置 |
CN109005364B (zh) * | 2018-08-13 | 2020-03-06 | Oppo广东移动通信有限公司 | 成像控制方法、装置、电子设备以及计算机可读存储介质 |
US10708525B2 (en) * | 2018-08-27 | 2020-07-07 | Qualcomm Incorporated | Systems and methods for processing low light images |
US10742892B1 (en) * | 2019-02-18 | 2020-08-11 | Samsung Electronics Co., Ltd. | Apparatus and method for capturing and blending multiple images for high-quality flash photography using mobile electronic device |
JP7297470B2 (ja) * | 2019-03-05 | 2023-06-26 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 |
CN111835941B (zh) * | 2019-04-18 | 2022-02-15 | 北京小米移动软件有限公司 | 图像生成方法及装置、电子设备、计算机可读存储介质 |
CN112906429A (zh) * | 2019-11-19 | 2021-06-04 | 英业达科技有限公司 | 图文影像辨识系统及方法 |
US11544041B2 (en) * | 2019-11-22 | 2023-01-03 | Aetna Inc. | Next generation digitized modeling system and methods |
FI129608B (en) * | 2020-01-08 | 2022-05-31 | Nokia Technologies Oy | MACHINE LEARNING SIGNAL DETECTION AND RECONSTRUCTION OF LOW RESOLUTION SAMPLES |
CN111479071B (zh) * | 2020-04-03 | 2021-05-07 | Oppo广东移动通信有限公司 | 高动态范围图像处理系统及方法、电子设备和可读存储介质 |
CN111711755B (zh) * | 2020-06-28 | 2022-01-04 | Oppo广东移动通信有限公司 | 图像处理方法及装置、终端和计算机可读存储介质 |
-
2020
- 2020-12-14 KR KR1020200174188A patent/KR20220084578A/ko unknown
-
2021
- 2021-05-28 US US17/333,786 patent/US11290655B1/en active Active
- 2021-09-14 CN CN202111074052.XA patent/CN114630010A/zh active Pending
- 2021-11-25 JP JP2021190906A patent/JP2022094319A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11290655B1 (en) | 2022-03-29 |
CN114630010A (zh) | 2022-06-14 |
KR20220084578A (ko) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6096243B2 (ja) | 画像データの処理方法およびシステム | |
US9055181B2 (en) | Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information | |
JP5701785B2 (ja) | カメラモジュール | |
CN100477748C (zh) | 成像设备和用于该成像设备的方法 | |
CN102077572A (zh) | 用于在成像系统中防止运动模糊和重影的方法及装置 | |
CN113228094A (zh) | 图像处理器 | |
JP5523802B2 (ja) | 画像処理装置 | |
JP2009218909A (ja) | 画像撮像装置 | |
CN101304484A (zh) | 成像装置、缺陷像素校正装置、装置中的处理方法和程序 | |
KR20190018760A (ko) | 하이 다이내믹 범위 이미지의 생성 방법, 촬영 장치와 단말기, 이미징 방법 | |
US20100277625A1 (en) | Image processing apparatus, imaging apparatus, method of correction coefficient calculation, and storage medium storing image processing program | |
CN111711755A (zh) | 图像处理方法及装置、终端和计算机可读存储介质 | |
IL257177A (en) | Image sensor, control method and electronic device | |
JP2022094319A (ja) | イメージセンシング装置 | |
Song et al. | Real-scene reflection removal with raw-rgb image pairs | |
JP5829122B2 (ja) | 撮像装置および評価値生成装置 | |
JP2016131326A (ja) | 固体撮像装置 | |
JP2021114180A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR20190100833A (ko) | Hdr 이미지 생성 장치 | |
JP2012175169A (ja) | 画像処理装置 | |
JP2022104795A (ja) | イメージセンシング装置及びその動作方法 | |
JP2007180893A (ja) | 画像処理装置および撮像装置 | |
JP2021114186A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2013115470A (ja) | 固体撮像素子の信号処理回路、固体撮像素子の信号処理方法、及び、電子機器 | |
TWI536765B (zh) | 具有透明濾波器像素之成像系統 |