JP2022019645A - イメージセンサモジュール及びイメージ圧縮方法 - Google Patents

イメージセンサモジュール及びイメージ圧縮方法 Download PDF

Info

Publication number
JP2022019645A
JP2022019645A JP2021116290A JP2021116290A JP2022019645A JP 2022019645 A JP2022019645 A JP 2022019645A JP 2021116290 A JP2021116290 A JP 2021116290A JP 2021116290 A JP2021116290 A JP 2021116290A JP 2022019645 A JP2022019645 A JP 2022019645A
Authority
JP
Japan
Prior art keywords
pixel
value
image
target
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021116290A
Other languages
English (en)
Inventor
元 碩 李
Wonseok Lee
成 旭 宋
Seongwook Song
允 碩 崔
Yunseok Choi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210029045A external-priority patent/KR20220009853A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2022019645A publication Critical patent/JP2022019645A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】孤立領域のピクセルデータを効率的に圧縮するイメージセンサモジュール及びイメージ圧縮方法を提供する。【解決手段】本発明によるイメージ圧縮方法は、イメージセンサによって生成されたイメージデータを圧縮するイメージ圧縮方法において、前記イメージデータの内の圧縮が行われる対象ピクセルグループの複数の対象ピクセルのピクセル値と、前記対象ピクセルグループの圧縮に用いられる複数の参照ピクセルの参照値を受信する段階と、前記対象ピクセルのピクセル値について平均演算が行われる平均方向を定める段階と、前記平均方向に沿って前記対象ピクセルのピクセル値を平均化する段階と、前記参照ピクセルに基づいて、平均値に適用される補償値を含むバランス情報を生成する段階と、前記平均値、前記バランス情報、及び圧縮情報に基づいてビットストリームを生成する段階と、を有する。【選択図】 図1

Description

本発明は、イメージセンサに関し、特に、孤立領域のデータを圧縮するイメージセンサモジュール及びイメージ圧縮方法に関する。
近年、高品質及び高画質の写真、映像などへの要求が増大するにつれて、イメージセンサのピクセルアレイのセンシングピクセルの数が増加し、これにより、イメージセンサで生成されるイメージデータのサイズが大きくなっている。
イメージデータは、イメージ処理装置に伝送され、伝送効率を高めるためにイメージデータが圧縮され、圧縮されたイメージデータがイメージ処理装置に伝送される。
イメージデータは、二次元あるいは多次元の多様なイメージパターンを含む。
イメージパターンの特定領域に含まれているピクセルデータを圧縮するに当って、圧縮効率を高めて圧縮損失を低減させる圧縮方法の開発が課題となっている。
特開2000-32273号公報
本発明は上記従来のイメージセンサにおける課題に鑑みてなされたものであって、本発明の目的は、孤立領域のピクセルデータを効率的に圧縮するイメージセンサモジュール及びイメージ圧縮方法を提供することにある。
上記目的を達成するためになされた本発明によるイメージ圧縮方法は、イメージセンサによって生成されたイメージデータを圧縮するイメージ圧縮方法において、前記イメージデータの内の圧縮が行われる対象ピクセルグループの複数の対象ピクセルのピクセル値と、前記対象ピクセルグループの圧縮に用いられる複数の参照ピクセルの参照値を受信する段階と、前記対象ピクセルのピクセル値について平均演算が行われる平均方向を定める段階と、前記平均方向に沿って前記対象ピクセルのピクセル値を平均化する段階と、前記参照ピクセルに基づいて、平均値に適用される補償値を含むバランス情報を生成する段階と、前記平均値、前記バランス情報、及び圧縮情報に基づいてビットストリームを生成する段階と、を有することを特徴とする。
上記目的を達成するためになされた本発明によるイメージセンサモジュールは、複数のピクセルを含むイメージデータを生成するイメージセンサと、前記イメージセンサで生成されたイメージデータを、ピクセルグループ単位で順次に圧縮して、複数のビットストリームを含む圧縮データを生成し、圧縮が行われる対象ピクセルグループを、複数のエンコーディング方式の内の少なくとも一つのエンコーディング方式によって圧縮するエンコーダと、前記圧縮データを外部のイメージ処理装置に出力するインターフェースと、を備え、前記エンコーダは、前記複数のエンコーディング方式の内の第1エンコーディング方式によって、前記対象ピクセルのピクセル値に基づいた平均値を生成し、前記平均値に適用される補償値を含むバランス情報を生成し、前記平均値、前記バランス情報及び圧縮情報を含むビットストリームを生成することを特徴とする。
本発明の一実施形態によるイメージ処理システムは、受信した光信号をセンシングしてイメージデータを生成するイメージセンサと、前記イメージデータの複数のピクセルグループを順次に圧縮して、複数のビットストリームを生成するエンコーダと、前記複数のビットストリームを圧縮解除して前記イメージデータを復元するデコーダと、を備え、前記エンコーダは、前記対象ピクセルのピクセル値に基づいた平均値及び前記平均値に適用される補償値を含むバランス情報を生成し、前記平均値、前記バランス情報及び圧縮情報を含むビットストリームを生成する。
本発明に係るイメージセンサモジュール及びイメージ圧縮方法によれば、イメージデータの複数のピクセルグループの内の圧縮が行われるピクセルグループのピクセル値と、圧縮に用いられる参照値との差が大きい場合、ピクセル値を平均化して平均値を生成し、平均値及び、平均値とピクセル値との差を補償するためのバランス情報に基づいてビットストリームを生成するエンコーディング方式によって、ピクセルグループを圧縮することができる。
イメージデータ内のイメージパターンの特定領域に該当するピクセルグループを、専用エンコーディング方式によって圧縮することで、圧縮効率が増大して圧縮損失が減少させることができる。
本発明の一実施形態によるイメージ処理システムの概略構成を示すブロック図である。 本発明の一実施形態によるイメージセンサモジュールに適用されるピクセルアレイ、及びイメージデータを例示的に示す図である。 本発明の一実施形態によるエンコーダの概略構成を示すブロック図である。 本発明の一実施形態によるエンコーダの概略構成を示すブロック図である。 本発明の一実施形態による参照マップを説明するための例示的な図である。 本発明の一実施形態による圧縮方法を説明するためのフローチャートである。 図5の圧縮方法の段階を説明するための概念図である。 図5の圧縮方法の段階を説明するための概念図である。 図5の圧縮方法の段階を説明するための概念図である。 図5の圧縮方法の段階を説明するための概念図である。 本発明の一実施形態によるビットストリームを示す図である。 本発明の一実施形態によるビットストリームを示す図である。 本発明の一実施形態による圧縮方法の比較例による圧縮方法を説明するための概念図である。 本発明の一実施形態によるイメージデータ及び参照マップを例示的に説明するための図である。 本発明の一実施形態による圧縮方法を説明するための概念図である。 本発明の一実施形態によるイメージセンサモジュールの概略構成を示すブロック図である。 本発明の一実施形態によるイメージセンサモジュールの概略構成を示すブロック図である。 本発明の一実施形態によるデコーダの概略構成を示すブロック図である。 本発明の一実施形態によるイメージ処理システムの概略構成を示すブロック図である。 本発明の一実施形態による圧縮情報を示す表である。 本発明の一実施形態によるマルチカメラモジュールを備える電子装置のの概略構成を示すブロック図である。 図15Aのカメラモジュールの詳細構成を示すブロック図である。 本発明の一実施形態による電子装置の概略構成を示すブロック図である。
次に、本発明に係るイメージセンサモジュール及びイメージ圧縮方法を実施するための形態の具体例を図面を参照しながら説明する。
図1は、本発明の一実施形態によるイメージ処理システムの概略構成を示すブロック図であり、図2は、本発明の一実施形態によるイメージセンサモジュールに適用されるピクセルアレイ、及びイメージデータを例示的に示す図である。
イメージ処理システム10は、被写体に関するイメージをセンシングし、センシングされたイメージを処理するか、又はメモリに保存し、処理されたイメージをメモリに保存する。
一実施形態によれば、イメージ処理システム10は、デジタルカメラ、デジタルカムコーダ、モバイルフォン、又はタブレット・コンピュータ、又はポータブル電子装置で具現される。ポータブル電子装置は、ラップトップコンピュータ、移動電話機、スマートフォン、タブレットPC、PDA(personal digital assistant)、EDA(enterprise digital assistant)、デジタルスチールカメラ、デジタルビデオカメラ、オーディオ装置、PMP(portable multimedia player)、PND(personal navigation device)、MP3プレーヤ、ポータブルゲームコンソール(handheld game console)、eブック(e-book)、ウェアラブル機器などを含む。また、イメージ処理システム10は、ドローン、先端運転手補助システム(Advanced Drivers Assistance System:ADAS)などの電子機器又は車、家具、製造設備、ドア、各種の計測機器などに、部品として搭載され得る。
図1を参照すると、イメージ処理システム10は、イメージセンサモジュール100及びイメージ処理装置200を備える。
一実施形態において、イメージセンサモジュール100は、イメージセンサ110と、エンコーダ120と、インターフェース130と、を備える。
実施形態において、イメージセンサモジュール100は、複数の半導体チップによっても具現される。
例えば、イメージセンサ110のピクセルアレイ(図2のPXA)が一つの半導体チップに集積され、イメージセンサ110のロジック回路と、エンコーダ120と、インターフェース130とが他の半導体チップに集積され、複数の半導体チップが接続部材を通じて電気的に接続されるか、又は複数の半導体チップが積層されて、貫通ビアを通じて互いに電気的に接続される。
しかし、それに限定されるものではなく、イメージセンサモジュール100は、一つの半導体チップで具現されてもよい。
実施形態において、イメージ処理装置200は、インターフェース210と、メモリ220と、デコーダ230と、イメージ信号プロセッサ240と、を備える。
イメージセンサモジュール100は、外部の被写体(又は客体)を撮影し、イメージデータIDTを生成する。
イメージセンサモジュール100は、レンズLSを通じて入射された被写体の光学的信号を、電気的信号に変換できるイメージセンサ110を備える。
イメージセンサ110は、複数のセンシングピクセル(図2のSPX)が二次元的に配列されるピクセルアレイ(図2のPXA)を備え、ピクセルアレイPXAの複数のセンシングピクセルSPXそれぞれに対応する、複数のピクセル値を含むイメージデータIDTを出力する。
ピクセルアレイPXAは、複数の行(row)ラインと、複数の列(column)ラインと、それぞれが行ラインと列ラインとに接続され、かつマトリックス状に配置された複数のセンシングピクセルSPXと、を備える。
ピクセルアレイPXAの複数のセンシングピクセルSPXそれぞれは、複数の基準カラーの内の少なくとも一つのカラーの光信号を感知する。
例えば、複数の基準カラーは、レッド、グリーン、及びブルー、又はレッド、グリーン、ブルー、及びホワイトを含んでもよいが、それ以外の他のカラーを含んでもよい。
例えば、複数の基準カラーは、シアン、イエロ、グリーン、マゼンタを含んでもよい。
ピクセルアレイPXAは、複数のセンシングピクセルSPXそれぞれの基準カラーに関する情報を含むピクセル信号を生成する。
例えば、図2に示すように、ピクセルアレイPXAは、レッド・センシングピクセル(SPX_R)と、ブルー・センシングピクセル(SPX_B)と、2個のグリーン・センシングピクセル(SPX_Gr)、及び(SPX_Gb)と、を備える。
レッド・センシングピクセル(SPX_R)と同じ行に配置されるグリーン・センシングピクセルが、第1グリーン・センシングピクセル(PX_Gr)と指称され、ブルー・センシングピクセル(PX_B)と同じ行に配置されるグリーン・センシングピクセルが、第2グリーン・センシングピクセル(PX_Gb)と指称される。
レッド・センシングピクセル(SPX_R)と、ブルー・センシングピクセル(SPX_B)と、第1グリーン・センシングピクセル(SPX_Gr)と、第2グリーン・センシングピクセル(SPX_Gb)とが行列に配置され、これは、ピクセルパターンPTと指称される。
ピクセルアレイPXA内で、複数のピクセルパターンPTが繰り返して配置される。
例えば、図2に示すように、ピクセルパターンPTは、2×2行列に配置されたレッド・センシングピクセル(SPX_R)と、2×2行列に配置されたブルー・センシングピクセル(SPX_B)と、2×2行列に配置された第1グリーン・センシングピクセル(SPX_Gr)と、2×2行列に配置された第2グリーン・センシングピクセル(SPX_Gb)と、を備える。
このようなピクセルパターンPTは、テトラパターンと指称される。
しかし、本発明の技術的思想はそれに限定されるものではなく、ピクセルパターンPTは、2×2行列に配置されたレッド・センシングピクセル(SPX_R)と、ブルー・センシングピクセル(SPX_B)と、第1グリーン・センシングピクセル(SPX_Gr)と、第2グリーン・センシングピクセル(SPX_Gb)とを備え、このようなピクセルパターンPTは、ベイヤー(Bayer)パターンと指称される。
又は、ピクセルパターンPTは、n×n行列(nは、3以上の定数)に配置されたレッド・センシングピクセル(SPX_R)と、n×n行列(nは、3以上の定数)に配置されたブルー・センシングピクセル(SPX_B)と、n×n行列に配置された第1グリーン・センシングピクセル(SPX_Gr)と、n×n行列に配置された第2グリーン・センシングピクセル(SPX_Gb)と、を備えてもよい。
ピクセルアレイPXAから出力されるピクセル信号に基づいて、イメージデータIDTが生成される。
イメージデータIDTは、ピクセルアレイPXAのピクセルパターンPTに対応するカラーパターンを持つ。
一例として、ピクセルアレイPXAがベイヤーパターンを持つ場合、イメージデータIDTもベイヤーパターンを持つ。
他の例として、ピクセルアレイPXAがテトラパターンを持つ場合、イメージデータIDTは、テトラパターン又はベイヤーパターンを持つ。
例えば、ピクセルアレイPXAがテトラパターンを持つ場合、ピクセルパターンSPXに含まれている同じカラーの4個のセンシングピクセルSPXから、一つのピクセル信号が出力されるか、又は4個のセンシングピクセルSPXそれぞれから、ピクセル信号が出力されることで、4個のピクセル信号が出力される。
一つのピクセル信号が出力される場合、イメージデータIDTはベイヤーパターンを持ち、4個のピクセル信号が出力される場合、図2に示したように、イメージデータIDTは、テトラパターンを持つ。
イメージデータIDTは、繰り返して配置されるレッドピクセル(PX_R)と、ブルーピクセル(PX_B)と、第1グリーンピクセル(PX_Gr)と、第2グリーンピクセル(PX_Gb)と、を備える。
イメージデータIDTのピクセルPXは、ピクセルアレイPXAのセンシングピクセルSPXに対応するデータ、言い換えれば、ピクセルデータを意味する。
レッドピクセル(PX_R)、ブルーピクセル(PX_B)、第1グリーンピクセル(PX_Gr)、及び第2グリーンピクセル(PX_Gb)は、ピクセルアレイPXAのレッド・センシングピクセル(SPX_R)、ブルー・センシングピクセル(SPX_B)、第1グリーン・センシングピクセル(SPX_Gr)及び第2グリーン・センシングピクセル(SPX_Gb)にそれぞれ対応する。
イメージデータIDTは、複数のピクセルグループPGを含み、ここで、ピクセルグループPGは、イメージデータIDTのカラーパターンによって、順次に行列に配置されるか、又は一方向に配置されている事前に定められている数のピクセルPXを備えるように設定されるか、又は同じ基準カラーに対応し、かつ互いに隣接しているピクセルPXを備えるように設定される。
例えば、図2に示したように、イメージデータIDTがテトラパターンを持つ場合、ピクセルグループPGは、同じ基準カラー(例えば、レッド、ブルー、グリーンなど)に対応し、かつ互いに隣接している4個のピクセルPXを備えるように設定される。
他の例として、イメージデータIDTがベイヤーパターンを持つ場合、ピクセルグループPGは、行列に配列されている事前に定められている数(例えば、4個)のピクセルPXを備えるように設定される。
次いで、図1を参照すると、複数のセンシングピクセルSPXそれぞれは、少なくとも一つの光感知素子(又は光電変換素子)を備える。
光感知素子は、光を感知し、感知された光を電気信号に変換する。
例えば、光感知素子は、フォト・ダイオード、フォト・トランジスタ(photo transistor)、フォト・ゲート(photo gate)、ピンドフォト・ダイオード(pinned photo diode、PPD)、又はそれらの組み合わせでもある。
複数のセンシングピクセルSPXそれぞれは、少なくとも一つの光感知素子と、光感知素子で生成された電気信号に対応するピクセル信号を出力するためのピクセル回路と、を備える。
例えば、ピクセル回路は、伝送トランジスタ、リセット・トランジスタ、増幅トランジスタ、及び選択トランジスタを備える4-トランジスタ構造を持つ。
しかし、それらに限定されるものではなく、ピクセル回路は、1-トランジスタ構造、3-トランジスタ構造、4-トランジスタ、又は5-トランジスタ構造であるか、又は複数のピクセルが一部のトランジスタを共有する構造を持つこともできる。
実施形態において、ピクセル回路それぞれが、メモリ又はアナログ-デジタル変換器を備えてもよい。
実施形態において、特定波長帯域の光信号(言い換えれば、特定色相の光信号)を透過させる複数のカラーフィルターが、ピクセルアレイPXAの複数のピクセルそれぞれと相応するように、複数のピクセル上に配置され、ピクセルに備えられる少なくとも一つの光感知素子が対応するカラーフィルターを透過した光信号を、電気的信号に変換する。
それによって、ピクセルアレイPXAの複数のセンシングピクセルSPXそれぞれが、割り当てられた少なくとも一つの基準カラーについての少なくても一つのピクセル信号を出力する。
しかし、それに限定されるものではなく、センシングピクセルSPXに備えられる少なくとも一つの光感知素子が入射される光の内の選択的に特定波長帯域の光信号を電気的信号に変換してもよい。
実施形態において、イメージデータIDTは、ピクセルアレイPXAから出力される複数のピクセル信号がデジタル-アナログ変換された、複数のピクセル値を含む原イメージデータ(raw image data)、又は原イメージデータについて前処理が行われたイメージデータを含む。
イメージセンサモジュール100は、データ伝送速度、データ伝送による消費電力の減少及びデータ保存空間の効率化のために、エンコーダ120を用いてイメージデータIDTを圧縮し、圧縮データCDTをイメージ処理装置200に伝送する。
エンコーダ120は、イメージセンサ110からイメージデータIDTを受信し、イメージデータIDTを圧縮して圧縮データCDTを生成する。
圧縮データCDTは、符号化されたビットストリーム形態に具現される。
以下では、符号化されたビットストリームを、単にビットストリームと指称する。
ビットストリームは、圧縮結果及び圧縮情報(例えば、圧縮方式を示すモード情報)を含む。
エンコーダ120は、イメージデータIDTをピクセルグループPG単位でエンコーディングして、圧縮データCDTを生成する。
エンコーダ120は、一つのピクセルグループPGをエンコーディングして一つのビットストリームを生成し、イメージデータIDT内のすべてのピクセルグループPGのビットストリームに基づいて、圧縮データCDTを生成する。
ピクセルグループPGをエンコーディングすることでピクセルグループPGが圧縮されるが、以下、本発明で、エンコーディングは、圧縮と同じ意味で使用する。
エンコーダ120は、圧縮が行われるピクセルグループPG、言い換えれば、対象ピクセルグループより先に圧縮されたピクセルに対応するピクセル値に基づいて生成された参照マップを用いて、圧縮を行う。
具体的には、エンコーダ120は、参照マップで、対象ピクセルグループ内の少なくとも一つの対象ピクセルに隣接している、少なくとも一つの参照ピクセルの参照値に基づいて、対象ピクセルのピクセル値を圧縮する。
参照値は、参照ピクセルのピクセル値に基づいて生成され、例えば、参照値は、参照ピクセルのピクセル値が圧縮されてから解除されることで生成される値である。
対象ピクセルのピクセル値と、隣接している参照ピクセルのピクセル値とは、互いに類似した値を持つ可能性が高い。
また、対象ピクセルグループ内の対象ピクセルのピクセル値は、互いに類似した値を持つ可能性が高い。
よって、エンコーダ120は、対象ピクセルグループの対象ピクセルを、周辺ピクセルとの差、例えば、対象ピクセルのピクセル値と、隣接している参照ピクセルの参照値との差値、又は、対象ピクセルのピクセル値と、対象ピクセルグループ内の他の対象ピクセルのピクセル値との差値に基づいてエンコーディングするDPCM(Differential Pulse Code Modulation)に基づいたエンコーディング方式で、対象ピクセルグループを圧縮する。
これにより、圧縮効率(又は圧縮率)が高くなり、圧縮によるデータ損失が減少する。
しかし、イメージデータIDT内の孤立領域に含まれる対象ピクセルグループのピクセルのピクセル値は、参照ピクセルのピクセル値と、その差が大きい。
言い換えれば、対象ピクセルのピクセル値と参照ピクセルの参照値との相関度が低い。
ここで孤立領域とは、イメージデータIDT内に発生する二次元あるいは多次元イメージパターンのエッジ領域の内の少なくとも二つの方向(例えば、互いに直交する二つの方向)において、エッジ領域に該当する領域、例えば、イメージパターンの角に該当する領域を意味する。
本発明の実施形態によるエンコーダ120は、バランスモード圧縮器BMCを備えることができ、バランスモード圧縮器BMCは、対象ピクセルのピクセル値と参照ピクセルの参照値との差が大きい場合、専用エンコーディング方式、例えば、HVバランス(Horizontal or Vertical Balance)エンコーディング方式で対象ピクセルを圧縮する。
バランスモード圧縮器BMCは、対象ピクセルのピクセル値を横方向又は垂直方向に平均化して平均値を生成し、平均値及びバランス情報に基づいてビットストリームを生成する。
ここで、バランス情報は、平均値とピクセル値との差を補償するための情報であって、デコーディング時に、平均値に周辺ピクセルの参照値の間の差値を補償値として適用して、ピクセル値を復元するかどうかを示す選択値、及びどのようなピクセルにおいて、平均値に差値(又は予め設定されたのデフォルト値)を加算するか、又は減算するか、を示す勾配値を含み得る。
このようなHVバランスエンコーディング方式は、図5~図10を参照して後述する。
エンコーダ120が、孤立領域のピクセルグループを、前述したDPCM方式で圧縮するか、又は孤立領域のピクセルグループを、対象ピクセルそれぞれのピクセル値を示す複数のデータビットの内のMSB(Most Significant Bit)を含む一部の上位データビットに基づいてエンコーディングする方式によって圧縮する場合、多量のデータ損失が発生する。
これにより、圧縮データCDTが圧縮解除されて生成される復元されたイメージデータで画質劣化が発生し、イメージデータにアーチファクトが発生する。
しかし、前述したように本発明の実施形態によるエンコーダ120は、専用エンコーディング方式、例えば、HVバランスエンコーディング方式で孤立領域のピクセルグループを圧縮する。
これにより、圧縮効率が向上してデータ損失が減少する。
エンコーダ120は、圧縮データCDTを、インターフェース130を通じてイメージ処理装置200に提供する。
例えば、インターフェース130は、MIPI(Mobile Industry Processor Interface)に基づいたカメラ直列インターフェース(CSI;Camera Serial Interface)によっても具現される。
一方、インターフェース130の種類は、それに制限されるものではなく、多様なプロトコル規格によっても具現される。
イメージ処理装置200は、イメージセンサモジュール100から受信した圧縮データCDTを変換して、ディスプレイ(図示せず)に表示するイメージを生成する。
具体的には、イメージ処理装置200は、イメージセンサモジュール100から圧縮データCDTを受信し、圧縮データCDTを圧縮解除して、圧縮解除データDDT、例えば、復元されたイメージデータを生成し、圧縮解除データDDTをイメージ処理する。
一実施形態において、イメージ処理装置200は、インターフェース210を通じて、イメージセンサモジュール100から圧縮データCDTを受信する。
インターフェース210は、イメージセンサモジュール100に備えられるインターフェース130のように、MIPIで具現されるが、これに制限されるものではない。
イメージ処理装置200は、受信した圧縮データCDTをメモリ220に保存する。
メモリ220は、データを保存するための保存場所である。
メモリ220に圧縮データCDTが保存される。
それ以外に、メモリ220は、他のデータ、例えば、OS(Operating System)、各種プログラム、及び各種データ(例えば、圧縮データCDT)を保存する。
メモリ220は、DRAM(Dynamic Random Access Memory)、SRAM(Static RAM)のような揮発性メモリ、又はPRAM(Phase Change RAM)、ReRAM(Resistive RAM)、MRMA(Magnetic Ram)フラッシュメモリのような不揮発性メモリを備える。
図1では、メモリ220は、イメージ処理装置200の内に備えるように示したが、それに限定されるものではなく、メモリ220は、イメージ処理装置200の外部に別途に備えられてもよい。
デコーダ230は、メモリ220から圧縮データCDTを読み取り、圧縮データCDTを圧縮解除して、圧縮解除データDDTを生成する。
デコーダ230は、圧縮解除データDDTをイメージ信号プロセッサ240に提供する。
デコーダ230は、イメージセンサモジュール100のエンコーダ120によって行われた圧縮方式(又はエンコーディング方式)による圧縮解除方式(又はデコーディング方式)によって、圧縮データCDTを、ピクセルグループPG単位で圧縮解除する。
デコーダ230は、圧縮データCDTのビットストリームに含まれている圧縮情報に基づいて、ピクセルグループPGに適用された圧縮方式を判断する。
デコーダ230は、圧縮解除される対象ピクセルグループより先に圧縮解除されたピクセル、言い換えれば、参照ピクセルに対応する参照値を含む参照マップに基づいて、対象ピクセルグループの対象ピクセルを圧縮解除する。
実施形態において、デコーダ230は、HVバランスエンコーディング方式によるデコーディング方式で、対象ピクセルグループを圧縮解除する。
デコーダ230は、ビットストリームに含まれている平均値を、バランス情報に基づいて調整してピクセル値を復元することができる。
イメージ信号プロセッサ240は、受信した圧縮解除データDDTについて多様なイメージ処理を行う。
非制限的な例として、イメージ信号プロセッサ240は、圧縮解除データDDTについて、不良ピクセル補正、オフセット補正、レンズ歪曲補正、カラーゲイン補正、シェーディング補正、ガンマ補正、ノイズ除去、鮮鋭化(sharpening)の内の少なくとも一つのイメージ処理を行う。
一実施形態において、イメージセンサモジュール100の性能によって、前述したイメージ処理の内の一部が省略されてもよい。
例えば、イメージセンサモジュール100が高品質のイメージセンサ110を備える場合、イメージ処理の内の不良ピクセル補正(特に、スタティック・不良ピクセル補正)又はオフセット補正などが省略される。
一方、エンコーダ120及びデコーダ230それぞれは、ソフトウェア又はハードウェアで具現されるか、又はファームウェアのようなソフトウェア及びハードウェアの組み合わせによっても具現される。
エンコーダ120及びデコーダ230がソフトウェアで具現される場合、前述したそれぞれの機能がプログラミングされたソースコードで具現され、イメージセンサモジュール100及びイメージ処理装置200それぞれに備えられる保存媒体にそれぞれローディングされ、イメージセンサモジュール100及びイメージ処理装置200それぞれに備えられるプロセッサ(例えば、イメージ処理プロセッサ)がソフトウェアを実行することで、エンコーダ120及びデコーダ230の機能が具現される。
エンコーダ120及びデコーダ230がハードウェアで具現される場合、エンコーダ120及びデコーダ230は、ロジック回路及びレジスタを備え、レジスタの設定に基づいて、前述したそれぞれの機能を行う。
図1では、イメージ処理システム10がイメージセンサモジュール100及びイメージ処理装置200を備えるように示したが、本発明はそれに限定されるものではない。
例えば、イメージ処理システム10は、イメージセンサモジュール100及びイメージ処理装置200の内の一部のみを備えるか、又は複数のイメージセンサモジュール100を備えるようにも具現される。
また、図1では、デコーダ230及びイメージ信号プロセッサ240が別途の構成であるように示したが、本発明はそれに限定されるものではない。
例えば、イメージ信号プロセッサ240は、デコーダ230を備えるように具現される。
図3A及び図3Bは、本発明の一実施形態によるエンコーダの概略構成を示すブロック図である。
図3A及び図3Bは、図1のエンコーダ120を示す。
図1及び図3Aを参照すると、エンコーダ120は、参照ピクセル検出器121と、圧縮回路122と、モード選択器123と、復元イメージ生成器124と、参照バッファ125と、を備える。
参照ピクセル検出器121は、イメージセンサ(図1の符号110)からイメージデータIDTを受信し、参照バッファ125から、対象ピクセルグループの圧縮に用いられる参照ピクセルの参照値を含む参照マップを受信する。
参照ピクセル検出器121は、参照バッファ125に保存されている復元されたイメージデータから、対象ピクセルグループと位置的に近接した参照ピクセルの参照値、言い換えれば、参照ピクセルの復元されたピクセル値を検出し、参照バッファ125から参照値を、参照マップとして受信する。
参照ピクセル検出器121は、イメージデータIDTの対象ピクセルグループ及び参照マップを圧縮回路122に提供する。
圧縮回路122は、参照マップに基づいて対象ピクセルグループを圧縮する。
圧縮回路122は、バランスモード圧縮器BMC及びノーマルモード圧縮器NMCを備え、バランスモード圧縮器BMC及びノーマルモード圧縮器NMCは、互いに異なる圧縮方式(エンコーディング方式)を用いて、対象ピクセルグループを圧縮する。
ノーマルモード圧縮器NMCは、第1エンコーディングデータEDT1を出力し、バランスモード圧縮器BMCは、第2エンコーディングデータEDT2を出力する。
ノーマルモード圧縮器NMCは、参照マップに基づいて、DPCM方式で対象ピクセルグループをエンコーディングする。
実施形態において、ノーマルモード圧縮器NMCは、参照ピクセルの参照値と対象ピクセルのピクセル値との差値、及び対象ピクセルのピクセル値の間の差値を生成し、これら差値に基づいてビットストリームを生成する。
実施形態において、ノーマルモード圧縮器NMCは、対象ピクセルのピクセル値の平均値と参照ピクセルの参照値との差値、及び平均値と対象ピクセルのピクセル値との差値を生成し、これら差値に基づいてビットストリームを生成する。
ノーマルモード圧縮器NMCで生成されたビットストリームは、第1エンコーディングデータEDT1として出力される。
バランスモード圧縮器BMCは、図1を参照して前述したように、HVバランスエンコーディング方式で対象ピクセルグループをエンコーディングする。
図1を参照して前述したように、対象ピクセルのピクセル値を横方向又は垂直方向に平均化して平均値を生成し、平均値及び平均値とピクセル値との差を補償するためのバランス情報に基づいて、ビットストリームを生成する。
バランスモード圧縮器BMCで生成されたビットストリームは、第2エンコーディングデータEDT2として出力される。
この際、バランスモード圧縮器BMCは、上下に連続して配置された対象ピクセルのピクセル値を平均化するかどうか、又は左右に連続して配置された対象ピクセルのピクセル値を平均化するかどうか、言い換えれば、平均演算が行われる方向を定める。
バランスモード圧縮器BMCは、参照マップの参照値に基づいて平均演算が行われる方向を定める。
図3Aで、圧縮回路122は、バランスモード圧縮器BMC及びノーマルモード圧縮器NMCを備えるように示しているが、それに限定されるものではなく、圧縮回路122は、バランスモード圧縮器BMC及びノーマルモード圧縮器NMCと異なるエンコーディング方式で、対象ピクセルグループをエンコーディングする圧縮器をさらに備えてもよい。
モード選択器123は、圧縮回路122から受信する圧縮されているデータ、例えば、第1エンコーディングデータEDT1及び第2エンコーディングデータEDT2の内の一つを選択し、選択されたエンコーディングデータを、圧縮データCDTとして出力する。
モード選択器123は、第1エンコーディングデータEDT1及び第2エンコーディングデータEDT2を、それぞれエンコーディングされた方式によるデコーディング方式でデコーディングし、デコーディングによるエラー率に基づいて、第1エンコーディングデータEDT1及び第2エンコーディングデータEDT2の内の一つを選択する。
エラー率は、デコーディングされたデータ、言い換えれば、デコーディングされたピクセル値とデコーディング以前のピクセル値との差を意味し、差が小さいほどエラー率が低い。
エラー率が低いほど、イメージ処理装置200で生成される圧縮解除データDDT、言い換えれば、復元されたイメージデータの画質劣化が少ない。
よって、モード選択器123は、第1エンコーディングデータEDT1及び第2エンコーディングデータEDT2の内のエラー率の低いエンコーディングデータを圧縮データCDTとして選択し、圧縮データCDTを出力する。
実施形態において、ノーマルモード圧縮器NMC(又は他の別途の圧縮器)が対象ピクセルグループをエンコーディングして、エンコーディングされたデータ、例えば、第1エンコーディングデータEDT1を生成し、第1エンコーディングデータEDT1のエラー率が基準エラー率を超過する時、バランスモード圧縮器BMCが動作する。
バランスモード圧縮器BMCは、対象ピクセルグループをエンコーディングして、第2エンコーディングデータEDT2を生成する。
モード選択器123は、第1エンコーディングデータEDT1のエラー率が基準エラー率である時、第1エンコーディングデータEDT1を圧縮データCDTとして出力する。
モード選択器123は、第1エンコーディングデータEDT1のエラー率が基準エラー率を超過する時、オフセットモード圧縮器OMCから受信した第2エンコーディングデータEDT2を、圧縮データCDTとして出力する。
復元イメージ生成器124は、圧縮データCDTをデコーディングして、復元されたイメージデータ生成する。
復元イメージ生成器124は、圧縮データCDTに含まれる複数のビットストリームそれぞれを、エンコーディングされた方式に対応するデコーディング方式でデコーディングして、対象ピクセルグループのピクセル値を復元する。
復元されたピクセル値に対応するピクセルは、圧縮の行われる他の対象ピクセルグループの参照ピクセルとして用いられる。
参照バッファ125は、復元されたイメージデータを保存し、対象ピクセルグループの圧縮に用いられる参照ピクセルの参照値を、参照ピクセル検出器121に提供する。
一実施形態において、参照バッファ125は、ラインメモリで構成され、対象ピクセルグループの対象ピクセルの周りに位置している参照ピクセルを保存する。
一実施形態で、参照バッファ125は、DRAM又はSRAMのような揮発性メモリによっても具現される。
しかし、それに限定されるものではなく、参照バッファ125は、ReRAM、PRAMのような不揮発性メモリによっても具現される。
図3Bを参照すると、エンコーダ120aは、参照ピクセル検出器121、事前検出器126、圧縮回路122、モード選択器123、復元イメージ生成器124、及び参照バッファ125を備える。
図3Bのエンコーダ120と比べれば、エンコーダ120aは、事前検出器126をさらに備える。
参照ピクセル検出器121、圧縮回路122、モード選択器123、復元イメージ生成器124、及び参照バッファ125の動作は、図3Aを参照して説明したので、重複説明は省略する。
事前検出器126は、バランスモード圧縮器BMCを活性化又は非活性化させる。
実施形態において、事前検出器126は、参照ピクセルの参照値に基づいて、バランスモード圧縮器BMCを活性化又は非活性化させる。
例えば、参照値と対象ピクセルのピクセル値との差が、しきい値(又は特定コード値)以上であれば、バランスモード圧縮器BMCを活性化させ、しきい値未満であれば、バランスモード圧縮器BMCを非活性化させる。
実施形態において、事前検出器126は、レジスタを備え、レジスタに保存されている制御信号に基づいて、バランスモード圧縮器BMCを活性化又は非活性化させる。
例えば、制御信号は、イメージ処理装置200から受信する。
バランスモード圧縮器BMCが非活性化されれば、圧縮回路122に備えられる他の圧縮器、例えば、ノーマルモード圧縮器NMCが対象ピクセルグループをエンコーディングし、エンコーディングされたデータ、例えば、第1エンコーディングデータEDT1が圧縮データCDTとして出力される。
バランスモード圧縮器BMCが活性化されれば、圧縮回路122に備えられる少なくとも一部の圧縮器及びバランスモード圧縮器BMCが、対象ピクセルグループをそれぞれエンコーディングし、モード選択器123が、エンコーディングされたデータの内のエラー率の最も低いエンコーディングデータを、圧縮データCDTとして出力する。
実施形態において、バランスモード圧縮器BMCが活性化されても、圧縮回路122に備えられる圧縮器の内のバランスモード圧縮器BMCの優先順位が低い可能性がある。
例えば、ノーマルモード圧縮器NMCが、先に対象ピクセルグループをエンコーディングして第1エンコーディングデータEDT1を生成し、第1エンコーディングデータEDT1のエラー率が基準エラー率を超過する時、バランスモード圧縮器BMCが動作する。
バランスモード圧縮器BMCは、対象ピクセルグループをエンコーディングして、第2エンコーディングデータEDT2を生成する。
モード選択器123は、第1エンコーディングデータEDT1のエラー率が基準エラー率である時、第1エンコーディングデータEDT1を圧縮データCDTとして出力する。
モード選択器123は、第1エンコーディングデータEDT1のエラー率が基準エラー率を超過する時、オフセットモード圧縮器OMCから受信した第2エンコーディングデータEDT2を、圧縮データCDTとして出力する。
実施形態において、バランスモード圧縮器BMCが活性化されれば、圧縮回路122に備えられる他の圧縮器、例えば、ノーマルモード圧縮器NMCは非活性化され、バランスモード圧縮器BMCで生成された第2エンコーディングデータEDT2が、圧縮データCDTとして出力される。
これにより、エンコーダ120の消費電力が減少する。
図4は、本発明の一実施形態による参照マップを説明するための例示的な図である。
図4で、カッコの中の数字は、ピクセルの値、言い換えれば、ピクセル値又は参照値を示す。
図4を参照すると、イメージデータIDTは、複数のピクセルグループPGを備え、複数のピクセルグループPGが、設定された方向に沿って順次に圧縮される。
実施形態において、イメージデータIDTは、左から右、及び上から下に順次にピクセルグループPG単位で圧縮される。
しかし、それに限定されるものではなく、イメージデータIDTは、右から左、又は下から上に順次に圧縮されてもよい。
対象ピクセルグループTGにおいて、具体的には、対象ピクセルグループTGの対象ピクセル(T0、T1、T2、T3)について圧縮が行われる。
対象ピクセルグループTGは、圧縮が行われた周辺のピクセルグループPGの内の同じカラーに対応するピクセルグループPGに含まれるピクセルに基づいて圧縮される。
対象ピクセルグループTGの圧縮に用いられる周辺ピクセルは、参照ピクセルと指称される。
参照バッファ125に保存されている復元されたイメージデータRIDTの内の対象ピクセルグループTGに隣接している参照ピクセルの参照値が、参照マップRMとして生成される。
ここで参照値は、ピクセル値が圧縮された後、圧縮解除されることで生成された値を意味する。
例えば、参照マップRMは、参照ピクセル(例えば、R11、R12、R13、R14、R21、R22、R23、R24、R31、R32、R33、R34)の参照値を含む。
対象ピクセルグループTGは、参照マップRMに基づいて圧縮される。
例えば、対象ピクセルグループTG又は対象ピクセルグループTGの対象ピクセルT0は、隣接している参照ピクセル(R13、R14、R23、R24、R32、R34)の参照値の内の最も関連性の高い参照値、又は事前に定められている方向に隣接している参照ピクセルの参照値に基づいて、エンコーディングされる。
一方、対象ピクセルグループTGの対象ピクセル(T0、T1、T2、T3)のピクセル値と、参照ピクセルの参照値との差が大きくなる。
例えば、対象ピクセルT0のピクセル値は、283であり、隣接している参照ピクセル(R14、R23、R32)の参照値は、それぞれ137、148、127であり、しきい値が125と設定された場合、ピクセル値と参照値との差値が125以上であるため、対象ピクセルグループTGは、孤立領域に該当する。
このように、対象ピクセルグループTGが孤立領域に該当すれば、対象ピクセルグループTGは、HVバランスモードエンコーディング方式に基づいて圧縮される。
例えば、図3A、3Bのバランスモード圧縮器BMCが、HVバランスモードエンコーディング方式で対象ピクセルグループTGを圧縮し、この際、バランスモード圧縮器BMCは、対象ピクセルグループTGの周辺ピクセルを用いる。
図5は、本発明の一実施形態による圧縮方法を説明するためのフローチャートであり、図6A、図6B、図6C、図6Dは、図5の圧縮方法の段階を説明するための概念図である。
図5及び図6A~6Dの圧縮方法は、図3A及び図3Bのバランスモード圧縮器BMCで行われ得る。
対象ピクセル(T0、T1、T2、T3)のピクセル値は、互いに類似している。
バランスモード圧縮器BMCは、対象ピクセル(T0、T1、T2、T3)のピクセル値の類似性を用いて、HVバランスエンコーディング方式によって対象ピクセル(T0、T1、T2、T3)を圧縮し、この際、参照マップ(図4のRM)に含まれているピクセルグループの内の少なくとも一つのピクセルグループを用いる。
バランスモード圧縮器BMCが、参照マップRMのピクセルグループの内の対象ピクセルグループTGの左側に最も隣接しているピクセルグループの参照ピクセル(R31、R32、R33、R34)を用いて、対象ピクセルグループTGを圧縮すると仮定し、本発明の実施形態による圧縮方法を説明する。
図5を参照すれば、バランスモード圧縮器BMCは、対象ピクセルグループTGのピクセル値、及び参照ピクセルの参照ピクセル値を受信する(ステップS110)。
言い換えれば、バランスモード圧縮器BMCは、対象ピクセルグループTGを含むイメージデータIDT、及び参照ピクセルの参照値を含む参照マップRMを受信する。
対象ピクセルグループTGは、圧縮が行われるピクセルグループであって、圧縮が行われる対象ピクセル(T0、T1、T2、T3)を備え、対象ピクセル(T0、T1、T2、T3)それぞれのピクセル値を受信する。
参照ピクセルは、対象ピクセルグループの圧縮に用いられる対象ピクセルの周辺ピクセルである。
周辺ピクセルのピクセル値が圧縮された後で復元されて、参照値として生成される。
バランスモード圧縮器BMCは、HVバランスエンコーディング方式による平均演算が行われる方向(以下、平均方向という)を定める(ステップS120)。
図6Aを参照すると、バランスモード圧縮器BMCは、水平方向HDに平均演算が行われるかどうか、又は垂直方向VDに平均演算が行われるかどうかを決定する。
実施形態において、バランスモード圧縮器BMCは、参照ピクセル(R31、R32、R33、R34)に基づいて平均方向を定める。
例えば、バランスモード圧縮器BMCは、参照ピクセルの水平方向HDの差値RDh(例えば、対象ピクセルR31と対象ピクセルR32とのピクセル値の差値と参照値との差値)が、参照ピクセルの垂直方向VDの差値RDv(例えば、対象ピクセルR33と対象ピクセルR34との参照値の差値)以下であれば、水平方向HDを平均方向と定める。
逆に、バランスモード圧縮器BMCは、水平方向HDの差値RDhが垂直方向VDの差値RDvより大きければ、垂直方向VDを平均方向と定める。
他の例として、バランスモード圧縮器BMCは、参照ピクセルの水平方向HDの差値RDhと、対象ピクセルの水平方向HDの差値TDh(例えば、対象ピクセルT0と対象ピクセルT1とのピクセル値の差値)との差値(例えば、RDh-TDhの絶対値)が、参照ピクセルの垂直方向VDの差値RDvと、対象ピクセルの垂直方向VDの差値(TDv)(例えば、対象ピクセルT0と対象ピクセルT3とのピクセル値の差値)との差値(例えば、RDv-TDvの絶対値)以下であれば、水平方向HDを平均方向と定め、逆の場合には、垂直方向VDを平均方向と定める。
しかし、本発明はこれに限定されるものではなく、バランスモード圧縮器BMCは、多様な方式で平均方向を定めることができる。
実施形態において、バランスモード圧縮器BMCは、予め設定された方向を平均方向と定める。
次いで、図5を参照すると、バランスモード圧縮器BMCは、定められた平均方向に沿って対象ピクセルのピクセル値を平均化する(ステップS130)。
図6Bに示すように、水平方向HDが平均方向と定められた場合、バランスモード圧縮器BMCは、対象ピクセルT0と対象ピクセルT1のピクセル値を平均化し、対象ピクセルT2と対象ピクセルT3のピクセル値を平均化する。
これにより、対象ピクセルT0と対象ピクセルT1の平均値AVGh0である287(=(283+291)/2)、及び対象ピクセルT2とT3の平均値AVGh1である300(≒298+301)/2)が算出される。
図6Cに示すように、垂直方向VDが平均方向と定められた場合、バランスモード圧縮器BMCは、対象ピクセルT0と対象ピクセルT2のピクセル値を平均化し、対象ピクセルT1と対象ピクセルT3のピクセル値を平均化する。これにより、対象ピクセルT0とT2の平均値AVGv0である291(≒(283+298)/2)、及び対象ピクセルT1及びT3の平均値AVGv1である296(=291+301)/2)が算出される。
バランスモード圧縮器BMCは、参照ピクセルに基づいてバランス情報を生成する(ステップS140)。
平均値は、ピクセル値と差がある。
バランスモード圧縮器BMCは、平均値とピックセル値との差を補償するためにバランス情報を生成する。
バランス情報は、平均値とピクセル値との差を補償するための情報であって、デコーディング時に周辺ピクセルの参照値の間の差値(具体的には、差値の絶対値)を平均値に適用して、ピクセル値を復元するかどうかを示す選択値、及びどのようなピクセルにおいて、平均値に差値(又は予め設定されたデフォルト値)を加算するか、又は減算するかを示す勾配値を含み得る。
図6Dを参照すると、平均方向が水平方向HDと定められた場合、バランスモード圧縮器BMCは、参照ピクセルR31と参照ピクセルR32との差値Rd0、及び対象ピクセル、例えば、対象ピクセルT0と対象ピクセルT1との差値Td0を算出し、差値Rd0と差値Td0とを比べて対象ピクセルT0及びT1をデコーディングする時、差値Rd0を補償値として適用するかどうかを示す第1選択値を定める。
例えば、バランスモード圧縮器BMCは、参照ピクセルの差値Rd0が「0」ではなく、参照ピクセルの差値Rd0が対象ピクセルの差値Td0以下であれば、参照ピクセルの差値Rd0が補償値として適用されることを示す第1選択値、例えば、コード値「1」を定める。
バランスモード圧縮器BMCは、参照ピクセルの差値Rd0が対象ピクセルの差値Td0より大きいか、又は参照ピクセルの差値Rd0が「0」であれば、参照ピクセルの差値Rd0が補償値として適用されないことを示す第1選択値、例えば、コード値「0」を定める。
この際、予め設定されたデフォルト値が、補償値として適用されうる。
平均値の損失程度によって、最適の補償値がデフォルト値と設定される。
例えば、ビットストリームで平均値が4ビットほど損失される場合、デフォルト値が「4」に設定される。
デコーディング時に、対象ピクセルの差値Td0より大きい参照ピクセルの差値Rd0が補償値として適用される場合に、対象ピクセルの復元されたピクセル値(すなわち、デコーディングされたピクセル値)と、本来のピクセル値(すなわち、エンコーディング前のピクセル値)との差が、却って平均値と本来のピクセル値との差より大きくなる可能性がある。
また、参照ピクセルの差値Rd0が「0」である場合、参照ピクセルの差値Rd0が補償値として適用されれば、平均値と本来のピクセル値との差を補償することができない。
よって、参照ピクセルの差値Rd0が対象ピクセルの差値Td0より大きいか、又は参照ピクセルの差値Rd0が「0」であれば、バランスモード圧縮器BMCが第1選択値をコード値「0」と定め、デコーディング時に第1選択値のコード値「0」によって、参照ピクセルの差値Rd0の代わりにデフォルト値が補償値として適用される。
バランスモード圧縮器BMCは、対象ピクセルT0及びT1の内のいかなるピクセルの値がさらに大きいかを示す第1勾配値を定める。
言い換えれば、第1勾配値は、対象ピクセルT0及びT1の内のいかなるピクセルについて、平均値に差値を加算するか、又は減算するかを示す。
例えば、第1勾配値がコード値「0」であれば、対象ピクセルT0のピクセル値が対象ピクセルT1のピクセル値より大きく、勾配値がコード値「1」であれば、対象ピクセルT1のピクセル値が対象ピクセルT0のピクセル値より大きいということを示す。
これにより、第1勾配値が「0」であれば、デコーディング時に平均値(図6BのAVGh0)に補償値(差値Rd0又はデフォルト値)が加えられた値が、対象ピクセルT0のピクセル値であって、平均値AVGh0から補償値が差引かれた値が対象ピクセルT1のピクセル値に復元される。
前述したのと同様にして、バランスモード圧縮器BMCは、参照ピクセルR33と参照ピクセルR34との差値Rd1、及び対象ピクセルT2と対象ピクセルT3との差値Td1を算出し、差値Rd1と差値Td1とを比べて対象ピクセルT2及び対象ピクセルT3をデコーディングする時、差値Rd1を適用するかどうかを示す第2選択値を定める。
また、バランスモード圧縮器BMCは、対象ピクセルT2及びT3の勾配を示す第2勾配値を定める。
平均方向が垂直方向VDと定められた場合、バランスモード圧縮器BMCは、前述したところと同様の方式でバランス情報を生成する。
次いで、図5を参照すると、バランスモード圧縮器BMCは、平均値、バランス情報、及び圧縮情報を含むビットストリームを生成する(ステップS150)。
一方、図13Aを参照して説明したように、圧縮方法は、ビットストリームが生成された後、ビットストリームを圧縮解除し、復元されたピクセル値を生成する段階と、復元されたピクセル値に基づいて、対象ピクセルグループ以後に圧縮が行われる、次の対象ピクセルグループの圧縮に用いられる参照ピクセルを含む、復元されたイメージデータを生成する段階と、をさらに含んでもよい。
図7A及び図7Bは、本発明の一実施形態によるビットストリームを示す図である。
圧縮が行われる前の対象ピクセル(例えば、T0、T1、T2、T3)のピクセル値は、10個のビットを含むデータで表現され、50%の圧縮率で対象ピクセルグループTGが圧縮されることで、ビットストリームBSa及びビットストリームBSbが、20個のビットを含むデータであると仮定する。
図7A及び図7Bを参照すると、ビットストリーム(BSa、BSb)は、ヘッダHD及びデータブロックDBを備える。
ヘッダHDは、圧縮情報、例えば、圧縮に用いられたエンコーディング方式(例えば、DPCM方式、HVバランスエンコーディング方式など)を含むモード情報、圧縮率、損失情報などを含み、データブロックDBは、対象ピクセル(T0、T1、T2、T3)のピクセル値による情報、例えば、複数の平均値及び平均値に関するバランス情報を含む。
ビットストリーム(BSa、BSb)が、圧縮データCDTとしてイメージ処理装置(図1の符号200)に伝送されれば、デコーダ(図1の符号230)は、ヘッダHDに含まれるモード情報に基づいて、圧縮方法(言い換えれば、エンコーディング方式)を判断し、圧縮方法に対応する圧縮解除方法(言い換えれば、デコーディング方式)及びデータブロックDBに含まれる情報に基づいて、ビットストリーム(BSa、BSb)をデコーディングすることで、圧縮データCDTを圧縮解除する。
ヘッダHDは、第17ビット~第20ビット(B16~B19)に割り当てられる。
ヘッダHDに4個ビットが割り当てられることで、ヘッダHDは、2の4乗(=16)個のモード情報の内の一つを含む。
データブロックDBは、第1ビット~第16ビット(B0~B15)に割り当てられ、データブロックDBは、二つの平均領域(AVE0、AVE1)、バランス情報領域BIFを備える。
二つの平均領域(AVE0、AVE1)は、それぞれ6個のビットに割り当てられ、第1平均領域AVE0は、第11ビット~第16ビット(B10~B15)に割り当てられ、第2平均領域AVE1は、第5ビット~第10ビット(B5~B9)に割り当てられる。
第1平均領域AVE0及び第2平均領域AVE1には、対象ピクセルの平均値(AVGh0、AVGh1)(又はAVGv0、AVGv1)が含まれる。
バランス情報領域BIFは、4個のビットに割り当てられ、第1ビット~第4ビット(B0~B3)に割り当てられる。
図7Aを参照すると、バランス情報領域BIFには、勾配値S0、第2勾配値S1、第1選択値b0、及び第2選択値b1が含まれる。
この際、平均方向に関する情報は、モード情報であって、ヘッダHDに含まれる。
図7Bを参照すると、平均方向に関する情報Hがバランス情報領域BIFに含まれる。
バランス情報領域BIFには、平均方向に関する情報D、勾配値S、第1選択値b0、及び第2選択値b1が含まれる。
対象ピクセル(T0、T1)(又はT0、T2)と、対象ピクセル(T2、T3)(又はT1、T3)とについて、同じ勾配値Sが適用される。
例えば、勾配値Sがコード値「1」であれば、エンコーディング時に対象ピクセル(T0、T1)の内の対象ピクセルT1について、平均値(例えば、AVGh0)に補償値(例えば、図6Dの差値Rd0又はデフォルト値)が加えられ、対象ピクセルT1について、平均値から補償値が差引かれる。
また、対象ピクセル(T2、T3)の内の対象ピクセルT3について、平均値(例えば、AVGh1)に補償値(例えば、図6Dの差値Rd1又はデフォルト値)が加えられ、対象ピクセルT2について、平均値から補償値が差引かれる。
図8は、本発明の一実施形態による圧縮方法の比較例による圧縮方法を説明するための概念図である。
図8は、参照マップRMを用いるDPCM方式による圧縮方法を示し、例えば、ノーマルモード圧縮器(図3A及び図3BのNMC)で行われる。
図8を参照すると、ノーマルモード圧縮器NMCは、参照マップRMに含まれる少なくとも一つの参照ピクセルの参照値に基づいて、対象ピクセルグループTGの対象ピクセル(T0、T1、T2、T3)を圧縮する。
例えば、参照マップRMの参照ピクセルR32が、対象ピクセルグループTGの圧縮に用いられる。
ノーマルモード圧縮器NMCは、参照ピクセルR32の参照値と、対象ピクセルT0のピクセル値との差値d0を算出する。
例えば、ピクセル値である283から、参照値である127が差引かれ、差値d0は、156である。
この際、ピクセル値が補償参照値より小さい場合、差値d0は負の値を持つ。
又は、補償参照値からピクセル値が差引かれて、差値d0が生成される。
ノーマルモード圧縮器NMCは、対象ピクセル(T0、T1、T2、T3)の間の差値(d1、d2、d3)を算出する。
差値(d1、d2、d3)は、それぞれ78(=361-283)、-41(=320-361)、及び82(=402-320)である。
バランスモード圧縮器BMCは、参照ピクセルR32の参照値と対象ピクセルT0のピクセル値との差値d0、及び対象ピクセル(T0、T1、T2、T3)の間の差値(d1、d2、d3)に基づいて、対象ピクセルグループTGについてのビットストリームBS’を生成する。
ビットストリームBS’は、ヘッダHD及びデータブロックDBを備え、データブロックDBは、複数の残余領域、例えば、第1~第4残余領域(RD0、RD1、RD2、RD3)を備える。
例えば、図5で算出された差値(d0、d1、d2、d3)が、第1~第4残余領域(RD0、RD1、RD2、RD3)にそれぞれ含まれる。
非制限的な例として、ビットストリームBSaに含まれる値(例えば、差値)は、最上位符号ビット表示法を通じて、負数及び正数で表現される。
第1~第4残余領域(RD0、RD1、RD2、RD3)は、同数のビットに割り当てられる。
例えば、第1ビット~第4ビット(B0~B3)に第4残余領域RD3が割り当てられ、第5ビット~第8ビット(B4~B7)に第3残余領域RD2が割り当てられ、第9ビット~第12ビット(B8~B11)に第2残余領域RD1が割り当てられ、第13ビット~第16ビット(B12~B15)に第1残余領域RD0が割り当てられる。
一方、差値d0は、156であり、差値(d1、d2、d3)は、それぞれ78、-41、及び82である。
差値(d1、d2、d3)は、同様に同じ数のビット(例えば、絶対値を示す7個のビット、及び符号を示す1個のビットを含む8個のビット)で表現される。
しかし、差値d0は、差値(d1、d2、d3)との差が大きく、差値d0の絶対値を示すためには8個のビットが要求される。
しかし、第1~第4残余領域(RD0、RD1、RD2、RD3)は、同一数のビットに割り当てられたところ、孤立領域のピクセルグループTGについてノーマルモード圧縮器NMCが、本比較例による圧縮方法に基づいて圧縮を行う場合、多量のデータ損失が発生する恐れがある。
よって、本発明の実施形態によるイメージセンサモジュール(図1の符号100)は、対象ピクセルグループTGが孤立領域に該当する場合、対象ピクセルグループTGについて、HVバランスエンコーディング方式に基づいて圧縮を行って圧縮損失を低減させ、圧縮効率を向上させることができる。
図9は、本発明の一実施形態によるイメージデータ及び参照マップを例示的に説明するための図である。
図9で、イメージデータIDTaは、ベイヤーパターンを含む。
実施形態において、連続して配置された4個のピクセル単位で、ピクセルグループPGが設定される。
実施形態において、ピクセルグループPGは、2個のレッドピクセル及び2個のグリーンピクセルを備えるか、又は2個のブルーピクセル及び2個のグリーンピクセルを備える。
ピクセルグループPG単位で圧縮が行われ、対象ピクセルグループTGに優先して圧縮され、対象ピクセルグループTGに隣接しているピクセルグループPGの内の同じ色相に対応するピクセルグループPGの参照ピクセル(例えば、R11、R12、R13、R14、R21、R22、R23、R24、R31、R32、R33、R34)の参照値が、ターゲットピクセルグループTGの圧縮に用いられる参照マップRMとして生成される。
対象ピクセルグループTG及び参照ピクセル(R11、R12、R13、R14、R21、R22、R23、R24、R31、R32、R33、R34)のピクセル値は、相当な差があり、対象ピクセルグループTGが孤立領域に該当すると判断される。
これにより、対象ピクセルグループTGは、HVバランスエンコーディング方式に基づいて圧縮される。
図10は、本発明の一実施形態による圧縮方法を説明するための概念図である。
図10の圧縮方法は、図9のイメージデータIDTaについて、参照マップVRMを用いて行われる。
図10を参照すると、バランスモード圧縮器(図3AのBMC)は、参照マップVRMに含まれる少なくとも一つの参照ピクセルの参照値に基づいて、対象ピクセルグループTGの対象ピクセル(T0、T1、T2、T3)を圧縮する。
例えば、参照マップRMの参照ピクセル(R31、R32、R33、R34)が、対象ピクセルグループTGの圧縮に用いられる。
圧縮が行われる時に、対象ピクセルと同じ色相の参照ピクセルが用いられる。
ピクセルグループPGが水平方向に連続して配置された4個のピクセルを含むため、バランスモード圧縮器BMCは、水平方向を平均方向と定めることができる。
バランスモード圧縮器BMCは、同じ色相に対応する対象ピクセルT0と対象ピクセルT2のピクセル値を平均化して、第1平均値AVGh0を算出し、同じ色相に対応する対象ピクセルT1と対象ピクセルT3のピクセル値を平均化して、第2平均値AVGh1を算出する。
バランスモード圧縮器BMCは、参照ピクセルR31と参照ピクセルR33の参照値の差値Rd0、及び対象ピクセルT0と対象ピクセルT2のピクセル値の差値Td0に基づいて、対象ピクセルT0と対象ピクセルT2に関するバランス情報、例えば、第1選択値及び第1勾配値を生成する。
バランスモード圧縮器BMCは、参照ピクセルR32と参照ピクセルR34の参照値の差値Rd1、及び対象ピクセルT1と対象ピクセルT3のピクセル値の差値Td1に基づいて、対象ピクセルT1と対象ピクセルT3に関するバランス情報、例えば、第2選択値及び第2勾配値を生成する。
バランスモード圧縮器BMCは、参照ピクセルR33の補償参照値と対象ピクセルT0との差値d0を算出し、また、対象ピクセルT0と対象ピクセルT2のピクセル値の間の差値d1を算出する。
また、バランスモード圧縮器BMCは、参照ピクセルR34の補償参照値と対象ピクセルT1との差値d2を算出し、また、対象ピクセルT2と対象ピクセルT3のピクセル値の間の差値d3を算出する。
バランスモード圧縮器BMCは、差値(d0、d1、d2、d3)に基づいて、ビットストリームBSを生成する。
差値(d0、d1、d2、d3)は、ビットストリームBSのデータブロックDBに含まれる。
バランスモード圧縮器BMCは、算出された平均値(AVGh0、AVGh1)とバランス情報とに基づいて、ビットストリーム(例えば、図7AのBSa又は図7BのBSb)を生成する。
図11A及び図11Bは、本発明の一実施形態によるイメージセンサモジュールの概略構成を示すブロック図である。
図11Aを参照すると、イメージセンサモジュール100は、イメージセンサ110、処理ロジック150、エンコーダ120及びインターフェース130を備える。
イメージセンサ110は、ピクセルアレイPXAと、駆動及び読取り回路DRCと、を備える。
前述したように、ピクセルアレイPXAは、行列に配置された複数のピクセルPXを備える。
駆動及び読取り回路DRCは、ピクセルアレイPXAを制御し、ピクセルアレイPXAから受信されたピクセル信号を、ピクセル値に変換する。
駆動及び読取り回路DRCは、受信したピクセル信号それぞれに対応するピクセル値を含む、原イメージデータRDTを生成する。
処理ロジック150は、原イメージデータRDTについて前処理を行う。
例えば、前処理は、不良ピクセル補正、クロストーク補正、ノイズ除去、ビニング、サイズ変更、色空間の変換などのイメージ処理を含み得る。
エンコーダ120は、処理ロジック150から受信したイメージデータIDT(又は、原イメージデータRDT)を圧縮して、圧縮データCDTを生成する。
エンコーダ120は、イメージデータIDTをピクセルグループ単位で圧縮し、圧縮が行われた周辺ピクセルグループを用いて、圧縮が行われる対象ピクセルグループを圧縮する。
前述したように、対象ピクセルグループが孤立領域に該当する場合、エンコーダ120は、HVバランスエンコーディング方式を用いて対象ピクセルグループを圧縮する。
圧縮データCDTは、インターフェース130に提供され、インターフェース130は、圧縮データCDTをイメージ処理装置(図1の符号200)に伝送する。
図11Bを参照すると、イメージセンサモジュール100aは、メモリ160をさらに備える。
メモリ160は、DRAM、SRAMのような揮発性メモリ、又はPRAM、ReRAM、MRAM、フラッシュメモリのような不揮発性メモリを含む。
エンコーダ120で生成された圧縮データCDTは、メモリ160に保存される。
圧縮データCDTは、メモリ160から読み取られて、インターフェース130を通じて出力される。
図12は、本発明の一実施形態によるデコーダの概略構成を示すブロック図である。
デコーダ230は、エンコーダ(図1の符号120)がイメージデータIDTをエンコーディングするために経る一連の工程を、逆順に行うことで、圧縮データCDTを圧縮解除して、圧縮解除データDDT、例えば、復元されたイメージデータを生成する。
デコーダ230は、エンコーダ220で使われたエンコーディング方法に対応するデコーディング方法を用いて、圧縮データCDTを圧縮解除する。
デコーダ230は、ビットストリーム単位で、圧縮データCDTをデコーディングする。
デコーダ230は、参照ピクセル検出器231、モード決定器232、圧縮解除器233、参照バッファ234を備える。
参照ピクセル検出器231は、圧縮データCDTを受信し、参照バッファ234から、イメージデータCDTに含まれるビットストリームの内の圧縮解除が行われる対象ビットストリームの圧縮解除に用いられる参照マップを受信する。
参照マップは、参照対象ビットストリームと係わるピクセルグループの周辺ピクセル、言い換えれば、参照ピクセルの参照値を含む。
参照ピクセル検出器231は、参照バッファ235に保存されている、復元されたイメージデータから、対象ピクセルグループと位置的に隣接している参照ピクセルの参照値、言い換えれば、参照ピクセルの復元されたピクセル値を検出し、参照バッファ235から参照値を、参照マップとして受信する。
参照ピクセル検出器121は、圧縮データCDTの対象ビットストリーム及び参照マップを、モード決定器232又は圧縮解除器233に提供する。
モード決定器232は、ビットストリームのヘッダを解読し、解読結果として、モード情報、圧縮率、損失情報などを定める。
本発明の一実施形態によれば、モード決定器232は、ヘッダを解読した結果から、HVバランスエンコーディング方式又は他のエンコーディング方式(例えば、DPCM方式)で圧縮が行われたことを知る。
圧縮解除器233は、決定された圧縮モード、圧縮率、損失情報などに基づいて、ビットストリームから対象ピクセルを復元する。
本発明の一実施形態によれば、圧縮解除器233は、ヘッダを解読した結果から、HVバランスエンコーディング方式によりビットストリームが生成されたと判断されれば、ビットストリームのデータブロックから平均値及びバランス情報を確認し、平均値にバランス情報に基づいて補償値を適用して、圧縮されたピクセルのピクセル値を復元する。
ビットストリームのデコーディングによって生成されたピクセルグループが、圧縮解除データDDTとして出力される。
参照バッファ234は、圧縮解除データDDT、言い換えれば、復元されたイメージデータを保存する。
実施形態において、参照バッファ234は、復元されたイメージデータの内の次に圧縮解除されるビットストリームに対応するピクセルグループを保存する。
実施形態において、イメージ処理装置(図1の符号200)に備えられるメモリ又はバッファ(例えば、メモリ220)が、参照バッファ234として用いられる。
図13は、本発明の一実施形態によるイメージ処理システムの概略構成を示すブロック図である。
図13は、図1のイメージ処理システム10の変形可能な実施形態を示す。
図13を参照すると、イメージ処理システム10bは、イメージセンサモジュール100bと、イメージ処理装置200bと、を備える。
イメージセンサモジュール100bは、イメージセンサ110と、インターフェース130と、を備える。
イメージセンサモジュール100bは、メモリをさらに備える。
イメージ処理装置200bは、インターフェース210、エンコーダ250、デコーダ230、イメージ信号処理器240、及びメモリ220を備える。
図13のエンコーダ250は、図1のエンコーダ120に対応する。
図13のイメージ処理システム10bと図1のイメージ処理システム10とを比べれば、イメージセンサモジュール100bではないイメージ処理装置200bが、エンコーダ250を備え、イメージ処理装置200bが、イメージデータIDTを圧縮する。
残りの構成は、実質的に相等しい。
イメージ処理システム10bの構成の内の図1のイメージ処理システム10の構成と重なる構成についての説明は、省略する。
図13を参照すると、イメージセンサ110bは、イメージデータIDT(原イメージデータ又は前処理されたイメージデータ)を生成する。
イメージデータIDTは、インターフェース130を通じて、イメージ処理装置200bに伝送される。
イメージ処理装置200bは、イメージセンサモジュール100bからイメージデータIDTを受信し、イメージデータIDTを圧縮して、圧縮データCDTをメモリ260に保存する。
次いで、デコーダ230が、メモリ260に保存されている圧縮データCDTを読み取り、圧縮データCDTを圧縮解除する。
デコーダ230は、圧縮解除データCDT、例えば、復元されたイメージデータを、イメージ信号プロセッサ240に提供する。
前述したように、ピクセルグループ単位で圧縮及び圧縮解除が行われ、イメージデータCDTの孤立領域に該当するピクセルグループは、HVバランスエンコーディング方式に基づいて圧縮又は圧縮解除される。
図14は、本発明の一実施形態による圧縮情報を示す表である。
図14は、IPI(Mobile Industry Processor Interface)連合が提示する標準による圧縮モード(圧縮方法)を、例示的に説明する。
図14を参照すると、テトラパターンのイメージデータ(図2のIDT)が、多様な圧縮モードによって圧縮される。
一方、本発明はそれに限定されず、n×n行列に配置されたピクセルを含むレッドピクセルグループ、ブルーピクセルグループ、第1グリーンピクセルグループ、及び第2ピクセルグループが繰り返して配置されるイメージデータも、多様な圧縮モードで圧縮される。
圧縮モードとして、AD(Average-based Directional Differential)モード、eMPD(extended Multi-Pixel-based Differential)モード、eHVD(extended Horizontal or Vertial Direction-based Differential)モード、eHVA(extended Horizontal or Vertical Average-based Differential)モード、OD(Oblique Direction-based Differential)モード、eOUT(extended OUTlier compensation)モード、OUTモード、及びFNR(Fixed quantization and No-Refeence)モードが用いられる。
一方、前述した圧縮モードの名称は、一例に過ぎず、本発明は、前述した例に限定されない。
ADモードで、対象ピクセルグループについて、DPCM方式でエンコーディングが行われる。
例えば、対象ピクセルグループのピクセル値の平均値と、参照ピクセルの参照値との差値、及びピクセル値それぞれと平均値との差値に基づいて、ビットストリーム(例えば、図7のBSc)が生成される。
ADモードは、細部的な具現アルゴリズムによって、MODE0、MODE1、MODE2、MODE3に区分される。
圧縮方法を示すヘッダに4ビットが割り当てられるため、16個の圧縮モードは、それぞれ互いに異なるビットでヘッダ情報を表現する。
例えば、MODE0は、ビット「0000」で、MODE1はビット「0001」で、MODE2はビット「0010」で、MODE3はビット「0011」でそれぞれ表現される。
ODモードは、対角線構造のイメージデータIDTを圧縮する。
ODモードは、細部的な具現アルゴリズムによって、MODE4(ビット「0100」)、MODE5(ビット「0101」)に区分される。
これと同様に、eMPDモードは、MODE8(ビット「1000」)、MODE9(ビット「1001」)、MODE10(ビット「1010」)、及びMODE11(ビット「1011」)を含み、eHVDモードは、MODE12(ビット「1100」)及びMODE13(ビット「1101」)を含む。
eHVAモードは、MODE14(ビット1110)を含む。
本発明の一実施形態によるHVバランスモードがeHVAモードに該当し、バランスモード圧縮器(図3AのBMC)が、eHVAモードを示すヘッダを備えるビットストリームを生成する。
eOUTモードは、MODE15(「1111」)を含み、OUTモードはMODE7(「0111」)を含む。
FNRモードは、MODE6(ビット「0110」)を含む。
実施形態において、レジスタに保存されている値によって、MODE7(「0111」)は、eOUTモードに含まれる。
一実施形態で、モード選択器(図3A及び図3Bの符号123)は、ADモード、eMPDモード、eHVDモード、eHVAモード、ODモード、eOUTモード、及びFNRモードを順次に評価し、圧縮率、損失情報などの圧縮評価指標によって、最適のモードを選択する。
しかし、本発明の技術的思想は、提示されたモード評価手順に制限されるものではない。
図15Aは、本発明の一実施形態によるマルチカメラモジュールを備える電子装置の概略構成を示すブロック図であり、図15Bは、図15Aのカメラモジュールの詳細構成を示すブロック図である。
図15Aを参照すると、電子装置1000は、カメラモジュールグループ1100と、アプリケーションプロセッサ1200と、PMIC1300と、外部メモリ1400と、を備える。
カメラモジュールグループ1100は、複数のカメラモジュール(1100a、1100b、1100c)を備える。
たとえば図には、3個のカメラモジュール(1100a、1100b、1100c)が配置された実施形態を示しているが、本発明はこれに制限されるものではない。
いくつかの実施形態で、カメラモジュールグループ1100は、2個のカメラモジュールのみを備えるか、又は、k個(kは、4以上の自然数)のカメラモジュールを備えるように変形して実施することもできる。
以下、図15Bを参照して、カメラモジュール1100bの詳細構成についてさらに具体的に説明するが、以下の説明は、実施形態によって、他のカメラモジュール1100a及び1100cにも同じく適用される。
図15Bを参照すると、カメラモジュール1100bは、プリズム1105、光路折り畳み要素(Optical Path Folding Element、以下、“OPFE”)1110、アクチュエータ1130、イメージセンシング装置1140、及び保存部1150を備える。
プリズム1105は、光反射物質の反射面1107を備えて、外部から入射される光Lの経路を変形させる。
一実施形態で、プリズム1105は、第1方向(X)に入射される光Lの経路を、第1方向(X)に垂直の第2方向(Y)に変更させる。
また、プリズム1105は、光反射物質の反射面1107を、中心軸1106を中心としてA方向に回転させるか、又は中心軸1106をB方向に回転させて、第1方向(X)に入射される光Lの経路を、第1方向(X)に垂直の第2方向(Y)に変更させる。
この際、OPFE1110も、第1方向(X)及び第2方向(Y)に垂直の第3方向(Z)に移動する。
一実施形態で、図に示したように、プリズム1105のA方向の最大回転角度は、プラス(+)A方向には15°以下であり、マイナス(-)A方向には15°より大きいが、本実施形態がこれに制限されるものではない。
一実施形態で、プリズム1105は、プラス(+)又はマイナス(-)B方向に20°内外、又は10°~20°、又は15°~20°の間で動き、ここで、動く角度は、プラス(+)又はマイナス(-)B方向に同じ角度で動くか、又は1°前後の範囲でほぼ類似した角度まで動く。
一実施形態で、プリズム1105は、光反射物質の反射面1106を、中心軸1106の延長方向と平行な第3方向(例えば、Z方向)に移動させる。
一実施形態で、カメラモジュール1100bは、2個以上のプリズムで構成され、これを通じて、第1方向(X)に入射される光Lの経路を、第1方向(X)に垂直な第2方向(Y)に、再び第1方向(X)あるいは第3方向(Z)に、そして再び第2方向(Y)などに多様に変化させる。
OPFE1110は、例えば、m(ここで、mは自然数)個のグループからなる光学レンズを備える。
M個のレンズは、第2方向(Y)に移動して、カメラモジュール1100bの光学ズーム倍率を変更する。
例えば、カメラモジュール1100bの基本光学ズーム倍率をZとすれば、OPFE1110に備えられているm個の光学レンズを移動させる場合、カメラモジュール1100bの光学ズーム倍率は、3Z又は5Z又は5Z以上の光学ズーム倍率に変更される。
アクチュエータ1130は、OPFE1110又は光学レンズ(以下、光学レンズと指称)を特定位置に移動させる。
例えば、アクチュエータ1130は、正確なセンシングのために、イメージセンサ1142が光学レンズの焦点距離(focal length)に位置するように、光学レンズの位置を調整する。
イメージセンシング装置1140は、イメージセンサ1142と、制御ロジック1144と、メモリ1146とを備える。
図1のイメージセンサモジュール100、又は図13のイメージセンサモジュール100bが、イメージセンシング装置1140として適用される。
イメージセンサ1142は、光学レンズを通じて提供される光Lを用いて、センシング対象のイメージをセンシングする。
制御ロジック1144は、カメラモジュール1100bの全般的な動作を制御し、センシングされたイメージを処理する。
例えば、制御ロジック1144は、制御信号ラインCSLbを通じて提供された制御信号によって、カメラモジュール1100bの動作を制御し、センシングされたイメージから、特定イメージに該当するイメージデータ(例えば、イメージ内の人の顔、腕、足など)を抽出するか、又はノイズ除去などのイメージ処理を行う。
実施形態において、制御ロジック1144は、エンコーダ(図1の符号120)を備え、センシングされたイメージ、又はイメージ処理されたイメージを圧縮する。
前述したように、エンコーダ120は、イメージをピクセルグルー位で圧縮し、孤立領域のピクセルグループを、HVバランスエンコーディング方式で圧縮する。
メモリ1146は、較正データ1147のようなカメラモジュール1100bの動作に必要な情報を保存する。
較正データ1147は、カメラモジュール1100bが、外部から提供された光Lを用いて、イメージデータを生成するときに必要な情報であって、例えば、回転度に関する情報、焦点距離に関する情報、光学軸に関する情報などを含む。
カメラモジュール1100bが、光学レンズの位置によって焦点距離が変わるマルチステート(multi state)カメラ形態に具現される場合、較正データ1147は、光学レンズのそれぞれの位置別(又はステート別)焦点距離値と、オートフォーカシングに関する情報とを含む。
一実施形態において、圧縮されたデータが、メモリ1146に保存される。また、メモリ1146は、エンコーダ120の参照バッファ125として用いられる。
保存部1150は、イメージセンサ1142を通じてセンシングされたイメージデータを保存する。
保存部1150は、イメージセンシング装置1140の外部に配置され、イメージセンシング装置1140を構成するセンサチップと積層された形態に具現される。
一実施形態で、イメージセンサ1142は、第1のチップで構成され、制御ロジック1144と保存部1150とメモリ1146とは、第2のチップで構成されて、二つのチップが積層された形態にも具現される。
一実施形態で、保存部1150は、EEPROM(Electrically Erasable Programmable Read-Only memory)に具現されるが、本実施形態は、これに制限されるものではない。
一実施形態で、イメージセンサ1142は、ピクセルアレイによって構成されており、制御ロジック1144は、アナログ・デジタル・コンバータ(Analog to digital converter)と、センシングされたイメージ処理のためのイメージ信号処理部と、を備える。
図15A及び図15Bを共に参照すると、いくつかの実施形態で、複数のカメラモジュール(1100a、1100b、1100c)それぞれは、アクチュエータ1130を備える。
これにより、複数のカメラモジュール(1100a、1100b、1100c)それぞれは、その内部に備えられているアクチュエータ1130の動作によって、相等しいか、又は互いに異なる較正データ1147を備える。
一実施形態で、複数のカメラモジュール(1100a、1100b、1100c)の内の一つのカメラモジュール(例えば、1100b)は、前述したプリズム1105及びOPFE1110を備える折り畳んだレンズ(folded lens)形態のカメラモジュールであり、残りのカメラモジュール(例えば、1100a及び1100c)は、プリズム1105及びOPFE1110を備えていない垂直形態のカメラモジュールであり得るが、これに制限されるものではない。
一実施形態で、複数のカメラモジュール(1100a、1100b、1100c)の内の一つのカメラモジュール(例えば、1100c)は、例えば、IR(Infrared Ray)を用いてデプス(depth)情報を抽出する垂直形態のデプスカメラである。
この場合、アプリケーションプロセッサ1200は、このようなデプスカメラから提供されたイメージデータと、他のカメラモジュール(例えば、1100a又は1100b)から提供されたイメージデータとを併合して、三次元深度イメージを生成する。
一実施形態で、複数のカメラモジュール(1100a、1100b、1100c)の内の少なくとも二つのカメラモジュール(例えば、1100a及び1100b)は、互いに異なる観測視野(Field of View、視野角)を持つ。
この場合、例えば、複数のカメラモジュール(1100a、1100b、1100c)の内の少なくとも二つのカメラモジュール(例えば、1100a及び1100b)の光学レンズが互いに異なるが、これに制限されるものではない。
また、一実施形態で、複数のカメラモジュール(1100a、1100b、1100c)それぞれの視野角は互いに異なる。
例えば、カメラモジュール1100aは、ウルトラワイド・カメラであり、カメラモジュール1100bは、ワイド・カメラであり、カメラモジュール1100cは、テレ・カメラであるが、それに限定されるものではない。
この場合、複数のカメラモジュール(1100a、1100b、1100c)それぞれに備えられている光学レンズも互いに異なるが、これに制限されるものではない。
一実施形態で、複数のカメラモジュール(1100a、1100b、1100c)それぞれは、互いに物理的に分離されて配置される。
すなわち、一つのイメージセンサ1142のセンシング領域を、複数のカメラモジュール(1100a、1100b、1100c)が分割して使うものではなく、複数のカメラモジュール(1100a、1100b、1100c)それぞれの内部に独立的なイメージセンサ1142が配置される。
再び図15Aを参照すると、アプリケーションプロセッサ1200は、イメージ処理装置1210と、メモリコントローラ1220と、内部メモリ1230と、を備える。
アプリケーションプロセッサ1200と複数のカメラモジュール(1100a、1100b、1100c)とは、例えば、別途の半導体チップにより互いに分離されても具現され得る。
イメージ処理装置1210は、複数のサブイメージプロセッサ(1212a、1212b、1212c)と、イメージ生成器1214と、カメラモジュールコントローラ1216とを備える。
イメージ処理装置1210は、複数のカメラモジュール(1100a、1100b、1100c)の数に対応する複数のサブイメージプロセッサ(1212a、1212b、1212c)を備える。
カメラモジュール1100aから生成されたイメージデータは、イメージ信号ラインISLaを通じてサブイメージプロセッサ1212aに提供され、カメラモジュール1100bから生成されたイメージデータは、イメージ信号ラインISLbを通じてサブイメージプロセッサ1212bに提供され、カメラモジュール1100cから生成されたイメージデータは、イメージ信号ラインISLcを通じてサブイメージプロセッサ1212cに提供される。
このようなイメージデータ送信は、例えば、MIPI(Mobile Industry Processor Interface)に基づいたカメラ直列インターフェース(CSI;Camera Serial Interface)を用いて行われるが、これに制限されるものではない。
実施形態において、複数のサブイメージプロセッサ(1212a、1212b、1212c)の内の少なくとも一つは、デコーダ(図1の符号230)を備える。
複数のサブイメージプロセッサ(1212a、1212b、1212c)は、対応するカメラモジュール(1100a、1100b、1100c)がエンコーダ(図1の符号120)を備える場合、圧縮されたイメージデータを圧縮解除するために、デコーダ230を備える。
一実施形態において、図13のイメージ処理装置200bが、複数のサブイメージプロセッサ(1212a、1212b、1212c)の内の少なくとも一つで具現され、複数のサブイメージプロセッサ(1212a、1212b、1212c)の内の少なくとも一つのサブイメージプロセッサは、エンコーダ(図13の符号250)及びデコーダ(図13の符号230)を備える。
一方、一実施形態で、一つのサブイメージプロセッサが、複数のカメラモジュールに対応するように配置されてもよい。
例えば、サブイメージプロセッサ1212a及びサブイメージプロセッサ1212cは、図に示したように、互いに分離されて具現されるものではなく、一つのサブイメージプロセッサに統合されて具現され、カメラモジュール1100a及びカメラモジュール1100cから提供されたイメージデータは、選択素子(例えば、マルチプレクサ)などを通じて選択された後、統合されたサブイメージプロセッサに提供される。
この際、サブイメージプロセッサ1212bは統合されず、カメラモジュール1100bからイメージデータを提供される。
また、一実施形態で、カメラモジュール1100aから生成されたイメージデータは、イメージ信号ラインISLaを通じてサブイメージプロセッサ1212aに提供され、カメラモジュール1100bから生成されたイメージデータは、イメージ信号ラインISLbを通じてサブイメージプロセッサ1212bに提供され、カメラモジュール1100cから生成されたイメージデータは、イメージ信号ラインISLcを通じてサブイメージプロセッサ1212cに提供される。
そして、サブイメージプロセッサ1212bで処理されたイメージデータは、イメージ生成器1214に直ぐ提供されるが、サブイメージプロセッサ1212aで処理されたイメージデータと、サブイメージプロセッサ1212cで処理されたイメージデータとの内のいずれか一つが、選択素子(例えば、マルチプレクサ)などを通じて選択された後、イメージ生成器1214に提供される。
それぞれのサブイメージプロセッサ(1212a、1212b、1212c)は、カメラモジュール(1100a、1100b、1100c)から提供されたイメージデータについて、不良ピクセル補正、3A調整(Auto-focus correction、Auto-white balance、Auto-exposure)、ノイズ除去、鮮鋭化、ガンマ調整、リモザイク(remosaic)などのイメージ処理を行う。
一実施形態で、リモザイク信号処理は、それぞれのカメラモジュール(1100a、1100b、1100c)で行われた後、サブイメージプロセッサ(1212a、1212b、1212c)に提供される。
それぞれのサブイメージプロセッサ(1212a、1212b、1212c)で処理されたイメージデータは、イメージ生成器1214に提供される。
イメージ生成器1214は、イメージ生成情報又はモード信号によって、それぞれのサブイメージプロセッサ(1212a、1212b、1212c)から提供されたイメージデータを用いて、出力イメージを生成する。
具体的には、イメージ生成器1214は、イメージ生成情報又はモード信号によって、サブイメージプロセッサ(1212a、1212b、1212c)から生成されたイメージデータの内の少なくとも一部を併合して、出力イメージを生成する。
また、イメージ生成器1214は、イメージ生成情報又はモード信号によって、サブイメージプロセッサ(1212a、1212b、1212c)から生成されたイメージデータの内のいずれか一つを選択して、出力イメージを生成する。
一実施形態で、イメージ生成情報は、ズーム信号(zoom signal or Zoom factor)を含む。
また、一実施形態で、モード信号は、例えば、ユーザによって選択されたモードに基づいた信号である。
イメージ生成情報がズーム信号(ズーム因子)であり、それぞれのカメラモジュール(1100a、1100b、1100c)が互いに異なる観測視野(視野角)を持つ場合、イメージ生成器1214は、ズーム信号の種類によって互いに異なる動作を行う。
例えば、ズーム信号が第1信号である場合、サブイメージプロセッサ1212aから出力されたイメージデータと、サブイメージプロセッサ1212cから出力されたイメージデータの内のサブイメージプロセッサ1212aから出力されたイメージデータと、サブイメージプロセッサ1212bから出力されたイメージデータとを用いて、出力イメージを生成する。
もし、ズーム信号が第1信号と異なる第2信号である場合、イメージ生成器1214は、サブイメージプロセッサ1212aから出力されたイメージデータと、サブイメージプロセッサ1212cから出力されたイメージデータの内のサブイメージプロセッサ1212cから出力されたイメージデータと、サブイメージプロセッサ1212bから出力されたイメージデータとを用いて、出力イメージを生成する。
もし、ズーム信号が第1信号及び第2信号と異なる第3信号である場合、イメージ生成器1214は、そのようなイメージデータ併合を行わず、それぞれのサブイメージプロセッサ(1212a、1212b、1212c)から出力されたイメージデータの内のいずれか一つを選択して、出力イメージを生成する。
しかし、本実施形態は、これに制限されるものではなく、必要に応じてイメージデータを処理する方法は、いくらでも変形されて行われる。
一実施形態で、イメージ処理装置1210は、サブイメージプロセッサ(1212a、1212b、1212c)の出力を選択して、イメージ生成器1214に伝達する選択部(図示せず)をさらに備える。
この場合、選択部は、ズーム信号又はズーム因子によって、互いに異なる動作を行う。
例えば、選択部は、ズーム信号が第4信号(例えば、ズーム倍率が第1倍率)である場合、サブイメージプロセッサ(1212a、1212b、1212c)の出力の内のいずれか一つを選択して、イメージ生成器1214に伝達する。
また、選択部は、ズーム信号が、第4信号と異なる第5信号(例えば、ズーム倍率が第2倍率)である場合、サブイメージプロセッサ(1212a、1212b、1212c)の出力の内のp個(pは、2以上の自然数)の出力を順次にイメージ生成器1214に伝達する。
例えば、選択部は、サブイメージプロセッサ1212b及びサブイメージプロセッサ1212cの出力を、順次にイメージ生成器1214に伝達する。
また、選択部は、サブイメージプロセッサ1212a及びサブイメージプロセッサ1212bの出力を、順次にイメージ生成器1214に伝達する。
イメージ生成器1214は、順次に提供されたp個の出力を併合して、一つの出力イメージを生成する。
ここで、デモザイク(demosaic)、ビデオ/プレビューの解像度サイズへのダウンスケーリング、ガンマ補正、HDR(High DynamicRange)処理などのイメージ処理は、サブイメージプロセッサ(1212a、1212b、1212c)で予め行われた後、処理されたイメージデータがイメージ生成器1214に伝達される。
よって、処理されたイメージデータが、選択部を通じて、一つの信号ラインでイメージ生成器1214に提供されても、イメージ生成器1214のイメージ併合動作が高速で行われる。
一実施形態で、イメージ生成器1214は、複数のサブイメージプロセッサ(1212a、1212b、1212c)の内の少なくとも一つから、露出時間の互いに異なる複数のイメージデータを受信し、複数のイメージデータについてHDR(high dynamic range)処理を行うことで、ダイナミックレンジの増加した、併合されたイメージデータを生成する。
カメラモジュールコントローラ1216は、それぞれのカメラモジュール(1100a、1100b、1100c)に制御信号を提供する。
カメラモジュールコントローラ1216から生成された制御信号は、互いに分離された制御信号ライン(CSLa、CSLb、CSLc)を通じて、対応するカメラモジュール(1100a、1100b、1100c)に提供される。
複数のカメラモジュール(1100a、1100b、1100c)の内のいずれか一つは、ズーム信号を含むイメージ生成情報又はモード信号によって、マスターカメラ(例えば、1100b)と指定され、残りのカメラモジュール(例えば、1100a及び1100c)は、スレーブ(slave)カメラと指定される。
このような情報は、制御信号に含まれて、互いに分離された制御信号ライン(CSLa、CSLb、CSLc)を通じて、対応するカメラモジュール(1100a、1100b、1100c)に提供される。
ズーム因子又は動作モード信号によって、マスター及びスレーブとして動作するカメラモジュールが変わる。
例えば、カメラモジュール1100aの視野角がカメラモジュール1100bの視野角より広く、ズーム因子が低いズーム倍率を示す場合、カメラモジュール1100aがマスターとして動作し、カメラモジュール1100bがスレーブとして動作する。
逆に、ズーム因子が高いズーム倍率を示す場合、カメラモジュール1100bがマスターとして動作し、カメラモジュール1100aがスレーブとして動作する。
一実施形態で、カメラモジュールコントローラ1216からそれぞれのカメラモジュール(1100a、1100b、1100c)に提供される制御信号は、同期イネーブル信号(sync enable)信号を含む。
例えば、カメラモジュール1100bがマスターカメラであり、カメラモジュール1100a及び1100cがスレーブカメラである場合、カメラモジュールコントローラ1216は、カメラモジュール1100bに同期イネーブル信号を伝送する。
このような同期イネーブル信号を提供されたカメラモジュール1100bは、提供された同期イネーブル信号に基づいて同期信号を生成し、生成された同期信号を、同期信号ラインSSLを通じてカメラモジュール1100a及び1100cに提供する。
カメラモジュール1100bとカメラモジュール1100a及びカメラモジュール1100cは、このような同期信号によって同期化されて、イメージデータをアプリケーションプロセッサ1200に伝送する。
一実施形態で、カメラモジュールコントローラ1216から複数のカメラモジュール(1100a、1100b、1100c)に提供される制御信号は、モード信号によるモード情報を含む。
このようなモード情報に基づいて、複数のカメラモジュール(1100a、1100b、1100c)は、センシング速度に関連して第1動作モード及び第2動作モードで動作する。
複数のカメラモジュール(1100a、1100b、1100c)は、第1動作モードで、第1速度でイメージ信号を生成(例えば、第1フレームレートのイメージ信号を生成)して、これを第1速度より高い第2速度でエンコーディングし(例えば、第1フレームレートより高い第2フレームレートのイメージ信号をエンコーディング)、エンコーディングされたイメージ信号をアプリケーションプロセッサ1200に伝送する。
この際、第2速度は、第1速度の30倍以下である。
アプリケーションプロセッサ1200は、受信したイメージ信号、言い換えれば、エンコーディングされたイメージ信号を、その内部に備えられたメモリ1230又はアプリケーションプロセッサ1200の外部メモリ1400に保存し、次いで、メモリ1230又は外部メモリ1400からエンコーディングされたイメージ信号を読み取ってデコーディングし、デコーディングされたイメージ信号に基づいて生成されるイメージデータをディスプレイする。
例えば、イメージ処理装置1210の複数のサブイメージプロセッサ(1212a、1212b、1212c)の内の対応するサブイメージプロセッサがデコーディングを行い、またデコーディングされたイメージ信号についてイメージ処理を行う。
複数のカメラモジュール(1100a、1100b、1100c)は、第2動作モードで、第1速度より低い第3速度でイメージ信号を生成(例えば、第1フレームレートより低い第3フレームレートのイメージ信号を生成)し、イメージ信号をアプリケーションプロセッサ1200に伝送する。
アプリケーションプロセッサ1200に提供されるイメージ信号は、エンコーディングされていない信号である。
アプリケーションプロセッサ1200は、受信されるイメージ信号についてイメージ処理を行うか、又はイメージ信号をメモリ1230又は外部メモリ1400に保存する。
PMIC1300は、複数のカメラモジュール(1100a、1100b、1100c)それぞれに電力、例えば、電源電圧を供給する。
例えば、PMIC1300は、アプリケーションプロセッサ1200の制御の下で、パワー信号ラインPSLaを通じてカメラモジュール1100aに第1電力を供給し、パワー信号ラインPSLbを通じてカメラモジュール1100bに第2電力を供給し、パワー信号ラインPSLcを通じてカメラモジュール1100cに第3電力を供給する。
PMIC1300は、アプリケーションプロセッサ1200からの電力制御信号PCONに応答して、複数のカメラモジュール(1100a、1100b、1100c)それぞれに対応する電力を生成し、また電力のレベルを調整する。
電力制御信号PCONは、複数のカメラモジュール(1100a、1100b、1100c)の動作モード別に電力調整信号を含む。
例えば、動作モードは、低電力モードを含み、この際、電力制御信号PCONは、低電力モードで動作するカメラモジュール及び設定される電力レベルに関する情報を含む。
複数のカメラモジュール(1100a、1100b、1100c)それぞれに提供される電力のレベルは、相等しいか、又は互いに異なる。
また、電力のレベルは、動的に変更され得る。
図16は、本発明の一実施形態による電子装置の概略構成を示すブロック図である。
図16の電子装置2000は、ポータブル端末器である。
図16を参照すれば、電子装置2000は、アプリケーションプロセッサ2100、カメラモジュール2200、ワーキングメモリ2300、保存部2400、ディスプレイ装置2600、ユーザーインターフェース2700、及び無線送受信部2500を備える。
アプリケーションプロセッサ2100は、イメージ処理システム2000の全般的な動作を制御し、応用プログラム、オペレーションシステムなどを駆動する、システムオンチップSoCで具現される。
アプリケーションプロセッサ2100は、カメラモジュール2200から提供されるイメージデータをディスプレイ装置2600に提供するか、又は保存部2400に保存する。
図1~図11Bを参照して説明したイメージセンサモジュール100が、カメラモジュール2200に適用される。
イメージセンサ2200は、エンコーダ2210を備え、エンコーダ2210は、イメージデータを圧縮して圧縮データを生成し、圧縮データをアプリケーションプロセッサ2100に伝送する。
前述したように、エンコーダ2210は、イメージデータの少なくとも一部、例えば、少なくとも一つのピクセルグループが孤立領域に該当する場合、ピクセルグループを、HVバランスエンコーディング方式を用いて圧縮する。
アプリケーションプロセッサ2100は、エンコーダ2210の圧縮方法、例えば、エンコーディング方式に対応するデコーディング方式で、圧縮データを圧縮解除するデコーダ2110を備える。
デコーダ2110が、カメラモジュール2200から受信した圧縮データを圧縮解除して、復元されたイメージデータを生成し、アプリケーションプロセッサ2100は、復元されたイメージデータをイメージ処理する。
アプリケーションプロセッサ2100は、復元されたイメージデータ又はイメージ処理されたイメージデータを、ディスプレイ装置2600に表示するか、又は保存部2400に保存する。
ワーキングメモリ2300は、DRAM、SRMAなどの揮発性メモリ、又はFeRAM、RRAM、PRAMなどの不揮発性の抵抗性メモリによっても具現される。
ワーキングメモリ200は、アプリケーションプロセッサ2100が処理又は実行するプログラム及び/又はデータを保存する。
保存部2400は、NADNフラッシュ、抵抗性メモリなどの不揮発性メモリ装置で具現され、例えば、保存部2400は、メモリカード(MMC、eMMC、SD、micro SD)などによっても提供される。
保存部2400は、カメラモジュール2200から受信したイメージデータ、又はアプリケーション2100で処理又は生成されるデータを保存する。
ユーザーインターフェース2700は、キーボード、カーテンキーパネル、タッチパネル、指紋センサ、マイクなど、使用者入力を受信できる多様な装置で具現される。
ユーザーインターフェース2700は、使用者入力を受信し、受信した使用者入力に対応する信号を、アプリケーションプロセッサ2100に提供する。
無線送受信部2500は、トランシーバ2510、モデム2520、及びアンテナ2530を備える。
尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
10、10b イメージ処理システム
100、100a、100b イメージセンサモジュール
110 イメージセンサ
120、120a エンコーダ
121 参照ピクセル検出器
122 圧縮回路
123 モード選択器
124 復元イメージ生成器
125 参照バッファ
126 事前検出器
130、210 インターフェース
150 処理ロジック
160、220 メモリ
200、200b イメージ処理装置
230 デコーダ
240 イメージ信号プロセッサ

Claims (10)

  1. イメージセンサによって生成されたイメージデータを圧縮するイメージ圧縮方法において、
    前記イメージデータの内の圧縮が行われる対象ピクセルグループの複数の対象ピクセルのピクセル値と、前記対象ピクセルグループの圧縮に用いられる複数の参照ピクセルの参照値を受信する段階と、
    前記対象ピクセルのピクセル値について平均演算が行われる平均方向を定める段階と、
    前記平均方向に沿って前記対象ピクセルのピクセル値を平均化する段階と、
    前記参照ピクセルに基づいて、平均値に適用される補償値を含むバランス情報を生成する段階と、
    前記平均値、前記バランス情報、及び圧縮情報に基づいてビットストリームを生成する段階と、を有することを特徴とするイメージ圧縮方法。
  2. 前記参照値は、前記対象ピクセルグループより先に圧縮され、前記参照ピクセルの復元されたピクセル値に対応し、前記ピクセル値の内の少なくとも一つと前記参照値との差がしきい値以上であることを特徴とする請求項1に記載のイメージ圧縮方法。
  3. 前記平均化する段階は、前記対象ピクセルの内の前記平均方向に沿う二対の対象ピクセルについて、第1平均値及び第2平均値を算出する段階を含むことを特徴とする請求項1に記載のイメージ圧縮方法。
  4. 前記バランス情報を生成する段階は、前記二対の対象ピクセルの内の第1対の対象ピクセルに対する差値と、前記参照ピクセルの内の第1対の参照ピクセルに対する差値と、に基づいて、前記第1対の対象ピクセルに関するバランス情報を生成することを特徴とする請求項3に記載のイメージ圧縮方法。
  5. 前記バランス情報は、前記第1対の対象ピクセルについての第1選択値及び第1勾配値を含み、
    前記第1選択値は、前記第1平均値に前記第1対の参照ピクセルに対する差値を適用するかどうかを示し、
    前記第1勾配値は、前記第1対の対象ピクセルの内のピクセル値のさらに大きい対象ピクセルを示すことを含むことを特徴とする請求項4に記載のイメージ圧縮方法。
  6. 前記第1選択値が、前記第1対の対象ピクセルについて、前記第1平均値に前記第1対の参照ピクセルについての差値が適用されないことを示す場合、前記第1平均値に予め設定されたデフォルト値が適用されるように設定されることを特徴とする請求項5に記載のイメージ圧縮方法。
  7. 前記バランス情報は、前記二対の対象ピクセルそれぞれについての選択値及び勾配値を含むことを特徴とする請求項4に記載のイメージ圧縮方法。
  8. 前記バランス情報は、前記二対の対象ピクセルそれぞれについての選択値、及び前記二対の対象ピクセルに共通に適用される勾配値を含むことを特徴とする請求項4に記載のイメージ圧縮方法。
  9. 前記ビットストリームは、ヘッダ及びデータブロックを備え、
    前記平均方向に関する情報が、前記ヘッダ又は前記データブロックに含まれることを特徴とする請求項1に記載のイメージ圧縮方法。
  10. 複数のピクセルを含むイメージデータを生成するイメージセンサと、
    前記イメージセンサで生成されたイメージデータを、ピクセルグループ単位で順次に圧縮して、複数のビットストリームを含む圧縮データを生成し、圧縮が行われる対象ピクセルグループを、複数のエンコーディング方式の内の少なくとも一つのエンコーディング方式によって圧縮するエンコーダと、
    前記圧縮データを外部のイメージ処理装置に出力するインターフェースと、を備え、
    前記エンコーダは、前記複数のエンコーディング方式の内の第1エンコーディング方式によって、前記対象ピクセルのピクセル値に基づいた平均値を生成し、
    前記平均値に適用される補償値を含むバランス情報を生成し、
    前記平均値、前記バランス情報及び圧縮情報を含むビットストリームを生成することを特徴とするイメージセンサモジュール。
JP2021116290A 2020-07-16 2021-07-14 イメージセンサモジュール及びイメージ圧縮方法 Pending JP2022019645A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0088452 2020-07-16
KR20200088452 2020-07-16
KR10-2021-0029045 2021-03-04
KR1020210029045A KR20220009853A (ko) 2020-07-16 2021-03-04 이미지 센서 모듈, 이미지 처리 시스템 및 이미지 압축 방법

Publications (1)

Publication Number Publication Date
JP2022019645A true JP2022019645A (ja) 2022-01-27

Family

ID=79021351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021116290A Pending JP2022019645A (ja) 2020-07-16 2021-07-14 イメージセンサモジュール及びイメージ圧縮方法

Country Status (5)

Country Link
US (1) US20220020181A1 (ja)
JP (1) JP2022019645A (ja)
CN (1) CN113949876A (ja)
DE (1) DE102021117548A1 (ja)
TW (1) TW202209876A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11924415B2 (en) * 2021-05-11 2024-03-05 Tencent America LLC Method and apparatus for boundary handling in video coding
KR20230037212A (ko) * 2021-09-09 2023-03-16 주식회사 엘엑스세미콘 디-무라를 위한 보상 정보 제공 장치 및 방법과 보상 정보를 이용하는 디스플레이 구동 장치
US20240135589A1 (en) * 2022-10-14 2024-04-25 Motional Ad Llc Data pipeline for cameras with multiple color channels
CN117557807B (zh) * 2024-01-11 2024-04-02 齐鲁工业大学(山东省科学院) 基于加权滤波增强的卷积神经网络图像预测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7253836B1 (en) * 1998-06-30 2007-08-07 Nikon Corporation Digital camera, storage medium for image signal processing, carrier wave and electronic camera
KR100621003B1 (ko) * 2003-10-11 2006-09-08 엘지전자 주식회사 디지털 영상 데이터의 복호화 방법
CN109005426B (zh) * 2017-04-08 2021-04-30 腾讯科技(深圳)有限公司 一种图片文件处理方法
EP3718360A4 (en) 2017-11-27 2021-08-11 Nokia Technologies Oy LINK BEAM NOTIFICATION FOR WIRELESS NETWORKS
KR20200098806A (ko) * 2019-02-12 2020-08-21 삼성전자주식회사 이상 픽셀을 포함하는 센서로부터의 데이터를 처리하기 위한 프로세서
KR20210029045A (ko) 2019-09-05 2021-03-15 주식회사 엘지화학 아크릴로니트릴계 중합체의 제조방법

Also Published As

Publication number Publication date
CN113949876A (zh) 2022-01-18
US20220020181A1 (en) 2022-01-20
DE102021117548A1 (de) 2022-01-20
TW202209876A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
JP2022019645A (ja) イメージセンサモジュール及びイメージ圧縮方法
JP2022019644A (ja) イメージセンサモジュール及びイメージ圧縮方法
CN113747137A (zh) 图像信号处理器、图像信号处理方法及其电子装置
CN113573064A (zh) 图像编码器、图像感测装置和图像编码器的操作方法
US20220294999A1 (en) Image sensing apparatus and image binning method thereof
KR20210052095A (ko) 이미지 부호화기, 이미지 복호화기, 및 이미지 처리 방법
EP4102828A1 (en) Image sensor including image signal processor and operating method of the image sensor
US11627250B2 (en) Image compression method, encoder, and camera module including the encoder
KR20220009853A (ko) 이미지 센서 모듈, 이미지 처리 시스템 및 이미지 압축 방법
KR20220009854A (ko) 이미지 센서 모듈, 이미지 처리 시스템 및 이미지 압축 방법
US20240098387A1 (en) Image sensor, mobile device, and image sensor operation method for reducing data transmission latency
US11823417B2 (en) Camera module, image processing system and image compression method
TW202209887A (zh) 影像壓縮方法、編碼器和電子裝置
US12015803B2 (en) Camera module, image processing device and image compression method
US11758288B2 (en) Device for improving image resolution in camera system having lens that permits distortion and operation method thereof
US20240214593A1 (en) Image processing device, mobile device, and method of operating the same
KR20220009843A (ko) 카메라 모듈, 이미지 처리 시스템 및 이미지 압축 방법
KR20220161124A (ko) 이미지 신호 프로세서를 포함하는 이미지 센서 및 이의 동작 방법
CN114666522A (zh) 图像传感器、包括图像传感器的图像感测设备及操作方法
KR20220122008A (ko) 이미지 신호 프로세싱 방법, 이미지 신호 프로세서 및 그 이미지 센싱 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230814