JP2021052396A - 複数のイメージセンサにより獲得されるイメージデータに基づいてビデオhdr処理を遂行するための電子装置 - Google Patents

複数のイメージセンサにより獲得されるイメージデータに基づいてビデオhdr処理を遂行するための電子装置 Download PDF

Info

Publication number
JP2021052396A
JP2021052396A JP2020158912A JP2020158912A JP2021052396A JP 2021052396 A JP2021052396 A JP 2021052396A JP 2020158912 A JP2020158912 A JP 2020158912A JP 2020158912 A JP2020158912 A JP 2020158912A JP 2021052396 A JP2021052396 A JP 2021052396A
Authority
JP
Japan
Prior art keywords
image data
image
resolution
cropped
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020158912A
Other languages
English (en)
Inventor
秀永 李
Su-Young Lee
秀永 李
正旭 李
Jeongwook Lee
正旭 李
▲で▼重 金
Daejung Kim
▲で▼重 金
煥順 成
Hwansun Sung
煥順 成
賢錫 梁
Hyunseok Yang
賢錫 梁
垠直 李
垠直 李
珠炯 李
Joohyoung Lee
珠炯 李
秀萬 丁
Sooman JEONG
秀萬 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190116781A external-priority patent/KR102680342B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2021052396A publication Critical patent/JP2021052396A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】 本発明の目的は、複数のイメージセンサにより獲得されたイメージデータに基づいて、ビデオHDR(High Dynamic Range)処理を遂行するように構成される電子装置を提供することである。【解決手段】 複数のイメージセンサブロックを利用して、HDR処理を遂行する電子装置が開示される。第1のイメージセンサブロックは、第1の画角でオブジェクトを撮影して第1の信号を生成する。第2のイメージセンサブロックは、前記第1の画角よりも大きい第2の画角でオブジェクトを撮影して第2の信号を生成する。イメージ信号プロセッサは、第1の信号に基づいて、第1のイメージデータを生成し、第2の信号に基づいて第2のイメージデータを生成する。メインプロセッサは、第2のイメージデータのうち、第1のイメージデータに対応するイメージデータをクロッピングし、第1のイメージデータ及びクロッピングされた第2のイメージデータに基づいて、HDR処理を遂行する。【選択図】 図1

Description

本発明は、電子装置に関し、より詳しくは、複数のイメージセンサに基づいてビデオHDRを実現するための電子装置に関する。
イメージ撮影装置は、オブジェクト(Object)と背景(Background)を含んでユーザーによって意図されるイメージを撮影するために利用される。イメージ撮影装置は、光を収集し、イメージと関連付けられる信号を生成するために、多様な電子回路を含み、電子回路の動作に応じて、イメージを撮影するサービスをユーザーに提供する。
一方、イメージ撮影装置は、広く普及して、多くのユーザーにより利用されている。したがって、イメージ撮影装置の性能と用途と関連して、ユーザーの多様なニーズを満たすことが必要になった。
例として、ユーザーの満足度を高めるために、イメージ撮影装置の処理性能と動作速度を高めることが要求される。例としては、イメージ撮影装置によって消費される電力を減らすために、イメージ撮影装置の動作方式を適切に制御することが要求される。このように、ユーザーの多様なニーズを満たすためには、イメージ撮影装置の構造と動作を改善するための方法が提案されている。
米国特許出願公開第2018/0139367号明細書 米国特許出願公開第2018/0262673号明細書 米国特許出願公開第2018/0295283号明細書 米国特許出願公開第2018/0374281号明細書 米国特許第9973672号明細書 米国特許第10021313号明細書 米国特許第9253397号明細書 米国特許第9876952号明細書 米国特許第9456134号明細書 米国特許第8189100号明細書 米国特許第10223775号明細書 特開2018−056940号公報 特許第6031670号公報 韓国登録特許第10−1823256号公報 韓国登録特許第10−1670176号公報
本発明は、上記従来技術に鑑みてなされたものであって、本発明の目的は、複数のイメージセンサにより獲得されたイメージデータに基づいて、ビデオHDR(High Dynamic Range)処理を遂行するように構成される電子装置を提供することができる。
本発明の実施形態による電子装置は、第1のイメージセンサと、第2のイメージセンサと、プロセッサと、を備える。第1のイメージセンサは、対象イメージに対する第1の明るさの値の第1のイメージデータを出力することができる。第2のイメージセンサは、対象イメージに対する第2の明るさの値の第2のイメージデータを出力することができる。プロセッサは、第1のイメージデータに対する第1の動作を遂行して獲得される第3のイメージデータ、及び第2のイメージデータに対する第2の動作を遂行して獲得される第4のイメージデータに基づいて、HDR処理を遂行することができる。第1の動作が第1のイメージデータのサイズを変更する動作を含むか、又は第2の動作が第2のイメージデータのサイズを変更する動作を含み得る。
本発明の実施形態によると、複数のイメージセンサによってHDR(High Dynamic Range)処理に使用されるイメージデータが獲得されることで、HDR処理が効率的に遂行され得る。
本発明の実施形態による電子回路を含む電子装置の例としての構成を示すブロック図である。 図1のイメージ処理ブロックの例としての構成を示す。 図2のイメージセンサブロックの例としての動作を説明するためのブロック図である。 図3のイメージセンサブロックの例としての特性を示す概念図である。 図2のイメージセンサブロックとメインプロセッサの動作を説明するためのタイミング図である。 本発明のHDR処理のための動作を概念的に図示する。 本発明のHDR処理のための動作を概念的に図示する。 本発明のHDR処理のための動作を概念的に図示する。 発明のHDR処理のための動作を概念的に図示する。 本発明のHDR処理のための動作を概念的に図示する。 本発明のHDR処理のための動作を概念的に図示する。 本発明のイメージ処理方法を示すフローチャートである。 図1のイメージ処理ブロックの例としての構成を示すブロック図である。 図13のイメージセンサブロックの例としての動作を説明するためのブロック図である。 本発明のHDR処理のための動作を概念的に図示する。 本発明のHDR処理のための動作を概念的に図示する。 ズームファクターによるイメージセンサブロックの動作を概念的に図示する。 第1のズームモードでのイメージセンサブロックの動作を概念的に図示する。 第2のズームモードでのイメージセンサブロックの動作を概念的に図示する。 図13のイメージセンサブロックの例としての動作を説明するためのブロック図である。 ズームファクターによるイメージセンサブロックの動作を概念的に図示する。 ズームファクターによるイメージセンサブロックの動作を概念的に図示する。 図13のユーザーインターフェースを介して入力されるコマンドに応じて倍率が調整される例としての方法を説明するための概念図である。
以下では、本発明の技術分野における通常の知識を有する者が本発明を容易に実施することができる程度に、本発明の実施形態が明確かつ詳細に記載されるだろう。本明細書では、オブジェクト(object)、背景(background)、風景(scenery)などは、図1ないし図18を参照して説明される電子装置によって獲得されるイメージデータの対象(例えば、撮影動作の対象)となるターゲットイメージを意味し得る。
図1は、本発明の実施形態による電子回路を含む電子装置の例としての構成を示すブロック図である。
電子装置1000は、多様な電子回路を含み得る。例としては、電子装置1000の電子回路は、イメージ処理ブロック1100、通信ブロック1200、オーディオ処理ブロック1300、バッファメモリ1400、不揮発性メモリ1500、ユーザーインターフェース1600、センサ1700、メインプロセッサ1800、並びに電力管理機1900を含み得る。
イメージ処理ブロック1100は、レンズ1110、イメージセンサ1120、及びイメージ信号プロセッサ1150を含み得る。例として、光がユーザーによって意図される外部のオブジェクト、背景、風景などによって反射され、レンズ1110は、反射された光を受信することができる。イメージセンサ1120は、レンズ1110を介して受信される光に基づいて電気信号を生成することができる。イメージ信号プロセッサ1150は、イメージセンサ1120によって生成される電気信号を適切に処理して、外部のオブジェクト、背景、風景などのイメージと関連付けられるイメージデータを生成することができる。以下では説明を容易にするのために、「オブジェクト」とは、撮影の対象となるオブジェクトだけでなく、背景、風景などをすべて指すものとする。
イメージセンサ1120は、行及び列に沿って配列されており、光を電気信号に変換できるピクセルを含み得る。電気信号の特性(例えば、電流及び電圧の大きさなど)は、受信される光の特性(例えば、強度)に基づいて可変である。例として、イメージセンサ1120は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサなどであり得る。
図1は、1つのレンズ1110と1つのイメージセンサ1120を示す。しかし、いくつかの実施形態では、イメージ処理ブロック1100は、複数のレンズと、複数のイメージセンサとを含み得る。複数のイメージセンサは、異なる機能、異なる性能、及び/又は異なる特性を有するように提供され得る。例として、複数のイメージセンサは、異なる画角(field of view:FOV)を有する複数のレンズを各々含み得る。
イメージ信号プロセッサ1150は、本発明で説明される動作を遂行するように構成されているハードウェア回路(例えば、アナログ回路及び論理回路など)を含み得る。追加的又は代替的に、イメージ信号プロセッサ1150は、1つ以上のプロセッサコアを含むことができ、本発明で説明される動作を提供するように構成されているプログラムコードを実行することができる。
図1は、イメージ信号プロセッサ1150がイメージ処理ブロック1100に含まれることを示す。しかし、いくつかの実施形態では、イメージ信号プロセッサ1150は、イメージセンサ1120の一部として提供されるか、イメージ処理ブロック1100と別個の回路やチップ上に提供され、かつ/あるいは、メインプロセッサ1800の一部として提供される。本発明は、図1の図示に限定されずに多様に変更又は修正され得ることがよく理解されるだろう。
通信ブロック1200は、アンテナ1210を介して外部装置/システムとの信号を交換することができる。通信ブロック1200のトランシーバ1220とMODEM(Modulator / Demodulator、1230)は、多様な通信プロトコルに基づいて、交換される信号を処理することができる。例として、通信ブロック1200のトランシーバ1220とMODEM1230は、LTE(Long Term Evolution)、WIMAX(Worldwide Interoperability for Microwave Access)、GSM(Global System for Mobile communication)、CDMA(Code Division Multiple Access )、Bluetooth、NFC(Near Field Communication)、Wi−Fi(Wireless Fidelity)、RFID(Radio Frequency Identification)などのような無線通信規約に基づいて、外部装置/システムと交換される信号を処理することができる。
オーディオ処理ブロック1300は、オーディオ信号プロセッサ1310を利用して音情報を処理することができる。オーディオ処理ブロック1300は、マイク1320を介して音声入力を受信したり、スピーカー1330を介して音声を出力したりすることができる。
バッファメモリ1400は、電子装置1000の動作に利用されるデータ(例えば、メインプロセッサ1800によって処理された、又は処理されるデータ)を一時的に格納することができる。例として、バッファメモリ1400は、SRAM(Static Random Access Memory)、DRAM(Dynamic RAM)、SDRAM(Synchronous DRAM)、PRAM(Phase-change RAM)、MRAM(Magneto-resistive RAM)、ReRAM(Resistive RAM)、FRAM(Ferro-electric RAM)などのような揮発性/不揮発性メモリを含み得る。例として、イメージ処理ブロック1100によって撮影されたイメージやイメージで構成されたビデオは、バッファメモリ1400に格納され得る。バッファメモリ1400に格納されたイメージやビデオは、メインプロセッサ1800によってHDR処理される。
不揮発性メモリ1500は、電力供給に関係なく、データを格納することができる。例として、不揮発性メモリ1500は、フラッシュメモリ、PRAM、MRAM、ReRAM、FRAMなどのような不揮発性メモリを含み得る。例として、不揮発性メモリ1500は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SD(Secure Digital)カード及びUFS(Universal Flash Storage)カードなどのようなリムーバブルメモリ、及び/又はeMMC(Embedded Multimedia Card)などのようなエンベデッド(Embedded)メモリを含み得る。
ユーザーインターフェース1600は、ユーザーと電子装置1000との間の通信を仲裁することができる。例として、ユーザーインターフェース1600は、キーパッド、ボタン、タッチスクリーン、タッチパッド、ビジョンセンサ、モーションセンサ、ジャイロスコープセンサなどのような入力インターフェースを含み得る。例として、ユーザーインターフェース1600は、LCD(Liquid Crystal Display)装置、LED(Light Emitting Diode)ディスプレイ装置、OLED(Organic LED)ディスプレイ装置、AMOLED(Active Matrix OLED)ディスプレイ装置、モーター、LEDランプなどのような出力インターフェースを含み得る。
センサ1700は、電子装置1000の外部から提供される多様な形態の物理エネルギーを感知することができる。例えば、センサ1700は、温度、音声、光などのような物理エネルギーの伝達媒体を感知することができる。例えば、センサ1700は、照度(illuminance)を感知して感知された照度を表すデータをメインプロセッサ1800に伝達することができる。
メインプロセッサ1800は、電子装置1000の全体的な動作を制御するために、多様な演算を処理することができる。例えば、メインプロセッサ1800は、汎用プロセッサ、専用プロセッサ、又はアプリケーションプロセッサ(Application Processor)で実現されることができ、1つ以上のプロセッサコアを含み得る。例えば、メインプロセッサ1800は、電子装置1000の外部のオブジェクトに対するイメージデータを獲得するために、イメージ処理ブロック1100を制御することができる。例として、メインプロセッサ1800は、センサ1700から提供される情報に基づいてイメージ処理ブロック1100を制御することができる。
電力管理機1900は、バッテリー及び/又は外部電源から受信される電力を適切に変換することができる。電力管理機1900は、変換された電力を電子装置1000の構成要素に供給することができる。
ただし、図1に示した例としての構成要素は、より容易な理解を可能にするために提供され、本発明を限定するように意図されてはいない。電子装置1000は、図1に示した構成要素のうちいずれか1つを含んでいない可能性があり、又は図1に示していない少なくとも1つの構成要素をさらに含み得る。
図2は、図1のイメージ処理ブロックの例としての構成を示している。
イメージ処理ブロック1100は、イメージセンサブロック(1101、1102)、及びイメージ信号プロセッサ1150を含み得る。イメージ処理ブロック1100の動作を容易に説明するために、ユーザーインターフェース1600、照度センサ1710、及びメインプロセッサ1800も共に図示されている。例として、照度センサ1710は、図1のセンサ1700の一部として実現され得る。
イメージ処理ブロック1100は、イメージセンサ(1121、1122)を含むデュアル(Dual)センサ構造として実現され得る。例として、第1のイメージセンサブロック2100は、第1のレンズ1111、第1のアクチュエータ(Actuator)1141、及び第1のイメージセンサ1121を含み得る。第2のイメージセンサブロック1102は、第2のレンズ1112、第2のアクチュエータ1142、及び第2のイメージセンサ1122を含み得る。
例として、オブジェクト10は、電子装置1000のユーザーが撮影しようと意図する対象であり得る。ユーザーの要請に応答して、イメージ処理ブロック1100は、メインプロセッサ1800の制御に基づいて、オブジェクト10のイメージに関連付けられる信号及びデータを生成することができる。光がオブジェクト10から反射され、反射された光は、レンズ(1111、1112)を介して受信され得る。例として、第1のレンズ1111によって収集される第1のイメージセンサ1121に提供され、第2のレンズ1112によって収集される光は、第2のイメージセンサ1122に提供され得る。
レンズ(1111、1112)は、多様な画角で撮影の対象となるオブジェクトからの光を収集するように構成され得る。例として、第1のレンズ1111によって光が受信される画角、及び第2のレンズ1112によって光が受信される画角は異なってよい。第1のレンズ1111は、第2のレンズ1112に比べて狭い画角で光を受信することができる。一方、第2のレンズ1112は、第1のレンズ1111に比べて広い画角で光を受信することができる。
第1のイメージセンサ1121は、第1のレンズ1111から受信された光に基づいて、第1の信号(D1)を生成することができ、第2のイメージセンサ1122は、第2のレンズ1112から受信された光に基づいて第2の信号(D2)を生成することができる。例として、第1の信号(D1)に基づく第1のイメージは、オブジェクト10を含む比較的狭い画角のイメージと関連付けられ、第2の信号(D2)に基づく第2のイメージは、比較的広い画角のイメージと関連付けられる。
イメージセンサ(1121、1122)は、異なる機能、異なる性能、及び/又は異なる特性を有するように提供される。例えば、第1のイメージセンサ1121は、比較的狭い画角を有する第1のレンズ1111によって受信された光を処理できるように、比較的低解像度のピクセルアレイを含み得る。一方、第2のイメージセンサ1122は、比較的広い画角を有する第2のレンズ1112によって受信された光を処理できるように、比較的高解像度のピクセルアレイを含み得る。また、第1のイメージセンサ1121のピクセルアレイの解像度、及び第2のイメージセンサ1122のピクセルアレイの解像度は、同一であり得る。
その結果、第1のイメージセンサ1121から出力された第1の信号(D1)に基づく第1のイメージと第2のイメージセンサ1122によって処理された第2の信号(D2)に基づいて、第2のイメージのダイナミックレンジ(dynamic range)は、異なってよい。例えば、第1の信号(D1)に基づく第1のイメージは、比較的暗い領域を多く含み、第2の信号(D2)に基づく第2のイメージは、比較的明るい領域を多く含み得る。しかし、第1のイメージ及び第2のイメージが有し得るダイナミックレンジの属性は、これに限定されず、イメージセンサ(1121、1122)の解像度、照度、露出時間などの多様な要素に依存し得る。
いくつかの実施形態では、イメージ処理ブロック1100は、レンズ(1111、1112)の焦点距離を調節するためにアクチュエータ(1141、1142)をさらに含み得る。第1のアクチュエータ1141は、第1のレンズ1111の位置を移動させることができ、これにより、第1のレンズ1111の焦点距離が調節され得る。第2のアクチュエータ1142は、第2のレンズ1112の位置を移動させることができ、これにより、第2のレンズ1112の焦点距離が調節され得る。例えば、アクチュエータ(1141、1142)の各々は、モバイルアクチュエータであり得る。
例として、レンズ(1111、1112)の焦点距離が異なるように、アクチュエータ(1141、1142)によって、レンズ(1111、1112)の焦点距離が調節される。例として、アクチュエータ(1141、1142)は、レンズ(1111、1112)を移動させるために、モーターのような物理的装置を含み得る。
その他にも、イメージ信号プロセッサ1150は、信号(D1、D2)に対する多様な処理を遂行することができる。例としては、イメージ信号プロセッサ1150は、不良ピクセル補正(Bad Pixel Correction)、デモザイク(Demosaic)、ノイズ除去(Noise Reduction)、レンズシェーディング補正(Lens Shading Correction)、ガンマ補正(Gamma Correction)、エッジ強調(Edge Enhancement)などのような多様な信号処理を遂行することができる。イメージ信号プロセッサ1150によって処理された信号は、プロセッサ1800に出力することができる。
メインプロセッサ1800は、イメージ信号プロセッサ1150から受信される信号に基づいてHDR(High Dynamic Range)処理を遂行することができ、その結果、最終のイメージデータが生成される。メインプロセッサ1800によって遂行される例としてのHDR処理は、より具体的に後述される。
HDR処理されたイメージデータは、メインプロセッサ1800内部のメモリ、バッファメモリ1400、及び/又は不揮発性メモリ1500に格納され得る。HDR処理されたイメージデータは、オブジェクト10の形状、色、動きなどの属性を表すことができる。HDR処理されたイメージデータは、ユーザーインターフェース1600の出力インターフェース(例えば、ディスプレイ装置)を介してユーザーに提供される。
メインプロセッサ1800は、イメージセンサ(1121、1122)、イメージ信号プロセッサ1150、及びアクチュエータ(1141、1142)の動作を制御することができる。例えば、メインプロセッサ1800は、ユーザーインターフェース1600を介して認識されるユーザーの要請(例えば、ボタン押し、画面タッチ、モーション(Motion)、ジェスチャー(Gesture)など)に応答して、イメージセンサ(1121、1122)、イメージ信号プロセッサ1150、及びアクチュエータ(1141、1142)の動作タイミングを制御することができる。
例として、撮影環境の照度は、照度センサ1710によって感知される。メインプロセッサ1800は、照度センサ1710から照度に関連付けられるデータを受け、提供されるデータに基づく制御信号(FB1、FB2)を利用して、イメージセンサブロック(1101、1102)を制御することができる。
例として、ユーザーは、イメージを撮影するために、「ズーム-イン(Zoom-in)」又は「ズーム-アウト(Zoom-out)」の情報をユーザーインターフェース1600の入力インターフェースで入力することができる。ズーム-インの情報は、オブジェクトを狭い画角で撮影することに関連付けられ、ズーム-アウトの情報は、オブジェクトを広い画角で撮影することに関連付けられる。
例として、ズーム-インやズーム-アウトの情報は、ズーム倍率の情報を含み得る。ズーム倍率は、どのくらいの遠いオブジェクトが撮影されるか、又はどのくらいの広い範囲のオブジェクトが撮影されるかを表す値であり得る。メインプロセッサ1800は、ズーム倍率の情報に基づいてアクチュエータ(1141、1142)を制御することができる。
例として、ユーザーは、ズーム倍率の値を徐々に(例えば、ステップ的に又は漸進的に)増加又は減少させたり、ズーム倍率の特定の値を選択したりすることで、意図されたイメージを撮影するためのズーム条件を設定することができる。このために、ユーザーインターフェース1600の入力インターフェースは、ユーザーからズーム倍率を受信することができる。このようなユーザーズームファクター(user zoom factor)に基づくHDR処理は、詳しく後述される。
メインプロセッサ1800は、多様なプログラムコードの命令語セットを遂行することができる。例えば、メインプロセッサ1800は、アプリケーション(AP)、カメラのハードウェア抽象化(Abstraction)レイヤー(HAL)、カメラのドライバ(DRV)、イメージ処理ライブラリー(LIB)などの命令語セットを遂行することができる。アプリケーション(AP)は、ユーザーの要請に応答して遂行され、例えば、カメラアプリケーション、ビデオ制作アプリケーションなどであり得る。
図3は、図2のイメージセンサブロックの例としての動作を説明するためのブロック図である。
図2及び図3を参照すると、第1のイメージセンサブロック1101は、第1の画角(FOV1)で撮影されたイメージを生成するための第1のイメージセンサ1121、及び第2の画角(FOV2)で撮影されたイメージを生成するための第2のイメージセンサ1122を含み得る。さらに、本明細書において、「特定の画角を有する(又は、特定の画角の)イメージ又はイメージデータ」とは、「特定の画角を有するレンズを含むイメージセンサから出力されるイメージデータ又はイメージ」を意味することができる。
実施形態において、第2の画角(FOV2)は、第1の画角(FOV1)より大きい可能性がある。したがって、第1のイメージセンサブロック1101は、比較的狭い画角のイメージを感知するために動作し、第2のイメージセンサブロック1102は、比較的広い画角のイメージを感知するために動作する。例として、第1のレンズ1111は、広角(wide)レンズであり、第2のレンズ1112は、超広角(ultra-wide)レンズであり得る。また、第1のレンズ1111は、望遠(tele)レンズであり、第2のレンズ1112は、広角(wide)レンズであり得る。
例として、第1のイメージセンサブロック1101は、第1の画角(FOV1)に対応する領域(R1)内のオブジェクトによって反射された光を受信し、受信された光に基づいて、第1の信号(D1)を生成することができる。第2のイメージセンサブロック1102は、第2の画角(FOV2)に対応する領域(R2)内のオブジェクトによって反射された光を受信し、受信された光に基づいて第2の信号(D2)を生成することができる。
イメージ信号プロセッサ1150は、第1の信号(D1)及び第2の信号(D2)に基づいて、各々第1のイメージデータ(IDAT1)及び第2のイメージデータ(IDAT2)を生成することができる。第1のイメージデータ(IDAT1)のダイナミックレンジと第2のイメージデータ(IDAT2)のダイナミックレンジは、異なる可能性がある。例えば、第1のイメージデータ(IDAT1)は、比較的暗い明るさの値を含むことができ、第2のイメージデータ(IDAT2)は、比較的明るい明るさの値を含み得る。
以後、メインプロセッサ1800は、異なる明るさの値を有する第1のイメージデータ(IDAT1)及び第2のイメージデータ(IDAT2)に基づいて、HDR処理を遂行することができる。その結果、HDR処理によってより広いダイナミックレンジを有するイメージを獲得することができるため、イメージ又はイメージで構成されたビデオの品質を向上することができる。
例としては、イメージセンサブロック(1101、1102)は、メインプロセッサ1800の制御に基づいて、電子装置1000の外部から受信される光の量を調節することができる。一実施形態において、電子装置1000の外部から収集される光の量を調節するために、メインプロセッサ1800は、イメージセンサ(1121、1122)のシャッタースピードを調節することができる。もう1つの実施形態において、電子装置1000の外部から収集される光の量を調節するために、メインプロセッサ1800は、イメージセンサ(1121、1122)の絞り値を調節することができる。
イメージセンサ(1121、1122)のシャッタースピード及び/又は絞り値を調整するために、メインプロセッサ1800は、イメージセンサ(1121、1122)に含まれている機械装置を制御したり、イメージセンサ(1121、1122)に含まれているピクセルを制御したりすることができる。例えば、メインプロセッサ1800は、イメージセンサ(1121、1122)のピクセルに含まれているトランジスタの動作を制御することができる。
図4は、図3のイメージセンサブロックの例としての特性を示す概念図である。以下、図2及び図4を参照して、異なる動作特性を有するイメージセンサブロック(1101、1102)の動作が説明される。図4の例では、X軸は特性値を示す。
特性値は、イメージセンサから出力される信号に基づくイメージデータの明るさの値と関連付けられる。特性値の例としては、第1のイメージセンサブロック1101から出力された第1の信号(D1)に基づく第1のイメージデータの輝度範囲(luminance range)は、第2のイメージセンサブロック1102から出力された第2の信号(D2)に基づく第2のイメージデータの輝度範囲とは異なってよい。例として、第1のイメージデータの輝度範囲の最大値(つまり、値「c」)は、第2のイメージデータの輝度範囲の最大値(つまり、値「d」)よりも小さい可能性がある。例として、第1のイメージデータの輝度範囲の少なくとも一部は、第2のイメージデータの輝度範囲の少なくとも一部と重畳されるか、重畳されないかであり得る。
特性値の他の例として、第1のイメージセンサブロック1101から出力された第1の信号(D1)に基づく第1のイメージデータのダイナミックレンジ(dynamic range)は、第2のイメージセンサブロック1102から出力された第2の信号(D2)に基づく第2のイメージデータのダイナミックレンジとは異なってよい。例として、第1のイメージデータのダイナミックレンジの最大値(つまり、値「c」)は、第2のイメージデータのダイナミックレンジの最大値(つまり、値「d」)よりも小さい可能性がある。ダイナミックレンジの値が大きいということは、イメージ内の明るい領域の割合が大きいことを意味することができる。例として、第1のイメージデータのダイナミックレンジの少なくとも一部は、第2のイメージデータのダイナミックレンジの少なくとも一部と重畳されるか、重畳されないかであり得る。
特性値のもう1つの例として、特性値は、イメージセンサ自体の物理的な特性と関連付けられた値であり得る。例えば、特性値は、ピクセルアレイを構成する物理的なピクセルの個数と関連付けられる。この場合、図4で特性値が範囲で示されるものとは異なり、特性値は、固定された1つの値であり得る。例として、第1のイメージセンサブロック1101のピクセルアレイの解像度は、第2のイメージセンサブロック1102のピクセルアレイの解像度と同一であるか、異なるかであり得る。例として、第1のイメージセンサブロック1101は、比較的狭い画角を有する第1のレンズ1111を介して入射された光を処理するのに適したピクセルアレイを含み得る。第2のイメージセンサブロック1102は、比較的広い画角を有する第2のレンズ1112を介して入射された光を処理するのに適したピクセルアレイを含み得る。
図5は、図2のイメージセンサブロックとメインプロセッサの動作を説明するためのタイミング図である。
時点t1ないしt3の間で、イメージセンサブロック(1101、1102)は、現在のビデオフレームに対応するイメージデータを獲得するために動作することができる。イメージセンサブロック(1101、1102)は、獲得されたイメージデータを表す信号(D1、D2)を各々出力することができる。
時点t1以降、イメージ信号プロセッサ1150は、イメージセンサブロック(1101、1102)から信号(D1、D2)を受信することができる。イメージ信号プロセッサ1150は、信号(D1、D2)に基づいて、第1のイメージデータ及び第2のイメージデータを獲得することができる。時点t2ないしt4との間で、メインプロセッサ1800は、異なる画角に各々対応する第1のイメージデータ及び第2のイメージデータに基づいてHDR処理を遂行することができる。
図5の例では、HDR処理に使用される異なる明るさの値を有するイメージデータを獲得するために、イメージセンサブロック(1101、1102)は、同じ時間の区間で動作することができる。イメージセンサブロック(1101、1102)は、同じ時間の区間で動作することによって、ビデオHDR処理に使用されるイメージデータがリアルタイムで獲得され得る。したがって、電子装置1000は、イメージセンサブロック(1101、1102)、及びイメージ信号プロセッサ1150の動作によってHDR処理されたイメージデータをリアルタイムに獲得することができる。
図6は、本発明のHDR処理のための動作を概念的に示している。
図2、図4、及び図6を参照して、異なる画角を有する2つのイメージに対するHDR処理が説明される。イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から受信される第1の信号(D1)に基づいて、第1のイメージデータ(IDAT1)を獲得し、第2のイメージセンサブロック1102から受信される第2の信号(D2)に基づいて、第2のイメージデータ(IDAT2)を獲得することができる。例として、イメージセンサブロック(1101、1102)は、異なる画角を有するレンズから受信された光を感知して、第1のイメージデータ(IDAT1)及び第2のイメージデータ(IDAT2)を各々獲得することができる。
例として、第1のイメージセンサ1121は、M個のピクセルを各々含むN個の列で構成される(又は、N個のピクセルを各々含むM個の行で構成される)ピクセルアレイを含み得る。したがって、第1のイメージデータ(IDAT1)の大きさは、「Mピクセル×Nピクセル」であり得る。同様に、第2のイメージセンサ1122は、P個のピクセルを各々含むQ個の列で構成される(又は、Q個のピクセルを各々含むP個の行で構成される)ピクセルアレイを含み得る。したがって、第2のイメージデータ(IDAT2)の大きさは、「Pピクセル×Qピクセル」であり得る。例として、Pは、Mよりも大きくなり、Qは、Nよりも大きくなり得る。すなわち、第2のイメージデータ(IDAT2)の解像度は、第1のイメージデータ(IDAT1)より大きくなれる。したがって、第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)、及び第2のイメージデータ(IDAT2)の明るさの値(又は、明るさの値の範囲)は、異なってよい。
しかし、他の実施形態で、PとMは同一であり、QとNは同一であり得る。この場合には、第1のイメージデータ(IDAT1)の解像度は、第2のイメージデータ(IDAT2)の解像度と同一であり、第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)、及び第2のイメージデータ(IDAT2)の明るさの値(又は、明るさの値の範囲)は、異なってよい。ただし、本明細書における説明を容易にするために、イメージセンサブロックから出力されるイメージデータの解像度は、互いに異なると仮定して説明される。さらに、より広いダイナミックレンジを獲得するためのHDR処理の前提として、イメージセンサブロックから出力されるイメージデータの明るさの値(又は、明るさの値の範囲)は、異なると仮定される。
以下では、よりよい理解のために、イメージデータのサイズ「Mピクセル×Nピクセル」は、「M×N」として称される。本明細書では、イメージデータのサイズが「M×N」などとして表現される場合、そのイメージデータがM個の列とN個の行に含まれている不連続的な単位(例えば、ピクセル)によって表現されるイメージを表すことを意味する。
同様に、第2のイメージセンサ1122は、P個のピクセルを各々含むQ個の列で構成される(又は、N個のピクセルを各々含んでいるP個の行で構成される)ピクセルアレイを含み得る。すなわち、第2のイメージデータ(IDAT2)のサイズは、P×Qであり得る。
メインプロセッサ1800は、第2のイメージデータ(IDAT2)の中の一部をクロッピング(cropping)することができる。メインプロセッサ1800は、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分をクロッピングすることができる。第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域のイメージデータのサイズは、M×Nである。たとえば、クロッピングされる領域のサイズ(M×N)は、第2のイメージデータ(IDAT2)のサイズ(P×Q)の1/2又はその以下であり得るが、これに限定されない。クロッピングの結果、M×Nの第3のイメージデータ(IDAT3)が生成される。
図4を参照して説明されたように、イメージセンサブロック(1101、1102)は、イメージセンサブロック自体の特性によって、異なる明るさの値を有する第1のイメージデータ(IDAT1)及び第2のイメージデータ(IDAT2)を各々出力することができる。その結果、第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)、及び第3のイメージデータ(IDAT3)の明るさの値(又は、明るさの値の範囲)も異なってよい。メインプロセッサ1800は、イメージ信号プロセッサ1150から第1のイメージデータ(IDAT1)及び第3のイメージデータ(IDAT3)を受信し、受信されたイメージデータに基づいてHDR処理を遂行することができる。メインプロセッサ1800は、HDR処理により、現在のビデオフレームに対応するイメージデータ(IOUT)を獲得することができる。
HDR処理されたイメージデータ(IOUT)によって表されるイメージは、第1のイメージデータ(IDAT1)のダイナミックレンジ、及び第3のイメージデータ(IDAT3)のダイナミックレンジを含み得る。つまり、HDR処理を介して、第1のイメージデータ(IDAT1)のダイナミックレンジ(つまり、aないしc)又は第3のイメージデータ(IDAT3)のダイナミックレンジ(つまり、bないしd)よりも広いダイナミックレンジを有するイメージ(つまり、aないしd)が獲得され得る。
一方、本実施形態は、基本的に、ビデオに対するHDR処理に関するものである。ただし、本発明のHDR処理方法を写真撮影に適用する場合には、露出値を人為的に調節することにより、イメージデータの明るさの値を人為的に調節することもできる。例えば、周辺部の明るさが明るすぎる場合には、照度センサ(図2、1710)は、これを感知して周辺部の明るさに関する情報をメインプロセッサ1800に伝達することができる。メインプロセッサ1800は、周辺部の明るさの情報に基づいてイメージセンサブロック(1101、1102)のうちの少なくとも1つの露出値を調節することができる。その結果、HDR処理を介して、より広いダイナミックレンジを有するイメージが獲得される。
図7は、本発明のHDR処理のための動作を概念的に示している。
以下、図2及び図7を参照して、互いに異なる画角を有する2つのイメージに対するHDR処理が説明される。イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から受信される第1の信号(D1)に基づいて、第1のイメージデータ(IDAT1)を獲得し、第2のイメージセンサブロック1102から受信される第2の信号(D2)に基づいて、第2のイメージデータ(IDAT2)を獲得することができる。第1のイメージデータ(IDAT1)のサイズは、M′×N′であり、第2のイメージデータ(IDAT2)のサイズは、P×Qであり得る。例として、PはN′よりも大きくなることができ、QはN′よりも大きくなることができる。すなわち、第2のイメージデータ(IDAT2)の解像度は、第1のイメージデータ(IDAT1)より大きくなることができる。例として、第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)、及び第2のイメージデータ(IDAT2)の明るさの値(又は、明るさの値の範囲)は、互いに異なってよい。
実施形態において、第1のイメージデータ(IDAT1)の解像度(M′×N′)は、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域の解像度(つまり、M×N )よりも大きくなることができる。つまり、Mは、M′より小さくなることができ、Nは、N′よりも小さくなることができる。この場合、HDR処理を遂行する前に、HDR処理の基本となるイメージデータの解像度を調節する必要がある。
例えば、メインプロセッサ1800は、第1のイメージデータ(IDAT1)に対するビニング(binning)を行うことができる。メインプロセッサ1800は、多様なタイプのアルゴリズムに基づいてビニングを行うことができる。メインプロセッサ2300は、M′×N′の第1のイメージデータ(IDAT1)に対するビニングを遂行して、M×Nの第3のイメージデータ(IDAT3)を獲得することができる。
メインプロセッサ1800は、第2のイメージデータ(IDAT2)の中の一部をクロッピング(cropping)することができる。メインプロセッサ1800は、第2のイメージデータ(IDAT2)のうち第3のイメージデータ(IDAT3)に対応するイメージデータをクロッピングすることができる。図7を介して説明されるクロッピングは図6を介して説明されたクロッピングとほぼ類似するため、詳細な説明は省略する。クロッピングの結果、M×Nの第4のイメージデータ(IDAT4)が生成され得る。
第3のイメージデータ(IDAT3)は、第1のイメージデータ(IDAT1)に対応する領域をビニングして得られ、第4のイメージデータ(IDAT4)は、第2のイメージデータ(IDAT2)に対するクロッピングを遂行して得られるため、第3のイメージデータ(IDAT3)によって表されるイメージと第4のイメージデータ(IDAT4)によって表されるイメージは、互いに対応し得る。例として、第3のイメージデータ(IDAT3)によって表されるイメージと第4のイメージデータ(IDAT4)によって表されるイメージは、明るさの値を除き、概ね類似する。
第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)と第2のイメージデータ(IDAT2)の明るさの値(又は、明るさの値の範囲)が、互いに異なるため、第3のイメージデータ(IDAT3)の明るさの値(又は、明るさの値の範囲)と第4のイメージデータ(IDAT4)の明るさの値(又は、明るさの値の範囲)が、互いに異なってよい。メインプロセッサ1800は、異なる明るさの値を各々有する第3のイメージデータ(IDAT3)及び第4のイメージデータ(IDAT4)に基づいて、HDR処理を遂行することができる。メインプロセッサ1800は、HDR処理を介してイメージデータ(IOUT)を獲得することができる。
図7の実施形態によれば、HDR演算に先立って、第1のイメージデータに対するビニングが実行されるため、HDR演算時に処理されるデータの量が減少する。したがって、HDR処理速度が速くされ、メインプロセッサ1800によって消費される電力が減少され得る。
図8は、本発明のHDR処理のための動作を概念的に示している。
前の図7の実施形態では、第1のイメージデータ(IDAT1)の解像度が、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域の解像度(つまり、M×N)よりも大きい場合のHDR処理について説明された。一方、本実施形態は、第1のイメージデータ(IDAT1)の解像度(つまり、M×N)が、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域の解像度(つまり、M′×N′)よりも小さい場合のHDR処理に関するものである。(つまり、M<M′、N<N′)。
イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から出力された第1の信号(D1)に基づいて、M×Nの第1のイメージデータ(IDAT1)を生成することができる。イメージ信号プロセッサ1150は、第2のイメージセンサブロック1102から出力された第2の信号(D2)に基づいて、P×Qの第2のイメージデータ(IDAT2)を生成することができる。
メインプロセッサ1800は、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応するイメージデータをクロッピングすることができる。クロッピングの結果、M′×N′の第3のイメージデータ(IDAT3)が生成され得る。ただし、第1のイメージデータ(IDAT1)の解像度と、第3のイメージデータ(IDAT3)の解像度とは、異なるため、すぐにHDR処理を遂行することができない。したがって、第3のイメージデータ(IDAT3)に対する追加の動作が要求される。例えば、メインプロセッサ1800は、M′×N′の第3のイメージデータ(IDAT3)に対するビニングを遂行して、M×Nの第4のイメージデータ(IDAT4)を獲得することができる。クロッピングとビニングの結果、第1のイメージデータ(IDAT1)のサイズと第4のイメージデータ(IDAT4)のサイズは、M×Nとして互いに等しくなり得る。
第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)と第2のイメージデータ(IDAT2)の明るさの値(又は、明るさの値の範囲)が異なるため、第1のイメージデータ(IDAT1)の明るさの値(又は、明るさの値の範囲)と第4のイメージデータ(IDAT4)の明るさの値(又は、明るさの値の範囲)が異なってよい。メインプロセッサ1800は、異なる明るさの値を各々有する第1のイメージデータ(IDAT1)と第4のイメージデータ(IDAT4)に基づいて、HDR処理を遂行することができる。メインプロセッサ1800は、HDR処理を介してイメージデータ(IOUT)を獲得することができる。
図9は、本発明のHDR処理のための動作を概念的に示している。
前で図8の実施形態では、第1のイメージデータ(IDAT1)の解像度が、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域の解像度よりも小さい場合に、第2のイメージデータ(IDAT2)に対し遂行される追加の動作に関して説明した。しかし、本実施形態では、第1のイメージデータ(IDAT1)の解像度が、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域の解像度よりも小さい場合には、第1のイメージデータ(IDAT1)に対し遂行される追加の動作が説明されるはずである。(つまり、M>M′、N>N′)。
イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から出力された第1の信号(D1)に基づいて、M′×N′の第1のイメージデータ(IDAT1)を生成することができる。イメージ信号プロセッサ1150は、第2のイメージセンサブロック1102から出力された第2の信号(D2)に基づいて、P×Qの第2のイメージデータ(IDAT2)を生成することができる。
メインプロセッサ1800は、M′×N′の第1のイメージデータ(IDAT1)に対するアップスケーリングを遂行して、M×Nの第4のイメージデータ(IDAT4)を獲得することができる。メインプロセッサ1800は、多様なタイプのアルゴリズムに基づいてアップスケーリングを行うことができる。メインプロセッサ1800は、第2のイメージデータ(IDAT2)の中の一部をクロッピングすることができる。メインプロセッサ1800は、第2のイメージデータ(IDAT2)のうち第3のイメージデータ(IDAT3)に対応するイメージデータをクロッピングすることができる。クロッピングの結果、M×Nの第4のイメージデータ(IDAT4)が生成され、第3のイメージデータ(IDAT3)のサイズと第4のイメージデータ(IDAT4)のサイズは、互いに同一になり得る。
第1のイメージデータ(IDAT1)の明るさの値と第2のイメージデータ(IDAT2)の明るさの値が異なるため、第3のイメージデータ(IDAT3)の明るさの値と第4のイメージデータ(IDAT4)の明るさの値が異なってよい。メインプロセッサ1800は、異なる明るさの値を各々有する第3のイメージデータ(IDAT3)と第4のイメージデータ(IDAT4)に基づいて、HDR処理を遂行することができる。メインプロセッサ1800は、HDR処理を介してイメージデータ(IOUT)を獲得することができる。
図10は、本発明のHDR処理のための動作を概念的に示している。
本実施形態は、前の図7の実施形態と概ね類似する。ただし、本実施形態は、HDR処理に先立って、第2のイメージデータ(IDAT2)に対するクロッピングが実行されない。したがって、前の図7ないし図9の実施形態では、第1のイメージセンサ1101によって撮影されたイメージのサイズ(又は、それからビニングされたイメージの大きさ)に応じて、HDR処理の結果がユーザーインターフェース(例えば、ディスプレイ)を介してユーザーに提供される。一方、図10の実施形態では、第2のイメージセンサ1102によって撮影されたイメージのサイズに応じて、HDR処理の結果が、ユーザーインターフェースを介してユーザーに提供される。
イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から受信される第1の信号(D1)に基づいて、M′×N′の第1のイメージデータ(IDAT1)を獲得し、第2のイメージセンサブロック1102から受信される第2の信号(D2)に基づいて、P×Qの第2のイメージデータ(IDAT2)を獲得することができる。ただし、第1のイメージデータ(IDAT1)のサイズと、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域のサイズとは異なるため、第1のイメージデータ(IDAT1)に対する追加の処理が必要である。
例えば、メインプロセッサ1800は、M′×N′の第1のイメージデータ(IDAT1)のビニングを遂行して、M×Nの第3のイメージデータ(IDAT3)を獲得することができる。メインプロセッサ1800は、第3のイメージデータ(IDAT3)と第2のイメージデータ(IDAT2)とに基づいて、HDR処理を遂行することができ、HDR処理を介してイメージデータ(IOUT)を獲得することができる。
図11は、本発明のHDR処理のための動作を概念的に図示する。
まず、図6ないし図9を介して説明された実施形態は、リアルタイムで撮影されるビデオの各フレームのHDR処理、又は瞬間的に撮影されるイメージのHDR処理と関連付けられる。しかし、本実施形態は、瞬間的に撮影されるイメージのHDR処理と関連付けられる。また、予め撮影されたビデオから抽出された複数のイメージのHDR処理と関連付けられる。
第1のイメージセンサブロック1101によって、第1のイメージデータ(IDAT1)が獲得される時点と第3のイメージデータ(IDAT3)が獲得される時点との間の時間区間が、十分に短い場合には、第1のイメージデータ(IDAT1)によって表されるイメージと、第3のイメージデータ(IDAT3)によって表されるイメージとは、互いに対応し得る。同様に、第2のイメージデータ(IDAT2)によって表されるイメージと、第4のイメージデータ(IDAT4)によって表されるイメージとは、互いに対応し得る。
イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から順次に受信される信号(D1、D3)に基づいて、イメージデータ(IDAT1、IDAT3)を順次に獲得することができる。イメージ信号プロセッサ1150は、第2のイメージセンサブロック1102から順次に受信される信号(D2、D4)に基づいて、イメージデータ(IDAT2、IDAT4)を順次に獲得することができる。
第1のイメージデータ(IDAT1)及び第3のイメージデータ(IDAT3)のサイズは、M′×N′であり、第2のイメージデータ(IDAT2)及び第4のイメージデータ(IDAT4)のサイズは、P×Qであり得る。例えば、第1のイメージデータ(IDAT1)の明るさの値ないし第4のイメージデータ(IDAT4)の明るさの値は、異なってよい。
メインプロセッサ1800は、第1のイメージデータ(IDAT1)及び第3のイメージデータ(IDAT3)に対するビニングを行うことができる。メインプロセッサ1800は、M′×N′の第1のイメージデータ(IDAT1)に対するビニングを遂行して、M×Nの第5のイメージデータ(IDAT5)を獲得し、「M×N」の第3のイメージデータ(IDAT3)のビニングを遂行して、M×Nの第7のイメージデータ(IDAT7)を獲得することができる。メインプロセッサ1800は、第2のイメージデータ(IDAT2)のうち、第5のイメージデータ(IDAT5)又は第7のイメージデータ(IDAT7)に対応するM×Nのイメージデータのクロッピングを遂行し、第6のイメージデータ(IDAT6)を獲得することができる。メインプロセッサ1800は、第4のイメージデータ(IDAT4)のうち、第5のイメージデータ(IDAT5)又は第7のイメージデータ(IDAT7)に対応するM×Nのイメージデータのクロッピングを遂行し、第8のイメージデータ(IDAT8)を獲得することができる。
第1のイメージデータ(IDAT1)の明るさの値ないし第4のイメージデータ(IDAT4)の明るさの値が、異なるため、第5のイメージデータ(IDAT5)の明るさの値ないし第8のイメージデータ(IDAT8)の明るさの値も異なってよい。メインプロセッサ1800は、異なる明るさの値を各々有する第5のイメージデータ(IDAT5)ないし第8のイメージデータ(IDAT8)に基づいて、HDR処理を遂行することができる。メインプロセッサ1800は、HDR処理を介してイメージデータ(IOUT)を獲得することができる。
ただし、メインプロセッサ1800によるHDR処理方法は、これに限定されない。例として、メインプロセッサ1800は、第5のイメージデータ(IDAT5)ないし第8のイメージデータ(IDAT8)の中の一部(例えば、IDAT5、IDAT7、IDAT8)に基づいてHDR処理を遂行することができる。例えば、メインプロセッサ1800は、第5のイメージデータ(IDAT5)及び第6のイメージデータ(IDAT6)に対して、第1の HDR処理を行い、第7のイメージデータ(IDAT7)及び第8のイメージデータ(IDAT8)に対して第2のHDRを処理することができる。そして、メインプロセッサ1800は、第1のHDR処理結果及び第2のHDR処理結果に基づいて、第3のHDR処理を遂行することができる。そのほかにも、イメージデータ(IDAT5、IDAT6、IDAT7、IDAT8)から組み合わせ可能な多様なイメージデータに基づいて、HDR処理が遂行される。
一方、本実施形態では、図7で説明されたクロッピングとビニングに基づいてHDR処理を遂行することが説明されたが、本発明はこれに限定されない。例えば、図6、図8ないし図10を介して説明されたHDR処理のうち少なくとも1つが、図11の実施形態に適用され得る。
図12は、本発明のイメージ処理方法を示すフローチャートである。
図2、図3及び図12を共に参照して、ステップS110において、第1のイメージセンサブロック1101は、第1の画角(FOV1)に対応する第1の信号(D1)を生成する。例として、第1の信号(D1)は、比較的狭い第1の画角(FOV1)を有する第1のレンズ1111を介して入射された光に基づく。イメージ信号プロセッサ1150は、第1の信号(D1)に基づいて、第1のイメージデータ(IDAT1)を生成する。
ステップS120において、第2のイメージセンサブロック1102は、第2の画角(FOV2)に対応する第2の信号(D2)を生成する。第2のイメージデータ(IDAT2)を生成する。例として、第2の信号(D2)は、比較的広い第2の画角(FOV2)を有する第2のレンズ1112を介して入射された光に基づく。イメージ信号プロセッサ1150は、第2の信号(D2)に基づいて、第2のイメージデータ(IDAT2)を生成する。例として、第2のイメージデータ(IDAT2)の明るさの値の範囲は、第1のイメージデータ(IDAT1)の明るさの値の範囲とは異なってよい。
ステップS130においては、第1のイメージデータ(IDAT1)の解像度と、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分の解像度とが、同一であるか否か判定される。もし同一であれば、HDR処理に先立って、解像度を調整するための追加の処理が必要でないことを意味する。従って、手順は、ステップS140に移動する。
ステップS140においては、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分に対するクロッピングが遂行される。
ステップS150においては、第1のイメージデータ(IDAT1)とクロッピングされた第2のイメージデータ(IDAT2)に対するHDR処理が実行される。第1のイメージデータ(IDAT1)のダイナミックレンジと第2のイメージデータ(IDAT2)のダイナミックレンジが異なるため、HDR処理を介して、さらに広がったダイナミックレンジが獲得される。
一方、再びステップS130を参照して、第1のイメージデータ(IDAT1)の解像度と、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分の解像度とが同一でない場合、HDR処理に先立って、解像度を調整するための追加の処理が必要になり得る。従って、手順はステップS160に移動する。
ステップS160において、メインプロセッサ1800は、第1のイメージデータ(IDAT1)の解像度を調節する。例えば、第1のイメージデータ(IDAT1)の解像度が、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分の解像度よりも大きい場合、メインプロセッサ1800は、第1のイメージデータ(IDAT1)に対するビニングを行うことができる。一方、第1のイメージデータ(IDAT1)の解像度が、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分の解像度よりも小さい場合に、メインプロセッサ1800は、第1のイメージデータ(IDAT1)に対するアップスケーリングを行うことができる。メインプロセッサ1800による解像度調節の結果、第1のイメージデータ(IDAT1)の解像度は、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分の解像度と同一になるだろう。
ステップS170においては、第2のイメージデータ(IDAT2)のうち、解像度が調節された第1のイメージデータ(IDAT1)に対応する部分に対するクロッピングが遂行される。
ステップS180においては、解像度が調節された第1のイメージデータ(IDAT1)とクロッピングされた第2のイメージデータ(IDAT2)に対するHDR処理が遂行される。第1のイメージデータ(IDAT1)のダイナミックレンジと第2のイメージデータ(IDAT2)のダイナミックレンジとが異なるため、HDR処理を介して、さらに広がったダイナミックレンジが獲得される。
一方、本発明は、前述された実施形態に限定されない。第1のイメージデータ(IDAT1)の解像度と、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する部分の解像度とが異なる場合、図7だけではなく、図8及び図9を介して説明された実施形態が、図13の実施形態にも適用されるだろう。
図13は、図1のイメージ処理ブロックの例としての構成を示すブロック図である。
イメージ処理ブロック1100は、イメージセンサブロック(1101ないし110n)及びイメージ信号プロセッサ1150を含み得る。イメージ処理ブロック1100に対する説明を容易にするために、ユーザーインターフェース1600、照度センサ1710、及びメインプロセッサ1800も共に図示されている。例として、照度センサ1710は、図1のセンサ1700の一部として実現される。
第1のイメージセンサブロック1101は、第1のレンズ1111、第1のアクチュエータ1141、及び第1のイメージセンサ1121を含み得る。第2のイメージセンサブロック1102は、第2のレンズ1112、第2のアクチュエータ1142、及び第2のイメージセンサ1122を含み得る。第nのイメージセンサブロック110nは、第nのレンズ111n、第nのアクチュエータ114n、及び第nのイメージセンサ112nを含み得る(nは、3又はそれより大きい整数)。図13のイメージセンサブロック(1101ないし110n)の構成と動作は、図2のイメージセンサブロック(1101、1102)の各々の構成と動作に類似するため、重複する説明は省略される。
図14は、図13のイメージセンサブロックの例としての動作を説明するためのブロック図である。
例として、イメージ処理ブロック1100は、第1ないし第3のイメージセンサブロック(1101、1102、1103)を含み得る。第1のイメージセンサブロック1101は、第1の画角(FOV1)に対応する領域(R1)のイメージを生成するための第1のイメージセンサ1121、第2の画角(FOV2)に対応する領域(R2)のイメージを生成するための第2のイメージセンサ1122、及び第3の画角(FOV3)に対応する領域(R3)のイメージを生成するための第3のイメージセンサ1123を含み得る。
第3の画角(FOV3)は、第2の画角(FOV2)よりも大きい可能性があり、第2の画角(FOV2)は、第1の画角(FOV1)より大きい可能性がある。例として、第1のレンズ1111は、望遠(tele)レンズであり、第2のレンズ1112は、広角(wide)レンズであり、第3のレンズ1113は、超広角(ultra-wide)レンズであり得る。例として、第1のレンズ1111の画角は、10度ないし15度であり、第2のレンズ1112の画角は、70度ないし90度であり、第3のレンズ1113の画角は、100度ないし130度であり得る。しかし、レンズ(1111、1112、1113)の画角は、これに限定されない。
例として、第1のイメージセンサブロック1101は、比較的低解像度のピクセルアレイを含み、第3のイメージセンサブロック1103は、比較的高解像度のピクセルアレイを含み、第2のイメージセンサブロック1102は、その中間の解像度のピクセルアレイを含み得る。例として、第1のイメージセンサブロック1101は、比較的狭い画角の領域(R1)のイメージを感知するために動作し、第3のイメージセンサブロック1103は、比較的広い画角の領域(R3)のイメージを感知するために動作し、第2のイメージセンサブロック1102は、その中間の画角の領域(R2)のイメージを感知するために動作することができる。
例として、前述の実施形態と同様に、イメージセンサブロック(1101、1102、1103)の少なくとも2つのピクセルアレイの解像度は、互いに同一であるか、又はイメージセンサブロック(1101、1102、1103)のピクセルアレイの解像度は、異なってよい。ただし、説明を容易にするために、イメージセンサブロック(1101、1102、1103)のピクセルアレイの解像度は、互いに異なるものと仮定して説明する。さらに、より広いダイナミックレンジを獲得するためのHDR処理の前提として、イメージセンサブロックから出力されるイメージデータの明るさの値(又は、明るさの値の範囲)は、互いに異なるものと仮定される。
イメージ信号プロセッサ1150は、第1のイメージセンサブロック1101から受信される第1の信号(D1)に基づいて、第1のイメージデータ(IDAT1)を獲得し、第2のイメージセンサブロック1102から受信される第2の信号(D2)に基づいて、第2のイメージデータ(IDAT2)を獲得し、第3のイメージセンサブロック1103から受信される第3の信号(D3)に基づいて、第3のイメージデータ(IDAT3)を獲得することができる。イメージセンサブロック(1101、1102、1103)は、イメージデータ(IDAT1、IDAT2、IDAT3)を各々獲得することができる。
一方、図14のイメージ処理ブロックは、3つのイメージセンサブロックを含むことを除いては、図3の実施形態と概ね類似する。したがって、これ以上の詳細な説明は省略することにする。
図15は、本発明のHDR処理のための動作を概念的に示している。
図13、図14、及び図15を参照して、異なる画角を有する3つのイメージに対するHDR処理が説明される。イメージ信号プロセッサは、イメージセンサブロック(1101、1102、1103)から出力された信号(D1、D2、D3)に基づいて、J×Kの第1のイメージデータ(IDAT1)、M×Nの第2のイメージデータ(IDAT2)、及びP×Qの第3のイメージデータ(IDAT3)を生成する。
メインプロセッサ1800は、第2のイメージデータ(IDAT2)のうち、第1のイメージデータ(IDAT1)に対応する領域に対するクロッピングを遂行することにより、J×Kの第4のデータを生成することができる。メインプロセッサは、第3のイメージデータ(IDAT3)のうち、第1のイメージデータ(IDAT1)に対応する領域のクロッピングを遂行することにより、J×Kの第5のデータを生成することができる。
第1のイメージデータ(IDAT1)の明るさ値、第2のイメージデータ(IDAT2)の明るさ値、及び第3のイメージデータ(IDAT3)の明るさの値が異なるため、第1のイメージデータ(IDAT1)の明るさの値、第4のイメージデータ(IDAT4)の明るさの値、及び第5のデータ(IDAT5)の明るさの値が異なってよい。メインプロセッサ1800は、異なる明るさの値を各々有する第1のイメージデータ(IDAT1)、第4のイメージデータ(IDAT4)、及び第5のイメージデータ(IDAT5)に基づいて、HDR処理を遂行することができる。メインプロセッサ1800は、HDR処理を介してイメージデータ(IOUT)を獲得することができる。
一方、本実施形態では、第1のイメージデータ(IDAT1)、クロッピングされた第4のイメージデータ(IDAT4)、及びクロッピングされた第5のイメージデータ(IDAT5)の解像度がJ×Kとして、互いに同一であると仮定された。しかし、第1のイメージデータ(IDAT1)、第4のイメージデータ(IDAT4)、及び第5のイメージデータ(IDAT5)の解像度が異なる場合には、HDR処理に先立って、追加の処理がさらに要求される。このような場合に、要求される処理を、図16を介して説明することにする。
図16は、本発明のHDR処理のための動作を概念的に示している。
例として、第1のイメージデータ(IDAT1)の解像度が第5のイメージデータ(IDAT5)の解像度、及び/又は第6のイメージデータ(IDAT6)の解像度よりも大きい場合には、HDR処理を遂行する前に、メインプロセッサ1800は、第1のイメージデータ(IDAT1)に対する追加の処理を遂行することができる。例えば、メインプロセッサ1800は、J×Kの第1のイメージデータ(IDAT1)のビニングを実行して、G×Hの第4のイメージデータ(IDAT4)を獲得することができる(つまり、J>G、H>K)。したがって、第4のイメージデータ(IDAT4)の解像度、第5のイメージデータ(IDAT5)の解像度、及び第6のイメージデータ(IDAT6)の解像度は、互いに同一になるだろう。
一方、図16を介して説明されたケースに加えて、第1のイメージデータ(IDAT1)の解像度、第4のイメージデータ(IDAT4)の解像度、及び第5のイメージデータ(IDAT5)の解像度が異なる多様なケースが有り得る、各々のケースについて、解像度を同一に調整するための多様な処理が遂行され得る。ただし、解像度が異なる多様なケースにおいて、解像度を同一に調整するための多様な処理は、図7ないし9の実施形態及びこれらの組み合わせによって十分に導出可能である。したがって、これ以上の詳細な説明は省略する。
図17は、ズームファクター(zoom factor)によるイメージセンサブロックの動作を概念的に図示する。図18は、第1のズームモードでのイメージセンサブロックの動作を概念的に示している。図19は、第2のズームモードでのイメージセンサブロックの動作を概念的に示している。
まず、図17の実施形態は、図13のイメージセンサブロックの個数が3である場合(つまり、n=3)と関連付けられる。ズームファクターは、撮影されるオブジェクトの拡大又は縮小と関連付けられる。例として、ユーザーは、ズームファクターの値を徐々に増加/減少させたり、特定の値を選択したりすることで、意図されたイメージを撮影するためのズーム条件を設定することができる。図15の例で、X軸によって表されるズームファクターは、ユーザーによって意図されたズーム倍率を意味することができる。例えば、ズームファクターは、最小値(ZF_min)と最大値(ZF_max)との間で可変であり得る。最小値(ZF_min)は、「1」であり得るが、これに限定されず、「0」よりも大きく「1」よりも小さな実数であり得る。最大値(ZF_max)は、「1」よりも大きな実数であり得る。ズームファクターの範囲は、ズームモードの変更を引き起こす閾値(ZF_th、しきい値)を含み得る。
ユーザーは、多様な範囲の距離に位置したオブジェクトを撮影するために、ユーザーインターフェース(図13、1600)を介してズーム倍率を変更するためのコマンドを入力することができる。メインプロセッサ(図13、1800)は、ユーザーのコマンドに応答してイメージセンサブロック(図13、1101ないし1103)の動作を制御することができる。
続いて、図17及び図18を参照して、第1のズームモードでのイメージ処理ブロック1100の動作が説明される。ユーザーによって調節されるズームファクターが最小値(ZF_min)と閾値(ZF_th)との間である場合に、イメージ処理ブロック1100は、第1のズームモードで動作する。第1のズームモードでは、第1のイメージセンサブロック1101は、動作せず、第2のイメージセンサブロック1102及び第3のイメージセンサブロック1103が動作することができる。例えば、第2のイメージセンサブロック1102は、領域(R2)に対応するオブジェクトを撮影して第2の信号(D2)を出力することができる。第3のイメージセンサブロック1103は、領域(R3)のオブジェクトを撮影して第3の信号(D3)を出力することができる。
イメージ信号プロセッサ1150は、第2の信号(D2)に基づいて、第2のイメージデータ(IDAT2)を生成することができ、第3の信号(D3)に基づいて、第3のイメージデータ(IDAT3)を生成することができる。例として、第3のイメージデータ(IDAT3)に対応するイメージは、第2のイメージデータ(IDAT2)に対応するイメージを含み得る。例として、比較的高解像度の第3のイメージデータ(IDAT3)は、比較的高解像度のピクセルアレイと関連付けられ、比較的中解像度の第2のイメージデータ(IDAT2)は、比較的中解像度のピクセルアレイと関連付けられる。例として、第3のイメージの明るさの値は、第2のイメージの明るさの値よりも大きい可能性がある。
メインプロセッサ1800は、第2のイメージデータ(IDAT2)及び第3のイメージデータ(IDAT3)に対してHDR処理を遂行することができる。HDR処理は、図6ないし図11を介して説明された実施形態のうち少なくとも1つを含み得る。
一方、電子装置(図13、1000)のユーザーが、オブジェクトに対するビデオを撮影する最中に、ユーザーは、オブジェクトを拡大するためにズーム倍率を増加させることができる。ズーム倍率を増加させることで、ズームファクターは、増加するだろう。ズームファクターが増加するのは、図18で点線の矢印として概念的に図示されている。万が一、ズームファクターが特定の閾値に到達すると、イメージ処理ブロック1100のズームモードが、第1のズームモードから第2のズームモードに変更され得る。
図17及び図19を参照して、第2のズームモードでのイメージ処理ブロック1100の動作が説明される。ユーザーによって調節されるズームファクターが、閾値(ZF_th)と最大値(ZF_max)との間である場合には、イメージ処理ブロック1100は、第2のズームモードで動作する。第2のズームモードにおいて、第3のイメージセンサブロック1103は、動作せず、第1のイメージセンサブロック1101及び第2のイメージセンサブロック1102が動作することができる。例えば、第1のイメージセンサブロック1101は、領域(R1)のオブジェクトを撮影して第1の信号(D1)を出力することができる。第2のイメージセンサブロック1102は、領域(R2)のオブジェクトを撮影して第2の信号(D2)を出力することができる。
イメージ信号プロセッサ1150は、第1の信号(D1)に基づいて、第1のイメージデータ(IDAT1)を生成することができ、第2の信号(D2)に基づいて、第2のイメージデータ(IDAT2)を生成することができる。例として、第2のイメージデータ(IDAT2)に対応するイメージは、第1のイメージデータ(IDAT1)に対応するイメージを含み得る。例としては、比較的中解像度の第2のイメージデータ(IDAT2)は、比較的中解像度のピクセルアレイと関連付けられ、比較的低解像度の第1のイメージデータ(IDAT1)は、比較的低解像度のピクセルアレイと関連付けられる。例として、第2のイメージの明るさの値は、第1のイメージの明るさの値よりも大きい可能性がある。
メインプロセッサ1800は、第1のイメージデータ(IDAT1)と第2のイメージデータ(IDAT2)に対してHDR処理を遂行することができる。HDR処理は、図6ないし図11を介して説明された実施形態のうち少なくとも1つを含み得る。
図20は、図13のイメージセンサブロックの例としての動作を説明するためのブロック図である。
イメージ処理ブロック1100は、第1ないし第5のイメージセンサブロック(1101ないし1105)を含み得る(つまり、n=5)。第1のイメージセンサブロック1101ないし第5のイメージセンサブロック1105は、第1の画角(FOV1)の第1のレンズないし第5の画角(FOV5)の第5のレンズを各々含み得る。第1のレンズの画角が最も小さく、第5のレンズに行くほど画角が大きくなれる(つまり、FOV1<FOV2<FOV3<FOV4<FOV5)。例として、第1のレンズ1111は、望遠(tele)レンズであり得る。第2のレンズ1112及び第3のレンズ1113は、異なる画角を有する広角(wide)レンズであり得る。第4のレンズ1114及び第5のレンズ1115は、異なる画角を有する超広角(ultra-wide)レンズであり得る。
第1のイメージセンサブロック1101は、第1の画角(FOV1)に対応する領域(R1)のイメージに関連付けられた第1の信号(D1)を生成することができ、第2の画角(FOV2)に対応する領域(R2)のイメージに関連付けられた第2の信号(D2)を生成することができ、第3の画角(FOV2)に対応する領域(R3)のイメージに関連付けられた第3の信号(D3)を生成することができ、第4の画角(FOV4)に対応する領域(R4)のイメージに関連付けられた第4の信号(D4)を生成することができ、第5の画角(FOV5)に対応する領域(R5)のイメージに関連付けられた第5の信号(D5)を生成することができる。
一方、図20のイメージ処理ブロックは、5つのイメージセンサブロックを含むことを除いては、図3の実施形態と概ね類似する。したがって、これ以上の詳細な説明は省略することにする。
図21は、ズームファクター(zoom factor)によるイメージセンサブロックの動作を概念的に示している。図20及び図21を参照して、複数のズームモードにおいて動作するイメージ処理ブロックが説明される。
ユーザーによって調節されるズームファクターが、最小値(ZF_min)と第1の値(ZF1)との間である場合に、イメージ処理ブロック1100は、第1のズームモードで動作する。第1のズームモードにおいて、イメージセンサブロック(1104、1105)が動作し、残りのイメージセンサブロックは、動作しない。イメージ信号プロセッサ1150は、イメージセンサブロック(1104、1105)から出力された信号に基づいて、イメージデータを生成する。メインプロセッサ1800は、イメージ信号プロセッサ1150から出力されたイメージデータに基づいて、図6ないし図11のHDR処理を遂行することができる。
ユーザーが、ズーム倍率を増加させることで、ズームファクターが、第1の値(ZF1)と第2の値(ZF2)との間の値になると、イメージ処理ブロック1100は、第2のズームモードで動作する。第2のズームモードでは、イメージセンサブロック(1103、1104)が動作し、残りのイメージセンサブロックは、動作しない。イメージ信号プロセッサ1150は、イメージセンサブロック(1103、1104)から出力された信号に基づいてイメージデータを生成する。メインプロセッサ1800は、イメージ信号プロセッサ1150から出力されたイメージデータに基づいて、図6ないし図11のHDR処理を遂行することができる。
一方、ユーザーが、ズーム倍率を増加させ続けて、ズームファクターが、第2の値(ZF2)と第3の値(ZF3)との間の値になると、イメージ処理ブロック1100は、第3のズームモードで動作する。第3のズームモードで、イメージセンサブロック(1102、1103)が動作し、残りのイメージセンサブロックは、動作しない。第3のズームモードで、メインプロセッサ1800は、該当するイメージデータに基づいてHDR処理を遂行する。ズームファクターが、増加し続けることにより、イメージ処理ブロック1100が、第3のズームモード又は第4のズームモードで動作する。この場合において、メインプロセッサ1800は、該当するイメージデータに基づいてHDR処理を遂行する。
図22は、ズームファクター(zoom factor)によるイメージセンサブロックの動作を概念的に示している。図20及び図22を参照して、複数のズームモードにおいて動作するイメージ処理ブロックが説明される。
ユーザーによって調節されるズームファクターが、最小値(ZF_min)と第1の値(ZF1)との間である場合には、イメージ処理ブロック1100は、第1のズームモードで動作する。第1のズームモードでは、イメージセンサブロック(1103、1104、1105)が動作し、残りのイメージセンサブロックは、動作しない。イメージ信号プロセッサ1150は、イメージセンサブロック(1103、1104、1105)から出力された信号に基づいて、イメージデータを生成する。メインプロセッサ1800は、イメージ信号プロセッサ1150から出力されたイメージデータに基づいて、図15及び図16で説明されたHDR処理のうち少なくとも1つを遂行することができる。
ユーザーが、ズーム倍率を増加させることで、ズームファクターが、第1の値(ZF1)と第2の値(ZF2)との間の値になると、イメージ処理ブロック1100は、第2のズームモードで動作する。第2のズームモードでは、イメージセンサブロック(1102、1103、1104)が動作し、残りのイメージセンサブロックは、動作しない。イメージ信号プロセッサ1150は、イメージセンサブロック(1102、1103、1104)から出力された信号に基づいてイメージデータを生成する。メインプロセッサ1800は、イメージ信号プロセッサ1150から出力されたイメージデータに基づいて、HDR処理を遂行することができる。
ユーザーが、ズーム倍率を増加させ続けて、ズームファクターが、第2の値(ZF2)と第3の値(ZF3)との間の値になると、イメージ処理ブロック1100は、第3のズームモードで動作する。第3のズームモードでは、イメージセンサブロック(1101、1102、1103)が動作し、残りのイメージセンサブロックは、動作しない。第3のズームモードで、メインプロセッサ1800は、該当するイメージデータに基づいてHDR処理を遂行する。
一方、図20ないし図22の実施形態で、イメージセンサブロックの個数が5個であると仮定されているのは、例としてのものであり、本発明はこれに限定されない。つまり、さらに多くの個数のイメージセンサブロックが採用され、この場合にも、図20ないし図22の技術思想が、同一に適用される。
図23は、図13のユーザーインターフェースを介して入力されるコマンドに応じて倍率が調整される例としての方法を説明するための概念図である。
いくつかの場合には、ユーザー30は、ズーム倍率を徐々に増加又は減少させながら、ズーム倍率をユーザーインターフェース1600に入力しようと意図することができる。例として、ユーザーは、2本のフィンガー(指)をユーザーインターフェース1600のタッチスクリーン1610上に接触することができる。次に、ユーザー20は、ズーム倍率の値を徐々に調整するために2本のフィンガーとの間の距離を広げたり、狭めたりする行動をとることができる(ピンチ(Pinch)ズーム−インやピンチズーム−アウト)。
別の例では、ユーザー30は、ズーム倍率の値を調整するために、ユーザーインターフェース1600のディスプレイ装置上に表示されるグラフィカルインターフェース(B1)を利用することができる。ユーザー20は、グラフィカルインターフェース(B1)のスライドバー(Slide Bar)に沿ってフィンガーをスライドすることで、ズーム倍率の値を徐々に調整することができる。さらに別の例では、ユーザー30は、ズーム倍率の値を徐々に増加又は減少させるために、ユーザーインターフェース1600のボタン1620を押すことができる。
ただし、タッチを介したズーム倍率の調整は、例としてのものであり、本発明を限定するように意図されるものではない。例として、音声、ユーザーのジェスチャー、ペンを利用したジェスチャーなどを通したズーム倍率の調整が採択され得る。
上述の内容は、本発明を実施するための具体的な実施形態である。本発明は、上述の実施形態だけではなく、単純に設計変更されたり、容易に変更したりすることができる実施形態も、また含むものである。なお、本発明は、実施形態を用いて容易に変形して実施することができる技術も含まれる。したがって、本発明の範囲は、上述の実施形態に限定されて定められてはならず、後述の特許請求の範囲だけでなく、この発明の特許請求の範囲の均等物によっても定められなければならない。
1000:電子装置
1100:イメージ処理ブロック

Claims (20)

  1. 複数のビデオフレームを処理する電子装置であって、
    第1の画角でオブジェクトを撮影して第1の信号を生成する第1のイメージセンサブロックと、
    前記第1の画角よりも大きい第2の画角でオブジェクトを撮影して第2の信号を生成する第2のイメージセンサブロックと、
    前記第1の信号に基づいて、第1の解像度の第1のイメージデータを生成し、前記第2の信号に基づいて、第2の解像度の第2のイメージデータを生成するイメージ信号プロセッサと、
    前記第2のイメージデータのうち、前記第1のイメージデータに対応するイメージデータをクロッピングし、前記第1のイメージデータと前記クロッピングされたイメージデータとに基づいて、HDR処理を遂行するメインプロセッサと、
    を備え、
    前記HDR処理されたイメージは、前記複数のビデオフレームのうち第1のビデオフレームである、
    電子装置。
  2. 前記メインプロセッサは、前記第1の解像度が前記クロッピングされたイメージデータのクロッピングされた解像度よりも大きい場合に、前記第1のイメージデータに対するビニングを実行して、ビニングされたイメージデータを獲得する、
    請求項1に記載の電子装置。
  3. 前記ビニングされたイメージデータのビニング解像度は、前記クロッピングされた解像度と同一である、
    請求項2に記載の電子装置。
  4. 前記メインプロセッサは、前記第1の解像度が前記クロッピングされたイメージのクロッピングされた解像度より小さい場合に、前記クロッピングされたイメージデータに対してビニングを実行して、ビニングされたイメージデータを獲得する、
    請求項1に記載の電子装置。
  5. 前記第1の解像度は、前記ビニングされたイメージデータのビニングされた解像度と同一である、
    請求項4に記載の電子装置。
  6. 前記メインプロセッサは、前記第1の解像度が前記クロッピングされたイメージデータのクロッピングされた解像度よりも小さい場合に、前記第1のイメージデータに対してアップスケーリングを実行して、アップスケーリングされたイメージデータを獲得する、
    請求項1に記載の電子装置。
  7. 前記アップスケーリングされたイメージデータのアップスケーリングされた解像度は、前記クロッピングされた解像度と同一である、
    請求項6に記載の電子装置。
  8. 前記HDR処理されたイメージは、第1のHDR処理されたイメージであり、
    前記第1のイメージセンサブロックは、前記オブジェクトを撮影した後で、前記第1の画角で前記オブジェクトをさらに撮影して、第3の信号を生成し、
    前記第2のイメージセンサブロックは、前記オブジェクトを撮影した後で、前記第2の画角で前記オブジェクトをさらに撮影して、第4の信号を生成し、
    前記イメージ信号プロセッサは、前記第3の信号に基づいて、第3の解像度の第3のイメージデータを生成し、かつ、前記第4の信号に基づいて、第4の解像度の第4のイメージデータを生成し、
    前記メインプロセッサは、前記第1のイメージデータ又は第3のイメージデータに対応する前記第4のイメージデータのうち、第2のクロッピングされたイメージデータを、さらに獲得して、前記第1のイメージデータないし前記第4のイメージデータに基づいて、第2のHDR処理を遂行し、
    前記第2のHDR処理されたイメージは、前記複数のビデオフレームのうちの第2のビデオフレームである、
    請求項1に記載の電子装置。
  9. 前記メインプロセッサは、前記第1の解像度及び前記第3の解像度が、前記クロッピングされた第2のイメージデータのクロッピングされた解像度及び前記第2のクロッピングされたイメージデータの第2のクロッピングされた解像度よりも大きい場合に、前記第1のイメージデータ及び前記第3のイメージデータに対するビニングを実行して、ビニングされたイメージデータを獲得する、
    請求項8に記載の電子装置。
  10. 前記第1のイメージセンサブロックは、第1の複数のピクセルを含む第1のピクセルアレイを含み、
    前記第2のイメージセンサブロックは、第2の複数のピクセルを含む第2のピクセルアレイを含み、
    前記第2の複数のピクセルの個数は、前記第1の複数のピクセルの個数よりも大きい、
    請求項1ないし請求項9のいずれか一項に記載の電子装置。
  11. 前記クロッピングされたイメージデータのクロッピングされた解像度は、前記第2の解像度の1/2以下である、
    請求項1ないし請求項10のいずれか一項に記載の電子装置。
  12. 複数のビデオフレームを処理する電子装置であって、
    第1の画角でオブジェクトを撮影して第1の信号を生成する第1のイメージセンサブロックと、
    前記第1の画角よりも大きい第2の画角でオブジェクトを撮影して第2の信号を生成する第2のイメージセンサブロックと、
    前記第2の画角よりも大きい第3の画角でオブジェクトを撮影して第3の信号を生成する第3のイメージセンサブロックと、
    前記第1の信号に基づいて第1の解像度の第1のイメージデータを生成し、前記第2の信号に基づいて第2の解像度の第2のイメージデータを生成し、前記第3の信号に基づいて第3の解像度の第3のイメージデータを生成するイメージ信号プロセッサと、
    前記第1のイメージデータ、前記第2のイメージデータ、及び前記第3のイメージデータに基づいて、HDR処理を遂行するメインプロセッサと、
    を備え、
    前記メインプロセッサは、第1のズームファクター区間では、
    前記第2のイメージデータに対応する前記第3のイメージデータの中からクロッピングされたイメージデータを獲得して、前記第2のイメージデータ及び前記クロッピングされたイメージデータに基づいてHDR処理を遂行する、
    電子装置。
  13. 前記メインプロセッサは、前記第2の解像度が前記クロッピングされたイメージデータのクロッピングされた解像度よりも大きい場合に、前記第2のイメージデータに対するビニングを実行して、ビニングされたイメージデータを獲得する、
    請求項12に記載の電子装置。
  14. 前記メインプロセッサは、前記第1のズームファクター区間よりも大きい第2のズームファクター区間では、
    前記第1のイメージデータに対応する前記第2のイメージデータのうち、第2のクロッピングされたイメージデータを獲得して、前記第1のイメージデータ及び前記クロッピングされたイメージデータに基づいてHDR処理を遂行する、
    請求項12または請求項13に記載の電子装置。
  15. 前記メインプロセッサは、前記第1の解像度が前記第2のクロッピングされたイメージデータのクロッピングされた解像度よりも大きい場合に、前記第1のイメージデータに対するビニングを実行して、ビニングされたイメージデータを獲得する、
    請求項14に記載の電子装置。
  16. 第1の画角を有する第1のイメージセンサブロック及び前記第1の画角よりも大きい第2の画角を有する第2のイメージセンサブロックを利用して、複数のビデオフレームを処理する方法であって、
    前記第1のイメージセンサブロックにより、オブジェクトを撮影して、第1の信号を生成するステップと、
    前記第2のイメージセンサブロックにより、前記オブジェクトを撮影して、第2の信号を生成するステップと、
    前記第1の信号に基づいて、第1の解像度の第1のイメージデータを生成するステップと、
    前記第2の信号に基づいて、第2の解像度の第2のイメージデータを生成するステップと、
    前記第1のイメージデータに対応する前記第2のイメージデータのうち、クロッピングされたイメージデータを生成するステップと、
    前記第1のイメージデータ及び前記クロッピングされたイメージデータに基づいて、HDR処理を遂行するステップと、
    を備え、
    前記HDR処理されたイメージは、前記複数のビデオフレームのうち、第1のビデオフレームである、
    方法。
  17. 前記方法は、さらに、
    前記第1の解像度と前記クロッピングされたイメージデータのクロッピングされた解像度とを比較するステップと、を備える、
    請求項16に記載の方法。
  18. 前記第1の解像度が前記クロッピングされた解像度よりも大きい場合に、
    前記第1のイメージデータに対してビニングを実行して、ビニングされたイメージデータを獲得するステップと、
    前記ビニングされたイメージデータ及び前記クロッピングされたイメージデータに基づいて、前記HDR処理を遂行するステップと、をさらに含む、
    請求項16または請求項17に記載の方法。
  19. 前記第1の解像度が前記クロッピングされた解像度より小さい場合に、
    前記クロッピングされたイメージデータに対してビニングを実行して、ビニングされたイメージデータを獲得するステップと、
    前記第1のイメージデータ、及び前記ビニングされたイメージデータに基づいて、前記HDR処理を遂行するステップと、をさらに含む、
    請求項17に記載の方法。
  20. 前記第1の解像度が前記クロッピングされた解像度より小さい場合に、
    前記第1のイメージデータに対してアップスケーリングを実行して、アップスケーリングされたイメージデータを獲得するステップと、
    前記アップスケーリングされたイメージデータ及び前記クロッピングされたイメージデータに基づいて、前記HDR処理を遂行するステップと、をさらに含む、
    請求項17に記載の方法。
JP2020158912A 2019-09-23 2020-09-23 複数のイメージセンサにより獲得されるイメージデータに基づいてビデオhdr処理を遂行するための電子装置 Pending JP2021052396A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190116781A KR102680342B1 (ko) 2019-09-23 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
KR10-2019-0116781 2019-09-23

Publications (1)

Publication Number Publication Date
JP2021052396A true JP2021052396A (ja) 2021-04-01

Family

ID=74881055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020158912A Pending JP2021052396A (ja) 2019-09-23 2020-09-23 複数のイメージセンサにより獲得されるイメージデータに基づいてビデオhdr処理を遂行するための電子装置

Country Status (3)

Country Link
US (1) US11288782B2 (ja)
JP (1) JP2021052396A (ja)
CN (1) CN112543291A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US11693221B2 (en) * 2019-12-25 2023-07-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Camera module, camera assembly, and electronic device
CN115604590A (zh) * 2021-07-07 2023-01-13 三星电子株式会社(Kr) 图像信号处理器、图像信号处理器的操作方法和包括图像信号处理器的图像传感器设备
US20230230212A1 (en) * 2022-01-14 2023-07-20 Omnivision Technologies, Inc. Image processing method and apparatus implementing the same
CN116723417B (zh) * 2022-02-28 2024-04-26 荣耀终端有限公司 一种图像处理方法和电子设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239805B2 (en) * 2005-02-01 2007-07-03 Microsoft Corporation Method and system for combining multiple exposure images having scene and camera motion
US8189100B2 (en) 2006-07-25 2012-05-29 Qualcomm Incorporated Mobile device with dual digital camera sensors and methods of using the same
US10200671B2 (en) * 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP6031670B2 (ja) 2011-12-09 2016-11-24 パナソニックIpマネジメント株式会社 撮像装置
US20130242057A1 (en) * 2012-03-16 2013-09-19 Research In Motion Limited Methods and devices for producing an enhanced image
US9398264B2 (en) * 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
CN113472989A (zh) * 2012-11-28 2021-10-01 核心光电有限公司 多孔径成像系统以及通过多孔径成像系统获取图像的方法
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
EP3067746B1 (en) 2013-12-06 2019-08-21 Huawei Device Co., Ltd. Photographing method for dual-camera device and dual-camera device
KR101670176B1 (ko) 2015-06-23 2016-10-27 삼성전기주식회사 영상 융합 시스템
US9892488B1 (en) * 2015-08-28 2018-02-13 Amazon Technologies, Inc. Multi-camera frame stitching
JP6632724B2 (ja) 2015-11-11 2020-01-22 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ハイダイナミックレンジビデオ/イメージングのための、露光時間セットを低減するためのデバイスおよび方法
KR102603426B1 (ko) 2016-06-27 2023-11-20 삼성전자주식회사 이미지 처리장치 및 방법
KR101823256B1 (ko) 2016-08-11 2018-01-29 삼성전기주식회사 이미지 처리 장치 및 이미지 처리 방법
US10223775B2 (en) 2016-09-14 2019-03-05 Omnivision Technologies, Inc. Array camera image combination with feature-based ghost removal
JP6776776B2 (ja) 2016-09-30 2020-10-28 株式会社ニコン 撮像装置、表示装置、電子機器、撮像方法、プログラム、撮像システム、表示システムおよび画像処理装置
US10284761B2 (en) 2016-11-17 2019-05-07 Motorola Mobility Llc Multi-camera capture of a high dynamic range image
US10264193B2 (en) * 2016-12-06 2019-04-16 Polycom, Inc. System and method for providing images and video having high dynamic range
US10021313B1 (en) 2017-02-28 2018-07-10 Motorola Mobility Llc Image adjustment techniques for multiple-frame images
KR20180113261A (ko) 2017-04-06 2018-10-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10863105B1 (en) * 2017-06-27 2020-12-08 Amazon Technologies, Inc. High dynamic range imaging for event detection and inventory management
US11160449B2 (en) * 2017-08-29 2021-11-02 Verily Life Sciences Llc Focus stacking for retinal imaging
US10587816B1 (en) * 2019-01-04 2020-03-10 Gopro, Inc. High dynamic range processing based on angular rate measurements
US10999527B1 (en) * 2020-02-14 2021-05-04 Gopro, Inc. Generation of enhanced panoramic visual content

Also Published As

Publication number Publication date
CN112543291A (zh) 2021-03-23
US20210090222A1 (en) 2021-03-25
KR20210035369A (ko) 2021-04-01
US11288782B2 (en) 2022-03-29

Similar Documents

Publication Publication Date Title
JP6945744B2 (ja) 撮影方法、装置、およびデバイス
US11288782B2 (en) Electronic device for performing video HDR processing based on image data obtained by plurality of image sensors
JP6803982B2 (ja) 光学撮像方法および装置
CN109792478B (zh) 基于焦点目标信息调整焦点的装置和方法
RU2649773C2 (ru) Управление камерой посредством функции распознавания лица
RU2608771C2 (ru) Устройство цифровой фотографии и способ управления им для увеличения скорости непрерывной съемки для захвата панорамных фотографий
US9380204B2 (en) Imaging device and focus control method
US10917586B2 (en) Electronic device providing switching between signals output from concurrently operable image sensors
US10645278B2 (en) Imaging control apparatus and control method therefor
US11412148B2 (en) Method of improving image quality in zoom scenario with single camera, and electronic device including the same
JP5799178B2 (ja) 撮像装置及び合焦制御方法
JP2006303651A (ja) 電子装置
US9111129B2 (en) Subject detecting method and apparatus, and digital photographing apparatus
US11223762B2 (en) Device and method for processing high-resolution image
US10778903B2 (en) Imaging apparatus, imaging method, and program
JP2024079754A (ja) 撮像素子、撮像装置、撮像方法及びプログラム
US9986163B2 (en) Digital photographing apparatus and digital photographing method
KR102680342B1 (ko) 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치
US10778880B2 (en) Imaging device, imaging method, and imaging program
US10742876B2 (en) Imaging device, imaging method, and imaging program
US10939056B2 (en) Imaging apparatus, imaging method, imaging program
CN112640430A (zh) 成像元件、摄像装置、图像数据处理方法及程序
JP6765027B2 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
KR20220122317A (ko) 오토 줌 및 오토 포커스를 수행하는 이미지 시그널 프로세서, 이미지 시그널 프로세서의 이미지 프로세싱 방법 및 이미지 프로세싱 시스템
KR20240001131A (ko) 계산적 사진촬영을 위한 이미지 정렬