JP7334880B2 - METHOD, APPARATUS, PROGRAM, AND RECORDING MEDIUM FOR PROCESSING IMAGE DATA - Google Patents

METHOD, APPARATUS, PROGRAM, AND RECORDING MEDIUM FOR PROCESSING IMAGE DATA Download PDF

Info

Publication number
JP7334880B2
JP7334880B2 JP2021520323A JP2021520323A JP7334880B2 JP 7334880 B2 JP7334880 B2 JP 7334880B2 JP 2021520323 A JP2021520323 A JP 2021520323A JP 2021520323 A JP2021520323 A JP 2021520323A JP 7334880 B2 JP7334880 B2 JP 7334880B2
Authority
JP
Japan
Prior art keywords
image data
mode
image
captured
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021520323A
Other languages
Japanese (ja)
Other versions
JP2022504849A (en
Inventor
成温 滝澤
輝 星
康 伊波
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2022504849A publication Critical patent/JP2022504849A/en
Application granted granted Critical
Publication of JP7334880B2 publication Critical patent/JP7334880B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)

Description

本開示は、画像処理に関連する技術に関し、より詳細には、カメラによって捕捉した画像データ等の、画像データを処理する方法及び装置に関する。 TECHNICAL FIELD This disclosure relates to technology related to image processing, and more particularly to methods and apparatus for processing image data, such as image data captured by a camera.

スマートフォン等の個人情報端末には、被写体を撮影するためのカメラが搭載されることが知られている。一般に、カメラは、イメージセンサを備え、イメージセンサからの画像データを処理してオブジェクトを表示する。 It is known that a personal information terminal such as a smart phone is equipped with a camera for photographing a subject. Generally, a camera has an image sensor and processes image data from the image sensor to display an object.

本開示の実施形態は、高画像品質画像を出力するための方法、装置、プログラム、及び記録媒体を提供する。前述の目的を達成するために、以下の技術的解決策が実施形態において用いられる。 Embodiments of the present disclosure provide methods, devices, programs, and recording media for outputting high image quality images. To achieve the aforementioned objectives, the following technical solutions are used in the embodiments.

実施形態の第1の態様は、以下の方法を提供する。 A first aspect of the embodiments provides the following method.

第1モードにおいて捕捉される第1の画像データを取得する段階であって、上記第1モードでは第1の解像度が設定される段階と、
撮影命令(ユーザ、タイマー、プログラム等による撮影命令等)に応じて、上記第1モードを第2モードに切り替える段階であって、上記第2モードでは第2の解像度が設定され、上記第2の解像度は、上記第1の解像度とは異なる段階と、
上記第2モードにおいて捕捉される第2の画像データを取得する段階と、
第1モードベースの融合を適用して、上記第2の画像データを、基準画像データとして使用される上記第1の画像データと融合させる段階と、
を含む、撮像ユニットによって捕捉される画像データ等の画像データを処理する方法。
第1モード画像データ(すなわち、第1モードにおいて捕捉された第1の画像データ)は、第1モードベースの融合において基準画像データとなることが留意され得る。
第1モード画像データ(すなわち、第1モードにおいて捕捉された第1の画像データ)と第2モード画像データ(すなわち、第2モードにおいて捕捉された第2の画像データ)とを融合した後、融合画像データが出力される。
第1の解像度を除いて、通常モード又は通常モードの情報も第1モードに含まれることに留意されたい。例えば、段落[0107]の説明を参照されたい。
撮像ユニット20は、段落[0042]等の説明において詳細に説明されていることに留意されたい。
第1モードベースの融合を使用することによって、第2モードの画像データは、第1モードの画像データと融合されることに留意されたい。例えば、第1モードベースの融合は、図4のブロック(61~67)に対応し得る。
acquiring first image data captured in a first mode, wherein the first mode is set to a first resolution;
A step of switching the first mode to the second mode according to a photographing command (a photographing command by a user, a timer, a program, etc.), wherein the second resolution is set in the second mode, and the second resolution is set in the second mode. a resolution different from the first resolution;
obtaining second image data captured in the second mode;
applying a first mode-based fusion to fuse the second image data with the first image data used as reference image data;
A method of processing image data, such as image data captured by an imaging unit, comprising:
It may be noted that the first mode image data (ie, the first image data captured in the first mode) becomes the reference image data in the first mode based fusion.
After fusing the first mode image data (i.e., the first image data captured in the first mode) and the second mode image data (i.e., the second image data captured in the second mode), Image data is output.
Note that except for the first resolution, the normal mode or normal mode information is also included in the first mode. For example, see the discussion in paragraph [0107].
Note that the imaging unit 20 is described in detail in the description, such as paragraph [0042].
Note that by using first mode-based fusion, the second mode image data is fused with the first mode image data. For example, the first mode-based fusion may correspond to blocks (61-67) of FIG.

第1の態様によれば、高画像品質画像データが出力され得る。特に、第1及び第2モード間の画像データが融合される。上記モードは異なる解像度を有し、これらのモードにおいて異なる解像度及び感度の画像を取得可能である。したがって、融合画像データは、高品質画像データとして出力され得る。 According to the first aspect, high image quality image data can be output. In particular, image data between the first and second modes are fused. The modes have different resolutions and images of different resolutions and sensitivities can be acquired in these modes. Therefore, the fused image data can be output as high quality image data.

第1の態様の第1の可能な方式において、方法は、第1の画像データを選択するとともに、第2の画像データを選択する段階を更に含んでよい。こにより、第1及び第2の画像データを融合することが可能になり得る。 In a first possible manner of the first aspect, the method may further comprise selecting first image data and selecting second image data. This may allow the first and second image data to be fused.

第1の態様に係る、第1の態様の第2の可能な方式において、選択される上記第1の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であってよく、選択される上記第2の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であってよい。これにより、融合画像データを最もシャープな画像とすることが可能になり得る。
第1モードにおいて捕捉された画像データのセットから、最も少数の移動オブジェクトを有する最もシャープな画像が選択又は決定され得ることが理解され得る。第2モードにおいて捕捉された画像データのセットから、最も少数の移動オブジェクトを有する最もシャープな画像が選択又は決定され得ることが理解され得る。
In a second possible manner of the first aspect according to the first aspect, the first image data selected is the sharpest image with no moving objects or with the fewest moving objects. The second image data selected may be the sharpest image with no moving objects or with the fewest moving objects. This may allow the fusion image data to be the sharpest image.
It can be appreciated that the sharpest image with the fewest moving objects can be selected or determined from the set of image data captured in the first mode. It can be appreciated that the sharpest image with the fewest moving objects can be selected or determined from the set of image data captured in the second mode.

第1の態様、第1及び第2の可能な方式のいずれか1つに係る、第1の態様の第3の可能な方式において、方法は、撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定する段階を更に含んでよく、
上記第1モードを第2モードに切り替える段階は、上記第1モードベースの融合が適用されることが決定され、上記撮影命令が受信されると、上記第1モードを第2モードに切り替える段階を含む。一例において、段落[0070]の式(1)~(7)が撮像条件に対応する。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。
In a third possible manner of the first aspect, according to any one of the first aspect, the first and second possible manners, the method comprises, based on imaging conditions, the first mode-based may further comprise determining whether fusion is applied;
switching the first mode to a second mode comprises switching the first mode to a second mode when it is determined that the first mode-based fusion is to be applied and the capture command is received. include. In one example, equations (1) to (7) in paragraph [0070] correspond to imaging conditions. This may ensure that the fused image data is high image quality image data.

第3の可能な方式に係る、第1の態様の第4の可能な方式において、上記撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定する段階は、上記撮影命令が受信されるまで第1モードにおいて捕捉された連続フレーム間の変化に基づいて、上記第1モードベースの融合が適用されるか否かを決定する段階を含む。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A fourth possible scheme of the first aspect, according to a third possible scheme, wherein determining, based on said imaging conditions, whether said first mode-based fusion is to be applied comprises: determining whether the first mode-based blending is applied based on changes between successive frames captured in the first mode until a capture command is received. This may ensure that the fused image data is high image quality image data.

第4の可能な方式に係る、第1の態様の第5の可能な方式において、上記連続フレーム間の上記変化は、露出、合焦位置、ブロック平均、ブロック偏差、及び各軸の角速度に関する変化の全て又はいずれかを含んでよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A fifth possible scheme of the first aspect, according to a fourth possible scheme, wherein said changes between said successive frames are changes in exposure, focus position, block mean, block deviation, and angular velocity of each axis. may include all or any of This may ensure that the fused image data is high image quality image data.

第1の態様及び第1~第5の可能な方式のいずれか1つに係る、第1の態様の第6の可能な方式において、上記第1の画像データ及び上記第2の画像データは、同じ視野角及び同じ合焦位置を有するように設定されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A sixth possible manner of the first aspect, according to the first aspect and any one of the first to fifth possible manners, wherein said first image data and said second image data comprise: They may be set to have the same viewing angle and the same focus position. This may ensure that the fused image data is high image quality image data.

第1の態様及び第1~第6の可能な方式のいずれか1つに係る、第1の態様の第7の可能な方式において、上記第1モードベースの融合は、上記撮影命令までに捕捉された上記画像を使用して、上記撮影命令から撮影完了までのタイムラグが無いゼロシャッタラグと組み合わせられてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A seventh possible manner of the first aspect, according to the first aspect and any one of the first through sixth possible manners, wherein said first mode-based fusion captures by said shooting command Using the captured image may be combined with zero shutter lag, where there is no time lag from the command to shoot to the completion of shooting. This may ensure that the fused image data is high image quality image data.

第1の態様及び第1~第7の可能な方式のいずれか1つに係る、第1の態様の第8の可能な方式において、上記方法は、
上記第1モード及び上記第2モード間のカメラ揺れ補償を実行する段階、特に、上記第1モード及び上記第2モードにおいて捕捉されたフレーム間のカメラ揺れ補償を実行する段階を更に含んでよく、上記フレームは、第1モードにおいて捕捉された第1フレーム(上記第1の画像データを含む)及び第2モードにおいて捕捉された第2フレーム(第2の画像データを含む)を含んでよく、
上記第1モードベースの融合を適用する段階において、上記カメラ揺れ補償の後の上記第2の画像データと、上記第1の画像データとが使用される。第1の画像データは、基準画像データとして使用されてよく、したがって、第2の画像データは、第1の画像データに対するカメラ揺れを有し、そのため、カメラ揺れ補償は第2の画像データに適用されることが理解され得る。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。
In an eighth possible manner of the first aspect, according to the first aspect and any one of the first to seventh possible manners, the method comprises:
performing camera shake compensation between said first mode and said second mode, in particular performing camera shake compensation between frames captured in said first mode and said second mode; the frames may include a first frame captured in a first mode (including the first image data) and a second frame captured in a second mode (including the second image data);
The second image data after the camera shake compensation and the first image data are used in applying the first mode-based fusion. The first image data may be used as reference image data, so the second image data has camera shake relative to the first image data, so camera shake compensation is applied to the second image data. It can be understood that This may ensure that the fused image data is high image quality image data.

第1の態様及び第1~第8の可能な方式のいずれか1つに係る、第1の態様の第9の可能な方式において、上記第1モードが高解像度モードであってよく、上記第2モードが通常モードであってよい、又は、
上記第1モードが通常モードであってよく、上記第2モードが高解像度モードであってよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。
A ninth possible manner of the first aspect, according to the first aspect and any one of the first to eighth possible manners, wherein said first mode may be a high resolution mode; 2 mode may be normal mode, or
The first mode may be the normal mode, and the second mode may be the high resolution mode. This may ensure that the fused image data is high image quality image data.

第1の態様及び第1~第9の可能な方式のいずれか1つに係る、第1の態様の第10の可能な方式において、上記第1の画像データ及び上記第2の画像データは、上記撮像ユニットにおける同じイメージセンサから取得されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A tenth possible manner of the first aspect, according to the first aspect and any one of the first to ninth possible manners, wherein said first image data and said second image data are: It may be obtained from the same image sensor in the imaging unit. This may ensure that the fused image data is high image quality image data.

第1の態様及び第1~第10の可能な方式のいずれか1つに係る、第1の態様の第11の可能な方式において、上記方法は、上記第1モード及び上記第2モードにおいて捕捉された画像データの単位で複数の画像データを融合することによって、ノイズ低減処理を実行する段階を更に備えてよく、
上記第1モードベースの融合を適用する段階において、上記ノイズ低減処理の後の上記第1の画像データ及び上記第2の画像データが使用されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。
In an eleventh possible manner of the first aspect, according to the first aspect and any one of the first to tenth possible manners, the method comprises capturing in the first mode and in the second mode performing a noise reduction process by fusing a plurality of image data on a unit of image data obtained;
The first image data and the second image data after the noise reduction process may be used in applying the first mode-based fusion. This may ensure that the fused image data is high image quality image data.

実施形態の第2の態様は、以下の方法を提供する。 A second aspect of the embodiments provides the following method.

異なるモードにおいて捕捉される複数の画像データを含むビデオシーケンスを取得する段階であって、上記異なるモードでは異なる解像度が設定される段階と、
ビデオシーケンスの連続画像フレーム間の変化に基づいて異なるモードベースの融合が適用されるか否かを決定する段階、特に、ビデオシーケンスの画像フレーム間の変化に基づいて、上記異なるモードにおいて捕捉される上記画像データを融合するように異なるモードベースの融合が適用されるか否かを決定する段階と、
上記決定の結果に基づいて、上記ビデオシーケンスの上記画像データに対して上記モードベースの融合を適用する段階、例えば、異なるモードにおいて捕捉される画像データを融合するために上記モードベースの融合が適用されることになることが決定された場合、上記ビデオシーケンスの上記画像データに対して上記モードベースの融合を適用する段階と、
を含む、撮像ユニットによって捕捉される画像データ等の画像データを処理する方法。
acquiring a video sequence comprising a plurality of image data captured in different modes, wherein different resolutions are set for the different modes;
determining whether different mode-based blending is to be applied based on changes between successive image frames of a video sequence, in particular based on changes between image frames of a video sequence captured in said different modes; determining whether different mode-based fusions are applied to fuse the image data;
applying the mode-based fusion to the image data of the video sequence based on the result of the determination, e.g., applying the mode-based fusion to fuse image data captured in different modes. applying the mode-based blending to the image data of the video sequence if it is determined that the blending will be performed;
A method of processing image data, such as image data captured by an imaging unit, comprising:

第2の態様によれば、高画像品質画像データが連続して出力され得る。特に、第1及び第2モード間の画像データが融合される。上記モードは異なる解像度を有し、これらのモードにおいて異なる解像度及び感度の画像を取得可能である。したがって、融合画像データは、高品質画像データとして出力され得る。 According to the second aspect, high image quality image data can be output continuously. In particular, image data between the first and second modes are fused. The modes have different resolutions and images of different resolutions and sensitivities can be acquired in these modes. Therefore, the fused image data can be output as high quality image data.

実施形態の第3の態様は、以下の装置を提供する。 A third aspect of the embodiments provides the following apparatus.

第1の解像度を有する第1モードにおいて捕捉される複数の第1の画像データを取得するように構成されている第1の取得ユニットと、
撮影命令(ユーザ、タイマー、プログラム等による撮影命令等)に応じて、上記第1モードを第2モードに切り替えるように構成されている切り替えユニットであって、上記第2モードでは第2の解像度が設定され、上記第2の解像度は、上記第1の解像度とは異なる切り替えユニットと、
上記第2モードにおいて捕捉される、特に、第2モードの第2の解像度で捕捉される、第2の画像データを取得するように構成されている第2の取得ユニットと、
第1モードベースの融合を適用して、上記第2の画像データを、基準画像データである上記第1の画像データと融合させるように構成されている融合ユニットと、
を備える、撮像ユニットによって捕捉される画像データ等の画像データを処理する装置。第3の態様によれば、高画像品質画像データが出力され得る。特に、第1及び第2モード間の画像データが融合される。上記モードは異なる解像度を有し、これらのモードにおいて異なる解像度及び感度の画像を取得可能である。したがって、融合画像データは、高品質画像データとして出力され得る。
a first acquisition unit configured to acquire a plurality of first image data captured in a first mode having a first resolution;
A switching unit configured to switch the first mode to a second mode according to a photographing command (such as a photographing command by a user, a timer, a program, etc.), wherein the second resolution is in the second mode. a switching unit configured, wherein said second resolution is different than said first resolution;
a second acquisition unit configured to acquire second image data captured in said second mode, in particular captured at a second resolution of said second mode;
a fusion unit configured to apply a first mode-based fusion to fuse the second image data with the first image data being reference image data;
An apparatus for processing image data, such as image data captured by an imaging unit, comprising: According to a third aspect, high image quality image data can be output. In particular, image data between the first and second modes are fused. The modes have different resolutions and images of different resolutions and sensitivities can be acquired in these modes. Therefore, the fused image data can be output as high quality image data.

第3の態様の第1の可能な方式において、上記融合ユニットは、上記第1の画像データ及び上記第2の画像データを選択するように構成されてよい。これにより、第1及び第2の画像データが融合されることが可能になり得る。 In a first possible manner of the third aspect, the fusion unit may be arranged to select between the first image data and the second image data. This may allow the first and second image data to be fused.

第3の態様の第1の可能な方式に係る、第3の態様の第2の可能な方式において、選択される上記第1の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であってよく、選択される上記第2の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であってよい。これにより、融合画像データが最もシャープな画像となることが可能になり得る。 In a second possible manner of the third aspect, according to a first possible manner of the third aspect, the selected first image data has no moving objects or the fewest number of moving objects. The second image data selected may be the sharpest image having no moving objects or the sharpest image having the fewest moving objects. This may allow the fused image data to be the sharpest image.

第3の態様の第3の方式、第1及び第2の可能な方式のいずれか1つに係る、第3の態様の第3の可能な方式において、上記装置は、撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定するように構成されている決定ユニットを更に備えてよく、
上記切り替えユニットは、上記第1モードベースの融合が適用されることが決定され、上記撮影命令が受信されると、上記第1モードを第2モードに切り替えるように構成されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。
In a third possible manner of the third aspect, according to any one of the third manner of the third aspect, the first and second possible manners, the apparatus, based on imaging conditions, may further comprise a determining unit configured to determine whether said first mode-based fusion is applied;
The switching unit may be configured to switch the first mode to a second mode when it is determined that the first mode-based fusion is to be applied and the shooting command is received. This may ensure that the fused image data is high image quality image data.

第3の態様の第4の可能な方式において、決定ユニットは、具体的には、上記撮影命令が受信されるまで第1モードにおいて捕捉された連続フレーム間の変化に基づいて、上記第1モードベースの融合が適用されるか否かを決定するように構成されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 In a fourth possible way of the third aspect, the decision unit specifically determines the first mode based on the changes between consecutive frames captured in the first mode until the shooting command is received. It may be configured to determine whether base fusion is applied. This may ensure that the fused image data is high image quality image data.

第3の態様の第4の可能な方式に係る、第3の態様の第5の可能な方式において、上記連続フレーム間の上記変化は、露出、合焦位置、ブロック平均、ブロック偏差、及び各軸の角速度に関する変化の全て又はいずれかを含んでよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A fifth possible scheme of the third aspect, according to a fourth possible scheme of the third aspect, wherein said change between said successive frames comprises exposure, focus position, block mean, block deviation, and each It may include all or any of the changes in the angular velocity of the shaft. This may ensure that the fused image data is high image quality image data.

第3の態様の第1~第5の可能な方式のいずれか1つに係る、第3の態様の第6の可能な方式において、上記第1の画像データ及び上記第2の画像データは、同じ視野角及び同じ合焦位置を有するように設定されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A sixth possible manner of the third aspect, according to any one of the first to fifth possible manners of the third aspect, wherein said first image data and said second image data are: They may be set to have the same viewing angle and the same focus position. This may ensure that the fused image data is high image quality image data.

第3の態様の第1~第6の可能な方式のいずれか1つに係る、第3の態様の第7の可能な方式において、上記第1モードベースの融合は、上記撮影命令までに捕捉された上記画像を使用して、上記撮影命令から撮影完了までのタイムラグが無いゼロシャッタラグと組み合わせられてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A seventh possible manner of the third aspect according to any one of the first to sixth possible manners of the third aspect, wherein said first mode-based fusion captures by said command to shoot. Using the captured image may be combined with zero shutter lag, where there is no time lag from the command to shoot to the completion of shooting. This may ensure that the fused image data is high image quality image data.

第3の態様の第1~第7の可能な方式のいずれか1つに係る、第3の態様の第8の可能な方式において、融合ユニットは、上記第1モード及び上記第2モード間のカメラ揺れ補償を実行、特に、上記第1モード及び上記第2モードにおいて捕捉されたフレーム間のカメラ揺れ補償を実行するように構成されている整合ユニットあって、上記フレームは、上記第1モードにおいて捕捉された第1フレームと、上記第2モードにおいて捕捉された第2フレームとを含む整合ユニットを備えてよく、
上記融合ユニットは、上記カメラ揺れ補償後の第2の画像データ及び上記第1の画像データに融合を適用して、カメラ揺れ補償後の第2の画像データを、基準画像データとして使用される第1の画像データと融合させるように構成されてよい。特に、各第2の画像データは、異なるモード間でカメラ揺れを有する。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。
An eighth possible manner of the third aspect, according to any one of the first to seventh possible manners of the third aspect, wherein the fusion unit is configured between said first mode and said second mode an alignment unit configured to perform camera shake compensation, in particular camera shake compensation between frames captured in said first mode and said second mode, wherein said frames are in said first mode an alignment unit comprising a captured first frame and a second frame captured in said second mode;
The fusion unit applies fusion to the camera-shake compensated second image data and the first image data, and the camera-shake compensated second image data is used as reference image data. It may be configured to merge with one image data. In particular, each second image data has camera shake between different modes. This may ensure that the fused image data is high image quality image data.

第3の態様の第1~第8の可能な方式のいずれか1つに係る、第3の態様の第9の可能な方式において、上記第1モードが高解像度モードであってよく、上記第2の捕捉モードが通常モードであってよい、又は、上記第1モードが通常モードであってよく、上記第2の捕捉モードが高解像度モードであってよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A ninth possible manner of the third aspect according to any one of the first to eighth possible manners of the third aspect, wherein said first mode may be a high resolution mode; The two acquisition modes may be normal mode, or the first mode may be normal mode and the second acquisition mode may be high resolution mode. This may ensure that the fused image data is high image quality image data.

第3の態様の第1~第9の可能な方式のいずれか1つに係る、第3の態様の第10の可能な方式において、上記第1の画像データ及び上記第2の画像データは、同じイメージセンサから取得されてよい。これにより、融合画像データが高画像品質画像データであることが確実にされ得る。 A tenth possible manner of the third aspect, according to any one of the first to ninth possible manners of the third aspect, wherein said first image data and said second image data are: may be obtained from the same image sensor. This may ensure that the fused image data is high image quality image data.

第3の態様の第1~第10の可能な方式のいずれか1つに係る、第3の態様の第11の可能な方式において、上記装置は、上記第1モード及び上記第2モードにおいて捕捉された画像データの単位で複数の画像データを融合することによって、ノイズ低減処理を実行するように構成されている低減ユニットを更に備えてよく、
上記融合ユニットは、ノイズ低減処理後の上記第1の画像データ及び上記第2の画像データに融合を適用するように構成されてよい。
The eleventh possible manner of the third aspect, according to any one of the first to tenth possible manners of the third aspect, wherein the device acquires in the first mode and in the second mode a reduction unit configured to perform a noise reduction process by fusing a plurality of image data in units of image data obtained;
The fusion unit may be arranged to apply fusion to the first image data and the second image data after noise reduction processing.

実施形態の第4態様は、以下の装置を提供する。 A fourth aspect of the embodiment provides the following apparatus.

異なるモードにおいて捕捉される複数の画像データを含むビデオシーケンスを取得するように構成されている取得ユニットであって、上記異なるモードでは異なる解像度が設定される取得ユニットと、
ビデオシーケンスの連続フレーム間の変化に基づいて、上記異なるモードにおいて捕捉される上記画像データを融合するように異なるモードベースの融合が適用されるか否かを決定するように構成されている決定ユニットと、
上記決定の結果に基づいて、上記ビデオシーケンスの上記画像データに対して異なるモードベースの融合を適用するように構成されている融合ユニットと、
を備える、撮像ユニットによって捕捉される画像データを処理する装置。
an acquisition unit configured to acquire a video sequence comprising multiple image data captured in different modes, wherein different resolutions are set for the different modes;
A decision unit configured to decide, based on changes between successive frames of a video sequence, whether different mode-based fusion is applied to fuse said image data captured in said different modes. and,
a fusion unit configured to apply different mode-based fusions to the image data of the video sequence based on a result of the determination;
An apparatus for processing image data captured by an imaging unit, comprising:

第4態様によれば、高画像品質画像データが連続して出力され得る。特に、第1および第2モード間の画像データが融合される。上記モードは異なる解像度を有し、これらのモードにおいて異なる解像度及び感度の画像を取得可能である。したがって、融合画像データは、高品質画像データとして出力され得る。 According to the fourth aspect, high image quality image data can be output continuously. Specifically, the image data between the first and second modes are fused. The modes have different resolutions and images of different resolutions and sensitivities can be acquired in these modes. Therefore, the fused image data can be output as high quality image data.

実施形態の第5の態様は、コンピュータに、実施形態の第1及び第2の態様並びに第1の態様の第1~第10の可能な方式のいずれか1つに係る方法を実行させるプログラムを記録したコンピュータ可読記憶媒体を提供する。 A fifth aspect of the embodiment provides a program for causing a computer to perform the method according to any one of the first and second aspects of the embodiment and the first to tenth possible schemes of the first aspect. A recorded computer readable storage medium is provided.

実施形態の第6の態様は、コンピュータに、実施形態の第1及び第2の態様並びに第1の態様の第1~第10の可能な方式のいずれか1つに係る方法を実行させる、コンピュータプログラムを提供する。第7の態様によれば、本発明は、カメラモジュールと、1つ又は複数のプロセッサと、メモリとを備える画像データを処理するデバイスに関する。上記メモリは、1つ又は複数のプロセッサに第1又は第2の態様に係る方法を実行させる命令を格納している。1つ又は複数の実施形態の詳細は、添付の図面及び以下の説明に記載されている。他の特徴、目的、及び利点は、明細書、図面、及び特許請求の範囲から明らかになるであろう。 A sixth aspect of the embodiment is a computer that causes the computer to perform the method according to any one of the first and second aspects of the embodiment and the first through tenth possible schemes of the first aspect. Offer a program. According to a seventh aspect, the invention relates to a device for processing image data, comprising a camera module, one or more processors and a memory. The memory stores instructions that cause one or more processors to perform the method according to the first or second aspect. The details of one or more embodiments are set forth in the accompanying drawings and the description below. Other features, objects, and advantages will become apparent from the specification, drawings, and claims.

実施形態における技術的解決策をより明確に説明するために、以下で本実施形態を説明するために必要な添付の図面を簡単に説明する。以下の説明における添付の図面は、可能な実施形態のいくつかを示すに過ぎず、当業者であれば、これらの添付の図面から創造努力を伴わずに他の図面を導き出し得ることが明らかである。
第1の実施形態に係る画像処理装置の構成の例を示す概略図である。 第1の実施形態に係る画像処理装置における、イメージセンサの物理ピクセル数と各モードでの画像データのピクセル数との相関を示す図である。 第1の実施形態に係る画像処理装置における高解像度モードベースの融合の適用を示すタイミングチャートである。 高解像度モードでの、第1の実施形態に係る画像処理装置の詳細な構成例を示す図である。 第1の実施形態に係る画像処理装置における通常モードベースの融合の適用を示すタイミングチャートである。 通常モードでの、第1の実施形態に係る画像処理装置の詳細な構成例を示す図である。 第1の実施形態に係る画像処理装置の機能構成の例を示す図である。 第1の実施形態に係る画像処理装置の全画像プロセスの例を示すフローチャートである。 高解像度モードでの、第2の実施形態に係る画像処理装置の詳細な構成例を示す図である。 通常モードでの、第2の実施形態に係る画像処理装置の詳細な構成例を示す図である。 第2の実施形態に係る画像処理装置によって実装される融合の概要を説明する図である。 ノイズが低減された態様を説明する図である。 第3の実施形態に係る画像処理装置の機能構成の例を示す図である。 第3の実施形態に係る画像処理装置によって実現されるビデオシーケンスの例を説明する図である。 第3の実施形態に係る画像処理装置の撮像プロセスの例を示すフローチャートである。 モード切り替えが実行されな場合のビデオシーケンスの例を説明する図である。
To describe the technical solutions in the embodiments more clearly, the following briefly describes the accompanying drawings required to describe the embodiments. It is obvious that the accompanying drawings in the following description merely show some of the possible embodiments and that those skilled in the art can derive other drawings from these accompanying drawings without creative efforts. be.
1 is a schematic diagram showing an example of the configuration of an image processing apparatus according to a first embodiment; FIG. 4 is a diagram showing the correlation between the number of physical pixels of an image sensor and the number of pixels of image data in each mode in the image processing apparatus according to the first embodiment; FIG. 4 is a timing chart showing application of high-resolution mode-based fusion in the image processing apparatus according to the first embodiment; 3 is a diagram showing a detailed configuration example of the image processing apparatus according to the first embodiment in high resolution mode; FIG. 4 is a timing chart showing application of normal mode-based fusion in the image processing apparatus according to the first embodiment; 3 is a diagram showing a detailed configuration example of the image processing apparatus according to the first embodiment in normal mode; FIG. 1 is a diagram illustrating an example of a functional configuration of an image processing apparatus according to a first embodiment; FIG. 4 is a flow chart showing an example of all image processes of the image processing apparatus according to the first embodiment; FIG. 11 is a diagram showing a detailed configuration example of the image processing apparatus according to the second embodiment in high resolution mode; FIG. 10 is a diagram showing a detailed configuration example of the image processing apparatus according to the second embodiment in normal mode; FIG. 10 is a diagram illustrating an outline of fusion implemented by an image processing apparatus according to a second embodiment; FIG. It is a figure explaining the aspect by which the noise was reduced. FIG. 13 is a diagram illustrating an example of the functional configuration of an image processing apparatus according to a third embodiment; FIG. FIG. 11 is a diagram illustrating an example of a video sequence realized by an image processing device according to a third embodiment; FIG. 10 is a flow chart showing an example of an imaging process of an image processing apparatus according to the third embodiment; FIG. 10 is a diagram illustrating an example of a video sequence when mode switching is not performed;

以下では、本開示の実施形態の技術的解決策が、本開示の実施形態の添付の図面を参照しながら明確に説明される。説明される実施形態は、本開示の実施形態の全てではなく一部に過ぎないことが明らかである。当業者によって創造努力を伴わずに本開示の実施形態に基づいて得られ得る全ての他の実施形態は、本開示の実施形態の保護範囲に含まれることに留意されたい。
[第1の実施形態]
In the following, the technical solutions of the embodiments of the present disclosure are clearly described with reference to the accompanying drawings of the embodiments of the present disclosure. Apparently, the described embodiments are merely a part rather than all of the embodiments of the present disclosure. It should be noted that all other embodiments that can be obtained by a person skilled in the art based on the embodiments of the present disclosure without creative efforts fall within the protection scope of the embodiments of the present disclosure.
[First embodiment]

この例示的な実施形態における画像処理装置10の説明が以下に提供される。画像処理装置10は、カメラによって捕捉される画像データを処理するように構成されている。
[画像処理装置10の構成]
A description of the image processing device 10 in this exemplary embodiment is provided below. The image processing device 10 is configured to process image data captured by the camera.
[Configuration of image processing apparatus 10]

図1は、第1の実施形態に係る画像処理装置10のハードウェアの構成例を示す概略図である。 FIG. 1 is a schematic diagram showing a hardware configuration example of an image processing apparatus 10 according to the first embodiment.

図1に示すように、画像処理装置10は、処理ユニット11と、メモリ12と、入力デバイス13と、ディスプレイデバイス14と、カメラモジュール(撮像ユニット)20と、ジャイロスコープ30とを備える。カメラモジュール20は、イメージセンサ21を備える。この実施形態において、画像処理装置10は、例えば、タブレットコンピュータ、ファブレット又はモバイルフォン、携帯電話、個人情報端末、パーソナルコンピュータ又はロボット等を備える。 As shown in FIG. 1, the image processing apparatus 10 includes a processing unit 11, a memory 12, an input device 13, a display device 14, a camera module (imaging unit) 20, and a gyroscope 30. The camera module 20 has an image sensor 21 . In this embodiment, the image processing apparatus 10 includes, for example, a tablet computer, phablet or mobile phone, mobile phone, personal information terminal, personal computer, robot, or the like.

処理ユニット11は、制御信号及びデータを移動するプロセスを実行するために、バスによって個々のコンポーネントに接続される。処理ユニット11は、画像処理装置10の全操作を実現するために、様々なプログラム、算術処理、タイミング制御等を実行してもよい。プログラムは、DVD(デジタル多用途ディスク)-ROM(リードオンリメモリ)、CD(コンパクトディスク)-ROM(リードオンリメモリ)等のコンピュータ可読記憶媒体上に格納してよい。プログラムは、セキュアデジタルカード(SDカード)等の取り外し可能かつ読み取り可能なコンピュータ記憶媒体上に格納されてもよい。処理ユニット11は、CPU(中央処理装置)、DSP(デジタル信号プロセッサ)、ASIC(特定用途向け集積回路)、又はFPGA(フィールドプログラマブルゲートアレイ)等の処理デバイスである。メモリ12は、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)、HDD(ハードディスクドライブ)、SSD(ソリッドステートドライブ)、又はフラッシュメモリ等のストレージデバイスである。 A processing unit 11 is connected to the individual components by buses to perform the process of moving control signals and data. The processing unit 11 may execute various programs, arithmetic operations, timing control, etc. to implement the overall operation of the image processing device 10 . The program may be stored on a computer readable storage medium such as DVD (Digital Versatile Disc)-ROM (Read Only Memory), CD (Compact Disc)-ROM (Read Only Memory). The program may be stored on a removable and readable computer storage medium such as a secure digital card (SD card). The processing unit 11 is a processing device such as a CPU (Central Processing Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), or FPGA (Field Programmable Gate Array). The memory 12 is a storage device such as ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), or flash memory.

オペレーティングシステムのためのプログラム及び画像処理装置10の一般的な動作制御に必要な種々のデータは、メモリ12に格納される。データ及びプログラムを一時的に格納するためのメモリ領域が、プログラム及びデータ、並びに装置10における処理に必要な他のデータを保持するためにメモリ12において提供される。 Programs for the operating system and various data required for general operational control of the image processing apparatus 10 are stored in the memory 12 . A memory area for temporarily storing data and programs is provided in memory 12 for holding programs and data, as well as other data necessary for processing in device 10 .

入力デバイス13は、操作ボタン、タッチパネル、入力ペン、及びセンサを備える。 The input device 13 includes operation buttons, a touch panel, an input pen, and sensors.

ディスプレイデバイス14は、液晶ディスプレイ又はEL(エレクトロルミネッセンス)ディスプレイ等の平面ディスプレイであってよい。 The display device 14 may be a flat display such as a liquid crystal display or an EL (electroluminescence) display.

カメラモジュール20に含まれるイメージセンサ21は、オブジェクトの画像データを取得する。後で説明するように、この実施形態の画像処理装置10におけるイメージセンサ21は、高解像度モード91と通常モード92とを有する。一定の解像度を用いる高解像度モード91では、高解像度画像データが取得される。高解像度モード91の解像度とは異なる解像度を用いる通常モード92では、画像データの解像度は高解像度モードにおける画像データの解像度より低いが、画像データの感度及びSNR(信号対ノイズ比)は高解像度モードにおける画像データの感度及びSNR(信号対ノイズ比)よりも高くなる。モードは、これらの2つのモード91及び92に限定されず、HDR(ハイダイナミックレンジレンダリング)モードも適用されてよい。 An image sensor 21 included in the camera module 20 acquires image data of an object. As will be described later, the image sensor 21 in the image processing apparatus 10 of this embodiment has a high resolution mode 91 and a normal mode 92. FIG. In high resolution mode 91, which uses constant resolution, high resolution image data is acquired. In normal mode 92, which uses a resolution different from that of high resolution mode 91, the resolution of the image data is lower than that in high resolution mode, but the sensitivity and SNR (signal-to-noise ratio) of the image data are higher than those in high resolution mode. higher than the sensitivity and SNR (signal-to-noise ratio) of the image data at The modes are not limited to these two modes 91 and 92, HDR (High Dynamic Range Rendering) mode may also be applied.

この実施形態において、イメージセンサ21は、例えば、CMOS(相補型金属酸化物半導体)構成をとってよいが、オブジェクトの画像データを異なる解像度で取得することができるのであれば、他の構成をとってもよい。カメラモジュール20は、画像処理装置10の外側に搭載されてよい。 In this embodiment, the image sensor 21 may, for example, have a CMOS (Complementary Metal Oxide Semiconductor) configuration, but may have other configurations as long as image data of the object can be acquired at different resolutions. good. The camera module 20 may be mounted outside the image processing device 10 .

ジャイロスコープ30は、カメラ(すなわち、カメラモジュール20)の揺れを検出するために角速度を検出するように構成されている。 The gyroscope 30 is configured to detect angular velocity to detect shake of the camera (ie camera module 20).

図2は、イメージセンサ21の物理ピクセル数と、各モードにおける画像データのピクセル数との相関を示す図である。 FIG. 2 is a diagram showing the correlation between the number of physical pixels of the image sensor 21 and the number of pixels of image data in each mode.

図2の(B)の高解像度モード91における画像データのピクセル数は、図2の(A)のイメージセンサ21のピクセル数と同じである。この場合、図2の(B)における1ピクセルは、1ピクセルとして出力される。図2の(B)に示すピクセルのアレイは、ベイヤアレイの例を示している。 The number of pixels of the image data in the high resolution mode 91 of FIG. 2B is the same as the number of pixels of the image sensor 21 of FIG. 2A. In this case, one pixel in (B) of FIG. 2 is output as one pixel. The array of pixels shown in FIG. 2B is an example of a Bayer array.

一方で、図2の(C)の通常モード92における画像データのピクセル数は、図2の(A)のイメージセンサ21のピクセル数よりも少ない。例えば、図2の(C)に示す2×2ピクセルは、1ピクセルとして出力される。 On the other hand, the number of pixels of the image data in the normal mode 92 of FIG. 2C is smaller than the number of pixels of the image sensor 21 of FIG. 2A. For example, the 2×2 pixels shown in (C) of FIG. 2 are output as one pixel.

イメージセンサ21からの画像データは、フレームの形式で処理ユニット11及びメモリ12に定期的に出力される。
[高解像度モードにおける画像処理の概要]
Image data from image sensor 21 is periodically output to processing unit 11 and memory 12 in the form of frames.
[Outline of image processing in high resolution mode]

次に、画像処理装置10によって実装される高解像度モード91における画像処理の概要を、図1~図3を参照しながら説明する。図3は、高解像度モードベースの融合の適用を示すタイミングチャートである。 Next, an overview of image processing in the high resolution mode 91 implemented by the image processing apparatus 10 will be described with reference to FIGS. 1 to 3. FIG. FIG. 3 is a timing diagram illustrating the application of high resolution mode-based fusion.

図3に示すように、この画像処理装置10では、イメージセンサ21は、高解像度モード91に対応する複数の画像データH(n-x)~H(n)(ここで、n及びxは正の整数である)を順次取得する。 As shown in FIG. 3, in the image processing apparatus 10, the image sensor 21 receives a plurality of image data H(n−x) to H(n) (where n and x are positive) corresponding to the high resolution mode 91. ) are obtained sequentially.

図3に示すように、例えば、t1において、画像データを撮影する命令が受信され、その後、t2において、処理ユニット11が高解像度モード91を通常モード92に切り替える。撮影命令の可能な例は、例えば、ディスプレイデバイス14上に表示されているシャッタボタンに対するタッチ操作の実行である。 As shown in FIG. 3, for example, at t1, an instruction to capture image data is received, after which processing unit 11 switches high resolution mode 91 to normal mode 92 at t2. A possible example of a shooting command is, for example, performing a touch operation on a shutter button displayed on the display device 14 .

通常モード92における複数の画像データN(n+1)~N(n+5)は、イメージセンサ21から順次取得される。 A plurality of image data N(n+1) to N(n+5) in the normal mode 92 are sequentially acquired from the image sensor 21 .

図3において、t0~t1の継続時間はゼロシャッタラグ撮影の期間Tであり、この期間の間、高解像度モード91における上述した画像データH(n-x)~H(n)が、ディスプレイデバイス14上にプレビューで表示されてよい。ゼロシャッタラグとは、撮影命令からオブジェクトの撮影完了までにタイムラグが存在しないことを意味する。 In FIG. 3, the duration of t0 to t1 is the zero shutter lag imaging period T, during which the image data H(n−x) to H(n) described above in the high resolution mode 91 are captured by the display device. 14 may be displayed in preview. Zero shutter lag means that there is no time lag from the shooting command to the completion of shooting the object.

その後、高解像度モードベースの融合が、通常モード92における画像データN(n+1)に適用され、画像データN(n+1)と、シンボルPで示される画像データH(n-x)とが融合される。したがって、融合された画像データは、撮影命令を受けた画像データとして出力される。 High-resolution mode-based fusion is then applied to image data N(n+1) in normal mode 92 to fuse image data N(n+1) with image data H(n−x), denoted by symbol P. . Therefore, the fused image data is output as the image data for which the photographing command has been received.

上記融合では、2つの画像データN(n+1)、H(n-x)内のピクセルの特徴(輝度値等)に基づいて、画像処理装置10は、2つの画像データのうちの適切な一方におけるピクセルを選択して、画像データを出力する。 In the above fusion, based on the characteristics (brightness value, etc.) of pixels in the two image data N(n+1) and H(n−x), the image processing device 10 selects appropriate one of the two image data. Select pixels and output image data.

例えば、ピクセルの特徴がエッジを反映する場合、高解像度モード91における画像データH(n-x)内のピクセルが選択される。一方、ピクセルの特徴が変動の比較的少ない背景を反映する場合、通常モード92における画像データN(n+1)内のピクセルが選択される。結果として、出力される画像データは、ピクセルの特徴に従った適切なモードにおけるピクセルを含む。したがって、高画像品質画像データが出力され得る。 For example, a pixel in the image data H(nx) in high resolution mode 91 is selected if the pixel feature reflects an edge. On the other hand, pixels in the image data N(n+1) in normal mode 92 are selected if the characteristics of the pixels reflect a background with relatively little variation. As a result, the output image data contains pixels in the appropriate mode according to the pixel's characteristics. Therefore, high image quality image data can be output.

モード91及び92間での融合の適用の関係は、図3に例示されているものに限定されない。高画像品質画像データは、融合においてモード91及び92間の画像データについて、揺れの影響が小さい画像データ(例えば、以下に与える式(3)及び(4)において差が小さい画像データ)を使用することによって出力されてよい。したがって、例えば、高解像度モード91における画像データH(n-x)ではない画像データと、画像データN(n+1)とが融合されてよい。代替的には、高解像度モード91における画像データH(n-x)~H(n)のいずれか1つと、画像データN(n+1)~N(n+5)のいずれか1つとが融合されてよい。
[高解像度モードにおける画像処理装置の詳細な構成例]
The relationship of application of fusion between modes 91 and 92 is not limited to that illustrated in FIG. High image quality image data uses image data with less shake effect (e.g., image data with less difference in equations (3) and (4) given below) for image data between modes 91 and 92 in fusion. may be output by Therefore, for example, the image data that is not the image data H(n−x) in the high resolution mode 91 and the image data N(n+1) may be fused. Alternatively, any one of the image data H(n−x) to H(n) in the high resolution mode 91 and any one of the image data N(n+1) to N(n+5) may be fused. .
[Detailed Configuration Example of Image Processing Apparatus in High Resolution Mode]

図4は、高解像度モードにおける画像処理装置10の詳細な構成例を示す図である。 FIG. 4 is a diagram showing a detailed configuration example of the image processing apparatus 10 in the high resolution mode.

図4を参照すると、画像処理装置10は、メモリ12と、カメラモジュール20と、ジャイロスコープ30と、第1処理ユニット50と、第2処理ユニット60とを備える。 Referring to FIG. 4, the image processing device 10 comprises a memory 12, a camera module 20, a gyroscope 30, a first processing unit 50 and a second processing unit 60. FIG.

まず、モード91及び92間の切り替えに関する第1処理ユニット50におけるコンポーネントを説明する。第1処理ユニット50は、3Aユニット51と、移動オブジェクト検出器52と、カメラ揺れ検出器53と、捕捉モードコントローラ54とを備える。3Aとは、前処理としての自動露出(AE)、オートフォーカス(AF)、及びオートホワイトバランス(AWB)を指す。 First, the components in the first processing unit 50 related to switching between modes 91 and 92 will be described. The first processing unit 50 comprises a 3A unit 51 , a moving object detector 52 , a camera shake detector 53 and a capture mode controller 54 . 3A refers to auto exposure (AE), auto focus (AF), and auto white balance (AWB) as preprocessing.

カメラモジュール20におけるイメージセンサ21から出力される画像データは、フレームごとに、3Aユニット51及び移動オブジェクト検出器52に順次出力される。 Image data output from the image sensor 21 in the camera module 20 is sequentially output to the 3A unit 51 and the moving object detector 52 frame by frame.

後で説明するように、3Aユニット51は、2つの連続フレーム間の露出の差及び合焦位置の差を計算する。移動オブジェクト検出器52は、例えば、オブジェクトの動きを検出するために、ブロックごと(8×8ピクセル等)に輝度の平均値及び偏差値を計算する。 As will be explained later, the 3A unit 51 calculates the exposure difference and the focus position difference between two consecutive frames. The moving object detector 52, for example, calculates the mean and deviation values of brightness for each block (e.g., 8x8 pixels) to detect object motion.

2つの連続フレーム間の3軸(x、y、z)の個々の速度が、ジャイロスコープ30からカメラ揺れ検出器53に入力される。 The individual velocities in the three axes (x, y, z) between two consecutive frames are input from gyroscope 30 to camera shake detector 53 .

個々のユニット51~53の値は、捕捉モードコントローラ54に順次入力されて格納される。その後、捕捉モードコントローラ54は、第1モードベースの融合の適用が可能か否かを決定する。以下の式(1)~(7)によって与えられる条件が、この決定で使用される。 The values of the individual units 51-53 are sequentially input to the acquisition mode controller 54 and stored. Acquisition mode controller 54 then determines whether the first mode-based fusion can be applied. The conditions given by equations (1)-(7) below are used in this determination.

露出の差≦閾値A (1)
合焦位置の差≦閾値B (2)
平均値の差≦閾値C (3)
偏差値の差≦閾値D (4)
x軸の加速度の差≦閾値E (5)
y軸の加速度の差≦閾値F (6)
z軸の加速度の差≦閾値G (7)
Exposure difference ≤ threshold A (1)
In-focus position difference ≤ threshold B (2)
Difference in average value ≤ threshold C (3)
Deviation value difference ≤ threshold value D (4)
x-axis acceleration difference≦threshold E (5)
y-axis acceleration difference≦threshold F (6)
z-axis acceleration difference≦threshold G (7)

式(1)及び(2)の差は、3Aユニット51によって計算される値に対応する。式(3)及び(4)の差は、移動オブジェクト検出器52によって計算される値に対応する。式(5)~(7)の差は、カメラ揺れ検出器53から取得される値を示す。 The difference in equations (1) and (2) corresponds to the value calculated by the 3A unit 51. The difference in equations (3) and (4) corresponds to the value calculated by moving object detector 52 . The differences in equations (5)-(7) represent the values obtained from the camera shake detector 53.

式(1)~(7)の差の各々は、高解像度モード91における画像データ(図3の画像データH(n-x)~H(n))が撮影された際の連続フレーム間の変化を示す。 Each of the differences in equations (1) to (7) is the change between successive frames when the image data (image data H(n−x) to H(n) in FIG. 3) were captured in the high resolution mode 91. indicates

捕捉モードコントローラ54は、式(1)~(7)における全ての条件が満たされる場合、図3を参照しながら上述した高解像度モードベースの融合の適用を決定する。決定の条件は、式(1)~(7)において示されるものに限定されず、式(1)~(7)は任意に組み合わせることができる。 Capture mode controller 54 determines to apply high resolution mode-based fusion as described above with reference to FIG. 3 when all conditions in equations (1)-(7) are met. Conditions for determination are not limited to those shown in formulas (1) to (7), and formulas (1) to (7) can be combined arbitrarily.

式(1)~(7)における条件を満たすことは、画像データが比較的少ない変動(シーン、明るさ、オブジェクトの動き)を示すことを意味する。例えば、画像データが風景のシーン等に属する場合、画像データは、上述した変動が少ない(例えば、式(1)~(7)における個々の差が小さい)画像データであってよい。 Satisfying the conditions in equations (1)-(7) means that the image data exhibits relatively little variation (scene, brightness, object motion). For example, if the image data belongs to a landscape scene or the like, the image data may be image data with small variation (eg, small individual differences in equations (1) to (7)) as described above.

一方で、式(1)~(7)における条件のいずれか1つが満たされない場合、これは画像データが大きな変動を示すことを意味する。例えば、画像データが、画像データ内のオブジェクトが動くシーンに属する場合、画像データは、上述した変動が大きい(例えば、式(1)~(7)における個々の差が大きい)画像データであってよい。この場合、融合の適用は決定されず、イメージセンサ21からの画像データは、後で説明される融合が適用されずに出力されてよい。 On the other hand, if any one of the conditions in equations (1)-(7) is not met, this means that the image data exhibits large fluctuations. For example, if the image data belongs to a scene in which an object in the image data moves, the image data is image data with large fluctuations (eg, large individual differences in equations (1) to (7)) as described above. good. In this case, the application of fusion is not determined and the image data from the image sensor 21 may be output without applying the fusion described below.

撮影命令(図3の時間t1)が受信されると、捕捉モードコントローラ54は、(図3のt2のタイミングで)高解像度モード91を通常モード92に切り替えて、通常モード92における画像データ(図3の画像データN(n+1)~N(n+5))を取得する。この場合、捕捉モードコントローラ54は、露出制御、フォーカス制御、モード構成等を実行するために、MIPI(モバイル産業プロセッサインタフェース) 及びI2C(集積回路間通信)等の通信プロトコルに準拠してカメラモジュール20と通信する。 When the photographing command (time t1 in FIG. 3) is received, the capture mode controller 54 switches the high-resolution mode 91 to the normal mode 92 (at the timing t2 in FIG. 3) to obtain the image data in the normal mode 92 (time t1 in FIG. 3). 3 image data N(n+1) to N(n+5)) are obtained. In this case, the capture mode controller 54 controls the camera module 20 in accordance with communication protocols such as MIPI (mobile industrial processor interface) and I2C (inter-integrated circuit communication) to perform exposure control, focus control, mode configuration, etc. communicate with

捕捉モードコントローラ54において、モード91及び92間の各画像データは、同じ視野角及び合焦位置を有するように設定される。 In the capture mode controller 54, each image data between modes 91 and 92 is set to have the same viewing angle and focus position.

次に、第2処理ユニット60が説明される。第2処理ユニット60は、画像処理ユニット61、63と、リサイズユニット62、64と、動き計算ユニット65と、画像整合ユニット66と、融合ユニット67とを備える。 Next, the second processing unit 60 will be described. The second processing unit 60 comprises image processing units 61 , 63 , resizing units 62 , 64 , motion calculation unit 65 , image alignment unit 66 and fusion unit 67 .

この実施形態において、高解像度モード91における画像データは、画像処理ユニット61及びリサイズユニット62に提供される。画像処理ユニット61は、イメージセンサ21からの未処理画像データをRGB(赤、緑、及び青)画像データに変換する。この場合、画像データは、メモリ12から読み出される。画像データは、例えば、輝度信号(Y)、青成分の差動信号(U)、及び赤成分の差動信号(V)を有する画像データに変換されてよい。 In this embodiment, image data in high resolution mode 91 are provided to image processing unit 61 and resizing unit 62 . Image processing unit 61 converts the raw image data from image sensor 21 into RGB (red, green, and blue) image data. In this case, the image data is read from memory 12 . The image data may be converted into image data comprising, for example, a luminance signal (Y), a blue component differential signal (U), and a red component differential signal (V).

リサイズユニット62は、通常モード92において、高解像度モード91における画像データのサイズ(ピクセル数)が通常モード92における画像データのサイズ(ピクセル数)と同じになるように、高解像度モード91の画像データをダウンスケールするように構成されている。なぜなら、図2に示すように、モード91及び92間で、イメージセンサ21の出力においてピクセル数が異なるからである。 The resizing unit 62 resizes the image data in the high resolution mode 91 so that the size (number of pixels) of the image data in the high resolution mode 91 is the same as the size (number of pixels) of the image data in the normal mode 92 in the normal mode 92 . is configured to downscale the This is because the number of pixels in the output of the image sensor 21 differs between modes 91 and 92, as shown in FIG.

イメージセンサ21は、通常モード92における画像データを画像処理ユニット63及びリサイズユニット64に提供する。画像処理ユニット63は、イメージセンサ21からの未処理画像データをYUV又はRGB画像データに変換する。リサイズユニット64は、高解像度モード91において、通常モード92における画像データのサイズが高解像度モード91における画像データのサイズと同じになるように、通常モード92における画像データをアップスケールするように構成されている。 Image sensor 21 provides image data in normal mode 92 to image processing unit 63 and resizing unit 64 . Image processing unit 63 converts the raw image data from image sensor 21 into YUV or RGB image data. The resizing unit 64 is configured to upscale the image data in the normal mode 92 in the high resolution mode 91 such that the size of the image data in the normal mode 92 is the same as the size of the image data in the high resolution mode 91 . ing.

リサイズユニット62及び64は、画像データを動き計算ユニット65に提供し、動き計算ユニット65は、さらに、モード91及び92間での画像データにおけるカメラ揺れを補償するために動き補償データを計算する。動き計算ユニット65は整合を実行し、これにより、通常モード92における画像データを、動き計算ユニット65における計算の結果に従って高解像度モード91における画像データと整合させることができる。図3の例では、画像データN(n+1)は、参照フレームとして選択された画像データH(n-x)と整合される。 Resize units 62 and 64 provide image data to motion calculation unit 65 which also calculates motion compensation data to compensate for camera shake in the image data between modes 91 and 92 . Motion calculation unit 65 performs alignment, which allows the image data in normal mode 92 to be aligned with the image data in high resolution mode 91 according to the results of the calculations in motion calculation unit 65 . In the example of FIG. 3, image data N(n+1) is aligned with image data H(n−x) selected as a reference frame.

リサイズユニット62からの画像データ及び画像整合ユニット66からの画像データが融合ユニット67に提供される。この2つの画像データは、高解像度モードベースの融合の適用によって融合されて出力される。図3の例では、シンボルPで示される画像データH(n-x)は、参照フレームとして選択され、N(n+1)と融合されて出力される。例えば図3において、融合後の画像データが建物を含む風景シーンである場合、画像データH(n-x)のピクセルは、建物と背景との間の境界部を示すエッジ(ここでは上述した変動が大きい)に使用されてよく、画像データN(n+1)のピクセルは、背景(ここでは上述した変動が少ない)に使用されてよい。したがって、高画像品質風景シーンが撮影され得る。 Image data from resize unit 62 and image data from image alignment unit 66 are provided to fusion unit 67 . The two image data are fused and output by applying high resolution mode-based fusion. In the example of FIG. 3, image data H(n−x) indicated by symbol P is selected as a reference frame, merged with N(n+1), and output. For example, in FIG. 3, if the image data after fusion is a landscape scene including a building, the pixels of the image data H(nx) are the edge (here, the above-mentioned fluctuation are used for the background (where the variation is small). Therefore, high image quality scenic scenes can be captured.

融合が適用されない場合、イメージセンサ21からの画像データは、画像処理ユニット61を介して出力されてよい。
[通常モードにおける画像処理の概要]
If no fusion is applied, the image data from image sensor 21 may be output via image processing unit 61 .
[Outline of image processing in normal mode]

次に、通常モード92における画像処理の概要を、図1、図2及び図5を参照しながら説明する。 Next, an outline of image processing in the normal mode 92 will be described with reference to FIGS. 1, 2 and 5. FIG.

図5は、通常モードベースの融合の適用を示す、図3のものと同様のタイミングチャートである。図5の例では、通常モード92における画像データN(n-x)~N(n)(n及びxは正の整数である)が順次取得される。その後、t1における撮影命令の後で、t2のタイミングにおいて、処理ユニット11は、通常モード92を高解像度モード91に切り替えて、高解像度モード91における画像データH(n+1)~H(n+5)を順次取得する。 FIG. 5 is a timing diagram similar to that of FIG. 3 showing the application of normal mode-based fusion. In the example of FIG. 5, image data N(n−x) to N(n) (where n and x are positive integers) in normal mode 92 are sequentially obtained. After that, after the photographing command at t1, at timing t2, the processing unit 11 switches the normal mode 92 to the high resolution mode 91, and sequentially processes the image data H(n+1) to H(n+5) in the high resolution mode 91. get.

図5の例では、シンボルPで示される画像データN(n-x)は、参照フレームとして選択され、H(n+1)と融合される。この融合は、図3に示す融合の方式と同様の方式で実行される。すなわち、画像データN(n+1)及びH(n-x)内のピクセルの特徴(輝度値等)に基づいて、画像処理装置10は、2つの画像データのうちの適切な一方におけるピクセルを選択し、出力される画像データを設定する。例えば、ピクセルの特徴がエッジを反映する場合、高解像度モード91における画像データH(n-x)内のピクセルが選択される。一方、ピクセルの特徴が変動の比較的少ない背景を反映する場合、通常モード92における画像データN(n+1)内のピクセルが選択される。結果として、出力される画像データは、ピクセルの特徴に従った適切なモードにおけるピクセルを含む。したがって、高画像品質画像データが出力される。 In the example of FIG. 5, image data N(n−x), denoted by symbol P, is selected as a reference frame and fused with H(n+1). This fusion is performed in a manner similar to that of the fusion shown in FIG. That is, the image processing device 10 selects a pixel in the appropriate one of the two image data based on the pixel characteristics (brightness value, etc.) in the image data N(n+1) and H(n−x). , to set the output image data. For example, a pixel in the image data H(nx) in high resolution mode 91 is selected if the pixel feature reflects an edge. On the other hand, pixels in the image data N(n+1) in normal mode 92 are selected if the characteristics of the pixels reflect a background with relatively little variation. As a result, the output image data contains pixels in the appropriate mode according to the pixel's characteristics. Therefore, high image quality image data is output.

図3に示すものと同様に、図5において、t0~t1の継続時間はゼロシャッタラグ撮影の期間Tであり、この期間の間、通常モード92における上述した画像データN(n-x)~N(n)が、ディスプレイデバイス14上にプレビューで表示されてよい。 3, in FIG. 5, the duration of t0 to t1 is the zero shutter lag imaging period T, during which the above-mentioned image data N(n−x) to N(n) may be displayed in preview on display device 14 .

モード91及び92間での融合の適用の関係は、図5に例示されているものに限定されず、様々な態様が実装されてよい。通常モード92における画像データN(n-x)~N(n)のいずれか1つと、高解像度モード92における画像データH(n+1)~H(n+5)のいずれか1つとが融合されてよい。
[通常モードにおける画像処理装置の詳細な構成例]
The relationship of application of fusion between modes 91 and 92 is not limited to that illustrated in FIG. 5, and various aspects may be implemented. Any one of the image data N(n−x) to N(n) in the normal mode 92 and any one of the image data H(n+1) to H(n+5) in the high resolution mode 92 may be fused.
[Detailed Configuration Example of Image Processing Apparatus in Normal Mode]

図6は、通常モード92における画像処理装置10の詳細な構成例を示している。図6の構成は、通常モード92が高解像度モード91に切り替えられる点で図4の構成とは異なるので、以下ではこの点に焦点を当てて説明を行う。 FIG. 6 shows a detailed configuration example of the image processing apparatus 10 in the normal mode 92. As shown in FIG. The configuration of FIG. 6 differs from the configuration of FIG. 4 in that the normal mode 92 is switched to the high resolution mode 91, so the following description focuses on this point.

図6を参照すると、第1処理ユニット50の捕捉モードコントローラ54は、式(1)~(7)における条件が全て満たされる場合、図5を参照しながら上記で説明した通常モードベースの融合の適用を決定する。 Referring to FIG. 6, acquisition mode controller 54 of first processing unit 50 performs normal mode-based fusion as described above with reference to FIG. Decide on application.

撮影命令を受信すると(図5の時間t1)、捕捉モードコントローラ54は、通常モード92を高解像度モード91に切り替えて(図5の時間t2)、高解像度モード91における画像データ(図5のH(n+1)~H(n+5))を取得する。 Upon receiving a photographing command (time t1 in FIG. 5), the capture mode controller 54 switches the normal mode 92 to the high resolution mode 91 (time t2 in FIG. 5), and the image data in the high resolution mode 91 (H in FIG. 5). (n+1) to H(n+5)) are obtained.

第2処理ユニット60における画像整合ユニット66Aは、動き計算ユニット65における計算の結果に従って、高解像度モード91における画像データを通常モード92における画像データと整合させる。動き計算ユニット65は、通常モード92における画像データに対する高解像度モード91における画像データの動きを計算する。図5の例では、画像データH(n+1)は、参照フレームとして選択される画像データN(n-x)と整合される。 The image alignment unit 66A in the second processing unit 60 aligns the image data in the high resolution mode 91 with the image data in the normal mode 92 according to the result of the calculation in the motion calculation unit 65. FIG. Motion calculation unit 65 calculates the motion of the image data in high resolution mode 91 relative to the image data in normal mode 92 . In the example of FIG. 5, image data H(n+1) is aligned with image data N(n−x) selected as the reference frame.

リサイズユニット64からの画像データ及び画像整合ユニット66Aからの画像データが融合ユニット67に提供される。融合ユニット67において、この2つの画像データは、高解像度モードベースの融合の適用によって融合されて出力される。図5の例では、画像データN(n-x)及びH(n+1)が融合されて出力される。したがって、図3の場合と同様に、高画像品質風景シーンが撮影され得る。 Image data from resize unit 64 and image data from image alignment unit 66 A are provided to fusion unit 67 . In fusion unit 67, the two image data are fused and output by application of high resolution mode-based fusion. In the example of FIG. 5, the image data N(n−x) and H(n+1) are fused and output. Therefore, as in the case of FIG. 3, a high image quality landscape scene can be captured.

融合が適用されない場合、イメージセンサ21からの画像データは、画像処理ユニット63を介して出力されてよい。
[画像処理装置10の機能構成]
If no fusion is applied, the image data from image sensor 21 may be output via image processing unit 63 .
[Functional Configuration of Image Processing Apparatus 10]

図7は、画像処理装置10の機能構成を示す図である。以下では、この図を参照しながらこの機能構成を説明する。図7に示すように、画像処理装置10は、第1の取得ユニット101と、決定ユニット102と、切り替えユニット103と、第2の取得ユニット104と、融合ユニット105と、表示制御ユニット106とを備える。例示的な実装方式において、これらのコンポーネントは、図1の処理ユニット11及びメモリ12によって実現され、以下のように構成されている。 FIG. 7 is a diagram showing the functional configuration of the image processing apparatus 10. As shown in FIG. This functional configuration will be described below with reference to this figure. As shown in FIG. 7, the image processing apparatus 10 includes a first acquisition unit 101, a determination unit 102, a switching unit 103, a second acquisition unit 104, a fusion unit 105, and a display control unit 106. Prepare. In an exemplary implementation, these components are realized by processing unit 11 and memory 12 of FIG. 1 and are organized as follows.

第1の取得ユニット101は、事前設定された解像度を有する第1モード(高解像度モード91又は通常モード92)において捕捉された複数の第1の画像データを取得するように構成されている。第1の取得ユニット101は、図4及び図6における、メモリ12、並びに第1処理ユニット50内の3Aユニット51及び検出器52に対応する。 The first acquisition unit 101 is configured to acquire a plurality of first image data captured in a first mode (high resolution mode 91 or normal mode 92) having a preset resolution. The first acquisition unit 101 corresponds to the memory 12 and the 3A unit 51 and detector 52 in the first processing unit 50 in FIGS.

決定ユニット102は、画像データが撮影命令に応じて第1モードにおいて捕捉された場合、撮像条件(この実施形態では上述の式(1)~(7))に基づいて、モードベースの融合の適用を決定するように構成されている。決定ユニット102は、図4及び図6における、第1処理ユニット50内の検出器53及び捕捉モードコントローラ54に対応する。 The decision unit 102 applies mode-based fusion based on the imaging conditions (equations (1)-(7) above in this embodiment) if the image data was captured in the first mode in response to the capture command. is configured to determine The decision unit 102 corresponds to the detector 53 and acquisition mode controller 54 in the first processing unit 50 in FIGS.

切り替えユニット103は、撮影命令が受信されると、第1モードを第2モード(通常モード92又は高解像度モード91)に切り替えるように構成されている。切り替えユニット103は、図4及び図6における捕捉モードコントローラ54に対応する。 The switching unit 103 is configured to switch the first mode to the second mode (normal mode 92 or high resolution mode 91) when a photographing command is received. Switching unit 103 corresponds to acquisition mode controller 54 in FIGS.

第2の取得ユニット104は、第2モードの解像度において捕捉された第2の画像データを取得するように構成されている。第2の取得ユニット104は、図4及び図6におけるメモリ12に対応する。 The second acquisition unit 104 is configured to acquire second image data captured at the second mode of resolution. A second acquisition unit 104 corresponds to the memory 12 in FIGS.

融合ユニット105は、第2の画像データの出力に関して第1モードベースの融合を第2の画像データに適用して、第1の画像データを使用する。融合ユニット105は、図4及び図6における第2処理ユニット60に対応する。 Fusion unit 105 applies the first mode-based fusion to the second image data to output the second image data and uses the first image data. The fusion unit 105 corresponds to the second processing unit 60 in FIGS. 4 and 6. FIG.

融合ユニット105における整合ユニット1051は、第1モードと第2モードとの間で画像データの動きを整合させるように構成されている。整合ユニット1051は、図4及び図6における、第2処理ユニット60内の動き計算ユニット65及び画像整合ユニット66、66Aに対応する。 Alignment unit 1051 in fusion unit 105 is configured to align the motion of the image data between the first mode and the second mode. Alignment unit 1051 corresponds to motion calculation unit 65 and image alignment units 66, 66A in second processing unit 60 in FIGS.

表示制御ユニット106は、撮影命令の前に第1の画像データをプレビューで表示するように構成されている。 The display control unit 106 is configured to display a preview of the first image data before issuing the command to shoot.

前述のコンポーネントは、画像処理装置10の動作の記述において、必要に応じて言及される。
[画像処理装置10の動作]
The aforementioned components are referred to as necessary in describing the operation of image processing apparatus 10 .
[Operation of image processing apparatus 10]

以下では、画像処理装置10の一般的な画像処理を、図1~図8を参照しながら説明する。この実施形態の画像処理装置10において、処理ユニット11は、プログラムに従い、後で説明される様々なプロセスを実行できる。 General image processing of the image processing apparatus 10 will be described below with reference to FIGS. 1 to 8. FIG. In the image processing apparatus 10 of this embodiment, the processing unit 11 can execute various processes described later according to the program.

図8は、画像処理装置10の一般的な画像処理の例を示すフローチャートである。 FIG. 8 is a flow chart showing an example of general image processing of the image processing apparatus 10. As shown in FIG.

図8では、処理ユニット11は、イメージセンサ21から、第1モードにおける画像データを順次取得する(段階S101)。図3の例では、第1モードである高解像度モード91における画像データH(n-x)~H(n)が取得される。図5の例では、第2モードである通常モード92における画像データN(n-x)~N(n)が取得される。これらの画像データは、メモリ12に順次格納される。 In FIG. 8, the processing unit 11 sequentially acquires image data in the first mode from the image sensor 21 (step S101). In the example of FIG. 3, the image data H(n−x) to H(n) in the high resolution mode 91, which is the first mode, are acquired. In the example of FIG. 5, the image data N(n−x) to N(n) in the normal mode 92, which is the second mode, are acquired. These image data are sequentially stored in the memory 12 .

この段階において、処理ユニット11は、第1の取得ユニット101として実装されるように、メモリ12及びカメラモジュール20と協働する。 At this stage the processing unit 11 cooperates with the memory 12 and the camera module 20 to be implemented as a first acquisition unit 101 .

処理ユニット11は、段階S101における画像データが捕捉されると、撮像条件(式(1)~(7))に基づく撮影命令(例えば、ゼロシャッタラグ撮影命令)に応じて、第1モードベースの融合の適用を決定する(段階S102)。この場合、処理ユニット11は、式(1)~(7)の条件が満たされているか否かを決定する。条件が満たされている場合、第1モードベースの融合の適用が決定され、条件が満たされていない場合、第1モードベースの融合の適用は決定されない。 When the image data in step S101 is captured, the processing unit 11 performs first mode-based imaging according to a shooting command (for example, a zero shutter lag shooting command) based on the imaging conditions (formulas (1) to (7)). The application of fusion is determined (step S102). In this case, processing unit 11 determines whether the conditions of equations (1)-(7) are met. If the condition is met, it is decided to apply the first mode-based fusion, and if the condition is not met, it is not decided to apply the first mode-based fusion.

段階S102にて、処理ユニット11は、決定ユニット102として実装されるようにジャイロスコープ30と協働する。 At step S 102 , the processing unit 11 cooperates with the gyroscope 30 as implemented as a decision unit 102 .

撮影命令が受信されると(図3及び図5のタイミングt1)、処理ユニット11は、第1モードを第2モードに切り替える(段階S103)。図3の例では、t2において、高解像度モード91が通常モード92に切り替えられる。図5の例では、t2において、通常モード92が高解像度モード91に切り替えられる。 When the shooting command is received (timing t1 in FIGS. 3 and 5), the processing unit 11 switches the first mode to the second mode (step S103). In the example of FIG. 3, the high resolution mode 91 is switched to the normal mode 92 at t2. In the example of FIG. 5, the normal mode 92 is switched to the high resolution mode 91 at t2.

段階S103にて、処理ユニット11は、切り替えユニット103として実装される。 At step S<b>103 , the processing unit 11 is implemented as a switching unit 103 .

処理ユニット11は、イメージセンサ21から、第2モードの解像度で捕捉された画像データを取得する(段階S104)。図3の例では、第2モードである通常モード92における画像データN(n+1)~N(n+5)が取得される。図5の例では、第2モードである通常モード92における画像データN(n+1)~N(n+5)が取得される。これらの画像データは、メモリ12に順次格納される。 The processing unit 11 obtains image data captured at the second mode resolution from the image sensor 21 (step S104). In the example of FIG. 3, the image data N(n+1) to N(n+5) in the normal mode 92, which is the second mode, are acquired. In the example of FIG. 5, the image data N(n+1) to N(n+5) in the normal mode 92, which is the second mode, are acquired. These image data are sequentially stored in the memory 12 .

段階S104にて、処理ユニット11は、第2の取得ユニット104として実装されるように、メモリ12と協働する。 At step S 104 , the processing unit 11 cooperates with the memory 12 so as to be implemented as a second acquisition unit 104 .

段階S104にて取得された画像データの出力に関して、処理ユニット11は、段階S101にて取得された第1の画像データを使用するために、この画像データに第1モードベースの融合を適用する(ステップS105)。この場合、処理ユニット11は、標的画像データ内のピクセルの特徴に基づいて、2つの画像データのなかで適切なモードにおける画像データ内のピクセルを選択し、撮影命令を受けた画像データを出力してよい。図3の例では、処理ユニット11は、高解像度モード91における画像データH(n-x)~H(n)のうちの画像データH(n-x)を選択し、通常モード92における画像データN(n)~N(n+5)のうちの画像データN(n+1)を選択し、高解像度モード91における画像データH(n-x)と通常モード92における画像データN(n+1)とを更に融合して、融合画像データを出力してよい。図5の例では、通常モード92における画像データN(n-x)と、高解像度モード91における画像データH(n+1)とが融合されて出力される。モードの各々の選択された画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であってよい。 On outputting the image data acquired in step S104, processing unit 11 applies a first mode-based fusion to the first image data acquired in step S101 ( step S105). In this case, the processing unit 11 selects the pixels in the image data in the appropriate mode among the two image data according to the characteristics of the pixels in the target image data, and outputs the image data for which the shooting command is received. you can In the example of FIG. 3, the processing unit 11 selects the image data H(n−x) from the image data H(n−x) to H(n) in the high resolution mode 91, and selects the image data H(n−x) in the normal mode 92. Select image data N(n+1) from among N(n) to N(n+5), and further fuse image data H(n−x) in high resolution mode 91 and image data N(n+1) in normal mode 92 and output the fusion image data. In the example of FIG. 5, the image data N(n−x) in the normal mode 92 and the image data H(n+1) in the high resolution mode 91 are fused and output. The selected image data for each of the modes may be the sharpest image with no moving objects or the fewest moving objects.

図8のフローチャートを参照すると、段階S101にて取得された画像データは、段階S104にて取得された画像データとはサイズが異なる。ステップS105では、処理ユニット11は、標的画像データ(図3の画像データH(n-x))又は標的画像データ(図5の画像データH(n+1))をリサイズして、カメラ揺れを補償するべく2つの画像データを整合させる。 Referring to the flowchart of FIG. 8, the image data acquired in step S101 is different in size from the image data acquired in step S104. In step S105, the processing unit 11 resizes the target image data (image data H(n−x) in FIG. 3) or the target image data (image data H(n+1) in FIG. 5) to compensate for camera shake. The two image data are aligned as much as possible.

ステップS105では、処理ユニット11は、融合ユニット105として実装される。 At step S<b>105 , the processing unit 11 is implemented as a fusion unit 105 .

図8では、処理ユニット11(表示制御ユニット106)は、段階S103における撮影命令の前に、段階S101にて取得された画像データをディスプレイデバイス14上にプレビューで表示してよい。したがって、段階S101にて取得された画像データが視認可能であり得、それにより、シャッタを適切なタイミングで押すことができる。 In FIG. 8, the processing unit 11 (display control unit 106) may display a preview of the image data acquired in step S101 on the display device 14 before commanding the photographing in step S103. Therefore, the image data acquired in step S101 may be visible, allowing the shutter to be pressed at the appropriate time.

上記で説明したように、この実施形態の画像処理装置10は、画像データの出力に関して異なるモード91及び92における画像データを融合するように構成されている。高解像度モード91では、高解像度画像データを捕捉できる。一方、通常モード92では、解像度は高解像度モード91よりも低いが、高感度及び高SNR画像データを捕捉できる。結果として、ステップS105で融合された画像データは、適切なモードにおいて捕捉された画像データによって構成され、したがって、より高い画像品質を有し得る。 As explained above, the image processing apparatus 10 of this embodiment is configured to fuse image data in different modes 91 and 92 with respect to outputting image data. High resolution mode 91 allows high resolution image data to be captured. On the other hand, the normal mode 92 has a lower resolution than the high resolution mode 91, but can capture high sensitivity and high SNR image data. As a result, the image data fused in step S105 may consist of image data captured in the appropriate mode and thus have higher image quality.

個々のモード91及び92における画像データは、1つのイメージセンサ21から取得される。これにより、必要なイメージセンサの数が低減され、画像処理装置10の小型化を実現できる。
[第2の実施形態]
Image data in individual modes 91 and 92 are acquired from one image sensor 21 . As a result, the number of required image sensors is reduced, and the image processing apparatus 10 can be made smaller.
[Second embodiment]

第2の実施形態に係る画像処理装置10Aが、図9A及び図9Bを参照しながら説明される。図9Aは、画像処理装置10Aにおける高解像度モードベースの融合の概要を説明する図である。図9Bは、画像処理装置10Aにおける通常モードベースの融合の概要を説明する図である。別途規定されない限り、第1の実施形態の説明に使用されているシンボル等は、第2の実施形態の以下の説明にも使用される。 An image processing apparatus 10A according to the second embodiment will be described with reference to FIGS. 9A and 9B. FIG. 9A is a diagram illustrating an overview of high-resolution mode-based fusion in the image processing apparatus 10A. FIG. 9B is a diagram illustrating an overview of normal mode-based fusion in the image processing apparatus 10A. Symbols and the like used in the description of the first embodiment are also used in the following description of the second embodiment, unless otherwise specified.

図9A及び図9Bでは、第1の実施形態の画像処理装置10(図4及び図6)とは異なり、画像処理装置10Aは、ノイズ低減ユニット68及び69を更に備える。図9A及び図9Bに示すノイズ低減ユニット68及び69は、実線及び破線で示されているが、ユニット68及び69は、実線又は破線で示す位置に提供されてよい。 9A and 9B, the image processing device 10A further comprises noise reduction units 68 and 69 unlike the image processing device 10 of the first embodiment (FIGS. 4 and 6). Although the noise reduction units 68 and 69 shown in Figures 9A and 9B are shown in solid and dashed lines, the units 68 and 69 may be provided in the locations shown in solid or dashed lines.

ノイズ低減ユニット68は、複数のフレームの単位で、高解像度モード91における各画像データにノイズ低減処理を実行するように構成されている。ノイズ低減ユニット69は、複数のフレームの単位で、通常モード92における各画像データにノイズ低減処理を実行するように構成されている。 The noise reduction unit 68 is configured to perform noise reduction processing on each image data in the high resolution mode 91 in units of multiple frames. The noise reduction unit 69 is configured to perform noise reduction processing on each image data in the normal mode 92 in units of multiple frames.

ノイズ低減処理は、図9A、図9B及び図10を参照しながら詳細に説明される。 The noise reduction process is described in detail with reference to FIGS. 9A, 9B and 10. FIG.

図10は、ノイズ低減ユニット68及び69によってノイズが低減される態様を例示している。図10では、4つの連続フレームf0~f3が、例えば、通常モード92における画像データに対応し、4つの連続フレームf4~f7が、例えば、高解像度モード91における画像データに対応する。 FIG. 10 illustrates how noise is reduced by noise reduction units 68 and 69 . In FIG. 10, four consecutive frames f0-f3 correspond to image data in normal mode 92, for example, and four consecutive frames f4-f7 correspond to image data in high resolution mode 91, for example.

図10では、ノイズ低減ユニット68において、4つの連続フレームf4~f7が、MFNR201のプロセスで1つのフレームF0にして組み合わされる。これにより、高解像度モード91におけるノイズが打ち消されたフレームF0が提供される。フレームのサンプル数は、図10に例示されている4つに限定されず、異なってもよい。 10, in noise reduction unit 68, four consecutive frames f4-f7 are combined into one frame F0 in the MFNR 201 process. This provides a noise-canceled frame F0 in high resolution mode 91 . The number of samples in a frame is not limited to the four illustrated in FIG. 10 and may vary.

デジタルビニング202のプロセスにおいて、モード91及び92間でサイズを調整するために、4つのフレームf4~f7がフレームf41~f44に変更されて、通常モード92におけるフレームf0~f3とサイズが整合される。 In the process of digital binning 202, the four frames f4-f7 are changed to frames f41-f44 to adjust the size between modes 91 and 92 to match the size of frames f0-f3 in normal mode 92. .

フレームf41~f44は、フレームf4~F7のサイズを変更することによって取得されるが、サイズの変更によってノイズを減少できる。なぜなら、ノイズ成分の発生は、解像度の影響を受け得るからである。 Frames f41-f44 are obtained by resizing frames f4-F7, which can reduce noise. This is because the generation of noise components can be affected by resolution.

図11は、ノイズ成分82a、82b、82cを含む高解像度モード91における画像データ内のノイズを低減するプロセスの例を示している。ここで、ノイズ成分82a、82b、82cを打ち消すために、画像データのモードは通常モード92に変換される。図11の(A)の高解像度モード91における画像データ内の輝度変化81には、ノイズ成分82a~82cが含まれている。これらのノイズ成分の発生は解像度の大きさの影響を受け得るので、解像度を下げることでノイズ成分が減少し得る。図11の(B)の通常モード92における画像データ内の輝度変化83では、ノイズ成分82a~82cが打ち消され得る。図10におけるノイズが低減されたフレームf41~f44は、このように取得される。 FIG. 11 illustrates an example process for reducing noise in image data in high resolution mode 91 that includes noise components 82a, 82b, 82c. Here, the mode of the image data is converted to normal mode 92 in order to cancel the noise components 82a, 82b, 82c. The luminance change 81 in the image data in the high resolution mode 91 of FIG. 11(A) contains noise components 82a to 82c. Since the generation of these noise components can be affected by the magnitude of resolution, lowering the resolution can reduce the noise components. The noise components 82a-82c can be canceled out in the luminance change 83 in the image data in the normal mode 92 of FIG. 11(B). The noise-reduced frames f41-f44 in FIG. 10 are thus obtained.

図10では、ノイズ低減ユニット69において、8つのフレームf0~f4、f41~f44が、MFNR203のプロセスで1つのフレームF1にして組み合わされる。これにより、通常モード92におけるノイズが打ち消されたフレームF1が提供される。 In FIG. 10, in the noise reduction unit 69, eight frames f0-f4, f41-f44 are combined into one frame F1 in the MFNR 203 process. This provides a noise-cancelled frame F1 in normal mode 92 .

第1の実施形態に係る融合と同様に、融合ユニット67による204で使用されるプロセスにおいて、単一のフレームF2を出力するために2つのフレームF0及びF1もまた融合される。したがって、高画像品質画像データが出力され得る。
[第3の実施形態]
Similar to the fusion according to the first embodiment, in the process used at 204 by fusion unit 67, two frames F0 and F1 are also fused to output a single frame F2. Therefore, high image quality image data can be output.
[Third embodiment]

第3の実施形態に係る画像処理装置10Bが説明される。画像処理装置10Bの構成は、図1、図4及び図6に示す構成と実質的に同一である。別途規定されない限り、第1の実施形態の説明に使用されているシンボル等は、第2の実施形態の以下の説明にも使用される。 An image processing apparatus 10B according to the third embodiment will be described. The configuration of the image processing apparatus 10B is substantially the same as the configurations shown in FIGS. 1, 4 and 6. FIG. Symbols and the like used in the description of the first embodiment are also used in the following description of the second embodiment, unless otherwise specified.

画像処理装置10Bは、複数の画像データを含むビデオシーケンスを扱う。これは、例えば、処理ユニット11が異なるモード91及び92における画像データを取得し、画像データ内のフレーム間変化に基づいて複数の画像データを融合させることで実装できる。 The image processing device 10B handles a video sequence including multiple image data. This can be implemented, for example, by having the processing unit 11 acquire image data in different modes 91 and 92 and fuse the multiple image data based on frame-to-frame variations in the image data.

図12は、画像処理装置10bの機能構成を示している。 FIG. 12 shows the functional configuration of the image processing device 10b.

図12を参照すると、画像処理装置10Bは、取得ユニット301と、決定ユニット302と、融合ユニット303とを備える。取得ユニット301は、図4及び図6の第1処理ユニット50及びメモリ12に対応する。決定ユニット302は、図4及び図6の捕捉モードコントローラ54に対応する。融合ユニット303は、図4及び図6の第2処理ユニット60に対応する。これらのコンポーネントは、図13を参照しながら後で与えられる動作の記述において、必要に応じて言及される。 Referring to FIG. 12, the image processing device 10B comprises an acquisition unit 301, a determination unit 302, and a fusion unit 303. As shown in FIG. Acquisition unit 301 corresponds to first processing unit 50 and memory 12 in FIGS. Decision unit 302 corresponds to acquisition mode controller 54 of FIGS. The fusion unit 303 corresponds to the second processing unit 60 of FIGS. 4 and 6. FIG. These components are referred to as necessary in the description of operation given later with reference to FIG.

図13は、ビデオシーケンス内の画像データが画像処理装置10Bにおいて融合される態様を示している。例えば、図13の(A)の入力において、高解像度モード91における画像データ600、602、604、606と、高解像度モード91における画像データ601、603、605、607が交互に与えられる。MC(動き補償)501~507の各々において、モード間の動きが補償されながら、異なるモードにおける2つの画像データに関して、融合が実行される。各MCのプロセスは、図4のユニット65~67の各々におけるプロセス又は図6のユニット65、66A及び67の各々におけるプロセスと同様である。 FIG. 13 shows how the image data in the video sequence are fused in the image processing device 10B. For example, in the input of FIG. 13A, the image data 600, 602, 604, 606 in the high resolution mode 91 and the image data 601, 603, 605, 607 in the high resolution mode 91 are alternately supplied. In each of MC (Motion Compensation) 501-507, fusion is performed on two image data in different modes while motion between modes is compensated. The process of each MC is similar to the process in each of units 65-67 of FIG. 4 or each of units 65, 66A and 67 of FIG.

図13の(B)の出力において、融合画像データ700~707が出力される。結果として、高画像品質ビデオシーケンスが出力される。 In the output of FIG. 13B, fusion image data 700 to 707 are output. The result is a high picture quality video sequence output.

図14は、画像処理装置10Bの一般的な画像処理の例を示すフローチャートである。 FIG. 14 is a flow chart showing an example of general image processing of the image processing apparatus 10B.

図14を参照すると、処理ユニット11は、異なるモード91及び92において捕捉された複数の画像データ(図13(A)の画像データ600~607)を含むビデオシーケンスを取得する(段階S201)。異なるモード91及び92間の切り替えは、フレームごとに実行される。この切り替えは、この実施形態において捕捉モードコントローラ54(図4及び図6)によっても実行される。 Referring to FIG. 14, processing unit 11 acquires a video sequence including a plurality of image data (image data 600-607 in FIG. 13A) captured in different modes 91 and 92 (step S201). Switching between different modes 91 and 92 is performed every frame. This switching is also performed by acquisition mode controller 54 (FIGS. 4 and 6) in this embodiment.

段階S201にて、処理ユニット11は、取得ユニット301として実装されるように、メモリ12及びカメラモジュール20と協働する。 At step S<b>201 , the processing unit 11 cooperates with the memory 12 and the camera module 20 as implemented as an acquisition unit 301 .

処理ユニット11は、段階S201にて取得された連続画像データのフレーム間の変化に基づいて、異なるモードベースの融合が適用されるべきか否かを決定する(段階S202)。この実施形態では、この決定は、第1の実施形態におけるように図4及び図6の融合ユニット67によっても実行される。すなわち、融合の適用は、画像データ内のピクセルの特徴に基づいて決定される。 Processing unit 11 determines whether different mode-based blending should be applied based on the frame-to-frame variation of the sequential image data obtained in step S201 (step S202). In this embodiment, this determination is also performed by the fusion unit 67 of FIGS. 4 and 6 as in the first embodiment. That is, the application of fusion is determined based on pixel characteristics within the image data.

段階S202にて、処理ユニット11は、決定ユニット302として実装される。 At step S<b>202 , the processing unit 11 is implemented as a decision unit 302 .

処理ユニット11は、段階S202における決定の結果に基づいて、対応するモードにおける画像データ(図13の(B)の画像データ700~707)を使用するために、段階S201にて取得された画像データの出力に対してモードベースの融合を適用する(段階S203)。結果として、高画像品質ビデオシーケンスが出力される。 Based on the result of the determination in step S202, the processing unit 11 converts the image data acquired in step S201 to use the image data in the corresponding mode (image data 700-707 in (B) of FIG. 13). (step S203). The result is a high picture quality video sequence output.

次に、第3の実施形態の変更形態が説明される。 Next, a modification of the third embodiment will be described.

図15は、図13の態様の変更形態を例示しており、これは、モード91及び92間で切り替えずに、通常モード92における画像データが連続して入力される場合の、モード間の融合の態様である。モード91及び92間の切り替えが実行されない場合の例は、処理ユニット11が、前述の式(1)~(7)が満たされていないと決定する場合である。この場合、例えば、図15の(A)の入力において、画像データ612~614、616~617等の通常モード92における画像データが連続して入力され得る。結果として、図15に示すように、通常モード92における画像データ612又は613に加えて、画像データ612の直前の高解像度モード91における画像データ611もMC503又は504において与えられ、これにより、異なるモード間の動きが補償されながら融合が実行される。MC507において、通常モード92における画像データ617に加えて、高解像度モード91における直前の画像データ615も与えられ、これにより、異なるモード間の動きが補償されながら融合が実行される。これらのMCのプロセスは、図4の個々のユニット65~67及び図6の個々のユニット65、66A及び67におけるプロセスと同様である。結果として、画像処理装置10Bの電力消費が低減される。 FIG. 15 illustrates a modification of the embodiment of FIG. 13 that blends between modes when image data in normal mode 92 is continuously input without switching between modes 91 and 92. It is an aspect of An example of when switching between modes 91 and 92 is not performed is when processing unit 11 determines that equations (1)-(7) above are not satisfied. In this case, for example, in the input of FIG. 15A, the image data in the normal mode 92 such as the image data 612-614, 616-617 can be input continuously. As a result, as shown in FIG. 15, in addition to image data 612 or 613 in normal mode 92, image data 611 in high resolution mode 91 immediately preceding image data 612 is also provided in MC 503 or 504, thereby allowing different modes Fusion is performed while motion between is compensated. In MC 507, in addition to the image data 617 in normal mode 92, the previous image data 615 in high resolution mode 91 is also provided to perform the blending while compensating for motion between different modes. The processes of these MCs are similar to the processes in individual units 65-67 of FIG. 4 and individual units 65, 66A and 67 of FIG. As a result, the power consumption of the image processing device 10B is reduced.

装置関連実施形態及び方法関連実施形態は、同じ構想に基づいており、装置関連実施形態によってもたらされる技術的な利点は、方法関連実施形態によってもたらされる技術的な利点と同じである。特定の原理については、装置関連実施形態の説明を参照されたく、詳細はここで説明されない。本発明の実施形態は、画像処理に基づいて主に説明されているが、本明細書で説明されている装置の実施形態及び他の実施形態は、画像処理のために構成されてもよいことに留意されたい。一般に、ピクチャ処理コーディングが単一のピクチャ17に限定される場合には、インター予測ユニット244(エンコーダ)及び344(デコーダ)のみが利用可能でなくてもよい。装置の全ての他の機能(ツール又は技術とも称される)は、画像処理のために等しく使用され得る。 例えば本明細書に説明されている装置及び機能の実施形態は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせで実装されてよい。ソフトウェアで実装される場合、機能は、1つ又は複数の命令又はコードとしてコンピュータ可読媒体上に格納又は通信媒体を介して伝送され、ハードウェアベースの処理ユニットによって実行されてよい。コンピュータ可読媒体は、データ記憶媒体等の有形の媒体に対応するコンピュータ可読記憶媒体、又は、例えば通信プロトコルに従った1つの場所から別の場所へのコンピュータプログラムの移動を容易にする任意の媒体を含む通信媒体を含んでよい。このように、コンピュータ可読媒体は、(1)不揮発性の有形コンピュータ可読記憶媒体、又は、(2)信号若しくは搬送波等の通信媒体に一般に対応してよい。データ記憶媒体は、本開示に説明されている技術の実装のための命令、コード、及び/又はデータ構造を取得するために1つ若しくは複数のコンピュータ又は1つ若しくは複数のプロセッサによってアクセスできる任意の利用可能な媒体であってよい。コンピュータプログラム製品は、コンピュータ可読媒体を含んでよい。限定ではなく例として、このようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROM、若しくは他の光学ディスクストレージ、磁気ディスクストレージ、若しくは他の磁気ストレージデバイス、フラッシュメモリ、又は、命令若しくはデータ構造の形態の所望のプログラムコードを格納するのに使用でき、コンピュータによってアクセスできる任意の他の媒体を含むことができる。また、任意の接続が、適宜コンピュータ可読媒体と称される。例えば、同軸ケーブル、光ファイバケーブル、ツイストペアデジタル加入者線(DSL)、又は赤外線、ラジオ、及びマイクロ波等の無線技術を使用して、ウェブサイト、サーバ、又は他のリモートソースから命令が伝送される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、又は赤外線、ラジオ及びマイクロ波等の無線技術は、媒体の定義に含まれる。一方、コンピュータ可読記憶媒体及びデータ記憶媒体は、接続、搬送波、信号、又は他の一時的媒体を含まず、不揮発性の有形記憶媒体を指すことを理解されたい。本明細書で使用されるディスク(disk and disc)は、コンパクトディスク(CD)、レーザディスク、光学ディスク、デジタル多用途ディスク(DVD)、フロッピディスク、及びブルーレイディスクを含み、通例、ディスク(disk)は、データを磁気的に再現するものであり、ディスク(disc)は、レーザを用いてデータを光学的に再現するものである。上記の組み合わせも、コンピュータ可読媒体の範囲に含まれるべきである。命令は、1つ又は複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、又は他の等価な集積若しくはディスクリート論理回路等の、1つ又は複数のプロセッサによって実行されてよい。したがって、本明細書で使用される「プロセッサ」という用語は、前述の構造のいずれか、又は、本明細書に記載の技術の実装に好適な任意の他の構造を指してよい。加えて、いくつかの態様では、本明細書に記載の機能は、エンコーディング及びデコーディングのために構成されている専用ハードウェア及び/又はソフトウェアモジュール内に提供されるか、又は、組み合わされたコーデックに組み込まれてよい。また、本技術は、1つ若しくは複数の回路又は論理要素において完全に実施することができる。本開示の技術は、無線ハンドセット、集積回路(IC)又はICのセット(例えば、チップセット)を含む、多種多様なデバイス又は装置において実施してよい。様々な構成要素、モジュール、又はユニットが、開示された技術を実行するように構成されているデバイスの機能的態様を強調するように本開示において記載されているが、異なるハードウェアユニットによる実現は必ずしも要求されない。むしろ、上述したように、好適なソフトウェア及び/又はファームウェアと連動して、様々なユニットがコーデックハードウェアユニットにして組み合わされるか、又は、上述したように、1つ又は複数のプロセッサを含む相互運用ハードウェアユニットの集合によって提供されてよい。 Apparatus-related embodiments and method-related embodiments are based on the same idea, and the technical advantages provided by the apparatus-related embodiments are the same as the technical advantages provided by the method-related embodiments. For specific principles, please refer to the description of the device-related embodiments, and the details are not described here. While embodiments of the present invention have been described primarily based on image processing, it should be noted that the apparatus embodiments and other embodiments described herein may be configured for image processing. Please note. In general, if picture processing coding is limited to a single picture 17, only inter prediction units 244 (encoder) and 344 (decoder) may not be available. All other functions of the device (also called tools or techniques) can equally be used for image processing. For example, embodiments of the apparatus and functionality described herein may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored as one or more instructions or code on a computer-readable medium or transmitted over a communication medium and executed by a hardware-based processing unit. Computer-readable storage medium corresponds to a tangible medium such as a data storage medium or any medium that facilitates transfer of a computer program from one place to another, for example, according to a communication protocol. It may include a communication medium comprising: As such, computer-readable media generally may correspond to (1) tangible computer-readable storage media that is non-volatile or (2) a communication medium such as a signal or carrier wave. Data storage media can be any accessible by one or more computers or one or more processors for obtaining instructions, code and/or data structures for implementation of the techniques described in this disclosure. It can be any available medium. A computer program product may include a computer-readable medium. By way of example, and not limitation, such computer readable storage media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, flash memory or It can include any other computer-accessible medium that can be used to store desired program code in the form of data structures. Also, any connection is properly termed a computer-readable medium. For example, instructions may be transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair Digital Subscriber Line (DSL), or wireless technologies such as infrared, radio, and microwave. coaxial cable, fiber optic cable, twisted pair, DSL, or wireless technologies such as infrared, radio and microwave are included in the definition of medium. It should be understood, however, that computer-readable storage media and data storage media refer to non-volatile, tangible storage media that do not include connections, carrier waves, signals, or other transitory media. As used herein, disk and disc includes compact discs (CDs), laser discs, optical discs, digital versatile discs (DVDs), floppy discs, and Blu-ray discs, and is commonly referred to as a disk is for reproducing data magnetically, and a disc is for optically reproducing data using a laser. Combinations of the above should also be included within the scope of computer-readable media. Instructions are implemented in one or more digital signal processors (DSPs), general purpose microprocessors, application specific integrated circuits (ASICs), field programmable logic arrays (FPGAs), or other equivalent integrated or discrete logic circuits. It may be executed by one or more processors. Accordingly, the term "processor" as used herein may refer to any of the structures described above, or any other structure suitable for implementing the techniques described herein. Additionally, in some aspects the functionality described herein is provided in dedicated hardware and/or software modules configured for encoding and decoding, or combined codec may be incorporated into Also, the techniques can be fully implemented in one or more circuits or logic elements. The techniques of this disclosure may be implemented in a wide variety of devices or apparatus, including wireless handsets, integrated circuits (ICs) or sets of ICs (eg, chipsets). Although various components, modules, or units are described in this disclosure to emphasize functional aspects of devices configured to perform the disclosed techniques, implementation by different hardware units may be not necessarily required. Rather, the various units are combined into a codec hardware unit, in conjunction with suitable software and/or firmware, as described above, or interoperable, including one or more processors, as described above. It may be provided by a collection of hardware units.

上記で与えられた開示は、実施形態例に過ぎz、本発明の保護範囲を限定することを意図していない。当業者であれば、前述の実施形態及び本発明の特許請求の範囲の範囲内で作成された等価な変更例を実施するプロセスの全て又は一部も、本発明の範囲内に含まれることを理解するであろう。
(項目1) 第1モードにおいて捕捉される第1の画像データを取得する段階であって、上記第1モードでは第1の解像度が設定される段階と、
撮影命令に応じて、上記第1モードを第2モードに切り替える段階であって、上記第2モードでは第2の解像度が設定され、上記第2の解像度は、上記第1の解像度とは異なる段階と、
上記第2モードにおいて捕捉される第2の画像データを取得する段階と、
第1モードベースの融合を適用して、上記第2の画像データを、基準画像データである上記第1の画像データと融合させる段階と、
を含む、画像データを処理する方法。
(項目2) 上記方法は、上記第1の画像データを選択するとともに、上記第2の画像データを選択する段階を更に含む、項目1に記載の方法。
(項目3) 選択される上記第1の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であり、選択される上記第2の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像である、項目2に記載の方法。
(項目4) 上記方法は、撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定する段階を更に含み、
上記第1モードを第2モードに切り替える段階は、上記第1モードベースの融合が適用されることが決定され、上記撮影命令が受信されると、上記第1モードを第2モードに切り替える段階を含む、項目1~3のいずれかに記載の方法。
(項目5) 上記撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定する段階は、上記撮影命令が受信されるまで第1モードにおいて捕捉された連続フレーム間の変化に基づいて、上記第1モードベースの融合が適用されるか否かを決定する段階を含む、項目4に記載の方法。
(項目6) 上記連続フレーム間の上記変化は、露出、合焦位置、ブロック平均、ブロック偏差、及び各軸の角速度に関する変化の全て又はいずれかを含む、項目5に記載の方法。
(項目7) 上記第1の画像データ及び上記第2の画像データは、同じ視野角及び同じ合焦位置を有するように設定される、項目1~6のいずれか1つに記載の方法。
(項目8) 上記第1モードベースの融合は、上記撮影命令までに捕捉された上記画像を使用して、上記撮影命令から撮影完了までのタイムラグが無いゼロシャッタラグと組み合わせられる、項目1~7のいずれか1つに記載の方法。
(項目9) 上記第1モード及び上記第2モードにおいて捕捉されたフレーム間のカメラ揺れ補償を実行する段階であって、上記フレームは、上記第1モードにおいて捕捉された第1フレームと、上記第2モードにおいて捕捉された第2フレームとを含む段階を更に含み、
上記第1モードベースの融合を適用する段階において、上記カメラ揺れ補償の後の上記第2の画像データと、上記第1の画像データとが使用される、項目1~8のいずれか1つに記載の方法。
(項目10)
上記第1モードが高解像度モードであり、上記第2モードが通常モードであるか、又は、
上記第1モードが通常モードであり、上記第2モードが高解像度モードである、項目1~9のいずれか1つに記載の方法。
(項目11)
上記第1の画像データ及び上記第2の画像データは、上記撮像ユニットにおける1つのイメージセンサから取得される、項目1~10のいずれか1つに記載の方法。
(項目12)
上記方法は、上記第1モード及び上記第2モードにおいて捕捉された画像データの単位で複数の画像データを融合することによって、ノイズ低減処理を実行する段階を更に備え、
上記第1モードベースの融合を適用する段階において、上記ノイズ低減処理の後の上記第1の画像データ及び上記第2の画像データが使用される、項目1~11のいずれか1つに記載の方法。
(項目13)
異なるモードにおいて捕捉される複数の画像データを含むビデオシーケンスを取得する段階であって、上記異なるモードでは異なる解像度が設定される段階と、
ビデオシーケンスの画像フレーム間の変化に基づいて、上記異なるモードにおいて捕捉される上記画像データを融合するように異なるモードベースの融合が適用されるか否かを決定する段階と、
上記決定の結果に基づいて、上記ビデオシーケンスの上記画像データに対して上記モードベースの融合を適用する段階と、
を含む、画像データを処理する方法。
(項目14)
第1の解像度を有する第1モードにおいて捕捉される複数の第1の画像データを取得するように構成されている第1の取得ユニットと、
撮影命令に応じて、上記第1モードを第2モードに切り替えるように構成されている切り替えユニットであって、上記第2モードでは第2の解像度が設定され、上記第2の解像度は、上記第1の解像度とは異なる切り替えユニットと、
上記第2モードにおいて捕捉される第2の画像データを取得するように構成されている第2の取得ユニットと、
第1モードベースの融合を適用して、上記第2の画像データを、基準画像データとして使用される上記第1の画像データと融合させるように構成されている融合ユニットと、
を備える、画像データを処理する装置。
(項目15)
融合ユニットは、上記第1の画像データ及び上記第2の画像データを選択するように更に構成されている、項目14に記載の装置。
(項目16)
選択される上記第1の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であり、選択される上記第2の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像である、項目14又は15に記載の装置。
(項目17)
撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定するように構成されている決定ユニットを更に備え、
上記切り替えユニットは、上記第1モードベースの融合が適用されることが決定され、上記撮影命令が受信されると、上記第1モードを第2モードに切り替えるように構成されている、項目14~16のいずれか1つに記載の装置。
(項目18)
決定ユニットは、具体的には、上記撮影命令が受信されるまで第1モードにおいて捕捉された連続フレーム間の変化に基づいて、上記第1モードベースの融合が適用されるか否かを決定するように構成されている、項目17に記載の装置。
(項目19)
上記フレーム間の上記変化は、露出、合焦位置、ブロック平均、ブロック偏差、及び各軸の角速度に関する変化の全て又はいずれかを含む、項目18に記載の装置。
(項目20)
上記第1の画像データ及び上記第2の画像データは、同じ視野角及び同じ合焦位置を有するように設定される、項目14~19のいずれか1つに記載の装置。
(項目21)
上記第1モードベースの融合は、上記撮影命令までに捕捉された上記画像を使用して、上記撮影命令から撮影完了までのタイムラグが無いゼロシャッタラグと組み合わせられる、項目14~20のいずれか1つに記載の装置。
(項目22)
融合ユニットは、上記第1モード及び上記第2モードにおいて捕捉されたフレーム間のカメラ揺れ補償を実行するように構成されている整合ユニットあって、上記フレームは、上記第1モードにおいて捕捉された第1フレームと、上記第2モードにおいて捕捉された第2フレームとを含む整合ユニットを備え、
上記融合ユニットは、上記カメラ揺れ補償後の第2の画像データ及び上記第1の画像データに融合を適用して、カメラ揺れ補償後の第2の画像データを、基準画像データとして使用される第1の画像データと融合させるように構成されている、項目14~21のいずれか1つに記載の装置。
(項目23)
上記第1モードが高解像度モードであり、上記第2の捕捉モードが通常モードであるか、又は、上記第1モードが通常モードであり、上記第2の捕捉モードが高解像度モードである、項目14~22のいずれか1つに記載の装置。
(項目24)
上記第1の画像データ及び上記第2の画像データは、同じイメージセンサから取得される、項目14~23のいずれか1つに記載の装置。
(項目25)
上記第1モード及び上記第2モードにおいて捕捉された画像データの単位で複数の画像データを融合することによって、ノイズ低減処理を実行するように構成されている低減ユニットを更に備え、
上記融合ユニットは、ノイズ低減処理後の上記第1の画像データ及び上記第2の画像データに融合を適用するように構成されている、項目14~24のいずれか1つに記載の装置。
(項目26)
異なるモードにおいて捕捉される複数の画像データを含むビデオシーケンスを取得するように構成されている取得ユニットであって、上記異なるモードでは異なる解像度が設定される取得ユニットと、
ビデオシーケンスの画像フレーム間の変化に基づいて、異なるモードベースの融合が適用されるか否かを決定するように構成されている決定ユニットと、
上記決定の結果に基づいて、上記ビデオシーケンスの上記画像データに対して異なるモードベースの融合を適用するように構成されている融合ユニットと、
を備える、撮像ユニットによって捕捉される画像データを処理する装置。
(項目27)
カメラモジュールと、
命令を含む不揮発性メモリストレージと、
上記カメラモジュール及び上記メモリと通信する1つ又は複数のプロセッサと、
を備え、上記1つ又は複数のプロセッサは、
第1モードにおいて捕捉される第1の画像データを取得する段階であって、上記第1モードでは第1の解像度が設定される段階と、
撮影命令に応じて、上記第1モードを第2モードに切り替える段階であって、上記第2モードでは第2の解像度が設定され、上記第2の解像度は、上記第1の解像度とは異なる段階と、
上記第2モードにおいて捕捉される第2の画像データを取得する段階と、
第1モードベースの融合を適用して、上記第2の画像データを、基準画像データである上記第1の画像データと融合させる段階と、
を行わせるように上記命令を実行する、デバイス。
(項目28)
上記1つ又は複数のプロセッサは、上記第1の画像データを選択するとともに、上記第2の画像データを選択するように更に構成されている、項目27に記載のデバイス。
(項目29)
選択される上記第1の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であり、選択される上記第2の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像である、項目28に記載のデバイス。
(項目30)
1つ又は複数のプロセッサは、撮像条件に基づいて、上記第1モードベースの融合が適用されるか否かを決定し、
上記第1モードベースの融合が適用されることが決定され、上記撮影命令が受信されると、上記第1モードを第2モードに切り替えるように更に構成されている、項目27~29のいずれかに記載のデバイス。
(項目31)
上記1つ又は複数のプロセッサは、上記撮影命令が受信されるまで第1モードにおいて捕捉された連続フレーム間の変化に基づいて、上記第1モードベースの融合が適用されるか否かを決定するように構成されている、項目30に記載のデバイス。
(項目32)
上記連続フレーム間の上記変化は、露出、合焦位置、ブロック平均、ブロック偏差、及び各軸の角速度に関する変化の全て又はいずれかを含む、項目31に記載のデバイス。
(項目33)
上記第1の画像データ及び上記第2の画像データは、同じ視野角及び同じ合焦位置を有するように設定される、項目27~32のいずれか1つに記載のデバイス。
(項目34)
上記第1モードベースの融合は、上記撮影命令までに捕捉された上記画像を使用して、上記撮影命令から撮影完了までのタイムラグが無いゼロシャッタラグと組み合わせられる、項目27~33のいずれか1つに記載のデバイス。
(項目35)
上記1つ又は複数のプロセッサは、上記第1モード及び上記第2モードにおいて捕捉されたフレーム間のカメラ揺れ補償を実行するように更に構成され、上記フレームは、上記第1モードにおいて捕捉された第1フレームと、上記第2モードにおいて捕捉された第2フレームとを含み、
上記第1モードベースの融合を適用する段階において、上記カメラ揺れ補償の後の上記第2の画像データと、上記第1の画像データとが使用される、項目27~34のいずれか1つに記載のデバイス。
(項目36)
上記第1モードが高解像度モードであり、上記第2モードが通常モードであるか、又は、
上記第1モードが通常モードであり、上記第2モードが高解像度モードである、項目27~35のいずれか1つに記載のデバイス。
(項目37)
上記第1の画像データ及び上記第2の画像データは、上記撮像ユニットにおける1つのイメージセンサから取得される、項目27~36のいずれか1つに記載のデバイス。
(項目38)
上記1つ又は複数のプロセッサは、上記第1モード及び上記第2モードにおいて捕捉された画像データの単位で複数の画像データを融合することによって、ノイズ低減処理を実行するように更に構成され、
上記第1モードベースの融合を適用する段階において、上記ノイズ低減処理の後の上記第1の画像データ及び上記第2の画像データが使用される、項目27~37のいずれか1つに記載のデバイス。
(項目39)
上記カメラモジュールは、イメージセンサを備える、項目27~38のいずれか1つに記載のデバイス。
(項目40)
コンピュータに、項目1~13のいずれか1つに記載の方法を実行させるプログラムを記録したコンピュータ可読記憶媒体。
(項目41)
コンピュータに、項目1~13のいずれか1つに記載の方法を実行させる、コンピュータプログラム。
The disclosures given above are only example embodiments and are not intended to limit the protection scope of the present invention. A person skilled in the art will understand that all or part of the processes implementing the above-described embodiments and equivalent modifications made within the scope of the claims of the present invention are also included within the scope of the present invention. will understand.
(Item 1) acquiring first image data captured in a first mode, wherein a first resolution is set in the first mode;
switching the first mode to a second mode in response to a photographing command, wherein a second resolution is set in the second mode, the second resolution being different from the first resolution; and,
obtaining second image data captured in the second mode;
applying a first mode-based fusion to fuse the second image data with the first image data, which is reference image data;
A method of processing image data, comprising:
(Item 2) The method according to item 1, wherein the method further includes selecting the first image data and selecting the second image data.
(Item 3) The first image data to be selected is the sharpest image having no moving objects or the fewest number of moving objects, and the second image data to be selected has moving objects. 3. The method of item 2, which is the sharpest image with no or the fewest moving objects.
Item 4: the method further includes determining whether the first mode-based fusion is to be applied based on imaging conditions;
switching the first mode to a second mode comprises switching the first mode to a second mode when it is determined that the first mode-based fusion is to be applied and the capture command is received. The method of any of items 1-3, comprising:
(Item 5) Determining whether the first mode-based fusion is to be applied based on the imaging conditions includes: 5. The method of item 4, comprising determining whether the first mode-based fusion is applied based on the change.
6. The method of claim 5, wherein the changes between successive frames include all or any of changes in exposure, focus position, block mean, block deviation, and angular velocity of each axis.
(Item 7) The method according to any one of items 1 to 6, wherein the first image data and the second image data are set to have the same viewing angle and the same focus position.
(Item 8) The first mode-based fusion is combined with zero shutter lag from the capture command to completion of capture using the image captured until the capture command, items 1-7. A method according to any one of
(Item 9) performing camera shake compensation between frames captured in the first mode and the second mode, wherein the frames are the first frame captured in the first mode and the first frame captured in the first mode; a second frame captured in two modes;
any one of items 1 to 8, wherein in applying the first mode-based fusion, the second image data after the camera shake compensation and the first image data are used. described method.
(Item 10)
the first mode is a high resolution mode and the second mode is a normal mode; or
A method according to any one of items 1 to 9, wherein said first mode is normal mode and said second mode is high resolution mode.
(Item 11)
11. The method according to any one of items 1 to 10, wherein said first image data and said second image data are obtained from one image sensor in said imaging unit.
(Item 12)
The method further comprises performing noise reduction processing by fusing a plurality of image data in units of image data captured in the first mode and the second mode;
12. The method of any one of items 1-11, wherein the step of applying the first mode-based fusion uses the first image data and the second image data after the noise reduction process. Method.
(Item 13)
acquiring a video sequence comprising a plurality of image data captured in different modes, wherein different resolutions are set for the different modes;
determining whether different mode-based fusion is applied to fuse the image data captured in the different modes based on changes between image frames of a video sequence;
applying the mode-based blending to the image data of the video sequence based on the results of the determination;
A method of processing image data, comprising:
(Item 14)
a first acquisition unit configured to acquire a plurality of first image data captured in a first mode having a first resolution;
A switching unit configured to switch the first mode to a second mode in response to a photographing command, wherein a second resolution is set in the second mode, and the second resolution is the second resolution. a switching unit different from one resolution;
a second acquisition unit configured to acquire second image data captured in the second mode;
a fusion unit configured to apply a first mode-based fusion to fuse the second image data with the first image data used as reference image data;
An apparatus for processing image data, comprising:
(Item 15)
15. Apparatus according to item 14, wherein the fusion unit is further configured to select between the first image data and the second image data.
(Item 16)
The selected first image data is the sharpest image without or with the fewest moving objects, and the second image data is selected with no or the fewest moving objects. 16. Apparatus according to item 14 or 15, wherein the sharpest image with a moving object of .
(Item 17)
further comprising a determining unit configured to determine, based on imaging conditions, whether said first mode-based fusion is to be applied;
wherein the switching unit is configured to switch the first mode to a second mode when it is determined that the first mode-based fusion is to be applied and the shooting command is received, items 14- 17. The apparatus according to any one of 16.
(Item 18)
The determining unit determines whether said first mode-based fusion is applied, specifically based on changes between consecutive frames captured in a first mode until said shooting command is received. 18. Apparatus according to item 17, configured to:
(Item 19)
19. Apparatus according to item 18, wherein the changes between the frames include changes in exposure, focus position, block mean, block deviation, and/or angular velocity of each axis.
(Item 20)
20. The apparatus of any one of items 14-19, wherein the first image data and the second image data are set to have the same viewing angle and the same focus position.
(Item 21)
21. Any one of items 14-20, wherein the first mode-based fusion is combined with zero shutter lag from the capture command to completion of capture using the image captured up to the capture command. The apparatus described in 1.
(Item 22)
The fusion unit is an alignment unit configured to perform camera shake compensation between frames captured in the first mode and the second mode, wherein the frames are captured in the first mode. an alignment unit comprising one frame and a second frame captured in said second mode;
The fusion unit applies fusion to the camera-shake compensated second image data and the first image data, and the camera-shake compensated second image data is used as reference image data. 22. Apparatus according to any one of items 14 to 21, wherein the apparatus is configured to merge with 1 image data.
(Item 23)
wherein said first mode is a high resolution mode and said second capture mode is a normal mode; or said first mode is a normal mode and said second capture mode is a high resolution mode; 23. Apparatus according to any one of 14-22.
(Item 24)
24. The apparatus of any one of items 14-23, wherein the first image data and the second image data are obtained from the same image sensor.
(Item 25)
further comprising a reduction unit configured to perform noise reduction processing by fusing a plurality of image data in units of image data captured in the first mode and the second mode;
25. Apparatus according to any one of items 14 to 24, wherein the fusion unit is arranged to apply fusion to the first image data and the second image data after noise reduction processing.
(Item 26)
an acquisition unit configured to acquire a video sequence comprising multiple image data captured in different modes, wherein different resolutions are set for the different modes;
a determining unit configured to determine whether different mode-based blending is to be applied based on changes between image frames of a video sequence;
a fusion unit configured to apply different mode-based fusions to the image data of the video sequence based on a result of the determination;
An apparatus for processing image data captured by an imaging unit, comprising:
(Item 27)
a camera module;
non-volatile memory storage containing instructions;
one or more processors in communication with the camera module and the memory;
wherein the one or more processors are:
acquiring first image data captured in a first mode, wherein the first mode is set to a first resolution;
switching the first mode to a second mode in response to a photographing command, wherein a second resolution is set in the second mode, the second resolution being different from the first resolution; and,
obtaining second image data captured in the second mode;
applying a first mode-based fusion to fuse the second image data with the first image data, which is reference image data;
A device that executes the above instructions to cause the
(Item 28)
28. The device of item 27, wherein the one or more processors are further configured to select the first image data and select the second image data.
(Item 29)
The selected first image data is the sharpest image without or with the fewest moving objects, and the second image data is selected with no or the fewest moving objects. 29. The device of item 28, wherein the sharpest image with a moving object of .
(Item 30)
one or more processors determine whether the first mode-based fusion is to be applied based on imaging conditions;
Any of items 27-29, further configured to switch the first mode to a second mode when it is determined that the first mode-based fusion is to be applied and the shooting command is received. devices described in .
(Item 31)
The one or more processors determine whether the first mode-based blending is applied based on changes between successive frames captured in the first mode until the capture command is received. 31. The device of item 30, configured to:
(Item 32)
32. The device of item 31, wherein the changes between the successive frames include changes in exposure, focus position, block mean, block deviation, and/or angular velocity of each axis.
(Item 33)
33. The device of any one of items 27-32, wherein the first image data and the second image data are set to have the same viewing angle and the same focus position.
(Item 34)
34. Any one of items 27-33, wherein the first mode-based fusion is combined with zero shutter lag from the capture command to completion of capture using the image captured until the capture command. device described in one.
(Item 35)
The one or more processors are further configured to perform camera shake compensation between frames captured in the first mode and the second mode, wherein the frames are captured in the first mode. 1 frame and a second frame captured in the second mode,
any one of items 27 to 34, wherein in applying the first mode-based fusion, the second image data after the camera shake compensation and the first image data are used. Devices listed.
(Item 36)
the first mode is a high resolution mode and the second mode is a normal mode; or
36. The device according to any one of items 27-35, wherein said first mode is normal mode and said second mode is high resolution mode.
(Item 37)
37. The device according to any one of items 27 to 36, wherein said first image data and said second image data are obtained from one image sensor in said imaging unit.
(Item 38)
The one or more processors are further configured to perform noise reduction processing by fusing a plurality of image data in units of image data captured in the first mode and the second mode;
38. The method of any one of items 27 to 37, wherein applying the first mode-based fusion uses the first image data and the second image data after the noise reduction process. device.
(Item 39)
39. The device according to any one of items 27-38, wherein said camera module comprises an image sensor.
(Item 40)
A computer-readable storage medium recording a program for causing a computer to execute the method according to any one of items 1 to 13.
(Item 41)
A computer program causing a computer to perform the method of any one of items 1-13.

Claims (14)

第1モードにおいて捕捉される第1の画像データを取得する段階であって、前記第1モードでは第1の解像度が設定される段階と、
撮影命令に応じて、前記第1モードを第2モードに切り替える段階であって、前記第2モードでは第2の解像度が設定され、前記第2の解像度は、前記第1の解像度とは異なる段階と、
前記第2モードにおいて捕捉される第2の画像データを取得する段階と、
第1モードベースの融合を適用して、前記第2の画像データを、基準画像データである前記第1の画像データと融合させる段階と、
撮像条件に基づいて、前記第1モードベースの融合が適用されるか否かを決定する段階と、
を含み、
前記第1モードを第2モードに切り替える段階は、前記第1モードベースの融合が適用されることが決定され、前記撮影命令が受信されると、前記第1モードを第2モードに切り替える段階を含む、画像データを処理する方法。
acquiring first image data captured in a first mode, wherein the first mode is set to a first resolution;
switching the first mode to a second mode in response to a photographing command, wherein a second resolution is set in the second mode, the second resolution being different from the first resolution; and,
obtaining second image data captured in the second mode;
applying a first mode-based fusion to fuse the second image data with the first image data, which is reference image data;
determining whether the first mode-based fusion is to be applied based on imaging conditions;
including
switching the first mode to a second mode comprises switching the first mode to a second mode when it is determined that the first mode-based fusion is to be applied and the shooting command is received. methods of processing image data, including;
前記方法は、前記第1の画像データを選択するとともに、前記第2の画像データを選択する段階を更に含む、請求項1に記載の方法。 2. The method of claim 1, said method further comprising selecting said first image data and selecting said second image data. 選択される前記第1の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像であり、選択される前記第2の画像データは、移動オブジェクトを有しない又は最も少数の移動オブジェクトを有する最もシャープな画像である、請求項2に記載の方法。 The selected first image data is the sharpest image having no or the fewest moving objects, and the selected second image data is the none or the fewest moving objects. 3. The method of claim 2, wherein the sharpest image with a moving object of . 前記撮像条件に基づいて、前記第1モードベースの融合が適用されるか否かを決定する段階は、前記撮影命令が受信されるまで前記第1モードにおいて捕捉された連続フレーム間の変化に基づいて、前記第1モードベースの融合が適用されるか否かを決定する段階を含む、請求項1から3のいずれか一項に記載の方法。 Determining whether the first mode-based fusion is to be applied based on the imaging conditions is based on changes between successive frames captured in the first mode until the capture command is received. 4. A method according to any one of claims 1 to 3, comprising determining whether said first mode-based fusion is to be applied. 前記連続フレーム間の前記変化は、露出、合焦位置、ブロック平均、ブロック偏差、及び各軸の角速度に関する変化の全て又はいずれかを含む、請求項4に記載の方法。 5. The method of claim 4, wherein the changes between successive frames include changes in exposure, focus position, block mean, block deviation, and/or angular velocity of each axis. 前記第1の画像データ及び前記第2の画像データは、同じ視野角及び同じ合焦位置を有するように設定される、請求項1~5のいずれか一項に記載の方法。 A method according to any one of claims 1 to 5, wherein said first image data and said second image data are set to have the same viewing angle and the same focus position. 前記第1モードベースの融合は、前記撮影命令までに捕捉された前記第1の画像データを使用して、前記撮影命令から撮影完了までのタイムラグが無いゼロシャッタラグと組み合わせられる、請求項1~6のいずれか一項に記載の方法。 Claim 1- wherein said first mode-based fusion is combined with zero shutter lag with no time lag from said capture command to completion of capture using said first image data captured until said capture command. 7. The method of any one of 6. 前記第1モード及び前記第2モードにおいて捕捉されたフレーム間のカメラ揺れ補償を実行する段階であって、前記フレームは、前記第1モードにおいて捕捉された第1フレームと、前記第2モードにおいて捕捉された第2フレームとを含む段階を更に含み、
前記第1モードベースの融合を適用する段階において、前記カメラ揺れ補償の後の前記第2の画像データと、前記第1の画像データとが使用される、請求項1~7のいずれか一項に記載の方法。
performing camera shake compensation between frames captured in said first mode and said second mode, said frames being a first frame captured in said first mode and a frame captured in said second mode; a second frame;
The second image data after the camera shake compensation and the first image data are used in applying the first mode-based fusion. The method described in .
前記第1モードが高解像度モードであり、前記第2モードが通常モードであるか、又は、
前記第1モードが通常モードであり、前記第2モードが高解像度モードである、請求項1~8のいずれか一項に記載の方法。
the first mode is a high resolution mode and the second mode is a normal mode; or
A method according to any one of the preceding claims, wherein said first mode is normal mode and said second mode is high resolution mode.
前記第1の画像データ及び前記第2の画像データは、撮像ユニットにおける1つのイメージセンサから取得される、請求項1~9のいずれか一項に記載の方法。 A method according to any one of the preceding claims, wherein said first image data and said second image data are obtained from one image sensor in an imaging unit. 前記方法は、前記第1モード及び前記第2モードにおいて捕捉された画像データの単位で複数の画像データを融合することによって、ノイズ低減処理を実行する段階を更に備え、
前記第1モードベースの融合を適用する段階において、前記ノイズ低減処理の後の前記第1の画像データ及び前記第2の画像データが使用される、請求項1~10のいずれか一項に記載の方法。
The method further comprises performing noise reduction processing by fusing a plurality of image data in units of image data captured in the first mode and the second mode;
The first image data and the second image data after the noise reduction process are used in the step of applying the first mode-based blending according to any one of claims 1 to 10. the method of.
カメラモジュールと、
命令を含む不揮発性メモリストレージと、
前記カメラモジュール及び前記不揮発性メモリストレージと通信する1つ又は複数のプロセッサであって、前記命令を実行して、請求項1~11のいずれか一項に記載の方法を実行する1つ又は複数のプロセッサと、
を備える、デバイス。
a camera module;
non-volatile memory storage containing instructions;
one or more processors in communication with the camera module and the non-volatile memory storage for executing the instructions to perform the method of any one of claims 1-11 a processor of
A device comprising:
コンピュータに、請求項1~11のいずれか一項に記載の方法を実行させるプログラムを記録したコンピュータ可読記憶媒体。 A computer-readable storage medium recording a program for causing a computer to execute the method according to any one of claims 1 to 11 . コンピュータに、請求項1~11のいずれか一項に記載の方法を実行させる、コンピュータプログラム。 A computer program for causing a computer to carry out the method according to any one of claims 1-11 .
JP2021520323A 2018-10-15 2018-10-15 METHOD, APPARATUS, PROGRAM, AND RECORDING MEDIUM FOR PROCESSING IMAGE DATA Active JP7334880B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/110308 WO2020077513A1 (en) 2018-10-15 2018-10-15 Method, apparatus, program and recording medium for processing image data

Publications (2)

Publication Number Publication Date
JP2022504849A JP2022504849A (en) 2022-01-13
JP7334880B2 true JP7334880B2 (en) 2023-08-29

Family

ID=70283310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520323A Active JP7334880B2 (en) 2018-10-15 2018-10-15 METHOD, APPARATUS, PROGRAM, AND RECORDING MEDIUM FOR PROCESSING IMAGE DATA

Country Status (3)

Country Link
JP (1) JP7334880B2 (en)
CN (1) CN112889264A (en)
WO (1) WO2020077513A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102377A1 (en) 2006-03-03 2007-09-13 Olympus Corporation Imaging device, processing method for obtaining high-resolution, processing program for obtaining high-resolution, and recording medium
WO2009098877A1 (en) 2008-02-06 2009-08-13 Panasonic Corporation Image processing device and image processing method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8149283B2 (en) * 2007-01-23 2012-04-03 Nikon Corporation Image processing device, electronic camera, image processing method, and image processing program
JP5183297B2 (en) * 2008-05-19 2013-04-17 三洋電機株式会社 Image processing apparatus, imaging apparatus, and image processing method
JP2011091592A (en) * 2009-10-22 2011-05-06 Panasonic Corp Image encoder, code converter, image recorder, image reproduction device, image encoding method, and integrated circuit
JP5995817B2 (en) * 2013-10-30 2016-09-21 京セラドキュメントソリューションズ株式会社 Image reading apparatus, image forming apparatus, image reading method, and image reading program
US9245365B2 (en) * 2013-11-08 2016-01-26 Adobe Systems Incorporated Dynamic digital image compositing using image templates
JP2015177221A (en) * 2014-03-13 2015-10-05 オリンパス株式会社 Imaging apparatus, imaging method, data recording device, and program
JP5788551B1 (en) * 2014-03-27 2015-09-30 オリンパス株式会社 Image processing apparatus and image processing method
JP6346793B2 (en) * 2014-06-03 2018-06-20 オリンパス株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
TWI537875B (en) * 2015-04-08 2016-06-11 大同大學 Image fusion method and image processing apparatus
KR102469567B1 (en) * 2016-04-11 2022-11-22 삼성전자주식회사 Imaging device and operating method thereof
CN107360369B (en) * 2017-07-18 2021-06-08 深圳天珑无线科技有限公司 Image pickup apparatus, photographing method of image pickup apparatus, and computer-readable storage medium
WO2019061064A1 (en) * 2017-09-27 2019-04-04 深圳市大疆创新科技有限公司 Image processing method and device
CN107770438B (en) * 2017-09-27 2019-11-29 维沃移动通信有限公司 A kind of photographic method and mobile terminal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102377A1 (en) 2006-03-03 2007-09-13 Olympus Corporation Imaging device, processing method for obtaining high-resolution, processing program for obtaining high-resolution, and recording medium
WO2009098877A1 (en) 2008-02-06 2009-08-13 Panasonic Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
JP2022504849A (en) 2022-01-13
WO2020077513A1 (en) 2020-04-23
CN112889264A (en) 2021-06-01

Similar Documents

Publication Publication Date Title
TWI446098B (en) Imaging device and its shutter drive mode selection method
TWI387330B (en) Imaging apparatus provided with panning mode for taking panned image
JP2008129554A (en) Imaging device and automatic focusing control method
US8072497B2 (en) Imaging apparatus and recording medium
JP6652039B2 (en) Imaging device, imaging method, and program
JP2009100373A (en) Noise reduction processing apparatus, noise reduction processing method, and electronic device
JP2015049402A (en) Defocus-amount detection device, and control method of the same, and imaging device
US10401174B2 (en) Posture estimating apparatus for estimating posture, posture estimating method and recording medium
US9007479B2 (en) Imaging apparatus and evaluation value generation apparatus
JP7320024B2 (en) IMAGE SENSOR, IMAGING DEVICE, IMAGE DATA PROCESSING METHOD, AND PROGRAM
TW201223268A (en) Imaging apparatus, signal processing method, and program
JP2013123172A (en) Imaging apparatus and program
WO2016169488A1 (en) Image processing method and apparatus, computer storage medium and terminal
US20140118596A1 (en) Imaging device and imaging method
US20240080410A1 (en) Imaging apparatus, image data processing method of imaging apparatus, and program
JP2005198148A (en) Solid-state image pickup element, driving method thereof, and imaging apparatus
JP5959194B2 (en) Imaging device
JP5820720B2 (en) Imaging device
JP7334880B2 (en) METHOD, APPARATUS, PROGRAM, AND RECORDING MEDIUM FOR PROCESSING IMAGE DATA
WO2018116824A1 (en) Control device, control method, and program
US11356611B2 (en) Image capture apparatus and control method thereof
US20160028957A1 (en) Imaging device, a control method for transmitting picture signals, and a program
JP2012114677A (en) Imaging apparatus, imaging method, and program
JP4687619B2 (en) Image processing apparatus, image processing method, and program
JP6091216B2 (en) Image signal processing apparatus, control method therefor, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230801

R150 Certificate of patent or registration of utility model

Ref document number: 7334880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150