JP2013175803A - Image processing device and camera - Google Patents

Image processing device and camera Download PDF

Info

Publication number
JP2013175803A
JP2013175803A JP2012037419A JP2012037419A JP2013175803A JP 2013175803 A JP2013175803 A JP 2013175803A JP 2012037419 A JP2012037419 A JP 2012037419A JP 2012037419 A JP2012037419 A JP 2012037419A JP 2013175803 A JP2013175803 A JP 2013175803A
Authority
JP
Japan
Prior art keywords
image processing
image
processing
correlation
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012037419A
Other languages
Japanese (ja)
Inventor
Toru Miyakoshi
徹 宮越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012037419A priority Critical patent/JP2013175803A/en
Publication of JP2013175803A publication Critical patent/JP2013175803A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To lighten image processing burdens other than compressed code processing.SOLUTION: An image processing device 1 comprises: image input means 15a for inputting a plurality of successively photographed frame images; image processing means 15c for performing predetermined image processing on frame images; encode processing means 15d for performing encode processing on frame images; correlation determination means 15b, 15h for determining whether there is correlation between preceding and following frame images for each block region used in encode processing; and control means 15h for controlling the image processing means 15c and the encode processing means 15d, respectively, so that when image processing and encode processing are performed on an image of the first frame and then image processing is performed on images of the second and subsequent frames, image processing aimed at the first region which was determined as having no correlation is performed and image processing aimed at the second region which was determined as having correlation is omitted.

Description

本発明は、画像処理装置、およびカメラに関する。   The present invention relates to an image processing apparatus and a camera.

連写撮影において、JPEG等の圧縮処理量を軽減する技術が知られている(特許文献1参照)。1フレーム前のブロックデータと現フレームのブロックデータとを比較して、判定閾値以内の誤差である場合に圧縮処理を施さずに処理負担を軽減する点が開示されている。   In continuous shooting, a technique for reducing the amount of compression processing such as JPEG is known (see Patent Document 1). It is disclosed that the block data of one frame before and the block data of the current frame are compared, and if the error is within the determination threshold, the processing load is reduced without performing compression processing.

特開2006−24993号公報JP 2006-24993 A

従来技術では、圧縮符号化処理以外の画像処理負担の軽減について検討がなされていなかった。   In the prior art, no consideration has been given to reducing the burden of image processing other than compression encoding processing.

本発明による画像処理装置は、連写撮影された複数のフレーム画像を入力する画像入力手段と、フレーム画像に対して所定の画像処理を行う画像処理手段と、フレーム画像に対して符号化処理を行う符号化処理手段と、前後するフレーム画像間の相関の有無を、符号化処理で用いるブロック領域ごとに判定する相関判定手段と、1フレーム目の画像に対して画像処理と符号化処理とを行い、2フレーム目以降の画像に対して画像処理を行う際、相関無しが判定されている第1領域を対象に画像処理を行い、相関有りが判定されている第2領域を対象にする画像処理を省略するように画像処理手段および符号化処理手段をそれぞれ制御する制御手段と、を備える。   An image processing apparatus according to the present invention includes an image input unit that inputs a plurality of frame images taken continuously, an image processing unit that performs predetermined image processing on the frame image, and an encoding process on the frame image. Encoding processing means to perform, correlation determination means for determining the presence or absence of correlation between the preceding and following frame images for each block region used in the encoding processing, and image processing and encoding processing for the first frame image When performing image processing on the second and subsequent frames, the image processing is performed on the first area determined to have no correlation, and the second area is determined to have correlation. And control means for controlling the image processing means and the encoding processing means so as to omit the processing.

本発明によれば、圧縮符号化処理以外の画像処理負担を軽減することができる。   According to the present invention, it is possible to reduce an image processing burden other than compression encoding processing.

本発明の一実施の形態による画像処理装置を搭載したデジタルカメラの構成を例示するブロック図である。1 is a block diagram illustrating the configuration of a digital camera equipped with an image processing apparatus according to an embodiment of the present invention. CPUが連写時に実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs at the time of continuous shooting. ブロック領域を説明する図である。It is a figure explaining a block area. 相関有りを判定した領域と、相関無しを判定した領域とを例示する図である。It is a figure which illustrates the area | region which determined with correlation, and the area | region which determined with no correlation. 画像データの流れを例示する図である。It is a figure which illustrates the flow of image data.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による画像処理装置を搭載したデジタルカメラの構成を例示するブロック図である。図1において、デジタルカメラ1は、撮影レンズ11と、絞り12と、シャッター13と、撮像素子14と、画像処理エンジン15と、DRAM16と、フラッシュメモリ17と、画像表示器19とを有し、着脱可能な外部メモリ18が装着されている。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of a digital camera equipped with an image processing apparatus according to an embodiment of the present invention. In FIG. 1, the digital camera 1 includes a photographing lens 11, an aperture 12, a shutter 13, an image sensor 14, an image processing engine 15, a DRAM 16, a flash memory 17, and an image display 19. A removable external memory 18 is attached.

撮影レンズ11は、被写体像を撮像素子14の撮像面に結像させる。絞り12は、撮像素子14へ導かれる光束を制限する。シャッター13は、光路を開閉することにより、被写体光束を撮像素子14へ導く状態と該被写体光束を遮断する状態とを切替える。撮像素子14は、たとえばCMOSイメージセンサによって構成され、結像されている被写体像を光電変換する。   The photographing lens 11 forms a subject image on the imaging surface of the image sensor 14. The diaphragm 12 limits the light beam guided to the image sensor 14. The shutter 13 switches between a state in which the subject light flux is guided to the image sensor 14 and a state in which the subject light flux is blocked by opening and closing the optical path. The image sensor 14 is constituted by, for example, a CMOS image sensor, and photoelectrically converts a formed subject image.

画像処理エンジン15は、光電変換後の画像信号に対して所定の画像処理および圧縮符号化処理などを行う。画像処理エンジン15は、前処理部15aと、相関検出部15bと、画像処理部15cと、画像符号化部15dと、DRAM制御部15eと、フラッシュメモリ制御部15fと、外部メモリ制御部15gと、CPU15hと、画像表示制御部15iとを含む。   The image processing engine 15 performs predetermined image processing and compression coding processing on the image signal after photoelectric conversion. The image processing engine 15 includes a preprocessing unit 15a, a correlation detection unit 15b, an image processing unit 15c, an image encoding unit 15d, a DRAM control unit 15e, a flash memory control unit 15f, and an external memory control unit 15g. CPU 15h and an image display control unit 15i.

前処理部15aは、撮像素子14からの画像信号を受けてA/D変換などの前処理を行う。相関検出部15bは、画像データをフレーム間で比較して相関の有無を検出する。たとえば、画像を所定のブロック領域に分割し、該分割領域ごとに相関の有無を検出する。本実施形態では、画像符号化部15dが符号化処理の中で行うブロック処理(たとえば離散コサイン変換(DCT)など)で用いるブロックと、相関検出部15bが相関検出に用いるブロックとを共通にする。   The preprocessing unit 15a receives an image signal from the image sensor 14 and performs preprocessing such as A / D conversion. The correlation detection unit 15b compares the image data between frames and detects the presence or absence of correlation. For example, the image is divided into predetermined block areas, and the presence or absence of correlation is detected for each divided area. In the present embodiment, a block used in block processing (for example, discrete cosine transform (DCT)) performed by the image encoding unit 15d in the encoding process and a block used by the correlation detection unit 15b for correlation detection are made common. .

画像処理部15cは、画像データに対して画像処理を行う。画像処理は、たとえば、RAWデータからYUVデータへの変換処理、エッジ強調処理、像ボケ付加処理、およびノイズ除去処理などを含む。画像符号化部15dは、JPEGなどの圧縮方式で画像を圧縮する符号化処理、および圧縮された画像を伸張する復号化処理を行う。   The image processing unit 15c performs image processing on the image data. The image processing includes, for example, conversion processing from RAW data to YUV data, edge enhancement processing, image blur addition processing, noise removal processing, and the like. The image encoding unit 15d performs an encoding process for compressing an image by a compression method such as JPEG and a decoding process for expanding the compressed image.

DRAM制御部15eは、DRAM16に対するデータ書込みやデータ読出しを制御する。DRAM16は揮発性のメモリであって、CPU15hがプログラム実行時にプログラムを展開するためのワークメモリとして使用される。また、DRAM16は、上記相関検出処理、画像処理、および画像符号化/複合化処理の際に一時的にデータを一時記憶するバッファメモリとしても使用される。   The DRAM control unit 15 e controls data writing and data reading with respect to the DRAM 16. The DRAM 16 is a volatile memory, and is used as a work memory for the CPU 15h to expand the program when the program is executed. The DRAM 16 is also used as a buffer memory for temporarily storing data during the correlation detection process, the image process, and the image encoding / combining process.

フラッシュメモリ制御部15fは、フラッシュメモリ17に対するデータ書込みやデータ読出しを制御する。フラッシュメモリ17は不揮発性のメモリであって、CPU15hが実行するプログラムのデータや、プログラム実行時に読込まれる種々のパラメータなどを記憶する。   The flash memory control unit 15 f controls data writing and data reading with respect to the flash memory 17. The flash memory 17 is a non-volatile memory, and stores data of a program executed by the CPU 15h, various parameters read when the program is executed, and the like.

外部メモリ制御部15gは、外部メモリ18に対するデータ書込みやデータ読出しを制御する。外部メモリ18は、メモリカードなどの記憶媒体であり、デジタルカメラ1に対して着脱可能に構成されている。外部メモリ18には、保存用の画像データが書込まれる。また、外部メモリ18からは、記録されている画像データが読出される。   The external memory control unit 15 g controls data writing and data reading with respect to the external memory 18. The external memory 18 is a storage medium such as a memory card and is configured to be detachable from the digital camera 1. Image data for storage is written in the external memory 18. The recorded image data is read from the external memory 18.

CPU15hは、フラッシュメモリ17に記録されているプログラムに基づいて、画像処理エンジン15の動作を制御する他、デジタルカメラ1の全体動作を制御する。画像表示制御部15iは、デジタルカメラ1の背面に搭載された画像表示器19(背面液晶モニタ)の表示制御を行う。画像表示器19は、外部メモリ18に記録されている画像データに基づく再生画像や、デジタルカメラ1に機能設定を行うための設定メニュー画面などを表示する。また、ユーザーによってデジタルカメラ1が撮影モードに設定されると、撮像素子14が時系列で取得した画像の表示用画像データを表示する。これにより、画像表示器19にスルー画が表示される。   The CPU 15 h controls the overall operation of the digital camera 1 in addition to controlling the operation of the image processing engine 15 based on the program recorded in the flash memory 17. The image display control unit 15 i performs display control of the image display 19 (back liquid crystal monitor) mounted on the back surface of the digital camera 1. The image display 19 displays a playback image based on the image data recorded in the external memory 18, a setting menu screen for setting functions on the digital camera 1, and the like. In addition, when the digital camera 1 is set to the shooting mode by the user, the image sensor 14 displays image data for display of images acquired in time series. As a result, a through image is displayed on the image display 19.

本実施形態は、連写撮影時に画像処理部15cで画像処理を行う際に、相関検出部15bによって相関有りが検出されている現フレームの画像のブロック領域に対しては画像処理を省略し、代わりに前フレームの画像の対応するブロック領域についての画像処理結果を用いる。連写時の画像処理負担を軽くして、より高速の連写撮影を行うためである。   In this embodiment, when image processing is performed by the image processing unit 15c during continuous shooting, image processing is omitted for the block region of the image of the current frame in which the presence of correlation is detected by the correlation detection unit 15b. Instead, the image processing result for the corresponding block area of the image of the previous frame is used. This is to reduce the image processing burden during continuous shooting and to perform higher-speed continuous shooting.

CPU15hが連写時に実行する処理の流れについて、図2のフローチャートを参照して説明する。CPU15hは、連写撮影が指示された場合に図2による処理を起動させる。図2のステップS11において、CPU15hは撮像素子14を露光させる。たとえば、露出演算結果に基づいて絞り12およびシャッター13を制御して、撮像素子14に所定時間蓄積動作をさせてステップS12へ進む。   The flow of processing executed by the CPU 15h during continuous shooting will be described with reference to the flowchart of FIG. The CPU 15h activates the processing shown in FIG. 2 when continuous shooting is instructed. In step S <b> 11 of FIG. 2, the CPU 15 h exposes the image sensor 14. For example, the diaphragm 12 and the shutter 13 are controlled based on the exposure calculation result, and the image sensor 14 is allowed to accumulate for a predetermined time, and the process proceeds to step S12.

ステップS12において、CPU15hは、露光データ(画像信号)をRAWデータとしてDRAM16へ一時記憶させる。具体的には、撮像素子14から読出した信号を前処理部15aでA/D変換させる。そして、DRAM制御部15eへ指示を送ってA/D変換後のRAWデータをDRAM16へ一時記憶させてステップS13へ進む。ステップS12においてDRAM16へ記憶したRAWデータが「現フレーム」の画像に相当する。   In step S12, the CPU 15h temporarily stores exposure data (image signal) in the DRAM 16 as RAW data. Specifically, the signal read from the image sensor 14 is A / D converted by the preprocessing unit 15a. Then, an instruction is sent to the DRAM control unit 15e to temporarily store the RAW data after A / D conversion in the DRAM 16, and the process proceeds to step S13. The RAW data stored in the DRAM 16 in step S12 corresponds to the “current frame” image.

ステップS13において、CPU15hは、連写撮影の1枚目か否かを判定する。CPU15hは、DRAM16へ記憶したRAWデータが連写1枚目である場合にステップS13を肯定判定してステップS14へ進む。CPU15hは、DRAM16へ記憶したRAWデータが連写1枚目でない(すなわち連写2枚目以降である)場合にステップS13を否定判定してステップS17へ進む。   In step S13, the CPU 15h determines whether or not it is the first continuous shooting. If the RAW data stored in the DRAM 16 is the first continuous shot, the CPU 15h makes a positive determination in step S13 and proceeds to step S14. When the RAW data stored in the DRAM 16 is not the first continuous shot (that is, after the second continuous shot), the CPU 15h makes a negative determination in step S13 and proceeds to step S17.

ステップS14において、CPU15hは、DRAM16内のRAWデータ(連写1枚目)に所定の画像処理を行わせてステップS15へ進む。本実施形態では、画像処理部15cが少なくともRAWデータからYUVデータへの変換処理を行う。YUVデータは、輝度データYおよび色差データU,Vで表される画像データである。CPU15hは、YUVデータへの変換処理以外の他の処理(エッジ強調処理、像ボケ付加処理、およびノイズ除去処理など)を行う設定がなされている場合には、設定に応じた画像処理を画像処理部15cにさらに行わせる。CPU15hは、DRAM制御部15eへ指示を送り、画像処理後のYUVデータをDRAM16へ一時記憶させる。   In step S14, the CPU 15h performs predetermined image processing on the RAW data (first continuous shot) in the DRAM 16 and proceeds to step S15. In the present embodiment, the image processing unit 15c performs at least conversion processing from RAW data to YUV data. YUV data is image data represented by luminance data Y and color difference data U and V. If the CPU 15h is set to perform processing other than the conversion processing to YUV data (edge enhancement processing, image blur addition processing, noise removal processing, etc.), the image processing corresponding to the setting is performed as image processing. The part 15c is further performed. The CPU 15h sends an instruction to the DRAM control unit 15e, and temporarily stores the YUV data after image processing in the DRAM 16.

ステップS15において、CPU15hは画像符号化部15dへ指示を送り、DRAM16に記憶されているYUVデータ(連写1枚目)に圧縮符号化処理を行わせてステップS16へ進む。ステップS16において、CPU15hは外部メモリ制御部15gへ指示を送り、圧縮符号化データを外部メモリ18に書き込み記録させて、ステップS11へ戻る。   In step S15, the CPU 15h sends an instruction to the image encoding unit 15d, performs compression encoding processing on the YUV data (first continuous shot) stored in the DRAM 16, and proceeds to step S16. In step S16, the CPU 15h sends an instruction to the external memory control unit 15g, writes and records the compressed encoded data in the external memory 18, and returns to step S11.

連写2枚目以降である場合のステップS17において、CPU15hは、相関検出部15bへ指示を送り、「前フレーム」のRAWデータと「現フレーム」のRAWデータとを比較して相関の有無を検出させる。「現フレーム」の1枚前に取得(露光)され、DRAM16に記憶されているRAWデータが「前フレーム」の画像に相当する。相関検出部15bは、上述した画像符号化部15dが圧縮符号化処理の中で用いたブロック領域ごとに、フレーム間でRAWデータを比較して相関の有無を検出する。相関検出部15bは、たとえば、フレーム間でRAWデータの差分をとり、ブロック領域ごとに差分の平均値を比較して相関性強度を判定する。相関検出部15bは、ブロック領域における上記平均値の差が所定の判定閾値より小さい場合は、当該ブロック領域において相関有りを判定し、平均値の差が上記判定閾値以上の場合には当該ブロック領域において相関無しを判定する。   In step S17 in the case of the second and subsequent shots, the CPU 15h sends an instruction to the correlation detection unit 15b and compares the RAW data of the “previous frame” with the RAW data of the “current frame” to determine whether there is a correlation. Let it be detected. The RAW data acquired (exposed) one frame before the “current frame” and stored in the DRAM 16 corresponds to the image of the “previous frame”. The correlation detection unit 15b detects the presence or absence of correlation by comparing RAW data between frames for each block region used in the compression encoding process by the image encoding unit 15d described above. For example, the correlation detection unit 15b calculates a correlation strength by taking a difference of RAW data between frames and comparing an average value of the differences for each block region. The correlation detection unit 15b determines that there is a correlation in the block area when the difference between the average values in the block area is smaller than a predetermined determination threshold, and the block area when the difference between the average values is equal to or greater than the determination threshold. It is determined whether there is no correlation.

ステップS18において、CPU15hは、「現フレーム」のブロック領域ごとに、相関が強い領域であるか否かを判定する。CPU15hは、相関検出部15bにおいて上記相関有りが判定されている場合にステップS18を肯定判定してステップS19へ進む。CPU15hは、相関検出部15bにおいて上記相関無しが判定されている場合には、ステップS18を否定判定してステップS20へ進む。   In step S <b> 18, the CPU 15 h determines whether or not each block area of “current frame” is an area having a strong correlation. If the correlation detection unit 15b determines that the correlation is present, the CPU 15h makes a positive determination in step S18 and proceeds to step S19. If the correlation detection unit 15b determines that there is no correlation, the CPU 15h makes a negative determination in step S18 and proceeds to step S20.

ステップS19において、CPU15hは、当該ブロック領域に関し「前フレーム」における画像処理後のYUVデータを「現フレーム」における画像処理結果として流用する。具体的には、相関有りが判定されているブロック領域については、「現フレーム」の当該ブロック領域について画像処理部15cで画像処理を行わない。CPU15hは、たとえばDRAM制御部15eへ指示を送り、「前フレーム」における画像処理後のYUVデータの複製を「現フレーム」における画像処理結果としてDRAM16へ一時記憶させてステップS21へ進む。   In step S19, the CPU 15h diverts the YUV data after the image processing in the “previous frame” regarding the block area as the image processing result in the “current frame”. Specifically, for the block area determined to be correlated, the image processing unit 15 c does not perform image processing on the block area of “current frame”. For example, the CPU 15h sends an instruction to the DRAM control unit 15e, temporarily stores a copy of the YUV data after the image processing in the “previous frame” in the DRAM 16 as the image processing result in the “current frame”, and proceeds to step S21.

ステップS20において、CPU15hは画像処理部15cへ指示を送り、DRAM16内に記憶されている「現フレーム」のRAWデータのうち、相関無しが判定されているブロック領域のRAWデータに対して所定の画像処理を行わせてステップS21へ進む。これにより画像処理部15cは、少なくともRAWデータからYUVデータへの変換処理を行う。画像処理部15cはさらに、YUVデータへの変換処理以外の他の処理を行う設定がなされている場合には、当該ブロック領域のYUVデータに対して設定に応じた画像処理を行う。CPU15hはDRAM制御部15eへ指示を送り、画像処理後のYUVデータをDRAM16へ一時記憶させる。   In step S20, the CPU 15h sends an instruction to the image processing unit 15c, and among the RAW data of the “current frame” stored in the DRAM 16, a predetermined image is applied to the RAW data in the block area determined to have no correlation. The process proceeds to step S21. Thus, the image processing unit 15c performs at least conversion processing from RAW data to YUV data. Further, when the setting for performing processing other than the conversion processing to YUV data is made, the image processing unit 15c performs image processing according to the setting on the YUV data of the block area. The CPU 15h sends an instruction to the DRAM control unit 15e, and temporarily stores the YUV data after image processing in the DRAM 16.

図3は、ブロック領域を説明する図である。図3に記載した格子は、画像符号化部15dが圧縮符号化処理の中で用いるブロック領域31を表し、たとえば、n×n画素の領域である。画像処理部15cは、このブロック領域31の周囲にそれぞれ所定画素分(たとえば、(m−n)/2、ただしm>n)の糊代として外枠32を設ける。ブロック領域の周囲に「(m−n)/2」画素の糊代を設ける理由は、画像処理にフィルタ処理を含む場合において、ブロック領域31の端部におけるフィルタ処理が困難なことによる。フィルタ処理用の糊代として外枠32を設けると、ブロック領域31の端部を注目画素としてフィルタ処理を行う場合にブロック領域31の外側の外枠32に含まれる画素信号を用いてフィルタ処理を行えるから、ブロック領域31の外側の画素信号を用いずにフィルタ処理を行う場合に比べて、適切なフィルタ処理結果が得られる。   FIG. 3 is a diagram for explaining the block area. The grid described in FIG. 3 represents the block area 31 used by the image encoding unit 15d in the compression encoding process, and is an area of n × n pixels, for example. The image processing unit 15c provides an outer frame 32 around the block region 31 as a margin for a predetermined pixel (for example, (mn) / 2, where m> n). The reason why the margin of “(mn) / 2” pixels is provided around the block area is that it is difficult to perform the filter process at the end of the block area 31 when the image process includes the filter process. When the outer frame 32 is provided as a glue margin for the filter processing, the filter processing is performed using the pixel signal included in the outer frame 32 outside the block region 31 when the filter processing is performed using the end of the block region 31 as the target pixel. Therefore, an appropriate filter processing result can be obtained as compared with the case where the filter processing is performed without using the pixel signal outside the block region 31.

ここで、エッジ強調処理、像ボケ付加処理、およびノイズ除去処理は、いずれもローパスフィルタ処理を含むので、上記外枠32を設けることは適切なフィルタ処理結果を得る上で重要である。画像処理部15cは、処理を行うように設定されている画像処理の種別や、該画像処理で必要とされる周波数成分に応じて外枠32の大きさ、すなわち糊代を構成する画素数を異ならせる。たとえば、ローパスフィルタの遮断周波数が低いほど画素数を増やし、遮断周波数が高いほど画素数を減らす。   Here, since the edge enhancement process, the image blur addition process, and the noise removal process all include a low-pass filter process, the provision of the outer frame 32 is important in obtaining an appropriate filter process result. The image processing unit 15c determines the size of the outer frame 32 according to the type of image processing set to perform processing and the frequency component required for the image processing, that is, the number of pixels constituting the paste margin. Make it different. For example, the number of pixels is increased as the cutoff frequency of the low-pass filter is lower, and the number of pixels is decreased as the cutoff frequency is higher.

図4は、「前フレーム」と「現フレーム」との間の相関有りを判定した領域(すなわちステップS18を肯定判定した領域)と、相関無しを判定した領域(すなわちステップS18を否定判定した領域)とを例示する図である。図4において、領域41、42、43、44、45は相関無しを判定した領域であり、領域41〜45以外の他の領域は相関有りを判定した領域である。この場合のCPU15hは、DRAM16内に記憶されている「現フレーム」のRAWデータのうち、領域41〜45に対応するブロック領域のRAWデータに対して、それぞれ所定の画像処理を行わせる。なお、図4に例示した相関有り領域と相関無し領域は一例である。CPU15hは、新しいフレーム画像を取得する度に「現フレーム」および「前フレーム」のRAWデータを更新する。すなわち、新フレームのRAWデータを「現フレーム」として取り扱い、それまで「現フレーム」であったRAWデータを「前フレーム」のRAWデータとして扱う。   FIG. 4 shows a region where the presence of correlation between the “previous frame” and the “current frame” is determined (ie, a region where step S18 is positively determined), and a region where there is no correlation (ie, a region where step S18 is negatively determined). ). In FIG. 4, areas 41, 42, 43, 44, and 45 are areas where no correlation is determined, and other areas other than the areas 41 to 45 are areas where correlation is determined. In this case, the CPU 15 h performs predetermined image processing on the RAW data in the block areas corresponding to the areas 41 to 45 among the “current frame” RAW data stored in the DRAM 16. The correlated area and the uncorrelated area illustrated in FIG. 4 are examples. The CPU 15h updates the “current frame” and “previous frame” RAW data each time a new frame image is acquired. That is, the RAW data of the new frame is handled as the “current frame”, and the RAW data that was the “current frame” until then is handled as the RAW data of the “previous frame”.

ステップS21において、CPU15hは、画像全体の画像処理結果を入手したか否かを判定する。CPU15hは、「現フレーム」を構成する全てのブロック領域においてステップS19またはS20の処理を終了した場合に、ステップS21を肯定判定してステップS22へ進む。CPU15hは、ステップS19およびS20のいずれの処理も行っていないブロック領域が「現フレーム」の中に存在する場合には、ステップS21を否定判定してステップS18へ戻る。   In step S21, the CPU 15h determines whether the image processing result of the entire image has been obtained. The CPU 15h makes an affirmative decision in step S21 and proceeds to step S22 when the process of step S19 or S20 is completed in all the block areas constituting the “current frame”. If there is a block area in the “current frame” in which neither of the processes in steps S19 and S20 is performed, the CPU 15h makes a negative determination in step S21 and returns to step S18.

ステップS22において、CPU15hは、連写撮影の最後のフレームか否かを判定する。CPU15hは、DRAM16へ記憶させたRAWデータが最後の1枚である場合にステップS22を肯定判定して図2による処理を終了する。CPU15hは、DRAM16へ記憶させたRAWデータが最後の1枚ではない(すなわち、次フレームの露光が指示されている)場合にステップS22を否定判定してステップS11へ戻る。   In step S22, the CPU 15h determines whether or not it is the last frame of continuous shooting. If the RAW data stored in the DRAM 16 is the last one, the CPU 15h makes an affirmative decision in step S22 and ends the processing in FIG. If the RAW data stored in the DRAM 16 is not the last one (that is, the next frame exposure is instructed), the CPU 15h makes a negative determination in step S22 and returns to step S11.

図5は、画像データの流れを例示する図である。前処理部15aから出力されたRAWデータは、DRAM16に一時記憶される。後述する変形例4の場合は、RAWデータに加えて評価値データもDRAM16に一時記憶される。相関検出部15bは、DRAM16から読み出されたRAWデータに基づいて相関の有無を判定する。後述する変形例4の場合は、DRAM16から読み出された評価値データに基づいて相関の有無を判定する。   FIG. 5 is a diagram illustrating the flow of image data. The RAW data output from the preprocessing unit 15a is temporarily stored in the DRAM 16. In the case of Modification 4 to be described later, evaluation value data is also temporarily stored in the DRAM 16 in addition to RAW data. The correlation detection unit 15b determines the presence or absence of correlation based on the RAW data read from the DRAM 16. In the case of Modification 4 to be described later, the presence or absence of correlation is determined based on the evaluation value data read from the DRAM 16.

画像処理部15cがRAWデータからYUVデータへの変換処理を行う場合、DRAM16から読み出されたRAWデータに基づいて変換処理が行われ、変換後のYUVデータがDRAM16に一時記憶される。画像処理部15cがノイズ除去処理を行う場合、DRAM16から読み出されたYUVデータに基づいてノイズ除去処理が行われ、処理後のYUVデータがDRAM16に一時記憶される。   When the image processing unit 15 c performs conversion processing from RAW data to YUV data, the conversion processing is performed based on the RAW data read from the DRAM 16, and the converted YUV data is temporarily stored in the DRAM 16. When the image processing unit 15 c performs noise removal processing, noise removal processing is performed based on the YUV data read from the DRAM 16, and the processed YUV data is temporarily stored in the DRAM 16.

画像符号化部15dが圧縮符号化処理処理を行う場合、DRAM16から読み出されたYUVデータに基づいて圧縮符号化処理が行われ、処理後の符号化データがDRAM16に一時記憶される。外部メモリ制御部15gが外部メモリ18に対するデータ書込みを行う場合、DRAM16から読み出された符号化データに基づいて書き込み処理を行う。   When the image encoding unit 15d performs the compression encoding process, the compression encoding process is performed based on the YUV data read from the DRAM 16, and the encoded data after the process is temporarily stored in the DRAM 16. When the external memory control unit 15g writes data to the external memory 18, the writing process is performed based on the encoded data read from the DRAM 16.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1は、連写撮影された複数のフレーム画像を入力する前処理部15aと、フレーム画像に対して所定の画像処理を行う画像処理部15cと、フレーム画像に対して符号化処理を行う画像符号化部15dと、前後するフレーム画像間の相関の有無を、符号化処理で用いるブロック領域31ごとに判定する相関検出部15bおよびCPU15hと、1フレーム目の画像に対して画像処理と符号化処理とを行い、2フレーム目以降の画像に対して画像処理を行う際、相関無しが判定されている領域41〜45を対象に画像処理を行い、相関有りが判定されている他の領域(領域41〜45以外)を対象にする画像処理を省略するように画像処理部15cおよび画像符号化部15dをそれぞれ制御するCPU15hと、を備えるようにした。これにより、圧縮符号化処理以外の画像処理負担を軽減することができ、ひいては連写速度の高速化を実現できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The digital camera 1 includes a pre-processing unit 15a that inputs a plurality of frame images taken continuously, an image processing unit 15c that performs predetermined image processing on the frame image, and encoding the frame image. An image encoding unit 15d that performs processing, and a correlation detection unit 15b and a CPU 15h that determine whether or not there is a correlation between preceding and following frame images for each block region 31 used in the encoding processing, and an image for the first frame image When the image processing is performed on the second and subsequent images by performing the processing and the encoding processing, the image processing is performed on the areas 41 to 45 in which it is determined that there is no correlation, and it is determined that there is a correlation. A CPU 15h that controls the image processing unit 15c and the image encoding unit 15d so as to omit image processing for other regions (other than the regions 41 to 45). Was Unishi. As a result, it is possible to reduce the image processing burden other than the compression encoding process, and consequently, it is possible to increase the continuous shooting speed.

(2)上記(1)のデジタルカメラ1において、CPU15hは、「現フレーム」に対する画像処理後の画像を、「現フレーム」の領域41〜45に対する画像処理後のYUVデータと、「前フレーム」の他の領域(領域41〜45以外)に対する画像処理後のYUVデータとで構成するようにした。これにより、フレーム画像の全域に対して画像処理を行う場合に比べて、圧縮符号化処理以外の画像処理負担を軽減できる。なお、一般にフレーム画像の全域に対して画像処理を行うよりも、前後するフレーム画像間の相関有無を判定する処理の方が負担が小さいので、相関有無の判定処理が増えるとしても、全体として画像処理の負担を抑えることができる。 (2) In the digital camera 1 of the above (1), the CPU 15h displays the image after the image processing for the “current frame”, the YUV data after the image processing for the areas 41 to 45 of the “current frame”, and the “previous frame”. It is made up of YUV data after image processing for other areas (other than areas 41 to 45). Thereby, compared with the case where image processing is performed on the entire area of the frame image, it is possible to reduce the image processing burden other than the compression encoding processing. Note that in general, it is less burdensome to perform the process of determining the presence / absence of correlation between the preceding and subsequent frame images than to perform image processing on the entire area of the frame image. The processing burden can be reduced.

(3)上記(1)または(2)のデジタルカメラ1において、画像処理はフィルタ処理を含み、画像処理部15cは、フィルタ処理をブロック領域31を囲む外枠32に含まれる画素データを用いて行うようにした。これにより、ブロック領域31の外側の画素データを用いずにフィルタ処理を行う場合に比べて、適切なフィルタ処理結果が得られる。 (3) In the digital camera 1 of the above (1) or (2), the image processing includes filter processing, and the image processing unit 15c uses the pixel data included in the outer frame 32 surrounding the block region 31 for the filter processing. I did it. Thereby, an appropriate filter processing result can be obtained as compared with the case where the filter processing is performed without using the pixel data outside the block region 31.

(4)上記(1)〜(3)のいずれかのデジタルカメラ1において、画像処理は、エッジ強調処理、像ボケ付加処理、およびノイズ除去処理の少なくとも1つである。いずれの場合も、各処理において行うフィルタ処理で適切な処理結果が得られる。 (4) In the digital camera 1 of any one of (1) to (3), the image processing is at least one of edge enhancement processing, image blur addition processing, and noise removal processing. In any case, an appropriate processing result can be obtained by the filter processing performed in each processing.

(5)上記(3)または(4)のデジタルカメラ1において、画像処理部15cは、外枠32を画像処理の種類に応じて異ならせるようにしたので、適切にフィルタ処理を行うことができる。 (5) In the digital camera 1 of the above (3) or (4), the image processing unit 15c changes the outer frame 32 according to the type of image processing, and therefore can appropriately perform the filtering process. .

(変形例1)
上記実施形態では、相関検出部15bがブロック領域ごとに差分の平均値を比較して相関性強度を判定する例を説明した。この代わりに、ブロック領域ごとに差分の標準偏差を比較して相関性強度を判定するようにしてもよい。また、ブロック領域ごとに差分の最大値、最小値を比較して相関性強度を判定するようにしてもよい。
(Modification 1)
In the above embodiment, the example in which the correlation detection unit 15b determines the correlation strength by comparing the average value of the differences for each block region has been described. Instead, the correlation strength may be determined by comparing the standard deviation of the difference for each block region. Further, the correlation strength may be determined by comparing the maximum value and the minimum value of the differences for each block region.

(変形例2)
相関検出部15bはまた、以下のように相関有無の判定を行ってもよい。変形例2では、それぞれのフレームにおいてブロック領域内の画素のRAWデータを加算し、加算して得た評価値をフレーム間で比較して相関の有無を検出する。相関検出部15bは、たとえば、フレーム間で対応するブロック領域における評価値の差分をとり、この差分に基づいて相関性強度を判定する。相関検出部15bは、ブロック領域における評価値の差が所定の判定閾値より小さい場合は相関有りを判定し、評価値の差が上記判定閾値以上の場合には相関無しを判定する。
(Modification 2)
The correlation detection unit 15b may also determine whether or not there is a correlation as follows. In the second modification, the RAW data of the pixels in the block area is added in each frame, and the evaluation value obtained by the addition is compared between the frames to detect the presence or absence of correlation. For example, the correlation detection unit 15b takes a difference between evaluation values in corresponding block areas between frames, and determines the correlation strength based on the difference. The correlation detection unit 15b determines that there is a correlation when the difference between the evaluation values in the block area is smaller than a predetermined determination threshold, and determines that there is no correlation when the difference between the evaluation values is equal to or greater than the determination threshold.

(変形例3)
さらにまた、相関検出部15bは、相関有無の判定を以下のように行ってもよい。変形例3では、上記RAWデータまたは変形例2において算出した評価値から動きベクトルを算出する。算出した動きベクトルが所定の条件を満たす(有効)場合に該動きベクトルを考慮した座標の画素でRAWデータの差分をとる。相関検出部15bは、たとえば、フレーム間で上記差分をとり、ブロック領域ごとに差分の平均値を比較して相関性強度を判定する。相関検出部15bは、ブロック領域における平均値の差が所定の判定閾値より小さい場合は、当該ブロックにおいて相関有りを判定し、平均値の差が上記判定閾値以上の場合には相関無しを判定する。
(Modification 3)
Furthermore, the correlation detection unit 15b may determine whether or not there is a correlation as follows. In Modification 3, a motion vector is calculated from the RAW data or the evaluation value calculated in Modification 2. When the calculated motion vector satisfies a predetermined condition (valid), the difference of the RAW data is taken with the pixel of the coordinate considering the motion vector. For example, the correlation detection unit 15b determines the correlation strength by taking the difference between frames and comparing the average value of the differences for each block region. The correlation detection unit 15b determines that there is a correlation in the block when the difference between the average values in the block area is smaller than a predetermined determination threshold, and determines that there is no correlation when the difference between the average values is equal to or greater than the determination threshold. .

(変形例4)
相関検出部15bが行う評価値算出処理を前処理部15aに組込むように構成してもよい。この場合の前処理部15aは、撮像素子14から読出した信号をA/D変換し、画素単位のデータ(RAWデータ)と、ブロック領域ごとに加算したデータ(評価値)とを出力する。評価値は、変形例2の評価値に相当する。CPU15hは、RAWデータを「現フレーム」のデータとしてDRAM16に一時記憶させるとともに、評価値データもDRAM16に一時記憶させておく。変形例4では、あらかじめ評価値データをDRAM16に記憶しておくことで、相関検出部15bが評価値を算出することなしにDRAM16に記憶されている評価値を参照できるので、ステップS17における相関検出が容易になる。
(Modification 4)
You may comprise so that the evaluation value calculation process which the correlation detection part 15b performs is integrated in the pre-processing part 15a. In this case, the preprocessing unit 15a performs A / D conversion on the signal read from the image sensor 14, and outputs pixel-unit data (RAW data) and data (evaluation value) added for each block area. The evaluation value corresponds to the evaluation value of Modification 2. The CPU 15 h temporarily stores the RAW data as “current frame” data in the DRAM 16 and also temporarily stores the evaluation value data in the DRAM 16. In the modified example 4, since the evaluation value data is stored in the DRAM 16 in advance, the correlation detection unit 15b can refer to the evaluation value stored in the DRAM 16 without calculating the evaluation value. Therefore, the correlation detection in step S17 is performed. Becomes easier.

(変形例5)
外枠32を構成する画素数を、相関検出結果に応じて決定してもよい。上記実施形態では、相関検出部15bが算出したフレーム間のRAWデータの差分の平均値の差が所定の判定閾値以上であれば、当該ブロック領域において相関無しを判定した。あるいは、フレーム間で対応するブロック領域における評価値の差分をとり、この評価値の差が所定の判定閾値以上であれば相関なしを判定した(変形例2、4)。変形例5のCPU15hは、フレーム間の差分が所定の判定閾値より大きい第2判定閾値より小さい場合には、相関が全くないわけではないので、外枠32を構成する画素数を「現フレーム」の場合と同じにする。一方、フレーム間の差分が第2判定閾値を超える場合には、相関なしとして外枠32を構成する画素数を「現フレーム」の値から変更する。
(Modification 5)
The number of pixels constituting the outer frame 32 may be determined according to the correlation detection result. In the above embodiment, if the difference between the average values of RAW data differences between frames calculated by the correlation detection unit 15b is equal to or greater than a predetermined determination threshold, it is determined that there is no correlation in the block area. Alternatively, the difference between the evaluation values in the corresponding block areas between frames is taken, and if the difference between the evaluation values is equal to or greater than a predetermined determination threshold, it is determined that there is no correlation (Modifications 2 and 4). When the difference between frames is smaller than a second determination threshold value that is larger than a predetermined determination threshold value, the CPU 15h according to the fifth modification does not mean that there is no correlation, so the number of pixels constituting the outer frame 32 is set to “current frame”. Same as above. On the other hand, when the difference between frames exceeds the second determination threshold, the number of pixels constituting the outer frame 32 is changed from the value of “current frame” as no correlation.

(変形例6)
上述した実施の形態では、本発明をカメラに適用する場合について説明した。しかしながら、本発明は、連続するフレーム画像を有する画像データを読み込んで、後から所定の画像処理を行う画像処理装置として、たとえばパソコンなどに適用することも可能である。
(Modification 6)
In the embodiment described above, the case where the present invention is applied to a camera has been described. However, the present invention can also be applied to, for example, a personal computer as an image processing apparatus that reads image data having continuous frame images and performs predetermined image processing later.

上記実施形態では連写撮影を例に説明したが、動画を撮影する場合にも適用してよいのはいうまでもない。   In the above embodiment, continuous shooting has been described as an example, but it goes without saying that the present invention may also be applied to shooting moving images.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、上記実施形態および変形例を適宜組み合わせた構成としてもよい。   The above description is merely an example, and is not limited to the configuration of the above embodiment. Moreover, it is good also as a structure which combined the said embodiment and the modified example suitably.

1…デジタルカメラ
11…撮影レンズ
14…撮像素子
15…画像処理エンジン
15a…前処理部
15b…相関検出部
15c…画像処理部
15d…画像符号化部
15e…DRAM制御部
15g…外部メモリ制御部
15h…CPU
16…DRAM
17…フラッシュメモリ
18…外部メモリ
19…画像表示器
DESCRIPTION OF SYMBOLS 1 ... Digital camera 11 ... Shooting lens 14 ... Imaging element 15 ... Image processing engine 15a ... Pre-processing part 15b ... Correlation detection part 15c ... Image processing part 15d ... Image encoding part 15e ... DRAM control part 15g ... External memory control part 15h ... CPU
16 ... DRAM
17 ... Flash memory 18 ... External memory 19 ... Image display

Claims (6)

連写撮影された複数のフレーム画像を入力する画像入力手段と、
前記フレーム画像に対して所定の画像処理を行う画像処理手段と、
前記フレーム画像に対して符号化処理を行う符号化処理手段と、
前後するフレーム画像間の相関の有無を、前記符号化処理で用いるブロック領域ごとに判定する相関判定手段と、
1フレーム目の画像に対して前記画像処理と前記符号化処理とを行い、2フレーム目以降の画像に対して前記画像処理を行う際、前記相関無しが判定されている第1領域を対象に前記画像処理を行い、前記相関有りが判定されている第2領域を対象にする前記画像処理を省略するように前記画像処理手段および前記符号化処理手段をそれぞれ制御する制御手段と、
を備えることを特徴とする画像処理装置。
Image input means for inputting a plurality of continuously shot frame images;
Image processing means for performing predetermined image processing on the frame image;
Encoding processing means for performing encoding processing on the frame image;
Correlation determination means for determining the presence or absence of correlation between the preceding and following frame images for each block region used in the encoding process;
When the image processing and the encoding processing are performed on the first frame image, and the image processing is performed on the second and subsequent frames, the first region in which no correlation is determined is targeted. Control means for performing the image processing and controlling the image processing means and the encoding processing means respectively so as to omit the image processing for the second region determined to have the correlation;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記制御手段は、対象フレームに対する画像処理後の画像を、該対象フレームの前記第1領域に対する前記画像処理後の画像と、該対象フレームの前フレームの前記第2領域に対する前記画像処理後の画像とで構成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The control means includes an image after image processing for the target frame, an image after image processing for the first region of the target frame, and an image after image processing for the second region of the previous frame of the target frame. And an image processing apparatus.
請求項1または2に記載の画像処理装置において、
前記画像処理はフィルタ処理を含み、前記画像処理手段は、前記フィルタ処理を前記ブロック領域を囲む所定範囲に含まれる画素データを用いて行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus includes a filtering process, and the image processing unit performs the filtering process using pixel data included in a predetermined range surrounding the block area.
請求項1〜3のいずれか一項に記載の画像処理装置において、
前記画像処理は、エッジ強調処理、像ボケ付加処理、およびノイズ除去処理の少なくとも1つであることを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 3,
The image processing apparatus is characterized in that the image processing is at least one of edge enhancement processing, image blur addition processing, and noise removal processing.
請求項3または4に記載の画像処理装置において、
前記画像処理手段は、前記所定範囲を画像処理の種類に応じて異ならせることを特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4,
The image processing apparatus, wherein the image processing unit changes the predetermined range according to a type of image processing.
請求項1〜5のいずれか一項に記載した画像処理装置を搭載することを特徴とするカメラ。   A camera equipped with the image processing apparatus according to claim 1.
JP2012037419A 2012-02-23 2012-02-23 Image processing device and camera Pending JP2013175803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012037419A JP2013175803A (en) 2012-02-23 2012-02-23 Image processing device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012037419A JP2013175803A (en) 2012-02-23 2012-02-23 Image processing device and camera

Publications (1)

Publication Number Publication Date
JP2013175803A true JP2013175803A (en) 2013-09-05

Family

ID=49268369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012037419A Pending JP2013175803A (en) 2012-02-23 2012-02-23 Image processing device and camera

Country Status (1)

Country Link
JP (1) JP2013175803A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016047250A1 (en) * 2014-09-25 2016-03-31 ソニー株式会社 Signal processing apparatus, imaging apparatus and signal processing method
KR101893748B1 (en) * 2018-07-09 2018-08-31 주식회사 파로스 Video storage and distribution system for improving fog video

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016047250A1 (en) * 2014-09-25 2016-03-31 ソニー株式会社 Signal processing apparatus, imaging apparatus and signal processing method
US10531112B2 (en) 2014-09-25 2020-01-07 Sony Semiconductor Solutions Corporation Signal processing apparatus, imaging apparatus, and signal processing method to reduce electric power required for signal processing
KR101893748B1 (en) * 2018-07-09 2018-08-31 주식회사 파로스 Video storage and distribution system for improving fog video
WO2020013487A1 (en) * 2018-07-09 2020-01-16 주식회사 파로스 Image storage distribution system for improving fog image

Similar Documents

Publication Publication Date Title
JP4582423B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP4678603B2 (en) Imaging apparatus and imaging method
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
US8509543B2 (en) Subject tracking device and camera
JP2009194700A (en) Image processor and image processing program
US9071766B2 (en) Image capturing apparatus and control method thereof
KR100793284B1 (en) Apparatus for digital image stabilizing, method using the same and computer readable medium stored thereon computer executable instruction for performing the method
TWI469085B (en) Image processing apparatus, image processing method and computer readable storage medium
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
JP5044922B2 (en) Imaging apparatus and program
JP2017224939A (en) Imaging apparatus
US10861194B2 (en) Image processing apparatus, image processing method, and storage medium
JP2013175803A (en) Image processing device and camera
US11722788B2 (en) Image processing apparatus and method, and image capturing apparatus
JP6020904B2 (en) Image processing apparatus and imaging apparatus
CN112995498B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP5621265B2 (en) Camera shake correction apparatus, imaging processing method, and program
JP5179859B2 (en) Imaging apparatus and imaging method
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP2009153046A (en) Blur correcting device and method, and imaging apparatus
JP5979040B2 (en) Imaging apparatus, imaging method, and program
JP7455575B2 (en) Image processing device, image processing method, learning device, learning method, program and system
JP7469912B2 (en) Information processing device, inference device, control method thereof, program, and storage medium
JP2008172309A (en) Electronic hand blurring correction method, device and program and imaging apparatus
JP2018026743A (en) Image processor, control method, and program