JP2010245686A - Imaging apparatus, method of processing image, and image processing program - Google Patents

Imaging apparatus, method of processing image, and image processing program Download PDF

Info

Publication number
JP2010245686A
JP2010245686A JP2009090141A JP2009090141A JP2010245686A JP 2010245686 A JP2010245686 A JP 2010245686A JP 2009090141 A JP2009090141 A JP 2009090141A JP 2009090141 A JP2009090141 A JP 2009090141A JP 2010245686 A JP2010245686 A JP 2010245686A
Authority
JP
Japan
Prior art keywords
image data
processing
image
unit
raw
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009090141A
Other languages
Japanese (ja)
Inventor
Manabu Ichikawa
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009090141A priority Critical patent/JP2010245686A/en
Publication of JP2010245686A publication Critical patent/JP2010245686A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem: it takes time to compose two image data to obtain a composited image. <P>SOLUTION: YC processing 62b for obtaining synchronized image data is performed to RAW data obtained by photographing 61b, and processing 63b is performed for compositing the image data obtained by the YC processing 62b and image data subjected to low-pass filtering 65a after the previous photographing 61a to display on an LCD (display processing 64b). Then, low-pass filtering 65b is performed to the image data after the YC processing 62b. Processing 63c is performed for compositing the image data subjected to the low-pass filter 65b and image data, where YC processing 62c is performed to the RAW data obtained by the next photographing 61c. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数の画像を合成する技術に関する。   The present invention relates to a technique for combining a plurality of images.

銀塩カメラによる撮影の際に、撮影レンズの前に光学フィルタを配置することで、輪郭はある程度はっきりしているが、全体的にフレアっぽいソフトフォーカス効果を有する画像を撮影することができる。一方、デジタルカメラでは、そのような光学フィルタを配置することなく、撮影した画像データを画像処理することにより、銀塩カメラのソフトフォーカスと同様な効果を再現する方法が提案されている。特許文献1では、撮影した画像データに対してフィルタ処理を施した画像データと、元の画像データとを合成することにより、ソフトフォーカスを実現する手法が提案されている。   When photographing with a silver salt camera, an optical filter is disposed in front of the photographing lens, so that an image having a soft flare-like soft focus effect can be taken as a whole although the outline is clear to some extent. On the other hand, in a digital camera, a method for reproducing the same effect as the soft focus of a silver salt camera by processing imaged image data without arranging such an optical filter has been proposed. Japanese Patent Application Laid-Open No. 2004-133867 proposes a method for realizing soft focus by combining image data obtained by performing filter processing on captured image data and original image data.

特開平09−251532号公報JP 09-251532 A

ライブビュー表示や動画撮影時において、画像を撮影してから画像処理を行って表示または記録するまでの時間は、フレームレートにより制限を受ける。そのため、フレームレートを高くするほど、画像処理を行う時間も制限される傾向にある。   During live view display or moving image shooting, the time from when an image is shot to when image processing is performed for display or recording is limited by the frame rate. Therefore, as the frame rate is increased, the time for performing image processing tends to be limited.

一方、ソフトフォーカスのように、画像データに対してフィルタ処理を行って元の画像と合成する場合には、画像サイズが大きくなると処理時間が長くなる。そのため、上述したライブビュー表示や動画撮影においては、これらの処理時間を確保するために、画像サイズを小さくしたり、フレームレートを下げたりする必要があった。   On the other hand, when the image data is combined with the original image by performing filter processing on the image data as in the case of soft focus, the processing time increases as the image size increases. Therefore, in the above-described live view display and moving image shooting, it is necessary to reduce the image size or lower the frame rate in order to secure these processing times.

本発明は、ライブビュー表示や動画記録時に、複数の画像を合成する処理を行う場合に、撮影から合成処理までに要する時間を短縮する技術を提供することを目的とする。   An object of the present invention is to provide a technique for shortening the time required from shooting to combining processing when performing processing for combining a plurality of images during live view display or moving image recording.

本発明のある態様に係る撮像装置は、被写体を撮像してRAW画像データを得る撮像部と、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得る画像処理部と、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成する画像合成部と、前記合成画像データを表示する表示部と、を備えることを特徴とする。   An imaging apparatus according to an aspect of the present invention includes an imaging unit that captures an image of a subject and obtains RAW image data, and a first RAW image obtained by continuously inputting the RAW image data and obtained at least at a first time. First image data is obtained by performing first image processing on the data, and second RAW image data obtained at a second time before the first time is set to a second value. An image processing unit that obtains second image data by performing image processing, an image combining unit that combines the first image data and the second image data to generate combined image data, and the combined image data And a display unit for displaying.

本発明の別の態様に係る画像処理方法は、被写体を撮像することにより得られるRAW画像データを入力するステップと、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、を備えることを特徴とする。   An image processing method according to another aspect of the present invention includes a step of inputting RAW image data obtained by imaging a subject, the RAW image data being continuously input, and obtained at least at a first time. First image data is obtained by performing first image processing on the first RAW image data, and second RAW image data obtained at a second time before the first time is added to the second RAW image data. A step of obtaining second image data by performing second image processing on the image, and a step of synthesizing the first image data and the second image data to generate composite image data. It is characterized by.

本発明のさらに別の態様に係る画像処理プログラムは、被写体を撮像することにより得られるRAW画像データを入力するステップと、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、をコンピュータに実行させるためのプログラムである。   An image processing program according to still another aspect of the present invention is obtained at least at a first time by inputting RAW image data obtained by imaging a subject and continuously inputting the RAW image data. In addition, first image data is obtained by performing first image processing on the first RAW image data, and second RAW image data obtained at a second time before the first time. Performing second image processing on the second image data to obtain second image data, and synthesizing the first image data and the second image data to generate synthesized image data. It is a program for making it run.

本発明によれば、複数の画像を合成する処理を行う場合に、撮影から合成処理までに要する時間を短縮することができる。   According to the present invention, when a process for combining a plurality of images is performed, the time required from photographing to combining process can be shortened.

図1は、一実施形態における撮像装置であるデジタルスチルカメラの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a digital still camera that is an imaging apparatus according to an embodiment. 一実施形態に係る撮像装置としてのデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。It is a flowchart which shows the main processing flow performed with the digital still camera as an imaging device which concerns on one Embodiment. 静止画の撮影・記録動作の詳しい処理内容を示すフローチャートである。It is a flowchart which shows the detailed processing content of imaging | photography and recording operation | movement of a still image. 動画の撮影・記録動作の詳しい処理内容を示すフローチャートである。It is a flowchart which shows the detailed processing content of imaging | photography / recording operation | movement of a moving image. ライブビュー表示の詳しい処理内容を示すフローチャートである。It is a flowchart which shows the detailed processing content of a live view display. 図6(a)は、一実施の形態における撮像装置によって行われるライブビュー表示および動画撮影時のタイムチャートを示す図であり、図6(b)は、従来技術によるライブビュー表示および動画撮影時のタイムチャートを示す図である。6A is a diagram illustrating a time chart during live view display and moving image shooting performed by the imaging apparatus according to the embodiment, and FIG. 6B is a view during live view display and moving image shooting according to the related art. It is a figure which shows this time chart.

図1は、一実施形態における撮像装置であるデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。   FIG. 1 is a block diagram illustrating a configuration of a digital still camera that is an imaging apparatus according to an embodiment. The digital still camera shown in FIG. 1 includes a camera body 1 and an interchangeable lens 2.

交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。   The interchangeable lens 2 includes a lens 1010, a flash memory 1011, a microcomputer 1012, a driver 1013, and a diaphragm 1014. The interchangeable lens 2 is communicably connected to the camera body 1 via the I / F 999.

カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、ローパスフィルタ部118と、画像合成部119と、を有している。   The camera body 1 includes a mechanical shutter 101, an image sensor 102, an analog processing unit 103, an analog / digital conversion unit 104 (hereinafter referred to as A / D conversion unit 104), a bus 105, an SDRAM 106, and an image processing unit 107. An AE processing unit 108, an AF processing unit 109, a JPEG processing unit 110, a memory interface 111 (hereinafter referred to as a memory I / F 111), a recording medium 112, an LCD driver 113, an LCD 114, and a microcomputer 115. , An operation unit 116, a flash memory 117, a low-pass filter unit 118, and an image composition unit 119.

レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。   The lens 1010 focuses the optical image of the subject on the image sensor 102. The lens 1010 may be a single focus lens or a zoom lens.

マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、様々な情報をマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。   The microcomputer 1012 is connected to the I / F 999, the flash memory 1011 and the driver 1013. The microcomputer 1012 reads and writes information stored in the flash memory 1011 and controls the driver 1013. The microcomputer 1012 can further communicate with the microcomputer 115 via the I / F 999, transmits various information to the microcomputer 115, and receives information such as an aperture value from the microcomputer 115.

ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。   In response to an instruction from the microcomputer 1012, the driver 1013 drives the lens 1010 to change the focal length and focus position, and drives the aperture 1014. The aperture 1014 is provided in the vicinity of the lens 1010 and adjusts the amount of light of the subject.

メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。   The mechanical shutter 101 is driven in response to an instruction from the microcomputer 115 to control the time for exposing the subject to the image sensor 102.

撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。   The image sensor 102 is an image sensor in which a Bayer array color filter is arranged in front of a photodiode constituting each pixel. The Bayer array has a line in which R pixels and G (Gr) pixels are alternately arranged in a horizontal direction, and a line in which G (Gb) pixels and B pixels are alternately arranged, and the two lines are further divided. It is configured by alternately arranging in the vertical direction. The imaging element 102 receives the light collected by the lens 1010 by a photodiode that constitutes a pixel and performs photoelectric conversion, and outputs the amount of light to the analog processing unit 103 as a charge amount. The image sensor 102 may be a CMOS type or a CCD type.

アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。   The analog processing unit 103 performs waveform shaping on the electrical signal (analog image signal) read from the image sensor 102 while reducing reset noise and the like, and further increases the gain so that the target brightness is obtained. . The A / D conversion unit 104 converts the analog image signal output from the analog processing unit 103 into a digital image signal (hereinafter referred to as image data).

バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリI/F111と、LCDドライバ113と、マイクロコンピュータ115と、ローパスフィルタ部118と、画像合成部119に接続されている。   A bus 105 is a transfer path for transferring various data generated in the digital camera to each unit in the digital camera. The bus 105 includes an A / D conversion unit 104, an SDRAM 106, an image processing unit 107, an AE processing unit 108, an AF processing unit 109, a JPEG processing unit 110, a memory I / F 111, an LCD driver 113, The microcomputer 115, the low-pass filter unit 118, and the image composition unit 119 are connected.

A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、JPEG処理部110、ローパスフィルタ部118、画像合成部119において処理された画像データ等の各種データが一時的に記憶される記憶部である。   The image data output from the A / D conversion unit 104 is temporarily stored in the SDRAM 106 via the bus 105. The SDRAM 106 temporarily stores various data such as image data obtained by the A / D conversion unit 104 and image data processed by the image processing unit 107, the JPEG processing unit 110, the low-pass filter unit 118, and the image synthesis unit 119. It is a storage unit that is stored.

画像処理部107は、オプティカルブラック減算部1071(以下、OB減算部)、ホワイトバランス補正部1072(以下、WB補正部1072)、同時化処理部1073、ガンマ・色再現処理部1074、カラーマトリクス演算部1075、エッジ強調処理部1076、および、ノイズ低減処理部1077(以下、NR処理部1077)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。   The image processing unit 107 includes an optical black subtraction unit 1071 (hereinafter referred to as OB subtraction unit), a white balance correction unit 1072 (hereinafter referred to as WB correction unit 1072), a synchronization processing unit 1073, a gamma / color reproduction processing unit 1074, a color matrix calculation. A section 1075, an edge enhancement processing section 1076, and a noise reduction processing section 1077 (hereinafter referred to as NR processing section 1077), which perform various image processing on the image data read from the SDRAM 106.

OB減算部1071は、画像データに対して、オプティカルブラック減算処理(以下、OB減算処理)を行う。OB減算処理は、画像データを構成する各画素の画素値から、撮像素子102の暗電流等に起因するオプティカルブラック値(以下、OB値)を減算する処理である。   The OB subtraction unit 1071 performs optical black subtraction processing (hereinafter referred to as OB subtraction processing) on the image data. The OB subtraction process is a process of subtracting an optical black value (hereinafter referred to as an OB value) caused by a dark current of the image sensor 102 from a pixel value of each pixel constituting image data.

WB補正部1072は、画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。ホワイトバランスモードは、晴天、曇天、電球、蛍光灯などの光源に応じて、ユーザが設定可能である。   The WB correction unit 1072 performs a process of correcting the white balance by multiplying the image data by a white balance gain corresponding to the white balance mode. The white balance mode can be set by the user in accordance with a light source such as sunny weather, cloudy weather, a light bulb, and a fluorescent light.

同時化処理部1073は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。ガンマ・色再現処理部1074は、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。   The synchronization processing unit 1073 performs a process of synchronizing image data based on the Bayer array into image data including R, G, and B information per pixel. The gamma / color reproduction processing unit 1074 performs gamma correction processing and color reproduction processing for changing the color of an image.

カラーマトリクス演算部1075は、画像データに対して、カラーマトリクスを乗じる線形変換を行って、画像データの色を補正する。エッジ強調処理部1076は、画像データから、エッジを抽出し、抽出したエッジのデータに所定のゲインを乗じてから、画像データに加算することにより、画像データのエッジを強調する処理を行う。NR処理部1077は、高周波を低減するフィルタを用いた処理や、コアリング処理等により、ノイズを低減する処理を行う。   The color matrix calculation unit 1075 corrects the color of the image data by performing linear conversion on the image data by multiplying the color matrix. The edge enhancement processing unit 1076 performs a process of enhancing the edge of the image data by extracting the edge from the image data, multiplying the extracted edge data by a predetermined gain, and adding it to the image data. The NR processing unit 1077 performs processing for reducing noise by processing using a filter that reduces high frequency, coring processing, and the like.

画像処理部107は、必要に応じて、内部に備えた各部1071〜1077を選択して、各処理を行う。画像処理部107によって各処理が行われた後の画像データは、SDRAM106に記憶される。   The image processing unit 107 selects each of the units 1071 to 1077 provided therein and performs each process as necessary. The image data after each processing is performed by the image processing unit 107 is stored in the SDRAM 106.

AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。   The AE processing unit 108 calculates subject luminance from the image data. The data for calculating the subject brightness may be an output of a dedicated photometric sensor. The AF processing unit 109 extracts a high-frequency component signal from the image data, and acquires a focus evaluation value by AF (Auto Focus) integration processing.

ローパスフィルタ部118は、SDRAM106に記憶されている画像データの高周波成分を低減するローパスフィルタ処理を行うことにより、全体にボケた画像を生成する。ローパスフィルタ処理を施した画像では、輪郭も失われてしまっている。   The low-pass filter unit 118 generates a totally blurred image by performing a low-pass filter process for reducing high-frequency components of image data stored in the SDRAM 106. In the image subjected to the low-pass filter processing, the contour is also lost.

画像合成部119は、ローパスフィルタ部118でローパスフィルタ処理が行われた画像と、ローパスフィルタ処理が行われていない画像とを所定の割合で合成することにより、全体的にボケているが、輪郭ははっきりとしている画像を生成する。ここでは、合成割合をα(0≦α≦1)、ローパスフィルタ処理が行われた画像の画素値をa、ローパスフィルタ処理が行われていない画像の対応画素の画素値をbとした場合に、合成画像の対応画素の画素値をα×a+(1−α)×bとする。   The image synthesis unit 119 is totally blurred by synthesizing the image that has been subjected to the low-pass filter processing by the low-pass filter unit 118 and the image that has not been subjected to the low-pass filter processing at a predetermined ratio. Produces a clear image. Here, when the composition ratio is α (0 ≦ α ≦ 1), the pixel value of the image subjected to the low-pass filter processing is a, and the pixel value of the corresponding pixel of the image not subjected to the low-pass filter processing is b. The pixel value of the corresponding pixel of the composite image is α × a + (1−α) × b.

JPEG処理部110は、画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。   When the image data is recorded, the JPEG processing unit 110 reads the image data from the SDRAM 106, compresses the read image data according to the JPEG compression method, and temporarily stores the compressed JPEG image data in the SDRAM 106. The microcomputer 115 creates a JPEG file by adding a JPEG header necessary for constructing a JPEG file to the JPEG image data stored in the SDRAM 106, and sends the created JPEG file via the memory I / F 111. To the recording medium 112. The recording medium 112 is, for example, a recording medium including a memory card that can be attached to and detached from the camera body 1, but is not limited thereto.

LCDドライバ113は、LCD114に画像を表示させる。画像の表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体112に記録されたJPEGファイルの再生表示、および、ライブビュー表示等の動画の表示が含まれる。記録媒体112に記録されたJPEGファイルを再生する場合、JPEG処理部110は、記録媒体112に記録されているJPEGファイルを読み出して伸張処理を施した上で、伸張した画像データを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張された画像データをSDRAM106から読み出し、読み出した画像データを映像信号へ変換した後でLCD114へ出力して、画像の表示を行う。   The LCD driver 113 displays an image on the LCD 114. Display of images includes display of moving images such as REC view display that displays image data immediately after shooting for a short time, playback display of a JPEG file recorded on the recording medium 112, and live view display. When playing back a JPEG file recorded on the recording medium 112, the JPEG processing unit 110 reads the JPEG file recorded on the recording medium 112, performs decompression processing, and temporarily stores the decompressed image data in the SDRAM 106. Let The LCD driver 113 reads the decompressed image data from the SDRAM 106, converts the read image data into a video signal, and then outputs it to the LCD 114 to display an image.

制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。   The microcomputer 115 having a function as a control unit comprehensively controls various sequences of the digital camera body 1. An operation unit 116 and a flash memory 117 are connected to the microcomputer 115.

操作部116は、電源ボタン、レリーズボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されたときに、マイクロコンピュータ115は、当該デジタルカメラの電源をオン又はオフする。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。   The operation unit 116 is an operation member such as a power button, a release button, and various input keys. When one of the operation members of the operation unit 116 is operated by the user, the microcomputer 115 executes various sequences according to the user's operation. The power button is an operation member for instructing power on / off of the digital camera. When the power button is pressed, the microcomputer 115 turns the digital camera on or off. The release button has a two-stage switch of a first release switch and a second release switch. When the release button is pressed halfway and the first release switch is turned on, the microcomputer 115 performs a shooting preparation sequence such as AE processing and AF processing. Further, when the release button is fully pressed and the second release switch is turned on, the microcomputer 115 performs shooting by executing a shooting sequence.

Flashメモリ117は、ホワイトバランスモードに応じたホワイトバランスゲインやローパスフィルタ係数等のデジタルカメラの動作に必要な各種パラメータ、および、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。   The flash memory 117 stores various parameters necessary for the operation of the digital camera, such as a white balance gain and a low-pass filter coefficient corresponding to the white balance mode, a manufacturing number for specifying the digital still camera, and the like. The flash memory 117 also stores various programs executed by the microcomputer 115. The microcomputer 115 reads parameters necessary for various sequences from the flash memory 117 according to a program stored in the flash memory 117, and executes each process.

図2は、一実施形態に係る撮像装置であるデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。ユーザにより電源ボタンが押されて、デジタルスチルカメラの電源がオンになると、マイクロコンピュータ115は、ステップS201の処理を開始する。   FIG. 2 is a flowchart illustrating a main processing flow performed by a digital still camera that is an imaging apparatus according to an embodiment. When the user presses the power button to turn on the digital still camera, the microcomputer 115 starts the process of step S201.

ステップS201では、撮影を行うか否か、すなわち、レリーズボタンが押されたか否かを判定する。レリーズボタンが押されたと判定すると、ステップS202に進む。   In step S201, it is determined whether or not to perform shooting, that is, whether or not the release button has been pressed. If it is determined that the release button has been pressed, the process proceeds to step S202.

ステップS202では、撮影モードが静止画撮影モードに設定されているか否かを判定する。撮影モードには、静止画撮影モードと動画撮影モードとがあり、ユーザが操作部116の操作部材を操作することにより設定することができる。撮影モードが静止画撮影モードに設定されていると判定するとステップS203に進み、動画撮影モードに設定されていると判定すると、ステップS204に進む。   In step S202, it is determined whether or not the shooting mode is set to the still image shooting mode. The shooting modes include a still image shooting mode and a moving image shooting mode, which can be set by the user operating the operation member of the operation unit 116. If it is determined that the shooting mode is set to the still image shooting mode, the process proceeds to step S203, and if it is determined that the moving image shooting mode is set, the process proceeds to step S204.

ステップS203では、静止画の撮影・記録動作を行う。静止画の撮影・記録動作については、図3に示すフローチャートを用いて後述する。   In step S203, a still image shooting / recording operation is performed. The still image shooting / recording operation will be described later with reference to the flowchart shown in FIG.

ステップS204では、動画の撮影・記録動作を行う。動画の撮影・記録動作については、図4に示すフローチャートを用いて後述する。   In step S204, a moving image shooting / recording operation is performed. The moving image shooting / recording operation will be described later with reference to the flowchart shown in FIG.

一方、ステップS201において、レリーズボタンが押されていないと判定すると、ステップS205に進む。ステップS205では、ライブビュー表示を行う。ライブビュー表示の詳細な処理については、図5に示すフローチャートを用いて後述する。   On the other hand, if it is determined in step S201 that the release button has not been pressed, the process proceeds to step S205. In step S205, live view display is performed. Detailed processing of live view display will be described later with reference to a flowchart shown in FIG.

図3は、図2に示すフローチャートのステップS203で行う静止画の撮影・記録動作の詳しい処理内容を示すフローチャートである。ステップS301からステップS303までの処理は、ファーストレリーズにて行われる処理であり、ステップS304以後の処理は、セカンドレリーズにて行われる処理である。   FIG. 3 is a flowchart showing detailed processing contents of the still image shooting / recording operation performed in step S203 of the flowchart shown in FIG. The processing from step S301 to step S303 is processing performed at the first release, and the processing after step S304 is processing performed at the second release.

ステップS301では、AF処理部109において、合焦評価値を算出する。マイクロコンピュータ115は、合焦評価値に基づいて、レンズ1010を駆動させる指令をドライバ1013に出す。   In step S301, the AF processing unit 109 calculates a focus evaluation value. The microcomputer 115 issues a command for driving the lens 1010 to the driver 1013 based on the focus evaluation value.

ステップS302では、AE処理部108において、被写体輝度を算出する。ステップS303では、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出する。   In step S302, the AE processing unit 108 calculates subject brightness. In step S303, the aperture and shutter speed are calculated by referring to the aperture value and shutter speed determination table stored in the flash memory 117 based on the subject brightness.

ステップS304では、ユーザによってレリーズボタンが全押しされて、セカンドレリーズスイッチがオンされたか否かを判定する。セカンドレリーズスイッチがオンされていないと判定すると、ステップS305に進む。ステップS305では、レリーズボタンが戻されたか否かを判定する。レリーズボタンが半押しされている状態から戻されたと判定すると、撮影・記録動作を終了し、レリーズボタンが戻されていないと判定すると、ステップS304に戻る。   In step S304, it is determined whether or not the user has fully pressed the release button to turn on the second release switch. If it is determined that the second release switch is not turned on, the process proceeds to step S305. In step S305, it is determined whether or not the release button has been returned. If it is determined that the release button has been returned from the half-pressed state, the photographing / recording operation is terminated. If it is determined that the release button has not been returned, the process returns to step S304.

一方、ステップS304でセカンドレリーズスイッチがオンされたと判定すると、ステップS306に進む。ステップS306では、撮影を行う。撮影に関しては、従来から用いられている手法と同様である。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、設定された絞り値になるように絞り1014を駆動させる。そして、算出したシャッター速に基づいて、メカシャッター101を制御して撮影を行い、画像データを得る。   On the other hand, if it is determined in step S304 that the second release switch is turned on, the process proceeds to step S306. In step S306, shooting is performed. The shooting is the same as the conventionally used method. The driver 1013 drives the aperture 1014 so as to achieve a set aperture value based on an instruction from the microcomputer 1012. Based on the calculated shutter speed, shooting is performed by controlling the mechanical shutter 101 to obtain image data.

ステップS307では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。   In step S307, the OB subtraction unit 1071 performs OB subtraction processing for subtracting the OB value obtained at the time of imaging from the image data obtained by imaging.

ステップS308では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。なお、ホワイトバランスモードは、ユーザが操作部116に含まれる入力キーを操作することによって、1回の撮影ごとに設定することができる。マイクロコンピュータ115は、ユーザによる操作部116の操作に基づいて、ホワイトバランスモードを設定する。また、デジタルスチルカメラがホワイトバランスを自動的に調整するオートホワイトバランス機能を備えている場合、マイクロコンピュータ115は、撮影時の光源に応じたホワイトバランスモードを自動的に設定する。   In step S308, the WB correction unit 1072 performs a process of correcting the white balance by multiplying the image data subjected to the OB subtraction process by a white balance gain according to the white balance mode. Note that the white balance mode can be set for each shooting by the user operating an input key included in the operation unit 116. The microcomputer 115 sets the white balance mode based on the operation of the operation unit 116 by the user. When the digital still camera has an auto white balance function that automatically adjusts the white balance, the microcomputer 115 automatically sets a white balance mode in accordance with the light source at the time of shooting.

ステップS309では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。ステップS310では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクスを乗じるカラーマトリクス演算を行う。   In step S309, the synchronization processing unit 1073 performs synchronization processing on the image data on which the white balance correction processing has been performed. In step S310, the color matrix calculation unit 1075 performs a color matrix calculation for multiplying the image data subjected to the synchronization processing by a color matrix corresponding to the white balance mode.

ステップS311では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。   In step S311, the gamma / color reproduction processing unit 1074 performs gamma correction processing and color reproduction processing for changing the color of the image on the image data on which the color matrix calculation has been performed.

ステップS312では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。   In step S312, the edge enhancement processing unit 1076 performs edge enhancement processing on the image data that has been subjected to gamma correction processing and color reproduction processing.

ステップS313では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。   In step S313, the NR processing unit 1077 performs noise reduction processing on the image data on which the edge enhancement processing has been performed. In the noise reduction process, a coring process based on the coring parameter or a process using a filter that reduces high frequency is performed based on the noise reduction parameter (hereinafter referred to as NR parameter).

ステップS314では、ローパスフィルタ部118により、ステップS313でノイズ低減処理が行われた画像データに対して、ローパスフィルタ処理を行うことにより、全体的にボケた画像を生成する。   In step S314, the low-pass filter unit 118 performs low-pass filter processing on the image data subjected to noise reduction processing in step S313, thereby generating an entirely blurred image.

ステップS315では、画像合成部119により、ステップS313でノイズ低減処理が行われた画像データ、すなわち、ローパスフィルタ処理が行われていない画像データと、ステップS314でローパスフィルタ処理が行われた画像データとを合成割合αで合成し、合成画像を生成する。   In step S315, image data that has been subjected to noise reduction processing in step S313 by the image composition unit 119, that is, image data that has not undergone low-pass filter processing, and image data that has undergone low-pass filter processing in step S314, Are synthesized at a synthesis ratio α to generate a synthesized image.

ステップS316では、JPEG処理部110において、ステップS315で生成された合成画像データに対して、JPEG圧縮を行う。ステップS317では、画像の記録モードや露出条件などの撮影情報をフィルヘッダ情報として作成し、作成したファイルヘッダ情報を、JPEG圧縮された画像データに付加して、メモリI/F111を介して、記録媒体112に記録する。   In step S316, the JPEG processing unit 110 performs JPEG compression on the composite image data generated in step S315. In step S317, shooting information such as an image recording mode and exposure conditions is created as fill header information, and the created file header information is added to JPEG-compressed image data and recorded via the memory I / F 111. Recording on the medium 112.

図4は、図2に示すフローチャートのステップS204で行う動画の撮影・記録動作の詳しい処理内容を示すフローチャートである。   FIG. 4 is a flowchart showing detailed processing contents of the moving image shooting / recording operation performed in step S204 of the flowchart shown in FIG.

ステップS401では、AE処理部108において、被写体輝度を算出する。ステップS402では、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出する。   In step S401, the AE processing unit 108 calculates subject brightness. In step S402, the aperture and shutter speed are calculated by referring to the aperture value and shutter speed determination table stored in the flash memory 117 based on the subject brightness.

ステップS403では、撮影を行う。ここでは、動画撮影のため、いわゆる電子シャッターによる撮影を行う。電子シャッターによる撮影については、従来から用いられている手法と同様であるため、ここでは詳しい説明を省略する。   In step S403, shooting is performed. Here, shooting with a so-called electronic shutter is performed for moving image shooting. Since the photographing using the electronic shutter is the same as the method used conventionally, detailed explanation is omitted here.

ステップS404では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。ステップS405では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。   In step S404, the OB subtraction unit 1071 performs OB subtraction processing for subtracting the OB value obtained at the time of imaging from the image data obtained by imaging. In step S405, the WB correction unit 1072 performs a process of correcting the white balance by multiplying the image data subjected to the OB subtraction process by a white balance gain according to the white balance mode.

ステップS406では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。ステップS407では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクスを乗じるカラーマトリクス演算を行う。   In step S406, the synchronization processing unit 1073 performs synchronization processing on the image data that has been subjected to white balance correction processing. In step S407, the color matrix calculation unit 1075 performs color matrix calculation by multiplying the image data subjected to the synchronization processing by a color matrix corresponding to the white balance mode.

ステップS408では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。ステップS409では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。   In step S408, the gamma / color reproduction processing unit 1074 performs gamma correction processing and color reproduction processing for changing the color of the image on the image data on which the color matrix calculation has been performed. In step S409, the edge enhancement processing unit 1076 performs edge enhancement processing on the image data that has been subjected to gamma correction processing and color reproduction processing.

ステップS410では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。   In step S410, the NR processing unit 1077 performs noise reduction processing on the image data on which the edge enhancement processing has been performed. In the noise reduction process, a coring process based on the coring parameter or a process using a filter that reduces high frequency is performed based on the noise reduction parameter (hereinafter referred to as NR parameter).

ステップS411では、直前に撮影された画像がSDRAM106に格納されているか否かを判定する。動画撮影の間、ステップS401からステップS417までの処理は繰り返し行われる。直前に撮影された画像とは、前回の撮影時に後述するステップS416で格納された画像である。従って、動画撮影を開始した直後の1回目の撮影処理時には、直前に撮影された画像がSDRAM106に格納されていないことになる。直前に撮影された画像がSDRAM106に格納されていないと判定するとステップS415に進み、格納されていると判定すると、ステップS412に進む。   In step S <b> 411, it is determined whether the image taken immediately before is stored in the SDRAM 106. During moving image shooting, the processing from step S401 to step S417 is repeated. The image captured immediately before is an image stored in step S416, which will be described later, at the time of the previous shooting. Therefore, at the time of the first shooting process immediately after the start of moving image shooting, the image shot immediately before is not stored in the SDRAM 106. If it is determined that the image taken immediately before is not stored in the SDRAM 106, the process proceeds to step S415. If it is determined that the image is stored, the process proceeds to step S412.

ステップS412では、画像合成部119により、ステップS410でノイズ低減処理が行われた画像データと、ステップS416でSDRAM106に格納された画像データとを合成割合αで合成し、合成画像を生成する。ステップS416でSDRAM106に格納された画像データは、後述するようにローパスフィルタ処理が施された画像データである。   In step S412, the image synthesizing unit 119 synthesizes the image data subjected to the noise reduction process in step S410 and the image data stored in the SDRAM 106 in step S416 at a synthesis ratio α to generate a synthesized image. The image data stored in the SDRAM 106 in step S416 is image data that has been subjected to low-pass filter processing as will be described later.

ステップS413では、LCDドライバ113により、ステップS412で生成された合成画像をLCD114に表示させる。   In step S413, the composite image generated in step S412 is displayed on the LCD 114 by the LCD driver 113.

ステップS414では、ステップS412で生成された合成画像を、記録媒体112に記録する。   In step S414, the composite image generated in step S412 is recorded on the recording medium 112.

ステップS415では、ローパスフィルタ部118により、ステップS410でノイズ低減処理が行われた画像データに対して、ローパスフィルタ処理を行うことにより、全体的にボケた画像を生成する。   In step S415, the low-pass filter unit 118 performs low-pass filter processing on the image data subjected to noise reduction processing in step S410, thereby generating an entirely blurred image.

ステップS416では、ステップS415でローパスフィルタ処理が施された画像データをSDRAM106に格納する。   In step S416, the image data that has been subjected to the low-pass filter processing in step S415 is stored in the SDRAM 106.

ステップS417では、処理を終了するか否かを判定する。ユーザによってレリーズボタンが再び押されたか、または、電源ボタンが押されると、動画撮影・記録の処理を終了する。一方、処理を終了しないと判定すると、ステップS401に戻る。   In step S417, it is determined whether or not to end the process. When the release button is pressed again by the user or the power button is pressed, the moving image shooting / recording process ends. On the other hand, if it determines with not complete | finishing a process, it will return to step S401.

なお、上述した処理では、最初の1フレームはLCD114に表示されず、2フレーム目以降が表示されることになるが、撮影間隔が極短時間(例えば、1/30秒)であるため、表示上、問題となることはない。   In the above-described processing, the first frame is not displayed on the LCD 114, but the second and subsequent frames are displayed. However, since the shooting interval is extremely short (for example, 1/30 second), the display is not performed. There is no problem.

図5は、図2に示すフローチャートのステップS205で行うライブビュー表示の詳しい処理内容を示すフローチャートである。図5に示すフローチャートの処理のうち、図4に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付している。図5に示すフローチャートの処理は、図4に示すフローチャートの処理に対して、ステップS414およびステップS417の処理が省略されている。すなわち、ステップS413で合成画像をLCD114に表示すると、合成画像データを記録媒体112に記録する処理は行わずに、ステップS415に進む。また、ステップS416の処理を終了すると、図5に示すフローチャートの処理を終了する。ステップS414およびステップS417の処理が省略されている以外は、図4に示すフローチャートの処理と同じであるため、図5に示すフローチャートの処理の詳しい説明は省略する。   FIG. 5 is a flowchart showing the detailed processing contents of the live view display performed in step S205 of the flowchart shown in FIG. Of the processes in the flowchart shown in FIG. 5, steps that perform the same processes as those in the flowchart shown in FIG. 4 are given the same reference numerals. In the process of the flowchart shown in FIG. 5, the processes in steps S414 and S417 are omitted from the process of the flowchart shown in FIG. That is, when the composite image is displayed on the LCD 114 in step S413, the process proceeds to step S415 without performing the process of recording the composite image data on the recording medium 112. When the process of step S416 is finished, the process of the flowchart shown in FIG. 5 is finished. Since the processing of Step S414 and Step S417 is the same as the processing of the flowchart shown in FIG. 4 except that the processing of Step S414 is omitted, detailed description of the processing of the flowchart shown in FIG.

図6(a)は、一実施形態における撮像装置によって行われるライブビュー表示および動画撮影時のタイムチャートを示す図であり、図6(b)は、従来技術によるライブビュー表示および動画撮影時のタイムチャートを示す図である。   FIG. 6A is a diagram illustrating a time chart during live view display and moving image shooting performed by the imaging apparatus according to the embodiment, and FIG. 6B is a view during live view display and moving image shooting according to the related art. It is a figure which shows a time chart.

まず始めに、従来技術によるタイムチャートについて説明する。図6(b)に示すように、従来の技術では、撮影により得られたRAW画像データに基づいて、同時化された画像データを生成するとともに、同時化された画像データに対してローパスフィルタ処理を施す。そして、ローパスフィルタ処理を施す前の画像データと、ローパスフィルタ処理を施した画像データとを合成する画像処理を行い、合成画像をLCDに表示し、動画撮影時には動画記録される。この従来技術による方法では、これ以上撮影間隔Δt2を短くすることはできず、フレームレートを上げることはできない。   First, a time chart according to the prior art will be described. As shown in FIG. 6B, in the conventional technique, synchronized image data is generated based on RAW image data obtained by photographing, and low-pass filter processing is performed on the synchronized image data. Apply. Then, image processing for synthesizing the image data before being subjected to the low-pass filter processing and the image data subjected to the low-pass filter processing is performed, the synthesized image is displayed on the LCD, and a moving image is recorded during moving image shooting. With this method according to the prior art, the photographing interval Δt2 cannot be further shortened, and the frame rate cannot be increased.

続いて、一実施形態における撮像装置によるタイムチャートについて説明する。図6(a)において、撮影61bにより得られたRAW画像データに対して、図4または図5のステップS404からステップS410までの処理(図6(a)のYC処理62b)を行うと、YC処理62bにより得られた画像データと、1つ前の撮影61a後にローパスフィルタ処理65aが行われた画像データとを合成する処理63bを行う。合成後の画像データは、LCD114に表示され、動画撮影時には動画記録される(表示・記録処理64b)。   Then, the time chart by the imaging device in one Embodiment is demonstrated. 6A, when the processing from step S404 to step S410 in FIG. 4 or FIG. 5 (YC processing 62b in FIG. 6A) is performed on the RAW image data obtained by photographing 61b, YC A process 63b for synthesizing the image data obtained by the process 62b and the image data subjected to the low-pass filter process 65a after the previous photographing 61a is performed. The combined image data is displayed on the LCD 114 and is recorded as a moving image when displaying a moving image (display / recording process 64b).

この後、YC処理62b後の画像データに対して、ローパスフィルタ処理65bが施され、SDRAM106に格納される。そして、ローパスフィルタ処理65bが施された画像データを用いて、次の撮影61cにより得られたRAW画像データに対してYC処理62cが施された画像データと合成する処理63cが行われる。ローパスフィルタ処理65bが施された画像データは、次の撮影61c後の画像データと合成するため、今回の撮影61b後の表示処理64bおよび次の撮影処理61cと並行して行うことができる。   Thereafter, low-pass filter processing 65 b is applied to the image data after the YC processing 62 b and stored in the SDRAM 106. Then, using the image data that has been subjected to the low-pass filter process 65b, a process 63c for combining the RAW image data obtained by the next photographing 61c with the image data that has been subjected to the YC process 62c is performed. Since the image data subjected to the low-pass filter processing 65b is combined with the image data after the next shooting 61c, it can be performed in parallel with the display processing 64b after the current shooting 61b and the next shooting processing 61c.

なお、一般的に、フレーム間の相関は非常に高いため、1つ前の撮影により得られた画像データを用いて合成処理を行っても、それほど合成画像が不自然なものになることはない。   In general, since the correlation between frames is very high, even if the synthesis process is performed using image data obtained by the previous shooting, the synthesized image does not become so unnatural. .

すなわち、一実施形態における撮像装置では、YC処理後の画像データに対して、直前の撮影後にローパスフィルタ処理が施された画像データと合成する処理を行うとともに、表示処理および撮影処理と並行して、YC処理後の画像データに対してローパスフィルタ処理を施す。これにより、撮影から合成、表示までの処理時間を短縮することができる。図6(a)および(b)に示すように、一実施形態における撮像装置の撮影間隔Δt1は、従来技術の撮影間隔Δt2より短い。なお、図6(b)に示す「画像処理」のブロックの長さ(処理時間)は、図6(a)に示す「YC」、「合成」、「LP」の各ブロックを足し合わせた長さ(処理時間)と同じである。   That is, in the imaging apparatus according to the embodiment, the image data after YC processing is combined with image data that has been subjected to low-pass filter processing after the previous shooting, and in parallel with the display processing and shooting processing. The low-pass filter processing is performed on the image data after YC processing. Thereby, the processing time from photographing to composition and display can be shortened. As shown in FIGS. 6A and 6B, the imaging interval Δt1 of the imaging apparatus in one embodiment is shorter than the imaging interval Δt2 of the conventional technique. The length (processing time) of the “image processing” block shown in FIG. 6B is the sum of the “YC”, “composite”, and “LP” blocks shown in FIG. This is the same as the processing time.

以上、一実施形態における撮像装置によれば、RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得て、第1の画像データおよび第2の画像データを合成して合成画像データを生成する。合成に用いる第2の画像データを、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに基づいて生成することにより、撮影から合成画像データの生成、表示または記録までの時間を短縮することができる。   As described above, according to the imaging apparatus of the embodiment, the RAW image data is continuously input, and the first RAW image data obtained at least at the first time is subjected to the first image processing. And obtaining second image data by performing second image processing on the second RAW image data obtained at a second time before the first time, The first image data and the second image data are combined to generate combined image data. Generation, display or recording of composite image data from shooting by generating second image data used for composition based on second RAW image data obtained at a second time before the first time Can be shortened.

また、第2の画像処理は、第1の画像処理後に第3の画像処理を行うものであり、第3の画像処理の少なくとも一部を、表示処理、および、第1の時刻より後の時刻において行われる撮像処理のうちの少なくとも一方の処理と並行して行うので、撮影から合成画像データの生成、表示または記録までの時間を短縮することができる。   The second image processing is to perform the third image processing after the first image processing, and at least a part of the third image processing is performed at the time after the display processing and the first time. Since this is performed in parallel with at least one of the imaging processes performed in step S1, the time from shooting to generation, display, or recording of composite image data can be shortened.

さらに、第2の画像データは、連続して入力されるRAW画像データのうち、第1のRAW画像データの直前に得られたRAW画像データとすることにより、相関がより高いRAW画像データを用いて、より自然な合成画像データを得ることができる。   Further, the second image data is RAW image data having a higher correlation by being RAW image data obtained immediately before the first RAW image data among the RAW image data continuously input. Thus, more natural composite image data can be obtained.

なお、上述した一実施の形態の説明では、撮像装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、撮像装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えている。ここでは、このプログラムを画像処理プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている画像処理プログラムを読み出して、情報の加工・演算処理を実行することにより、上述の撮像装置と同様の処理を実現させる。   In the description of the embodiment described above, hardware processing is assumed as processing performed by the imaging apparatus, but it is not necessary to be limited to such a configuration. For example, a configuration in which processing is performed separately by software is possible. In this case, the imaging apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable storage medium in which a program for realizing all or part of the above processing is stored. Here, this program is called an image processing program. Then, the CPU reads out the image processing program stored in the storage medium and executes information processing / calculation processing, thereby realizing the same processing as that of the imaging apparatus described above.

ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この画像処理プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該画像処理プログラムを実行するようにしても良い。   Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the image processing program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the image processing program.

本発明は、上述した一実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、合成画像データを生成するために、ローパスフィルタ処理を施した画像データを用いたが、ローパスフィルタ処理以外の画像処理を施した画像データを用いるものにも、本発明を適用することができる。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention. For example, in order to generate composite image data, image data subjected to low-pass filter processing is used, but the present invention can also be applied to those using image data subjected to image processing other than low-pass filter processing. .

合成画像データは、第1の時刻に得られた第1のRAW画像データに基づいて生成された第1の画像データと、第1のRAW画像データの直前に得られた第2のRAW画像データに基づいて生成された第2の画像データとを合成することにより生成した。しかし、第2のRAW画像データは、第1のRAW画像データの直前に得られたものに限定されることはなく、第1の時刻より前の時刻に得られたものであればよい。   The composite image data includes first image data generated based on the first RAW image data obtained at the first time, and second RAW image data obtained immediately before the first RAW image data. And the second image data generated based on the above. However, the second RAW image data is not limited to the data obtained immediately before the first RAW image data, and may be any data obtained at a time before the first time.

また、ライブビュー表示の最終フレームから、静止画撮影までの間隔が短い場合に、ライブビュー表示の最終フレーム画像にローパスフィルタ処理を施して得られた画像データと、静止画撮影により得られた画像データとを合成することにより、合成画像データを生成することもできる。これにより、静止画撮影時においても、撮影から合成画像データの生成までの時間を短縮することができる。   In addition, when the interval from the last frame of the live view display to the still image shooting is short, the image data obtained by applying the low pass filter processing to the last frame image of the live view display and the image obtained by the still image shooting Composite image data can also be generated by combining the data. As a result, even during still image shooting, the time from shooting to generation of composite image data can be shortened.

ここで、ライブビュー画像データに対して複数の特殊効果処理を施して、それぞれの特殊効果処理に対応した複数の特殊効果画像データを生成し、生成した複数の特殊効果画像データを時系列的に自動切り替えして、LCD114に表示させる際に、切り替え対象の特殊効果画像データの合成画像データを生成して表示させることにより、複数の特殊効果画像データが徐々に切り替わるように表示する技術が考えられる。このような表示技術においても、第1の時刻に得られた第1のRAW画像データに対して第1の特殊効果処理を施すことにより第1の画像データを得るとともに、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の特殊効果処理を施すことにより第2の画像データを得て、第1の画像データおよび第2の画像データを合成して合成画像データを生成し、表示することができる。これにより、表示・撮影と画像処理の並列処理ができる場合に、処理時間を短くすることができる。   Here, a plurality of special effect processing is performed on the live view image data to generate a plurality of special effect image data corresponding to each special effect processing, and the generated plurality of special effect image data is time-sequentially. When automatically switching and displaying on the LCD 114, a technique for generating and displaying the composite image data of the special effect image data to be switched to display a plurality of special effect image data so as to gradually switch is conceivable. . Even in such a display technique, the first special effect process is performed on the first RAW image data obtained at the first time to obtain the first image data, and before the first time. The second special effect processing is performed on the second RAW image data obtained at the second time to obtain the second image data, and the first image data and the second image data are synthesized. Thus, the composite image data can be generated and displayed. Thereby, when display / photographing and image processing can be performed in parallel, the processing time can be shortened.

1…カメラ本体
2…交換式レンズ
101…メカシャッター
102…撮像素子
103…アナログ処理部
104…アナログ/デジタル変換部
106…SDRAM
107…画像処理部
108…AE処理部
109…AF処理部
110…JPEG処理部
112…記録媒体
114…LCD
115…マイクロコンピュータ
116…操作部
117…Flashメモリ
118…ローパスフィルタ部
119…画像合成部
1010…レンズ
1012…マイクロコンピュータ
1071…OB減算部
1072…ホワイトバランス補正部
1073…同時化処理部
1074…ガンマ・色再現処理部
1075…カラーマトリクス演算部
1076…エッジ強調処理部
1077…ノイズ低減処理部
DESCRIPTION OF SYMBOLS 1 ... Camera body 2 ... Interchangeable lens 101 ... Mechanical shutter 102 ... Imaging element 103 ... Analog processing part 104 ... Analog / digital conversion part 106 ... SDRAM
107 ... Image processing unit 108 ... AE processing unit 109 ... AF processing unit 110 ... JPEG processing unit 112 ... Recording medium 114 ... LCD
DESCRIPTION OF SYMBOLS 115 ... Microcomputer 116 ... Operation part 117 ... Flash memory 118 ... Low pass filter part 119 ... Image composition part 1010 ... Lens 1012 ... Microcomputer 1071 ... OB subtraction part 1072 ... White balance correction part 1073 ... Synchronization processing part 1074 ... Gamma Color reproduction processing unit 1075 ... Color matrix calculation unit 1076 ... Edge enhancement processing unit 1077 ... Noise reduction processing unit

Claims (7)

被写体を撮像してRAW画像データを得る撮像部と、
前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得る画像処理部と、
前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成する画像合成部と、
前記合成画像データを表示する表示部と、
を備えることを特徴とする撮像装置。
An imaging unit for imaging a subject to obtain RAW image data;
The RAW image data is continuously input, and first image data is obtained by performing first image processing on the first RAW image data obtained at least at the first time, and the first image data is obtained. An image processing unit that obtains the second image data by performing the second image processing on the second RAW image data obtained at the second time before the time;
An image combining unit that combines the first image data and the second image data to generate combined image data;
A display unit for displaying the composite image data;
An imaging apparatus comprising:
前記合成画像データを記録する記録部、
をさらに備えることを特徴とする請求項1に記載の撮像装置。
A recording unit for recording the composite image data;
The imaging apparatus according to claim 1, further comprising:
前記第2の画像処理は、前記第1の画像処理後に第3の画像処理を行うものであり、前記第2の画像データは、前記第1の画像データに前記第3の画像処理を行ったものであることを特徴とする請求項1または請求項2に記載の撮像装置。   The second image processing is to perform third image processing after the first image processing, and the second image data is obtained by performing the third image processing on the first image data. The imaging apparatus according to claim 1, wherein the imaging apparatus is a device. 前記画像処理部は、前記第3の画像処理の少なくとも一部を、前記表示部による表示処理、および、前記第1の時刻より後の時刻における前記撮像部による撮像処理のうちの少なくとも一方の処理と並行して行うことを特徴とする請求項3に記載の撮像装置。   The image processing unit performs at least one of the third image processing by at least one of display processing by the display unit and imaging processing by the imaging unit at a time later than the first time. The imaging apparatus according to claim 3, wherein the imaging apparatus is performed in parallel. 前記第2の画像データは、連続して入力されるRAW画像データのうち、前記第1のRAW画像データの直前に得られたRAW画像データであることを特徴とする請求項1から請求項4のいずれか一項に記載の撮像装置。   The second image data is RAW image data obtained immediately before the first RAW image data among continuously input RAW image data. The imaging device according to any one of the above. 被写体を撮像することにより得られるRAW画像データを入力するステップと、
前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、
前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、
を備えることを特徴とする画像処理方法。
Inputting RAW image data obtained by imaging a subject;
The RAW image data is continuously input, and first image data is obtained by performing first image processing on the first RAW image data obtained at least at the first time, and the first image data is obtained. Obtaining second image data by performing second image processing on the second RAW image data obtained at a second time before the time;
Combining the first image data and the second image data to generate combined image data;
An image processing method comprising:
被写体を撮像することにより得られるRAW画像データを入力するステップと、
前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、
前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、
をコンピュータに実行させるための画像処理プログラム。
Inputting RAW image data obtained by imaging a subject;
The RAW image data is continuously input, and first image data is obtained by performing first image processing on the first RAW image data obtained at least at the first time, and the first image data is obtained. Obtaining second image data by performing second image processing on the second RAW image data obtained at a second time before the time;
Combining the first image data and the second image data to generate combined image data;
An image processing program for causing a computer to execute.
JP2009090141A 2009-04-02 2009-04-02 Imaging apparatus, method of processing image, and image processing program Pending JP2010245686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009090141A JP2010245686A (en) 2009-04-02 2009-04-02 Imaging apparatus, method of processing image, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009090141A JP2010245686A (en) 2009-04-02 2009-04-02 Imaging apparatus, method of processing image, and image processing program

Publications (1)

Publication Number Publication Date
JP2010245686A true JP2010245686A (en) 2010-10-28

Family

ID=43098251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009090141A Pending JP2010245686A (en) 2009-04-02 2009-04-02 Imaging apparatus, method of processing image, and image processing program

Country Status (1)

Country Link
JP (1) JP2010245686A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026939A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing device, image processing method, and program
JP2013150069A (en) * 2012-01-17 2013-08-01 Olympus Imaging Corp Imaging device, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026939A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing device, image processing method, and program
JP2013150069A (en) * 2012-01-17 2013-08-01 Olympus Imaging Corp Imaging device, image processing method and program

Similar Documents

Publication Publication Date Title
JP5439197B2 (en) Imaging apparatus, imaging method, and imaging program
JP5371501B2 (en) Image processing apparatus, image processing method, and image processing program
JP4727457B2 (en) Imaging device
US8872936B2 (en) Image processing device, white balance correction method, and imaging device
JP5126344B2 (en) Imaging apparatus, imaging method, and program
JP5642344B2 (en) Image processing apparatus, image processing method, and image processing program
JP5002931B2 (en) Imaging apparatus and program thereof
JP2009159056A (en) Image capturing apparatus
KR20110052507A (en) Image capture apparatus and image capturing method
JP6304293B2 (en) Image processing apparatus, image processing method, and program
CN102547057A (en) Image processing apparatus and image processing method
JP5185085B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010283504A (en) Imaging device, imaging method, and imaging program
JP5530304B2 (en) Imaging apparatus and captured image display method
JP2010245686A (en) Imaging apparatus, method of processing image, and image processing program
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium
JP2011160183A (en) Imaging device and method
JP5191941B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP5094686B2 (en) Image processing apparatus, image processing method, and image processing program
US9554108B2 (en) Image processing device and storage medium storing image processing program
JP5653665B2 (en) Image processing apparatus, photographing apparatus, image processing method, and image processing program
JP2003087647A (en) Digital still camera
JP2009219028A (en) Image recording method and imaging unit
JP4133878B2 (en) Digital camera and image signal generation method
JP2010239267A (en) Imaging apparatus, method for controlling peripheral darkening correction, and program