JP2010245686A - Imaging apparatus, method of processing image, and image processing program - Google Patents
Imaging apparatus, method of processing image, and image processing program Download PDFInfo
- Publication number
- JP2010245686A JP2010245686A JP2009090141A JP2009090141A JP2010245686A JP 2010245686 A JP2010245686 A JP 2010245686A JP 2009090141 A JP2009090141 A JP 2009090141A JP 2009090141 A JP2009090141 A JP 2009090141A JP 2010245686 A JP2010245686 A JP 2010245686A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- processing
- image
- unit
- raw
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数の画像を合成する技術に関する。 The present invention relates to a technique for combining a plurality of images.
銀塩カメラによる撮影の際に、撮影レンズの前に光学フィルタを配置することで、輪郭はある程度はっきりしているが、全体的にフレアっぽいソフトフォーカス効果を有する画像を撮影することができる。一方、デジタルカメラでは、そのような光学フィルタを配置することなく、撮影した画像データを画像処理することにより、銀塩カメラのソフトフォーカスと同様な効果を再現する方法が提案されている。特許文献1では、撮影した画像データに対してフィルタ処理を施した画像データと、元の画像データとを合成することにより、ソフトフォーカスを実現する手法が提案されている。 When photographing with a silver salt camera, an optical filter is disposed in front of the photographing lens, so that an image having a soft flare-like soft focus effect can be taken as a whole although the outline is clear to some extent. On the other hand, in a digital camera, a method for reproducing the same effect as the soft focus of a silver salt camera by processing imaged image data without arranging such an optical filter has been proposed. Japanese Patent Application Laid-Open No. 2004-133867 proposes a method for realizing soft focus by combining image data obtained by performing filter processing on captured image data and original image data.
ライブビュー表示や動画撮影時において、画像を撮影してから画像処理を行って表示または記録するまでの時間は、フレームレートにより制限を受ける。そのため、フレームレートを高くするほど、画像処理を行う時間も制限される傾向にある。 During live view display or moving image shooting, the time from when an image is shot to when image processing is performed for display or recording is limited by the frame rate. Therefore, as the frame rate is increased, the time for performing image processing tends to be limited.
一方、ソフトフォーカスのように、画像データに対してフィルタ処理を行って元の画像と合成する場合には、画像サイズが大きくなると処理時間が長くなる。そのため、上述したライブビュー表示や動画撮影においては、これらの処理時間を確保するために、画像サイズを小さくしたり、フレームレートを下げたりする必要があった。 On the other hand, when the image data is combined with the original image by performing filter processing on the image data as in the case of soft focus, the processing time increases as the image size increases. Therefore, in the above-described live view display and moving image shooting, it is necessary to reduce the image size or lower the frame rate in order to secure these processing times.
本発明は、ライブビュー表示や動画記録時に、複数の画像を合成する処理を行う場合に、撮影から合成処理までに要する時間を短縮する技術を提供することを目的とする。 An object of the present invention is to provide a technique for shortening the time required from shooting to combining processing when performing processing for combining a plurality of images during live view display or moving image recording.
本発明のある態様に係る撮像装置は、被写体を撮像してRAW画像データを得る撮像部と、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得る画像処理部と、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成する画像合成部と、前記合成画像データを表示する表示部と、を備えることを特徴とする。 An imaging apparatus according to an aspect of the present invention includes an imaging unit that captures an image of a subject and obtains RAW image data, and a first RAW image obtained by continuously inputting the RAW image data and obtained at least at a first time. First image data is obtained by performing first image processing on the data, and second RAW image data obtained at a second time before the first time is set to a second value. An image processing unit that obtains second image data by performing image processing, an image combining unit that combines the first image data and the second image data to generate combined image data, and the combined image data And a display unit for displaying.
本発明の別の態様に係る画像処理方法は、被写体を撮像することにより得られるRAW画像データを入力するステップと、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、を備えることを特徴とする。 An image processing method according to another aspect of the present invention includes a step of inputting RAW image data obtained by imaging a subject, the RAW image data being continuously input, and obtained at least at a first time. First image data is obtained by performing first image processing on the first RAW image data, and second RAW image data obtained at a second time before the first time is added to the second RAW image data. A step of obtaining second image data by performing second image processing on the image, and a step of synthesizing the first image data and the second image data to generate composite image data. It is characterized by.
本発明のさらに別の態様に係る画像処理プログラムは、被写体を撮像することにより得られるRAW画像データを入力するステップと、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、をコンピュータに実行させるためのプログラムである。 An image processing program according to still another aspect of the present invention is obtained at least at a first time by inputting RAW image data obtained by imaging a subject and continuously inputting the RAW image data. In addition, first image data is obtained by performing first image processing on the first RAW image data, and second RAW image data obtained at a second time before the first time. Performing second image processing on the second image data to obtain second image data, and synthesizing the first image data and the second image data to generate synthesized image data. It is a program for making it run.
本発明によれば、複数の画像を合成する処理を行う場合に、撮影から合成処理までに要する時間を短縮することができる。 According to the present invention, when a process for combining a plurality of images is performed, the time required from photographing to combining process can be shortened.
図1は、一実施形態における撮像装置であるデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。
FIG. 1 is a block diagram illustrating a configuration of a digital still camera that is an imaging apparatus according to an embodiment. The digital still camera shown in FIG. 1 includes a
交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。
The
カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、ローパスフィルタ部118と、画像合成部119と、を有している。
The
レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。
The
マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、様々な情報をマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。
The
ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。
In response to an instruction from the
メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。
The
撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。
The
アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。
The
バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリI/F111と、LCDドライバ113と、マイクロコンピュータ115と、ローパスフィルタ部118と、画像合成部119に接続されている。
A
A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、JPEG処理部110、ローパスフィルタ部118、画像合成部119において処理された画像データ等の各種データが一時的に記憶される記憶部である。
The image data output from the A /
画像処理部107は、オプティカルブラック減算部1071(以下、OB減算部)、ホワイトバランス補正部1072(以下、WB補正部1072)、同時化処理部1073、ガンマ・色再現処理部1074、カラーマトリクス演算部1075、エッジ強調処理部1076、および、ノイズ低減処理部1077(以下、NR処理部1077)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。
The
OB減算部1071は、画像データに対して、オプティカルブラック減算処理(以下、OB減算処理)を行う。OB減算処理は、画像データを構成する各画素の画素値から、撮像素子102の暗電流等に起因するオプティカルブラック値(以下、OB値)を減算する処理である。
The
WB補正部1072は、画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。ホワイトバランスモードは、晴天、曇天、電球、蛍光灯などの光源に応じて、ユーザが設定可能である。
The WB
同時化処理部1073は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。ガンマ・色再現処理部1074は、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。
The
カラーマトリクス演算部1075は、画像データに対して、カラーマトリクスを乗じる線形変換を行って、画像データの色を補正する。エッジ強調処理部1076は、画像データから、エッジを抽出し、抽出したエッジのデータに所定のゲインを乗じてから、画像データに加算することにより、画像データのエッジを強調する処理を行う。NR処理部1077は、高周波を低減するフィルタを用いた処理や、コアリング処理等により、ノイズを低減する処理を行う。
The color
画像処理部107は、必要に応じて、内部に備えた各部1071〜1077を選択して、各処理を行う。画像処理部107によって各処理が行われた後の画像データは、SDRAM106に記憶される。
The
AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。
The
ローパスフィルタ部118は、SDRAM106に記憶されている画像データの高周波成分を低減するローパスフィルタ処理を行うことにより、全体にボケた画像を生成する。ローパスフィルタ処理を施した画像では、輪郭も失われてしまっている。
The low-
画像合成部119は、ローパスフィルタ部118でローパスフィルタ処理が行われた画像と、ローパスフィルタ処理が行われていない画像とを所定の割合で合成することにより、全体的にボケているが、輪郭ははっきりとしている画像を生成する。ここでは、合成割合をα(0≦α≦1)、ローパスフィルタ処理が行われた画像の画素値をa、ローパスフィルタ処理が行われていない画像の対応画素の画素値をbとした場合に、合成画像の対応画素の画素値をα×a+(1−α)×bとする。
The
JPEG処理部110は、画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。
When the image data is recorded, the
LCDドライバ113は、LCD114に画像を表示させる。画像の表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体112に記録されたJPEGファイルの再生表示、および、ライブビュー表示等の動画の表示が含まれる。記録媒体112に記録されたJPEGファイルを再生する場合、JPEG処理部110は、記録媒体112に記録されているJPEGファイルを読み出して伸張処理を施した上で、伸張した画像データを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張された画像データをSDRAM106から読み出し、読み出した画像データを映像信号へ変換した後でLCD114へ出力して、画像の表示を行う。
The
制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。
The
操作部116は、電源ボタン、レリーズボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されたときに、マイクロコンピュータ115は、当該デジタルカメラの電源をオン又はオフする。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。
The
Flashメモリ117は、ホワイトバランスモードに応じたホワイトバランスゲインやローパスフィルタ係数等のデジタルカメラの動作に必要な各種パラメータ、および、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。
The
図2は、一実施形態に係る撮像装置であるデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。ユーザにより電源ボタンが押されて、デジタルスチルカメラの電源がオンになると、マイクロコンピュータ115は、ステップS201の処理を開始する。
FIG. 2 is a flowchart illustrating a main processing flow performed by a digital still camera that is an imaging apparatus according to an embodiment. When the user presses the power button to turn on the digital still camera, the
ステップS201では、撮影を行うか否か、すなわち、レリーズボタンが押されたか否かを判定する。レリーズボタンが押されたと判定すると、ステップS202に進む。 In step S201, it is determined whether or not to perform shooting, that is, whether or not the release button has been pressed. If it is determined that the release button has been pressed, the process proceeds to step S202.
ステップS202では、撮影モードが静止画撮影モードに設定されているか否かを判定する。撮影モードには、静止画撮影モードと動画撮影モードとがあり、ユーザが操作部116の操作部材を操作することにより設定することができる。撮影モードが静止画撮影モードに設定されていると判定するとステップS203に進み、動画撮影モードに設定されていると判定すると、ステップS204に進む。
In step S202, it is determined whether or not the shooting mode is set to the still image shooting mode. The shooting modes include a still image shooting mode and a moving image shooting mode, which can be set by the user operating the operation member of the
ステップS203では、静止画の撮影・記録動作を行う。静止画の撮影・記録動作については、図3に示すフローチャートを用いて後述する。 In step S203, a still image shooting / recording operation is performed. The still image shooting / recording operation will be described later with reference to the flowchart shown in FIG.
ステップS204では、動画の撮影・記録動作を行う。動画の撮影・記録動作については、図4に示すフローチャートを用いて後述する。 In step S204, a moving image shooting / recording operation is performed. The moving image shooting / recording operation will be described later with reference to the flowchart shown in FIG.
一方、ステップS201において、レリーズボタンが押されていないと判定すると、ステップS205に進む。ステップS205では、ライブビュー表示を行う。ライブビュー表示の詳細な処理については、図5に示すフローチャートを用いて後述する。 On the other hand, if it is determined in step S201 that the release button has not been pressed, the process proceeds to step S205. In step S205, live view display is performed. Detailed processing of live view display will be described later with reference to a flowchart shown in FIG.
図3は、図2に示すフローチャートのステップS203で行う静止画の撮影・記録動作の詳しい処理内容を示すフローチャートである。ステップS301からステップS303までの処理は、ファーストレリーズにて行われる処理であり、ステップS304以後の処理は、セカンドレリーズにて行われる処理である。 FIG. 3 is a flowchart showing detailed processing contents of the still image shooting / recording operation performed in step S203 of the flowchart shown in FIG. The processing from step S301 to step S303 is processing performed at the first release, and the processing after step S304 is processing performed at the second release.
ステップS301では、AF処理部109において、合焦評価値を算出する。マイクロコンピュータ115は、合焦評価値に基づいて、レンズ1010を駆動させる指令をドライバ1013に出す。
In step S301, the
ステップS302では、AE処理部108において、被写体輝度を算出する。ステップS303では、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出する。
In step S302, the
ステップS304では、ユーザによってレリーズボタンが全押しされて、セカンドレリーズスイッチがオンされたか否かを判定する。セカンドレリーズスイッチがオンされていないと判定すると、ステップS305に進む。ステップS305では、レリーズボタンが戻されたか否かを判定する。レリーズボタンが半押しされている状態から戻されたと判定すると、撮影・記録動作を終了し、レリーズボタンが戻されていないと判定すると、ステップS304に戻る。 In step S304, it is determined whether or not the user has fully pressed the release button to turn on the second release switch. If it is determined that the second release switch is not turned on, the process proceeds to step S305. In step S305, it is determined whether or not the release button has been returned. If it is determined that the release button has been returned from the half-pressed state, the photographing / recording operation is terminated. If it is determined that the release button has not been returned, the process returns to step S304.
一方、ステップS304でセカンドレリーズスイッチがオンされたと判定すると、ステップS306に進む。ステップS306では、撮影を行う。撮影に関しては、従来から用いられている手法と同様である。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、設定された絞り値になるように絞り1014を駆動させる。そして、算出したシャッター速に基づいて、メカシャッター101を制御して撮影を行い、画像データを得る。
On the other hand, if it is determined in step S304 that the second release switch is turned on, the process proceeds to step S306. In step S306, shooting is performed. The shooting is the same as the conventionally used method. The
ステップS307では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。
In step S307, the
ステップS308では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。なお、ホワイトバランスモードは、ユーザが操作部116に含まれる入力キーを操作することによって、1回の撮影ごとに設定することができる。マイクロコンピュータ115は、ユーザによる操作部116の操作に基づいて、ホワイトバランスモードを設定する。また、デジタルスチルカメラがホワイトバランスを自動的に調整するオートホワイトバランス機能を備えている場合、マイクロコンピュータ115は、撮影時の光源に応じたホワイトバランスモードを自動的に設定する。
In step S308, the
ステップS309では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。ステップS310では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクスを乗じるカラーマトリクス演算を行う。
In step S309, the
ステップS311では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。
In step S311, the gamma / color
ステップS312では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。
In step S312, the edge
ステップS313では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。
In step S313, the
ステップS314では、ローパスフィルタ部118により、ステップS313でノイズ低減処理が行われた画像データに対して、ローパスフィルタ処理を行うことにより、全体的にボケた画像を生成する。
In step S314, the low-
ステップS315では、画像合成部119により、ステップS313でノイズ低減処理が行われた画像データ、すなわち、ローパスフィルタ処理が行われていない画像データと、ステップS314でローパスフィルタ処理が行われた画像データとを合成割合αで合成し、合成画像を生成する。
In step S315, image data that has been subjected to noise reduction processing in step S313 by the
ステップS316では、JPEG処理部110において、ステップS315で生成された合成画像データに対して、JPEG圧縮を行う。ステップS317では、画像の記録モードや露出条件などの撮影情報をフィルヘッダ情報として作成し、作成したファイルヘッダ情報を、JPEG圧縮された画像データに付加して、メモリI/F111を介して、記録媒体112に記録する。
In step S316, the
図4は、図2に示すフローチャートのステップS204で行う動画の撮影・記録動作の詳しい処理内容を示すフローチャートである。 FIG. 4 is a flowchart showing detailed processing contents of the moving image shooting / recording operation performed in step S204 of the flowchart shown in FIG.
ステップS401では、AE処理部108において、被写体輝度を算出する。ステップS402では、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出する。
In step S401, the
ステップS403では、撮影を行う。ここでは、動画撮影のため、いわゆる電子シャッターによる撮影を行う。電子シャッターによる撮影については、従来から用いられている手法と同様であるため、ここでは詳しい説明を省略する。 In step S403, shooting is performed. Here, shooting with a so-called electronic shutter is performed for moving image shooting. Since the photographing using the electronic shutter is the same as the method used conventionally, detailed explanation is omitted here.
ステップS404では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。ステップS405では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。
In step S404, the
ステップS406では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。ステップS407では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクスを乗じるカラーマトリクス演算を行う。
In step S406, the
ステップS408では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。ステップS409では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。
In step S408, the gamma / color
ステップS410では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。
In step S410, the
ステップS411では、直前に撮影された画像がSDRAM106に格納されているか否かを判定する。動画撮影の間、ステップS401からステップS417までの処理は繰り返し行われる。直前に撮影された画像とは、前回の撮影時に後述するステップS416で格納された画像である。従って、動画撮影を開始した直後の1回目の撮影処理時には、直前に撮影された画像がSDRAM106に格納されていないことになる。直前に撮影された画像がSDRAM106に格納されていないと判定するとステップS415に進み、格納されていると判定すると、ステップS412に進む。
In step S <b> 411, it is determined whether the image taken immediately before is stored in the
ステップS412では、画像合成部119により、ステップS410でノイズ低減処理が行われた画像データと、ステップS416でSDRAM106に格納された画像データとを合成割合αで合成し、合成画像を生成する。ステップS416でSDRAM106に格納された画像データは、後述するようにローパスフィルタ処理が施された画像データである。
In step S412, the
ステップS413では、LCDドライバ113により、ステップS412で生成された合成画像をLCD114に表示させる。
In step S413, the composite image generated in step S412 is displayed on the
ステップS414では、ステップS412で生成された合成画像を、記録媒体112に記録する。
In step S414, the composite image generated in step S412 is recorded on the
ステップS415では、ローパスフィルタ部118により、ステップS410でノイズ低減処理が行われた画像データに対して、ローパスフィルタ処理を行うことにより、全体的にボケた画像を生成する。
In step S415, the low-
ステップS416では、ステップS415でローパスフィルタ処理が施された画像データをSDRAM106に格納する。
In step S416, the image data that has been subjected to the low-pass filter processing in step S415 is stored in the
ステップS417では、処理を終了するか否かを判定する。ユーザによってレリーズボタンが再び押されたか、または、電源ボタンが押されると、動画撮影・記録の処理を終了する。一方、処理を終了しないと判定すると、ステップS401に戻る。 In step S417, it is determined whether or not to end the process. When the release button is pressed again by the user or the power button is pressed, the moving image shooting / recording process ends. On the other hand, if it determines with not complete | finishing a process, it will return to step S401.
なお、上述した処理では、最初の1フレームはLCD114に表示されず、2フレーム目以降が表示されることになるが、撮影間隔が極短時間(例えば、1/30秒)であるため、表示上、問題となることはない。
In the above-described processing, the first frame is not displayed on the
図5は、図2に示すフローチャートのステップS205で行うライブビュー表示の詳しい処理内容を示すフローチャートである。図5に示すフローチャートの処理のうち、図4に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付している。図5に示すフローチャートの処理は、図4に示すフローチャートの処理に対して、ステップS414およびステップS417の処理が省略されている。すなわち、ステップS413で合成画像をLCD114に表示すると、合成画像データを記録媒体112に記録する処理は行わずに、ステップS415に進む。また、ステップS416の処理を終了すると、図5に示すフローチャートの処理を終了する。ステップS414およびステップS417の処理が省略されている以外は、図4に示すフローチャートの処理と同じであるため、図5に示すフローチャートの処理の詳しい説明は省略する。
FIG. 5 is a flowchart showing the detailed processing contents of the live view display performed in step S205 of the flowchart shown in FIG. Of the processes in the flowchart shown in FIG. 5, steps that perform the same processes as those in the flowchart shown in FIG. 4 are given the same reference numerals. In the process of the flowchart shown in FIG. 5, the processes in steps S414 and S417 are omitted from the process of the flowchart shown in FIG. That is, when the composite image is displayed on the
図6(a)は、一実施形態における撮像装置によって行われるライブビュー表示および動画撮影時のタイムチャートを示す図であり、図6(b)は、従来技術によるライブビュー表示および動画撮影時のタイムチャートを示す図である。 FIG. 6A is a diagram illustrating a time chart during live view display and moving image shooting performed by the imaging apparatus according to the embodiment, and FIG. 6B is a view during live view display and moving image shooting according to the related art. It is a figure which shows a time chart.
まず始めに、従来技術によるタイムチャートについて説明する。図6(b)に示すように、従来の技術では、撮影により得られたRAW画像データに基づいて、同時化された画像データを生成するとともに、同時化された画像データに対してローパスフィルタ処理を施す。そして、ローパスフィルタ処理を施す前の画像データと、ローパスフィルタ処理を施した画像データとを合成する画像処理を行い、合成画像をLCDに表示し、動画撮影時には動画記録される。この従来技術による方法では、これ以上撮影間隔Δt2を短くすることはできず、フレームレートを上げることはできない。 First, a time chart according to the prior art will be described. As shown in FIG. 6B, in the conventional technique, synchronized image data is generated based on RAW image data obtained by photographing, and low-pass filter processing is performed on the synchronized image data. Apply. Then, image processing for synthesizing the image data before being subjected to the low-pass filter processing and the image data subjected to the low-pass filter processing is performed, the synthesized image is displayed on the LCD, and a moving image is recorded during moving image shooting. With this method according to the prior art, the photographing interval Δt2 cannot be further shortened, and the frame rate cannot be increased.
続いて、一実施形態における撮像装置によるタイムチャートについて説明する。図6(a)において、撮影61bにより得られたRAW画像データに対して、図4または図5のステップS404からステップS410までの処理(図6(a)のYC処理62b)を行うと、YC処理62bにより得られた画像データと、1つ前の撮影61a後にローパスフィルタ処理65aが行われた画像データとを合成する処理63bを行う。合成後の画像データは、LCD114に表示され、動画撮影時には動画記録される(表示・記録処理64b)。
Then, the time chart by the imaging device in one Embodiment is demonstrated. 6A, when the processing from step S404 to step S410 in FIG. 4 or FIG. 5 (
この後、YC処理62b後の画像データに対して、ローパスフィルタ処理65bが施され、SDRAM106に格納される。そして、ローパスフィルタ処理65bが施された画像データを用いて、次の撮影61cにより得られたRAW画像データに対してYC処理62cが施された画像データと合成する処理63cが行われる。ローパスフィルタ処理65bが施された画像データは、次の撮影61c後の画像データと合成するため、今回の撮影61b後の表示処理64bおよび次の撮影処理61cと並行して行うことができる。
Thereafter, low-pass filter processing 65 b is applied to the image data after the
なお、一般的に、フレーム間の相関は非常に高いため、1つ前の撮影により得られた画像データを用いて合成処理を行っても、それほど合成画像が不自然なものになることはない。 In general, since the correlation between frames is very high, even if the synthesis process is performed using image data obtained by the previous shooting, the synthesized image does not become so unnatural. .
すなわち、一実施形態における撮像装置では、YC処理後の画像データに対して、直前の撮影後にローパスフィルタ処理が施された画像データと合成する処理を行うとともに、表示処理および撮影処理と並行して、YC処理後の画像データに対してローパスフィルタ処理を施す。これにより、撮影から合成、表示までの処理時間を短縮することができる。図6(a)および(b)に示すように、一実施形態における撮像装置の撮影間隔Δt1は、従来技術の撮影間隔Δt2より短い。なお、図6(b)に示す「画像処理」のブロックの長さ(処理時間)は、図6(a)に示す「YC」、「合成」、「LP」の各ブロックを足し合わせた長さ(処理時間)と同じである。 That is, in the imaging apparatus according to the embodiment, the image data after YC processing is combined with image data that has been subjected to low-pass filter processing after the previous shooting, and in parallel with the display processing and shooting processing. The low-pass filter processing is performed on the image data after YC processing. Thereby, the processing time from photographing to composition and display can be shortened. As shown in FIGS. 6A and 6B, the imaging interval Δt1 of the imaging apparatus in one embodiment is shorter than the imaging interval Δt2 of the conventional technique. The length (processing time) of the “image processing” block shown in FIG. 6B is the sum of the “YC”, “composite”, and “LP” blocks shown in FIG. This is the same as the processing time.
以上、一実施形態における撮像装置によれば、RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得て、第1の画像データおよび第2の画像データを合成して合成画像データを生成する。合成に用いる第2の画像データを、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに基づいて生成することにより、撮影から合成画像データの生成、表示または記録までの時間を短縮することができる。 As described above, according to the imaging apparatus of the embodiment, the RAW image data is continuously input, and the first RAW image data obtained at least at the first time is subjected to the first image processing. And obtaining second image data by performing second image processing on the second RAW image data obtained at a second time before the first time, The first image data and the second image data are combined to generate combined image data. Generation, display or recording of composite image data from shooting by generating second image data used for composition based on second RAW image data obtained at a second time before the first time Can be shortened.
また、第2の画像処理は、第1の画像処理後に第3の画像処理を行うものであり、第3の画像処理の少なくとも一部を、表示処理、および、第1の時刻より後の時刻において行われる撮像処理のうちの少なくとも一方の処理と並行して行うので、撮影から合成画像データの生成、表示または記録までの時間を短縮することができる。 The second image processing is to perform the third image processing after the first image processing, and at least a part of the third image processing is performed at the time after the display processing and the first time. Since this is performed in parallel with at least one of the imaging processes performed in step S1, the time from shooting to generation, display, or recording of composite image data can be shortened.
さらに、第2の画像データは、連続して入力されるRAW画像データのうち、第1のRAW画像データの直前に得られたRAW画像データとすることにより、相関がより高いRAW画像データを用いて、より自然な合成画像データを得ることができる。 Further, the second image data is RAW image data having a higher correlation by being RAW image data obtained immediately before the first RAW image data among the RAW image data continuously input. Thus, more natural composite image data can be obtained.
なお、上述した一実施の形態の説明では、撮像装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、撮像装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えている。ここでは、このプログラムを画像処理プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている画像処理プログラムを読み出して、情報の加工・演算処理を実行することにより、上述の撮像装置と同様の処理を実現させる。 In the description of the embodiment described above, hardware processing is assumed as processing performed by the imaging apparatus, but it is not necessary to be limited to such a configuration. For example, a configuration in which processing is performed separately by software is possible. In this case, the imaging apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable storage medium in which a program for realizing all or part of the above processing is stored. Here, this program is called an image processing program. Then, the CPU reads out the image processing program stored in the storage medium and executes information processing / calculation processing, thereby realizing the same processing as that of the imaging apparatus described above.
ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この画像処理プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該画像処理プログラムを実行するようにしても良い。 Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the image processing program may be distributed to a computer via a communication line, and the computer that has received the distribution may execute the image processing program.
本発明は、上述した一実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、合成画像データを生成するために、ローパスフィルタ処理を施した画像データを用いたが、ローパスフィルタ処理以外の画像処理を施した画像データを用いるものにも、本発明を適用することができる。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the gist of the present invention. For example, in order to generate composite image data, image data subjected to low-pass filter processing is used, but the present invention can also be applied to those using image data subjected to image processing other than low-pass filter processing. .
合成画像データは、第1の時刻に得られた第1のRAW画像データに基づいて生成された第1の画像データと、第1のRAW画像データの直前に得られた第2のRAW画像データに基づいて生成された第2の画像データとを合成することにより生成した。しかし、第2のRAW画像データは、第1のRAW画像データの直前に得られたものに限定されることはなく、第1の時刻より前の時刻に得られたものであればよい。 The composite image data includes first image data generated based on the first RAW image data obtained at the first time, and second RAW image data obtained immediately before the first RAW image data. And the second image data generated based on the above. However, the second RAW image data is not limited to the data obtained immediately before the first RAW image data, and may be any data obtained at a time before the first time.
また、ライブビュー表示の最終フレームから、静止画撮影までの間隔が短い場合に、ライブビュー表示の最終フレーム画像にローパスフィルタ処理を施して得られた画像データと、静止画撮影により得られた画像データとを合成することにより、合成画像データを生成することもできる。これにより、静止画撮影時においても、撮影から合成画像データの生成までの時間を短縮することができる。 In addition, when the interval from the last frame of the live view display to the still image shooting is short, the image data obtained by applying the low pass filter processing to the last frame image of the live view display and the image obtained by the still image shooting Composite image data can also be generated by combining the data. As a result, even during still image shooting, the time from shooting to generation of composite image data can be shortened.
ここで、ライブビュー画像データに対して複数の特殊効果処理を施して、それぞれの特殊効果処理に対応した複数の特殊効果画像データを生成し、生成した複数の特殊効果画像データを時系列的に自動切り替えして、LCD114に表示させる際に、切り替え対象の特殊効果画像データの合成画像データを生成して表示させることにより、複数の特殊効果画像データが徐々に切り替わるように表示する技術が考えられる。このような表示技術においても、第1の時刻に得られた第1のRAW画像データに対して第1の特殊効果処理を施すことにより第1の画像データを得るとともに、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の特殊効果処理を施すことにより第2の画像データを得て、第1の画像データおよび第2の画像データを合成して合成画像データを生成し、表示することができる。これにより、表示・撮影と画像処理の並列処理ができる場合に、処理時間を短くすることができる。
Here, a plurality of special effect processing is performed on the live view image data to generate a plurality of special effect image data corresponding to each special effect processing, and the generated plurality of special effect image data is time-sequentially. When automatically switching and displaying on the
1…カメラ本体
2…交換式レンズ
101…メカシャッター
102…撮像素子
103…アナログ処理部
104…アナログ/デジタル変換部
106…SDRAM
107…画像処理部
108…AE処理部
109…AF処理部
110…JPEG処理部
112…記録媒体
114…LCD
115…マイクロコンピュータ
116…操作部
117…Flashメモリ
118…ローパスフィルタ部
119…画像合成部
1010…レンズ
1012…マイクロコンピュータ
1071…OB減算部
1072…ホワイトバランス補正部
1073…同時化処理部
1074…ガンマ・色再現処理部
1075…カラーマトリクス演算部
1076…エッジ強調処理部
1077…ノイズ低減処理部
DESCRIPTION OF
107 ...
DESCRIPTION OF
Claims (7)
前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得る画像処理部と、
前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成する画像合成部と、
前記合成画像データを表示する表示部と、
を備えることを特徴とする撮像装置。 An imaging unit for imaging a subject to obtain RAW image data;
The RAW image data is continuously input, and first image data is obtained by performing first image processing on the first RAW image data obtained at least at the first time, and the first image data is obtained. An image processing unit that obtains the second image data by performing the second image processing on the second RAW image data obtained at the second time before the time;
An image combining unit that combines the first image data and the second image data to generate combined image data;
A display unit for displaying the composite image data;
An imaging apparatus comprising:
をさらに備えることを特徴とする請求項1に記載の撮像装置。 A recording unit for recording the composite image data;
The imaging apparatus according to claim 1, further comprising:
前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、
前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、
を備えることを特徴とする画像処理方法。 Inputting RAW image data obtained by imaging a subject;
The RAW image data is continuously input, and first image data is obtained by performing first image processing on the first RAW image data obtained at least at the first time, and the first image data is obtained. Obtaining second image data by performing second image processing on the second RAW image data obtained at a second time before the time;
Combining the first image data and the second image data to generate combined image data;
An image processing method comprising:
前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、
前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、
をコンピュータに実行させるための画像処理プログラム。 Inputting RAW image data obtained by imaging a subject;
The RAW image data is continuously input, and first image data is obtained by performing first image processing on the first RAW image data obtained at least at the first time, and the first image data is obtained. Obtaining second image data by performing second image processing on the second RAW image data obtained at a second time before the time;
Combining the first image data and the second image data to generate combined image data;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009090141A JP2010245686A (en) | 2009-04-02 | 2009-04-02 | Imaging apparatus, method of processing image, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009090141A JP2010245686A (en) | 2009-04-02 | 2009-04-02 | Imaging apparatus, method of processing image, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010245686A true JP2010245686A (en) | 2010-10-28 |
Family
ID=43098251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009090141A Pending JP2010245686A (en) | 2009-04-02 | 2009-04-02 | Imaging apparatus, method of processing image, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010245686A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013026939A (en) * | 2011-07-23 | 2013-02-04 | Canon Inc | Image processing device, image processing method, and program |
JP2013150069A (en) * | 2012-01-17 | 2013-08-01 | Olympus Imaging Corp | Imaging device, image processing method and program |
-
2009
- 2009-04-02 JP JP2009090141A patent/JP2010245686A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013026939A (en) * | 2011-07-23 | 2013-02-04 | Canon Inc | Image processing device, image processing method, and program |
JP2013150069A (en) * | 2012-01-17 | 2013-08-01 | Olympus Imaging Corp | Imaging device, image processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5439197B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5371501B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4727457B2 (en) | Imaging device | |
US8872936B2 (en) | Image processing device, white balance correction method, and imaging device | |
JP5126344B2 (en) | Imaging apparatus, imaging method, and program | |
JP5642344B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5002931B2 (en) | Imaging apparatus and program thereof | |
JP2009159056A (en) | Image capturing apparatus | |
KR20110052507A (en) | Image capture apparatus and image capturing method | |
JP6304293B2 (en) | Image processing apparatus, image processing method, and program | |
CN102547057A (en) | Image processing apparatus and image processing method | |
JP5185085B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010283504A (en) | Imaging device, imaging method, and imaging program | |
JP5530304B2 (en) | Imaging apparatus and captured image display method | |
JP2010245686A (en) | Imaging apparatus, method of processing image, and image processing program | |
JP2018074523A (en) | Imaging device, control method thereof, program, and recording medium | |
JP2011160183A (en) | Imaging device and method | |
JP5191941B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and image processing program | |
JP5094686B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US9554108B2 (en) | Image processing device and storage medium storing image processing program | |
JP5653665B2 (en) | Image processing apparatus, photographing apparatus, image processing method, and image processing program | |
JP2003087647A (en) | Digital still camera | |
JP2009219028A (en) | Image recording method and imaging unit | |
JP4133878B2 (en) | Digital camera and image signal generation method | |
JP2010239267A (en) | Imaging apparatus, method for controlling peripheral darkening correction, and program |