JP2007124387A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2007124387A
JP2007124387A JP2005315197A JP2005315197A JP2007124387A JP 2007124387 A JP2007124387 A JP 2007124387A JP 2005315197 A JP2005315197 A JP 2005315197A JP 2005315197 A JP2005315197 A JP 2005315197A JP 2007124387 A JP2007124387 A JP 2007124387A
Authority
JP
Japan
Prior art keywords
image
image processing
images
brightness
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005315197A
Other languages
Japanese (ja)
Inventor
Maki Suzuki
真樹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005315197A priority Critical patent/JP2007124387A/en
Publication of JP2007124387A publication Critical patent/JP2007124387A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device and an image processing program capable of identifying a process procedure of image data without analyzing format and content of procedure data. <P>SOLUTION: Selecting means 28 is designed to select an image group which is imaged continuously using date and time data indicating imaged date and time from a plurality of images acquired by imaging a subject image. Processing means 28 is designed to perform any one of an average process for averaging image data configuring each image and an adding process for adding image data configuring each image in response to brightness of each image configuring the image group. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像された複数の画像に画像処理を行う画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program that perform image processing on a plurality of captured images.

従来、デジタルカメラの撮像モードには、例えば、CCD(Charge Coupled Device)等の撮像素子により、手振れ等が生じない程度の短い露光時間で被写体像を連続して撮像する手振れ抑制モードや、被写体像が暗いときに撮像素子の撮像感度を上げて、被写体像を連続して撮像するノイズ低減モードがある。
手振れ抑制モードでは、撮像された複数の画像データを加算することで、適正な露光の合成画像が生成される(加算処理)。ノイズ低減モードでは、撮像された複数の画像データに含まれるノイズ成分を低減するために、複数の画像データを平均して合成画像が生成される(平均処理)。
Conventionally, an imaging mode of a digital camera includes, for example, a camera shake suppression mode in which a subject image is continuously captured with a short exposure time that does not cause camera shake or the like by an imaging element such as a CCD (Charge Coupled Device), or a subject image. There is a noise reduction mode in which the imaging sensitivity of the image sensor is increased and the subject image is continuously captured when the image is dark.
In the camera shake suppression mode, a composite image with proper exposure is generated by adding a plurality of captured image data (addition process). In the noise reduction mode, a composite image is generated by averaging a plurality of image data in order to reduce noise components included in the plurality of captured image data (average processing).

ところで、上述した加算処理や平均処理が、例えばパーソナルコンピュータで実行される際には、デジタルカメラからパーソナルコンピュータに大量の画像データが転送される場合がある。この場合、パーソナルコンピュータが、大量の画像データのそれぞれに適した画像処理(加算処理や平均処理)の手順を把握することは困難である。
これを回避する手法として、画像データ毎に画像処理の手順を示す手順データを画像データに付加して画像ファイルを作成し、作成した画像ファイルをデジタルカメラからパーソナルコンピュータに転送する手法が開示されている(例えば、特許文献1)。この手法では、転送先のパーソナルコンピュータにインストールされた専用のソフトウェアによって手順データが解析され、画像データ毎に画像処理の手順が識別される。この結果、各画像データに適した画像処理が行われ、上述の合成画像が生成される。
特開2002−112008号公報
By the way, when the above-described addition processing and average processing are executed by, for example, a personal computer, a large amount of image data may be transferred from the digital camera to the personal computer. In this case, it is difficult for the personal computer to grasp the procedure of image processing (addition processing and average processing) suitable for each of a large amount of image data.
As a technique for avoiding this, a technique is disclosed in which image data is created by adding procedure data indicating the procedure of image processing to each image data, and the created image file is transferred from a digital camera to a personal computer. (For example, Patent Document 1). In this method, procedure data is analyzed by dedicated software installed in a personal computer as a transfer destination, and an image processing procedure is identified for each image data. As a result, image processing suitable for each image data is performed, and the above-described composite image is generated.
Japanese Patent Laid-Open No. 2002-112008

しかしながら、特許文献1の手法では、手順データの形式や内容を解析するための特別な処理が専用のソフトウェアのみで可能である。したがって、専用のソフトウェア以外の他のソフトウェアでは、手順データの形式や内容を解析できず、画像データ毎に画像処理の手順を識別できない。このため、合成画像を生成できないという問題があった。
本発明の目的は、手順データの形式や内容を解析することなく、合成画像を生成可能な画像処理装置及び画像処理プログラムを提供することである。
However, with the method of Patent Document 1, special processing for analyzing the format and contents of procedure data is possible only with dedicated software. Therefore, software other than dedicated software cannot analyze the format and contents of the procedure data and cannot identify the image processing procedure for each image data. For this reason, there has been a problem that a composite image cannot be generated.
An object of the present invention is to provide an image processing apparatus and an image processing program capable of generating a composite image without analyzing the format and contents of procedure data.

請求項1の画像処理装置では、選択手段は、被写体像を撮像することにより得られた複数の画像から、撮像日時を示す日時データを用いて、連続して撮像された画像群を選択する。処理手段は、画像群を構成する各画像の明るさに応じて、各画像を構成する画像データを平均する平均処理及び、各画像を構成する画像データを加算する加算処理のいずれかを行う。   In the image processing apparatus according to the first aspect, the selection unit selects a group of images that are continuously captured from a plurality of images obtained by capturing the subject image using date / time data indicating the date / time of imaging. The processing means performs any one of an averaging process for averaging the image data constituting each image and an addition process for adding the image data constituting each image according to the brightness of each image constituting the image group.

請求項2の画像処理装置及び請求項8の画像処理プログラムでは、処理手段は、画像群を構成する全ての画像の明るさが基準値を超えるとき、平均処理を行い、全ての画像の明るさが基準値以下であるとき、加算処理を行う。
請求項3の画像処理装置及び請求項9の画像処理プログラムでは、処理手段は、基準値が予め決められた上限値以下で、かつ、予め決められた下限値以上である場合、全ての画像の明るさが上限値以下で、かつ、基準値を超えるときに平均処理を行い、全ての画像の明るさが基準値以下で、かつ、下限値以上であるときに加算処理を行う。
In the image processing apparatus according to claim 2 and the image processing program according to claim 8, the processing means performs an average process when the brightness of all the images constituting the image group exceeds a reference value, and the brightness of all the images. When is below the reference value, addition processing is performed.
In the image processing device according to claim 3 and the image processing program according to claim 9, the processing means, when the reference value is less than or equal to a predetermined upper limit and greater than or equal to a predetermined lower limit, An average process is performed when the brightness is less than or equal to the upper limit value and exceeds the reference value, and an addition process is performed when the brightness of all images is less than or equal to the reference value and greater than or equal to the lower limit value.

請求項4の画像処理装置及び請求項10の画像処理プログラムでは、処理手段は、画像群を構成する各画像の明るさの最大値と最小値の差分値が所定の閾値より小さいと判断されたときに、平均処理、及び加算処理のいずれかが行われることを許容する。
請求項5の画像処理装置及び請求項11の画像処理プログラムでは、処理手段は、全ての画像の撮像に用いた焦点が同じ場合のみ、平均処理及び加算処理のいずれかを行う。
In the image processing device according to claim 4 and the image processing program according to claim 10, the processing means determines that the difference value between the maximum value and the minimum value of the brightness of each image constituting the image group is smaller than a predetermined threshold value. Sometimes, either the averaging process or the addition process is allowed to be performed.
In the image processing apparatus according to the fifth aspect and the image processing program according to the eleventh aspect, the processing means performs either the averaging process or the addition process only when the focus used for capturing all the images is the same.

請求項6の画像処理装置では、画面は、画像群を表示する。表示制御手段は、画面に、平均処理に用いられる画像群と加算処理に用いられる画像群とを区別して表示する。
請求項7の画像処理プログラムでは、コンピュータを、被写体像を撮像することにより得られた複数の画像から、撮像日時を示す日時データを用いて、連続して撮像された画像群を選択し、画像群を構成する各画像の明るさに応じて、各画像を構成する画像データを平均する平均処理及び、各画像を構成する画像データを加算する加算処理のいずれかを行う処理手段として機能させる。
In the image processing apparatus of the sixth aspect, the screen displays an image group. The display control means distinguishes and displays the image group used for the averaging process and the image group used for the addition process on the screen.
In the image processing program according to claim 7, the computer selects a group of continuously captured images from the plurality of images obtained by capturing the subject image, using date / time data indicating the date / time of imaging, and According to the brightness of each image constituting the group, it is made to function as a processing means for performing either an averaging process for averaging the image data constituting each image or an addition process for adding the image data constituting each image.

請求項12の画像処理プログラムでは、コンピュータを、画像群を表示する画面に、平均処理に用いられる画像群と加算処理に用いられる画像群とを区別して表示する表示制御手段として更に機能させる。   In an image processing program according to a twelfth aspect of the invention, the computer is further caused to function as display control means for distinguishing and displaying the image group used for the averaging process and the image group used for the addition process on the screen displaying the image group.

手順データの形式や内容を解析することなく、画像データの処理手順を識別でき、合成画像を生成できる。   Without analyzing the format and content of the procedure data, the processing procedure of the image data can be identified, and a composite image can be generated.

以下、本発明の実施形態を図面を用いて説明する。図1は本発明の画像処理装置及び画像処理プログラムの第1の実施形態を示している。パーソナルコンピュータ10(画像処理装置)は、画像を表示するディスプレイ12と、コマンドや数値等を入力するキーボード14及びマウス16と、制御装置18と、CD−ROM20と、カードリーダ22とを有している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a first embodiment of an image processing apparatus and an image processing program of the present invention. The personal computer 10 (image processing apparatus) includes a display 12 for displaying an image, a keyboard 14 and a mouse 16 for inputting commands and numerical values, a control device 18, a CD-ROM 20, and a card reader 22. Yes.

制御装置18は、パーソナルコンピュータ10内の各装置を制御するCPU24(処理手段及び選択手段)、ハードディスク26、メモリ28及びドライブ装置30を有している。CD−ROM20は、ドライブ装置30に着脱可能に装着される。CD−ROM20がドライブ装置30へ装着された後、キーボード14やマウス16を介して入力されるコマンドに応答して、CD−ROM20に保存されたプログラムがハードディスク26にダウンロードされる。   The control device 18 includes a CPU 24 (processing means and selection means) that controls each device in the personal computer 10, a hard disk 26, a memory 28, and a drive device 30. The CD-ROM 20 is detachably attached to the drive device 30. After the CD-ROM 20 is mounted on the drive device 30, the program stored in the CD-ROM 20 is downloaded to the hard disk 26 in response to a command input via the keyboard 14 or the mouse 16.

カードリーダ22は、USBコード等を用いて制御装置18に着脱可能に装着される。メモリカードMCは、フラッシュメモリ等で構成され、カードリーダ22に着脱可能に装着される。メモリカードMCには、デジタルカメラ32の撮像動作により得られた画像データや、図2で述べる画像データに関連した付帯データが保存される。
図2は、デジタルカメラ32の内部構成を示している。デジタルカメラ32は、レンズ系34、絞り36、シャッタ38、CCD40、A/D変換回路42、CPU44及び、メモリーカードMCが着脱可能に装着されるスロット46を有している。
The card reader 22 is detachably attached to the control device 18 using a USB code or the like. The memory card MC is composed of a flash memory or the like, and is detachably attached to the card reader 22. The memory card MC stores image data obtained by the imaging operation of the digital camera 32 and incidental data related to the image data described in FIG.
FIG. 2 shows the internal configuration of the digital camera 32. The digital camera 32 has a lens system 34, an aperture 36, a shutter 38, a CCD 40, an A / D conversion circuit 42, a CPU 44, and a slot 46 in which a memory card MC is detachably mounted.

レンズ系34は、被写体に焦点を合わせるフォーカスレンズ及び被写体を光学的に拡大して撮影するためのズームレンズ等を含む複数枚のレンズにより構成される。フォーカスレンズ及びズームレンズは、図示しないレンズ駆動用ドライバにより光軸方向の位置が調節される。絞り36は、レンズ系34とシャッタ38の間に配置される。絞り36は、図示しない絞りドライバによって駆動される。絞り36の絞り値は、レンズ系34を通過した光の光量を絞るように調節される。   The lens system 34 includes a plurality of lenses including a focus lens that focuses on the subject and a zoom lens that optically enlarges and shoots the subject. The position of the focus lens and zoom lens in the optical axis direction is adjusted by a lens driving driver (not shown). The diaphragm 36 is disposed between the lens system 34 and the shutter 38. The diaphragm 36 is driven by a diaphragm driver (not shown). The aperture value of the aperture 36 is adjusted to reduce the amount of light that has passed through the lens system 34.

シャッタ38は、レンズ系34からCCD40への光路を遮る位置に配置されるシャッタ膜(図示せず)を有している。シャッタ38は、図示しないシャッタドライバによって駆動され、レンズ系34を通過した光によってCCD40が露光される露光時間を調節する。シャッタ膜は、レンズ系34からCCD40への光路を確保するために開く。
CCD40は、シャッタ38を介してレンズ系34に対向する位置に配置されている。CCD40は、図示しないCCDドライバにより駆動され、レンズ系34より結像される被写体像を連続して撮像することが可能である。CCD40による被写体像の連写は、後述するモード(1)〜(4)のいずれか(以下、連写撮影モード)で行われる。
The shutter 38 has a shutter film (not shown) disposed at a position that blocks the optical path from the lens system 34 to the CCD 40. The shutter 38 is driven by a shutter driver (not shown) and adjusts the exposure time during which the CCD 40 is exposed by the light that has passed through the lens system 34. The shutter film is opened to secure an optical path from the lens system 34 to the CCD 40.
The CCD 40 is disposed at a position facing the lens system 34 via the shutter 38. The CCD 40 is driven by a CCD driver (not shown) and can continuously capture subject images formed by the lens system 34. The continuous shooting of the subject image by the CCD 40 is performed in any one of modes (1) to (4) described below (hereinafter referred to as a continuous shooting mode).

(1)手振れ抑制モードでは、手振れが生じない程度の短い露光時間(例えば、10ミリ秒)で被写体像が連続して撮像される。
(2)ノイズ低減モードでは、被写体像が暗いときにCCD40の撮像感度を上げて、被写体像が連続して撮像される。
(3)ブラケット撮影モードでは、露出条件の異なる複数の画像を得るために、絞り値を変化させて被写体像が連続して撮像される。
(1) In the camera shake suppression mode, subject images are continuously captured with a short exposure time (eg, 10 milliseconds) that does not cause camera shake.
(2) In the noise reduction mode, when the subject image is dark, the imaging sensitivity of the CCD 40 is increased and the subject image is continuously captured.
(3) In the bracket shooting mode, in order to obtain a plurality of images with different exposure conditions, the subject image is continuously captured while changing the aperture value.

(4)ボケ付加モードでは、前景と後景にそれぞれ焦点を合わせて、被写体像が連続して撮像される。
A/D変換回路42は、CPU44の制御によりCCD40により撮像された画像をA/D変換し、画像データを生成する。CPU44は、デジタルカメラ32内の各装置の動作を制御する。CPU44は、スロット46を介してメモリーカードMCに、CCD40により得られた被写体像の画像データと、画像データに付帯する付帯データとを保存する。
(4) In the blur addition mode, subject images are continuously captured with the foreground and the background in focus.
The A / D conversion circuit 42 performs A / D conversion on an image captured by the CCD 40 under the control of the CPU 44 to generate image data. The CPU 44 controls the operation of each device in the digital camera 32. The CPU 44 stores the image data of the subject image obtained by the CCD 40 and the accompanying data attached to the image data in the memory card MC via the slot 46.

画像データ及び付帯データは、例えば、Exif(Exchangeable Image File Format)に準拠した画像ファイルにまとめて保存される。付帯データには、画像ファイルが作成された日時(撮影が行われた日時)を示す日時データ、被写体像の撮像に用いた撮像条件(露光時間、絞り値及び、被写体に焦点が合うフォーカスレンズの合焦位置等)、及びカメラの各メーカーで独自に定義可能な画像データの処理手順を示す手順データ等が含まれる。   For example, the image data and the incidental data are collectively stored in an image file conforming to Exif (Exchangeable Image File Format). The accompanying data includes date and time data indicating the date and time when the image file was created (date and time when the image was taken), imaging conditions (exposure time, aperture value, and focus lens that focuses on the subject) used to capture the subject image. In-focus position, etc.), and procedure data indicating the processing procedure of image data that can be uniquely defined by each camera manufacturer.

図3は、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作を示している。図3に示す動作は、CPU24(選択手段及び処理手段)がハードディスク30に格納されたプログラム(画像処理プログラム)を実行することによって実現される。
まず、ステップS100において、CPU24は、カードリーダ22を介してメモリーカードMCに保存された画像データ及び付帯データを順次読み出して、メモリ28に書き込む。この後、処理はステップS102に移行する。
FIG. 3 shows an image processing operation in the first embodiment of the image processing apparatus and the image processing program. The operation shown in FIG. 3 is realized by the CPU 24 (selecting means and processing means) executing a program (image processing program) stored in the hard disk 30.
First, in step S <b> 100, the CPU 24 sequentially reads out image data and incidental data stored in the memory card MC via the card reader 22 and writes them in the memory 28. Thereafter, the process proceeds to step S102.

ステップS102において、CPU24は、上述のExifに準拠した画像データから、日時データが所定の値以下の時間間隔(例えば、1秒)で連なる画像データ群(以下、処理画像データ群)を選択する。なお、この所定の値以下の時間間隔は、通常の撮影モードでデジタルカメラ32の起動や構図の決定等に要する時間(例えば、十数秒〜数分間)に比べて十分短い。このため、付帯データに標準的に含まれる日時データのみを用いて、処理画像データ群を上述の連写撮影モードで撮像された画像データ群として推定できる。この後、処理はステップS104に移行する。   In step S <b> 102, the CPU 24 selects an image data group (hereinafter, processed image data group) in which the date / time data continues at a time interval (for example, 1 second) equal to or less than a predetermined value from the image data compliant with the above-described Exif. Note that the time interval equal to or less than the predetermined value is sufficiently shorter than the time required for starting the digital camera 32 and determining the composition in the normal shooting mode (for example, ten to several minutes). For this reason, it is possible to estimate the processed image data group as the image data group captured in the above-described continuous shooting mode using only the date / time data that is normally included in the accompanying data. Thereafter, the process proceeds to step S104.

ステップS104において、CPU24は、処理画像データ群を構成する処理画像毎に、処理画像データの画素値を積分することによって、処理画像データで表される画像(以下、処理画像)の画面内の明るさを求める。画素値の積分は、例えば、処理画像中の画面領域、または、一部の領域、あるいは、画面中の離散する画素の画素値の積分値を求める。この後、処理はステップS106に移行する。   In step S104, the CPU 24 integrates the pixel values of the processed image data for each processed image constituting the processed image data group, thereby brightening the image represented by the processed image data (hereinafter, processed image) within the screen. I ask for it. For the integration of pixel values, for example, an integration value of pixel values of discrete pixels in a screen area, a partial area, or a screen in a processed image is obtained. Thereafter, the process proceeds to step S106.

ステップS106において、CPU24は、全ての処理画像の明るさが予め決められた基準値を超えるか否かを検出する。基準値を超えるとき、処理はステップS108に移行する。一方、全ての処理画像の明るさが基準値を超えないとき、処理はステップS110に移行する。
ステップS108において、CPU24は、処理画像データ群を上述のノイズ低減モードで撮像された画像データ群として識別し、処理画像間で算出された動きベクトルをもとに、各処理画像の位置を重ね合わせると共に、処理画像データに画素毎に係数(例えば、「1」以下)を乗算し、全ての処理画像データを加算平均する処理(以下、平均処理)を行うことによって合成画像データを生成する。この平均処理により、複数の処理画像に含まれるノイズ成分が低減される。このように、付帯データに含まれる手順データを用いることなく、処理画像データに平均処理を行うことができる。そして、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作が終了する。
In step S106, the CPU 24 detects whether or not the brightness of all processed images exceeds a predetermined reference value. When the reference value is exceeded, the process proceeds to step S108. On the other hand, when the brightness of all processed images does not exceed the reference value, the process proceeds to step S110.
In step S108, the CPU 24 identifies the processed image data group as an image data group captured in the above-described noise reduction mode, and superimposes the positions of the processed images based on the motion vectors calculated between the processed images. At the same time, the processed image data is multiplied by a coefficient (for example, “1” or less) for each pixel, and a process of adding and averaging all the processed image data (hereinafter referred to as an average process) is performed to generate composite image data. By this averaging process, noise components included in the plurality of processed images are reduced. In this way, the average processing can be performed on the processed image data without using the procedure data included in the accompanying data. Then, the image processing operation in the first embodiment of the image processing apparatus and the image processing program ends.

ステップS110において、CPU24は、全ての処理画像の明るさが基準値以下であるか否かを検出する。基準値以下であるとき、処理はステップS112に移行する。一方、全ての処理画像の明るさが基準値以下でないとき、処理はステップS114に移行する。
ステップS112において、CPU24は、処理画像データ群を上述の手振れ抑制モードで撮像された画像データ群として識別する。この識別により、CPU24は、日時データの順番で連なる処理画像間で、動きベクトルを用いて処理画像の位置を重ね合わせると共に、処理画像データに画素毎に係数(例えば、「1」)を乗算し、全ての処理画像データを加算する処理(以下、加算処理)を行うことによって合成画像データを生成する。この加算処理により、適正な露光の合成画像が生成される。このように、付帯データに含まれる手順データを用いることなく、処理画像データに加算処理を行うことができる。そして、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作が終了する。
In step S110, the CPU 24 detects whether or not the brightness of all processed images is equal to or less than a reference value. When it is below the reference value, the process proceeds to step S112. On the other hand, when the brightness of all processed images is not less than the reference value, the process proceeds to step S114.
In step S112, the CPU 24 identifies the processed image data group as an image data group captured in the above-described camera shake suppression mode. With this identification, the CPU 24 superimposes the positions of the processed images using the motion vectors between the processed images that are arranged in the order of the date and time data, and multiplies the processed image data by a coefficient (for example, “1”) for each pixel. Then, composite image data is generated by performing a process of adding all the processed image data (hereinafter referred to as an addition process). By this addition processing, a composite image with proper exposure is generated. In this manner, the addition process can be performed on the processed image data without using the procedure data included in the accompanying data. Then, the image processing operation in the first embodiment of the image processing apparatus and the image processing program ends.

ステップS114において、CPU24は、処理画像データ群を上述のブラケット撮影モードで撮像された画像データ群として識別し、ディスプレイ12を駆動して処理画像群を表示する処理(以下、ブラケット処理)を行う。このブラケット処理により、ユーザは処理画像群から好みの画像を探すことができる。
このように、CPU24は、全ての処理画像の明るさを基準値と比較するだけで処理画像データの各処理手順(平均処理、加算処理及びブラケット処理)を識別できる。このため、処理画像に施す処理の識別手順を簡素化できる。そして、画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作が終了する。
In step S <b> 114, the CPU 24 identifies the processed image data group as an image data group captured in the bracket shooting mode described above, and performs a process of driving the display 12 and displaying the processed image group (hereinafter, a bracket process). By this bracket processing, the user can search for a favorite image from the processed image group.
In this way, the CPU 24 can identify each processing procedure (average processing, addition processing, and bracket processing) of the processed image data simply by comparing the brightness of all processed images with the reference value. For this reason, the identification procedure of the process performed on the processed image can be simplified. Then, the image processing operation in the first embodiment of the image processing apparatus and the image processing program ends.

なお、上記第1の実施形態において、基準値より大きい上限値と、基準値より小さい下限値とを予め設定し、全ての処理画像の明るさが、設定された上限値と下限値との間の大きさであるときに、ステップS106〜ステップS114の処理を行うように構成してもよい。
この場合、全ての処理画像の明るさが、上限値と下限値の間にあるか否かの判定ステップは、ステップS104とステップS106の間に実行される。この判定ステップにおいて、全ての処理画像の明るさが、上限値と下限値の間にあると判定された場合には、ステップS106以降の処理が実行される。
In the first embodiment, an upper limit value larger than the reference value and a lower limit value smaller than the reference value are set in advance, and the brightness of all processed images is between the set upper limit value and lower limit value. It may be configured to perform the processing of step S106 to step S114 when the size is.
In this case, the step of determining whether or not the brightness of all processed images is between the upper limit value and the lower limit value is executed between step S104 and step S106. In this determination step, when it is determined that the brightness of all processed images is between the upper limit value and the lower limit value, the processes after step S106 are executed.

一方、この判定ステップで、全ての処理画像の明るさが、上限値と下限値の間にあると判定されない場合には、階調補正処理が行われる。階調補正処理は、同一の被写体を明るく撮影した画像と暗く撮影した画像とを加算して、ダイナミックレンジの大きい画像を得ようとする補正処理である。
上記の上限値と下限値は、階調補正処理を行う2フレームの画像(明るい画像と暗い画像)の明るさによって決定される。すなわち、上限値は、階調補正時の明るい画像の明るさより小さく、かつその他の撮影モードで得られる画像の明るさより大きい値となるように、また、下限値は、階調補正時の暗い画像の明るさより大きく、かつその他の撮影モードで得られる画像の明るさより小さい値となるように設定する。
On the other hand, if it is not determined in this determination step that the brightness of all processed images is between the upper limit value and the lower limit value, gradation correction processing is performed. The gradation correction process is a correction process for adding an image obtained by photographing a same subject brightly and an image photographed darkly to obtain an image having a large dynamic range.
The above upper limit value and lower limit value are determined by the brightness of two-frame images (bright and dark images) on which gradation correction processing is performed. That is, the upper limit value is smaller than the brightness of the bright image at the time of gradation correction and larger than the brightness of the image obtained in other shooting modes, and the lower limit value is a dark image at the time of gradation correction. The brightness is set to be larger than the brightness of the image and smaller than the brightness of the image obtained in the other shooting modes.

また、一連の画像群の中の各画像間で明るさの最大値と最小値とを求め、この差分値を閾値と比較して、階調補正処理を行う画像群を識別する構成としてもよい。すなわち、差分値が閾値より大きい場合には、階調補正を行う画像群と判断し、差分値が閾値以下の場合には、ステップS106以降の処理が実行される。但し、この閾値は、ブラケット撮影において得られる画像群の中の各画像間での明るさの最大値と最小値の差分値より大きく設定されるものとする。このような差分値と閾値との判定ステップも、ステップS104とステップS106との間に実行される。このような構成とすることにより、階調補正処理を行う画像群を、画像の明るさから識別することができる。   Further, the maximum brightness value and the minimum brightness value may be obtained between each image in the series of image groups, and the difference value may be compared with a threshold value to identify the image group to be subjected to the gradation correction process. . That is, when the difference value is larger than the threshold value, it is determined that the image group is to be subjected to gradation correction. When the difference value is equal to or less than the threshold value, the processes after step S106 are executed. However, this threshold value is set to be larger than the difference value between the maximum value and the minimum value of the brightness between the images in the image group obtained in the bracket shooting. Such a determination step between the difference value and the threshold value is also executed between step S104 and step S106. With such a configuration, it is possible to identify an image group to be subjected to gradation correction processing from the brightness of the image.

以上、第1の実施形態では、画像ファイルの付帯データに日時データのみが含まれる場合であっても、画像データの処理手順を識別できる。したがって、手順データを解析するための処理を不要にできる。このため、メーカノートに処理手順が記憶されていない古い画像データについても処理手順を識別できる。この結果、広範な画像データに対して平均処理及び加算処理のいずれかを行うことができ、ユーザにとって使い勝手の良い画像処理装置を提供できる。   As described above, in the first embodiment, it is possible to identify the processing procedure of image data even when the incidental data of the image file includes only date / time data. Therefore, the process for analyzing the procedure data can be eliminated. For this reason, it is possible to identify the processing procedure even for old image data in which the processing procedure is not stored in the maker note. As a result, either the averaging process or the addition process can be performed on a wide range of image data, and an image processing apparatus that is convenient for the user can be provided.

図4は、画像処理装置及び画像処理プログラムの第2の実施形態における画像処理動作を示している。この実施形態では、CPU24が実行するためにハードディスク30に格納されているプログラムが、画像処理装置及び画像処理プログラムの第1の実施形態と相違する。図4は、第1の実施形態(図3)のステップS102が実行された後、ステップS200が実行され、ステップS202、S104のいずれかが実行される点を除いて、図3と同じである。   FIG. 4 shows an image processing operation in the second embodiment of the image processing apparatus and the image processing program. In this embodiment, the program stored in the hard disk 30 to be executed by the CPU 24 is different from the first embodiment of the image processing apparatus and the image processing program. FIG. 4 is the same as FIG. 3 except that step S200 is executed after step S102 of the first embodiment (FIG. 3) is executed, and one of steps S202 and S104 is executed. .

上述した図3と同じ処理については、詳細な説明を省略する。また、図4に示す動作は、CPU24(選択手段及び処理手段)がハードディスク30に格納されたプログラム(画像処理プログラム)を実行することによって実現される。
まず、ステップS100、S102が実行され、処理画像データ群が選択された後、ステップS300において、CPU24は、処理画像データ群を構成する全ての処理画像データにおいて、付帯データに含まれるフォーカスレンズの合焦位置が同じであるか否かを検出する。合焦位置が同じであることを検出すると、処理はステップS104〜S114が実行され、画像処理装置及び画像処理プログラムの第3の実施形態における画像処理動作が終了する。一方、全ての処理画像データにおいて、合焦位置が異なることを検出すると、処理はステップS302に移行する。
Detailed description of the same processing as in FIG. 3 described above will be omitted. 4 is realized by the CPU 24 (selecting means and processing means) executing a program (image processing program) stored in the hard disk 30.
First, after steps S100 and S102 are executed and a processed image data group is selected, in step S300, the CPU 24 determines whether the focus lens included in the auxiliary data is included in all the processed image data constituting the processed image data group. It is detected whether or not the focal position is the same. When it is detected that the in-focus position is the same, steps S104 to S114 are executed, and the image processing operation in the third embodiment of the image processing apparatus and the image processing program ends. On the other hand, if it is detected that all the processed image data have different in-focus positions, the process proceeds to step S302.

ステップS302において、CPU24は、処理画像データ群を上述のボケ付加モードで撮像された画像データ群として識別し、処理画像データ群を構成する複数の処理画像データを用いてボケを付加する処理(以下、ボケ付加処理)を行って合成画像データを生成する。このボケ付加処理により、近景に焦点を合わせた画像と遠景に焦点を合わせた画像からボケ状態の変更された合成画像を得ることができる。このように、CPU24は、付帯データに含まれる手順データを用いることなく、処理画像データの各処理手順(平均処理、加算処理、ブラケット処理及びボケ付加処理)を識別できる。そして、画像処理装置及び画像処理プログラムの第2の実施形態における画像処理動作が終了する。   In step S302, the CPU 24 identifies the processed image data group as an image data group captured in the above-described blur addition mode, and adds blur using a plurality of processed image data constituting the processed image data group (hereinafter, referred to as “processed image data group”). , Blur addition processing) to generate composite image data. By this blur addition processing, a composite image in which the blur state is changed can be obtained from the image focused on the near view and the image focused on the distant view. As described above, the CPU 24 can identify each processing procedure (average processing, addition processing, bracket processing, and blur addition processing) of the processed image data without using the procedure data included in the accompanying data. Then, the image processing operation in the second embodiment of the image processing apparatus and the image processing program ends.

以上、第2の実施形態では、第1の実施形態と同様な効果を得ることができる。更に、手順データを用いることなく、処理画像データの各処理手順(平均処理、加算処理、ブラケット処理及びボケ付加処理)を識別でき、各処理を行うことができる。
なお、上述した第1及び第2の実施形態では、CPU24が日時データを参照して処理画像データ群を選択する例について述べた。本発明はかかる実施形態に限定されるものではない。例えば、図5に示すように、CPU24(表示制御手段)は、メモリーカードMCに書き込まれた画像データ及び付帯データを用いて、平均処理に用いられる処理画像群PAと加算処理に用いられる処理画像群PBを一覧表示用の縮小画像としてディスプレイ12(画面)に表示する。
As described above, in the second embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, each processing procedure (average processing, addition processing, bracket processing, and blur addition processing) of the processed image data can be identified without using procedure data, and each processing can be performed.
In the first and second embodiments described above, the example in which the CPU 24 selects the processed image data group with reference to the date / time data has been described. The present invention is not limited to such an embodiment. For example, as shown in FIG. 5, the CPU 24 (display control means) uses the image data and the auxiliary data written in the memory card MC to process the image group PA used for the average process and the process image used for the addition process. The group PB is displayed on the display 12 (screen) as a reduced image for list display.

この表示により、ユーザは一連の処理画像群PA、PBを一目で把握できるため、処理画像群PA、PBに画像をそれぞれ追加するか、または、処理画像群PA、PBから画像をそれぞれ削除するか等を判断できる。また、日時データやファイル名等の誤った書き換えによって、平均処理及び加算処理の対象外となった画像を処理画像群PA、PBからそれぞれ排除できる。   This display allows the user to grasp the series of processed image groups PA and PB at a glance, so whether to add images to the processed image groups PA and PB or delete images from the processed image groups PA and PB, respectively. Etc. can be judged. In addition, images that are excluded from the averaging process and the addition process due to erroneous rewriting of date / time data and file names can be excluded from the processed image groups PA and PB, respectively.

図5のように、処理画像群PA、PB毎に異なる線種の枠線で囲い、あるいは、処理内容を示す文字列(「平均処理」、「加算処理」)を処理画像群PA、PBにそれぞれ対応付けて表示することで、ユーザは、自身の意図する合成画像を得るために適した処理及び処理対象を容易に判断できる。なお、図6に示すように、処理内容を示す文字列(「平均処理」、「加算処理」)を処理後の合成画像SPA、SPBにそれぞれ対応付けて表示するものでもよい。   As shown in FIG. 5, character strings (“average process” and “addition process”) indicating the processing contents are enclosed in the process image groups PA and PB, or surrounded by different line type frame lines. By displaying them in association with each other, the user can easily determine a process and a processing target suitable for obtaining a composite image intended by the user. As shown in FIG. 6, character strings (“average processing” and “addition processing”) indicating the processing contents may be displayed in association with the combined images SPA and SPB after processing.

上述した第1及び第2の実施形態では、処理手順を判断するために処理画像群の明るさを用いる例について述べた。本発明はかかる実施形態に限定されるものではない。CPU24は、付帯データに含まれる露出値(露光時間及び絞り値)を処理画像データ毎に予め決められた基準値と比較することによって、平均処理及び加算処理のいずれかを判断するものでもよい。   In the first and second embodiments described above, the example in which the brightness of the processed image group is used to determine the processing procedure has been described. The present invention is not limited to such an embodiment. The CPU 24 may determine either the averaging process or the addition process by comparing the exposure value (exposure time and aperture value) included in the incidental data with a reference value determined in advance for each processed image data.

以上、本発明について詳細に説明してきたが、上記の実施形態及びその変形例は発明の一例に過ぎず、本発明はこれに限定されるものではない。本発明を逸脱しない範囲で変形可能であることは明らかである。   As mentioned above, although this invention was demonstrated in detail, said embodiment and its modification are only examples of this invention, and this invention is not limited to this. Obviously, modifications can be made without departing from the scope of the present invention.

本発明は、撮像された複数の画像に画像処理を行う画像処理装置及び画像処理プログラムに適用される。   The present invention is applied to an image processing apparatus and an image processing program that perform image processing on a plurality of captured images.

本発明の画像処理装置及び画像処理プログラムの第1の実施形態を示すブロック図である。1 is a block diagram illustrating a first embodiment of an image processing apparatus and an image processing program of the present invention. デジタルカメラの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a digital camera. 画像処理装置及び画像処理プログラムの第1の実施形態における画像処理動作を示すフローチャートである。It is a flowchart which shows the image processing operation in 1st Embodiment of an image processing apparatus and an image processing program. 画像処理装置及び画像処理プログラムの第2の実施形態における画像処理動作を示すフローチャートである。It is a flowchart which shows the image processing operation in 2nd Embodiment of an image processing apparatus and an image processing program. ディスプレイに表示された縮小画像を示す説明図である。It is explanatory drawing which shows the reduced image displayed on the display. ディスプレイに表示された縮小画像を示す説明図である。It is explanatory drawing which shows the reduced image displayed on the display.

符号の説明Explanation of symbols

10…パーソナルコンピュータ、12…ディスプレイ、14…キーボード、16…マウス、18…制御装置、20…CD−ROM、22…カードリーダ、24、44…CPU、26…ハードディスク、28…メモリ、30…ドライブ装置、32…デジタルカメラ、34…レンズ系、36…絞り、38…シャッタ、40…CCD、42…A/D変換回路、46…スロット、MC…メモリーカード
DESCRIPTION OF SYMBOLS 10 ... Personal computer, 12 ... Display, 14 ... Keyboard, 16 ... Mouse, 18 ... Control device, 20 ... CD-ROM, 22 ... Card reader, 24, 44 ... CPU, 26 ... Hard disk, 28 ... Memory, 30 ... Drive Device 32 ... Digital camera 34 ... Lens system 36 ... Aperture 38 ... Shutter 40 ... CCD 42 ... A / D conversion circuit 46 ... Slot MC ... Memory card

Claims (12)

被写体像を撮像することにより得られた複数の画像から、撮像日時を示す日時データを用いて、連続して撮像された画像群を選択する選択手段と、
前記画像群を構成する各画像の明るさに応じて、前記各画像を構成する画像データを平均する平均処理及び、前記各画像を構成する画像データを加算する加算処理のいずれかを行う処理手段とを備えることを特徴とする画像処理装置。
A selection means for selecting a group of images captured continuously using date and time data indicating the imaging date and time from a plurality of images obtained by imaging a subject image;
Processing means for performing either an averaging process for averaging the image data constituting each image or an addition process for adding the image data constituting each image according to the brightness of each image constituting the image group An image processing apparatus comprising:
請求項1記載の画像処理装置において、
前記処理手段は、前記画像群を構成する全ての画像の明るさが基準値を超えるとき、前記平均処理を行い、前記全ての画像の明るさが基準値以下であるとき、前記加算処理を行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The processing means performs the averaging process when the brightness of all the images constituting the image group exceeds a reference value, and performs the addition process when the brightness of all the images is equal to or less than the reference value. An image processing apparatus.
請求項2記載の画像処理装置において、
前記処理手段は、
前記基準値が予め決められた上限値以下で、かつ、予め決められた下限値以上である場合、前記全ての画像の明るさが前記上限値以下で、かつ、前記基準値を超えるときに前記平均処理を行い、前記全ての画像の明るさが基準値以下で、かつ、前記下限値以上であるときに前記加算処理を行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 2.
The processing means includes
When the reference value is equal to or lower than a predetermined upper limit value and equal to or higher than a predetermined lower limit value, the brightness of all the images is equal to or lower than the upper limit value and exceeds the reference value. An image processing apparatus that performs an averaging process and performs the addition process when the brightness of all the images is equal to or lower than a reference value and equal to or higher than the lower limit value.
請求項2記載の画像処理装置において、
前記処理手段は、
前記画像群を構成する各画像の明るさの最大値と最小値の差分値が所定の閾値より小さいと判断されたときに、前記平均処理、及び前記加算処理のいずれかが行われることを許容することを特徴とする画像処理装置。
The image processing apparatus according to claim 2.
The processing means includes
Allowing either the averaging process or the adding process to be performed when it is determined that the difference between the maximum value and the minimum value of the brightness of each image constituting the image group is smaller than a predetermined threshold value An image processing apparatus.
請求項2記載の画像処理装置において、
前記処理手段は、前記全ての画像の撮像に用いた焦点が同じ場合のみ、前記平均処理及び前記加算処理のいずれかを行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 2.
The image processing apparatus characterized in that the processing means performs either the averaging process or the adding process only when the focus used for capturing all the images is the same.
請求項1記載の画像処理装置において、
前記画像群を表示する画面と、
前記画面に、前記平均処理に用いられる画像群と前記加算処理に用いられる画像群とを区別して表示する表示制御手段とを備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
A screen for displaying the image group;
An image processing apparatus comprising: a display control unit configured to distinguish and display an image group used for the averaging process and an image group used for the addition process on the screen.
コンピュータを、
被写体像を撮像することにより得られた複数の画像から、撮像日時を示す日時データを用いて、連続して撮像された画像群を選択し、前記画像群を構成する各画像の明るさに応じて、前記各画像を構成する画像データを平均する平均処理及び、前記各画像を構成する画像データを加算する加算処理のいずれかを行う処理手段として機能させるための画像処理プログラム。
Computer
From a plurality of images obtained by capturing a subject image, a group of images captured continuously is selected using date / time data indicating the imaging date and time, and the brightness of each image constituting the image group is selected. An image processing program for functioning as a processing means for performing either an averaging process for averaging image data constituting each image or an addition process for adding image data constituting each image.
請求項7記載の画像処理プログラムにおいて、
前記処理手段は、前記画像群を構成する全ての画像の明るさが基準値を超えるとき、前記平均処理を行い、前記全ての画像の明るさが基準値以下であるとき、前記加算処理を行うことを特徴とする画像処理プログラム。
The image processing program according to claim 7,
The processing means performs the averaging process when the brightness of all the images constituting the image group exceeds a reference value, and performs the addition process when the brightness of all the images is equal to or less than the reference value. An image processing program characterized by that.
請求項8記載の画像処理プログラムにおいて、
前記処理手段は、
前記基準値が予め決められた上限値以下で、かつ、予め決められた下限値以上である場合、前記全ての画像の明るさが前記上限値以下で、かつ、前記基準値を超えるときに前記平均処理を行い、前記全ての画像の明るさが基準値以下で、かつ、前記下限値以上であるときに前記加算処理を行うことを特徴とする画像処理プログラム。
The image processing program according to claim 8.
The processing means includes
When the reference value is equal to or lower than a predetermined upper limit value and equal to or higher than a predetermined lower limit value, the brightness of all the images is equal to or lower than the upper limit value and exceeds the reference value. An image processing program that performs an averaging process and performs the addition process when the brightness of all the images is equal to or lower than a reference value and equal to or higher than the lower limit value.
請求項8記載の画像処理プログラムにおいて、
前記処理手段は、
前記画像群を構成する各画像の明るさの最大値と最小値の差分値が所定の閾値より小さいと判断されたときに、前記平均処理、及び前記加算処理のいずれかが行われることを許容することを特徴とする画像処理プログラム。
The image processing program according to claim 8.
The processing means includes
Allowing either the averaging process or the adding process to be performed when it is determined that the difference between the maximum value and the minimum value of the brightness of each image constituting the image group is smaller than a predetermined threshold value An image processing program.
請求項8記載の画像処理プログラムにおいて、
前記処理手段は、前記全ての画像の撮像に用いた焦点が同じ場合のみ、前記平均処理及び前記加算処理のいずれかを行うことを特徴とする画像処理プログラム。
The image processing program according to claim 8.
The image processing program characterized in that the processing means performs either the averaging process or the adding process only when the focus used for capturing all the images is the same.
請求項7記載の画像処理プログラムにおいて、
前記コンピュータを、
前記画像群を表示する画面に、前記平均処理に用いられる画像群と前記加算処理に用いられる画像群とを区別して表示する表示制御手段として更に機能させるための画像処理プログラム。
The image processing program according to claim 7,
The computer,
An image processing program for further functioning as display control means for distinguishing and displaying an image group used for the averaging process and an image group used for the addition process on a screen for displaying the image group.
JP2005315197A 2005-10-28 2005-10-28 Image processing device and image processing program Withdrawn JP2007124387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005315197A JP2007124387A (en) 2005-10-28 2005-10-28 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005315197A JP2007124387A (en) 2005-10-28 2005-10-28 Image processing device and image processing program

Publications (1)

Publication Number Publication Date
JP2007124387A true JP2007124387A (en) 2007-05-17

Family

ID=38147723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005315197A Withdrawn JP2007124387A (en) 2005-10-28 2005-10-28 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP2007124387A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040952A (en) * 2009-08-10 2011-02-24 Canon Inc Image processor, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040952A (en) * 2009-08-10 2011-02-24 Canon Inc Image processor, image processing method, and program

Similar Documents

Publication Publication Date Title
US8629915B2 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
US7877004B2 (en) Imaging apparatus and imaging method
JP4582423B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
EP1521455B1 (en) Image pickup apparatus and image pickup method
JP6157242B2 (en) Image processing apparatus and image processing method
JP2007306416A (en) Method for displaying face detection frame, method for displaying character information, and imaging apparatus
JP5115210B2 (en) Imaging device
CN104243804B (en) Picture pick-up device, image processing equipment and its control method
JP6389342B2 (en) Imaging apparatus and control method thereof
JP5217451B2 (en) Imaging device
JP2007258925A (en) Imaging apparatus, and method of acquiring image
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2010154306A (en) Device, program and method for imaging control
JP5014253B2 (en) Imaging apparatus and control method thereof
JP2007311962A (en) Electronic camera and image display program
JP2008054031A (en) Digital camera and display control method
JP2007258923A (en) Image processing apparatus, image processing method, image processing program
JP2013074301A (en) Image processing apparatus, image processing method, and program
US20110292249A1 (en) Electronic camera
JP2007124387A (en) Image processing device and image processing program
JP2010074415A (en) Imaging apparatus, image display method and image display program
KR101630295B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP4872801B2 (en) Imaging apparatus, imaging method, and imaging program
JP5088380B2 (en) Imaging device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090106