JP2002112007A - Image processing system, image pick-up device, image processing method, and recording medium recording image processing method therein - Google Patents

Image processing system, image pick-up device, image processing method, and recording medium recording image processing method therein

Info

Publication number
JP2002112007A
JP2002112007A JP2000301293A JP2000301293A JP2002112007A JP 2002112007 A JP2002112007 A JP 2002112007A JP 2000301293 A JP2000301293 A JP 2000301293A JP 2000301293 A JP2000301293 A JP 2000301293A JP 2002112007 A JP2002112007 A JP 2002112007A
Authority
JP
Japan
Prior art keywords
image
processing
color component
color
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000301293A
Other languages
Japanese (ja)
Other versions
JP3444281B2 (en
Inventor
Katsuhito Shinkawa
勝仁 新川
Hiroaki Kubo
広明 久保
Noriyuki Nobuyuki
宣之 沖須
Shinichi Fujii
真一 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000301293A priority Critical patent/JP3444281B2/en
Publication of JP2002112007A publication Critical patent/JP2002112007A/en
Application granted granted Critical
Publication of JP3444281B2 publication Critical patent/JP3444281B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable an image processing time to be shortened as much as possible when two picked-up images which are continuously imaged are synthesized into an image high in both quality and effectiveness. SOLUTION: For instance, in image processing of synthesizing an overexposed picked-up image and an underexposed picked-up image into a properly exposed image as a whole, an R and a B color component both having a smaller effect on resolution due to a human being's visual characteristics than a G color component undergo a simpler image processing than the G color component, so that processing time can be shortened. For instance, alignment processing for an R and a B color component image is carried out taking advantage of a misalignment volume calculated for a G color component (#251 to #255). Data are interpolated at the positions of all picture elements for a G color component, then image processing is carried out (#247, #257), and image processing is carried out without interpolating data for an R and a B color component (#259 to #263, #267 to #271).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、同一の被写体に対
して連続して撮影された複数枚の撮影画像を用いて、こ
れらの撮影画像を所定の画像処理を行なった後、合成す
ることで、画質を改善したり、映像効果を高めた画像を
得ることのできる画像処理システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of combining a plurality of photographed images continuously photographed for the same subject, performing these image processings, and then synthesizing the images. The present invention relates to an image processing system capable of improving image quality and obtaining an image with an enhanced video effect.

【0002】[0002]

【従来の技術】従来、内容が同一で画質の異なる複数の
画像を用いて元の画像より画質や映像効果を高めた画像
を合成する技術が提案されている。
2. Description of the Related Art Conventionally, there has been proposed a technique for synthesizing an image having a higher image quality and video effect than an original image by using a plurality of images having the same contents and different image qualities.

【0003】例えば撮像素子を微小変位させて連続して
2回の撮影を行い、両撮影画像を合成することで解像度
の高い撮影画像を得ることができるデジタルスチルカメ
ラが商品化されている(ビクター社製デジタルスチルカ
メラのGC−X1“PIXSTER”)。このデジタル
スチルカメラは、被写体の明るい部分と暗い部分とに合
わせて2種類の露出制御値を設定し、それらの露出制御
値で連続して2回の撮影を行い、両撮影画像を合成する
ことで暗い部分から明るい部分まで適切な濃度の撮影画
像を得ることができる機能も備えている。
[0003] For example, a digital still camera has been commercialized which is capable of obtaining a high-resolution photographed image by performing two consecutive photographing operations by minutely displacing an image pickup device and synthesizing both photographed images (JVC). GC-X1 “PIXSTER”, a digital still camera manufactured by the Company. This digital still camera sets two types of exposure control values in accordance with the bright and dark parts of a subject, performs two consecutive shots with those exposure control values, and combines both shot images. It also has a function that can obtain a photographed image with an appropriate density from dark to bright parts.

【0004】[0004]

【発明が解決しようとする課題】近年、デジタルスチル
カメラの技術分野においては、デジタルスチルカメラの
普及に伴い、上記ビクター社製デジタルスチルカメラ
「GC−X1“PIXSTER”」に見られるように、
連続して撮影した複数枚の撮影画像を所定の画像処理を
行なった後、合成することで、画質を改善したり、映像
効果を高めた画像を得るような機能を設けてデジタルス
チルカメラの付加価値を高める新たな技術開発が進めら
れている。
In recent years, in the technical field of digital still cameras, with the spread of digital still cameras, as seen in the above-mentioned digital still camera "GC-X1" PIXSTER "manufactured by Victor Company,
Adds a digital still camera with a function to improve the image quality or obtain an image with enhanced video effect by combining a plurality of continuously shot images after performing predetermined image processing and combining them New technologies are being developed to increase value.

【0005】しかし、近年のデジタルスチルカメラは高
画素化が進み、上述の複数枚の撮影画像を合成する機能
を設けようとした場合、データの増加に伴って画像処理
の処理時間が長時間になり、全体として撮影処理も長く
なるという問題が生じる。例えば露出条件の異なる2枚
のカラー撮影画像A,Bを合成して高階調画像を得る場
合、撮影された被写体が重なり合うようにカラー撮影画
像Aとカラー撮影画像Bの位置合わせをして、例えば
R,G,Bの色成分の画像毎に画像データの合成演算を
行なう必要がある。しかし、2枚の画像の位置合わせ処
理は、一般に一方の画像を基準として他方の画像を所定
の画素ピッチで平行移動や回転等を行ないつつ両画像の
一致する位置を探索するもので、他方の画像を移動させ
ては基準画像との一致度を判定する作業の繰返しを行な
うものであるから、この作業に長時間を要し、画像の取
り込みから合成画像をメモリカードなどの記録媒体に記
録するまでの処理時間が長くなる問題がある。
[0005] However, in recent digital still cameras, the number of pixels has been increased, and when an attempt is made to provide a function of synthesizing a plurality of captured images, the processing time of image processing becomes longer as data increases. As a result, there arises a problem that the photographing process becomes longer as a whole. For example, when a high-gradation image is obtained by combining two color photographed images A and B having different exposure conditions, the color photographed image A and the color photographed image B are aligned so that the photographed subjects overlap each other. It is necessary to perform an image data combining operation for each of the R, G, and B color component images. However, the alignment processing of two images generally searches for a matching position between the two images while performing parallel movement or rotation of the other image at a predetermined pixel pitch with reference to the one image. Since the operation of determining the degree of coincidence with the reference image is repeated by moving the image, this operation takes a long time, and the synthesized image is recorded on a recording medium such as a memory card after the image is captured. There is a problem that the processing time until is long.

【0006】また、デジタルスチルカメラに採用されて
いる撮像素子が、例えばベイヤー方式のような単板式の
CCDで構成されている場合は、通常、色成分毎にデー
タの不足する画素位置にデータを補間する処理をした
後、位置合わせ処理や画像合成処理を行なうことになる
ので、データの補間処理が増加する分、更に処理時間が
長くなり、処理時間の問題は重大である。
[0006] When an image pickup element used in a digital still camera is constituted by a single-plate CCD such as a Bayer type, data is usually stored in pixel positions where data is insufficient for each color component. After performing the interpolation processing, the position alignment processing and the image synthesis processing are performed. Therefore, the processing time is further increased by the increase in the data interpolation processing, and the problem of the processing time is serious.

【0007】そこで、デジタルスチルカメラでは連続撮
影のみを行ない、コンピュータ等で構成した画像処理装
置において、複数枚の撮影画像の合成処理を行なうよう
にして画像処理システムを構築することが考えられる。
しかし、この場合でも、元の撮影画像のデータ数が膨大
であると、画像処理装置における撮影画像の合成処理に
長時間を要し、処理レスポンスが低下することは同じで
あるから、可能な限り画像処理に係る時間を短縮するこ
とが望ましい。
Therefore, it is conceivable to construct an image processing system in which a digital still camera performs only continuous photographing, and an image processing apparatus constituted by a computer or the like performs a process of synthesizing a plurality of photographed images.
However, even in this case, if the number of data of the original photographed image is enormous, it takes a long time to combine the photographed images in the image processing apparatus, and the processing response is reduced. It is desirable to reduce the time required for image processing.

【0008】しかし、従来は、複数枚のカラー画像を合
成し高階調画像を得る際、そのカラー画像が、例えば
R,G,Bの色成分の画像で構成されている場合、色成
分毎に同一の位置合わせ処理と画像合成処理を行なうの
で、同一処理が3回繰り返され、データ数が増加するの
に応じて処理効率が低下するものとなっている。
However, conventionally, when a plurality of color images are combined to obtain a high gradation image, if the color image is composed of, for example, R, G, B color component images, Since the same alignment processing and image synthesis processing are performed, the same processing is repeated three times, and the processing efficiency decreases as the number of data increases.

【0009】本発明は、上記課題に鑑みてなされたもの
であり、色成分に応じて処理の簡略化を図れるものは処
理を簡単にして可能な限り画像処理の高速化を可能にす
る画像処理システム、カラー撮像装置、画像処理方法及
びその方法の処理プログラムが記録された記録媒体を提
供するものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus which can simplify processing in accordance with a color component. An object of the present invention is to provide a system, a color imaging device, an image processing method, and a recording medium on which a processing program of the method is recorded.

【0010】[0010]

【課題を解決するための手段】本発明は、画像合成によ
り撮影画像と異なる画質の画像を得るべく同一の被写体
に対して連続して2枚のカラー画像を撮影するカラー撮
像装置と、上記カラー撮像装置で撮影された2枚のカラ
ー画像に対し、色成分毎に所定の画像処理を行って1枚
の色成分画像を作成する画像処理手段と、上記画像処理
手段で作成された各色成分の画像を合成して1枚のカラ
ー画像を作成する画像合成手段とを備えた画像処理装置
とからなる画像処理システムであって、上記画像処理手
段は、上記複数の色成分の画像のうち、人間の視覚特性
上解像度に与える影響の小さい第1の色成分の画像に対
する処理を他の第2の色成分の画像に対する処理よりも
簡略化することを特徴とするものである(請求項1)。
According to the present invention, there is provided a color image pickup apparatus for continuously photographing two color images of the same subject so as to obtain an image having a different image quality from a photographed image by image synthesis. Image processing means for performing predetermined image processing for each color component on two color images captured by the imaging device to create one color component image; and image processing means for each color component created by the image processing means. An image processing apparatus comprising: an image synthesizing unit for synthesizing an image to create one color image, wherein the image processing unit includes a human being among the plurality of color component images. (1) The processing of an image of a first color component having a small effect on resolution in terms of visual characteristics is simplified compared to the processing of an image of another second color component.

【0011】具体的には、上記色成分毎の所定の画像処
理は、撮影画像間の位置合わせを行う位置合わせ処理
と、位置合わせをした撮影画像間で画質に関する所定の
演算を行って1枚の色成分画像を作成する演算処理とか
らなり、上記画像処理手段は、上記第1の色成分の画像
に対する位置合わせ処理を上記第2の色成分の画像に対
する位置合わせ処理よりも簡略化するものである(請求
項2)。例えば上記画像処理手段は、上記第2の色成分
の画像に対する位置合わせ処理で算出された位置ずれ情
報を用いて上記第1の色成分の画像に対する位置合わせ
処理を行うことで、上記第1の色成分に対する位置合わ
せ処理の簡略化を行なうものである(請求項3)。
Specifically, the predetermined image processing for each of the color components is performed by performing a positioning process for performing positioning between photographed images and a predetermined operation relating to image quality between the photographed images having been subjected to positioning. Wherein the image processing means simplifies the alignment processing for the image of the first color component as compared with the alignment processing for the image of the second color component. (Claim 2). For example, the image processing means performs the alignment processing on the image of the first color component using the positional deviation information calculated in the alignment processing on the image of the second color component, thereby obtaining the first color component. This simplifies the registration process for the color components.

【0012】また、上記成分毎の所定の画像処理には、
上記位置合わせ処理の前に撮影画像毎にデータを補間し
て元の画像データ数を増加する補間処理を含み、上記画
像処理手段は、上記第1の色成分の画像に対する補間処
理を第2の色成分に対する補間処理よりも簡略化するも
のであり(請求項4)、具体的には上記画像処理手段
は、上記補間処理における上記第1の色成分の画像のデ
ータ補間数を上記第2の色成分の画像のデータ補間数よ
り少なくすることで、上記第1の色成分に対する補間処
理の簡略化を行なうものである(請求項5)。
Further, in the predetermined image processing for each component,
The image processing means includes an interpolation process for increasing the number of original image data by interpolating data for each captured image before the positioning process, and the image processing means performs an interpolation process on the image of the first color component in a second process. This is more simplified than the interpolation processing for the color component (claim 4). Specifically, the image processing means sets the data interpolation number of the image of the first color component in the interpolation processing to the second By making the number smaller than the number of data interpolations of the color component image, the interpolation process for the first color component is simplified.

【0013】なお、画像処理に補間処理を含むもので
は、上記画像処理手段は、上記演算処理において、上記
第1の色成分の画像のデータ数が上記第2の色成分の画
像のデータ数と一致するように、当該第1の色成分の画
像のデータ数を補間するとよい(請求項6)。
If the image processing includes interpolation processing, the image processing means may determine that the number of data of the first color component image is equal to the number of data of the second color component image in the arithmetic processing. The number of data of the image of the first color component may be interpolated so as to match.

【0014】また、上記色成分をR(赤),G(緑),
B(青)の色成分とすると、上記第1の色成分はR,B
の色成分とし、上記第2の色成分はGの色成分とすると
よく(請求項7)、上記色成分をY(輝度),Cr(赤
の色差),Cb(青の色差)の色成分とすると、上記第
1の色成分はCr,Cbの成分とし、上記第2の色成分
はYの成分とするとよい(請求項8)。
The above color components are represented by R (red), G (green),
Assuming that the color component is B (blue), the first color component is R, B
The second color component is preferably a G color component (claim 7), and the color components are Y (luminance), Cr (red color difference), and Cb (blue color difference) color components. Then, it is preferable that the first color component is a Cr component and a Cb component, and the second color component is a Y component.

【0015】また、上記画質に関する所定の演算処理と
しては、画像のピントのボケ具合を調整するボケ味調整
処理、画像の階調を調整する階調調整処理又は画像の解
像度を高める超解像処理にするとよい(請求項9〜1
1)。
[0015] The predetermined arithmetic processing relating to the image quality includes a blur adjustment processing for adjusting the degree of defocus of the image, a gradation adjustment processing for adjusting the gradation of the image, or a super-resolution processing for increasing the resolution of the image. (Claims 9 to 1).
1).

【0016】また、本発明は、上記画像処理システムと
同一の機能を撮像装置に備えたものである(請求項12
〜19)。
According to the present invention, an image pickup apparatus has the same function as that of the image processing system.
19).

【0017】更に、本発明は、画像合成により撮影画像
と異なる画質の画像を得るべく同一の被写体を連続的に
撮像して得られる複数枚のカラー画像に対し、色成分毎
に所定の画像処理を行って1枚の成分画像を作成する画
像処理ステップと、上記画像処理ステップで作成された
各色成分の画像を合成して1枚のカラー画像を作成する
画像合成ステップとからなる画像処理方法であって、上
記画像処理ステップは、上記複数の色成分の画像のう
ち、人間の視覚特性上解像度に与える影響の小さい第1
の色成分の画像に対する処理を他の第2の色成分の画像
に対する処理よりも簡略化するものである(請求項2
0)。
Furthermore, the present invention provides a method for processing a plurality of color images obtained by continuously imaging the same subject to obtain an image having a different image quality from the photographed image by image synthesis. And an image combining step of combining the images of the respective color components created in the image processing step to create a single color image. The image processing step may include, among the plurality of color component images, a first image having a small effect on resolution in terms of human visual characteristics.
The processing for the image of the second color component is simplified compared to the processing for the image of the other second color component.
0).

【0018】また、本発明は、画像合成により撮影画像
と異なる画質の画像を得るべく同一の被写体を連続的に
撮像して得られる複数枚のカラー画像に対し、色成分毎
に所定の画像処理を行って1枚の成分画像を作成する第
1の画像処理と、上記画像処理ステップで作成された各
色成分の画像を合成して1枚のカラー画像を作成する第
2の画像処理とを、コンピュータに実行させるためのプ
ログラムを記録したコンピュータ読取可能な記録媒体で
あって、上記第1の画像処理は、上記複数の色成分の画
像のうち、人間の視覚特性上解像度に与える影響の小さ
い第1の色成分の画像に対する処理を他の第2の色成分
の画像に対する処理よりも簡略化するものである(請求
項21)。
In addition, the present invention provides a method for processing a plurality of color images obtained by continuously imaging the same subject to obtain an image having a different image quality from the photographed image by image synthesis. And a second image processing for creating a single color image by combining the images of the respective color components created in the image processing step. A computer-readable recording medium having recorded thereon a program to be executed by a computer, wherein the first image processing is performed on a plurality of color component images among the plurality of color component images having a small effect on resolution in terms of human visual characteristics. The processing for an image of one color component is simplified compared to the processing for an image of another second color component.

【0019】上記構成よれば、カラー撮像装置で同一の
被写体を連続的に撮影して得られた2枚の撮影画像は、
画像処理装置で色成分毎に、ボケ味調整処理、階調調整
処理又は超解像処理等の所定の画像処理を行って1枚の
色成分画像が作成された後、それらの色成分画像を合成
して撮影画像と異なる画質の画像が作成される。
According to the above arrangement, two photographed images obtained by continuously photographing the same subject with the color image pickup apparatus are:
After one color component image is created by performing predetermined image processing such as blur adjustment processing, gradation adjustment processing, or super-resolution processing for each color component in the image processing device, the color component images are processed. An image having a different image quality from the captured image is created by combining.

【0020】ボケ味調整処理は、2枚の撮影画像が、例
えば近景に合焦した撮影画像と背景に合焦した撮影画像
である場合、両撮影画像を合成することで、例えば近景
と背景の両方に適当なピント状態の画像を作成する処理
である。また、階調調整処理は、2枚の撮影画像が、例
えば被写体の明るい部分に露出制御した撮影画像と被写
体の暗い部分に露出制御した撮影画像である場合、両撮
影画像を合成することで、例えば被写体の明るい部分と
暗い部分の両方に適正な濃度分布の画像を作成する処理
である。また、超解像処理は、2枚の撮影画像がカメラ
ぶれに起因して被写体に対する撮影位置に微小にずれが
生じている場合、両撮影画像を合成することで、撮影画
像よりも解像度の高い画像を作成する処理である。
When the two shot images are, for example, a shot image focused on the foreground and a shot image focused on the background, the two-shot image is synthesized by combining the two shot images to obtain, for example, the near view and the background. This is a process for creating images in a focused state appropriate for both. Further, when the two captured images are, for example, a captured image in which exposure control is performed on a bright portion of a subject and a captured image in which exposure control is performed on a dark portion of the subject, the two captured images are combined, For example, this is a process of creating an image having an appropriate density distribution in both a bright part and a dark part of the subject. Further, in the super-resolution processing, when two photographed images have a slight shift in the photographing position with respect to the subject due to camera shake, by combining the two photographed images, the resolution is higher than the photographed image. This is the process of creating an image.

【0021】色成分毎の所定の画像処理では、複数の色
成分の画像のうち、人間の視覚特性上解像度に与える影
響の小さい第1の色成分の画像に対する処理(以下、第
1の色成分処理という。)が他の第2の色成分の画像に
対する処理(以下、第2の色成分処理という。)よりも
簡略化され、これにより第1の色成分処理に係る処理時
間が第2の色成分処理に係る時間より短くなり、全ての
色成分の画像に対して同一処理を行なうよりも処理時間
が短くなる。
In the predetermined image processing for each color component, among the plurality of color component images, processing is performed on an image of a first color component that has a small effect on resolution in terms of human visual characteristics (hereinafter referred to as a first color component). ) Is simplified compared to the process for an image of another second color component (hereinafter, referred to as a second color component process), whereby the processing time for the first color component process is reduced to the second color component process. The time required for the color component processing is shorter, and the processing time is shorter than when the same processing is performed on all the color component images.

【0022】例えば色成分毎の所定の画像処理が撮影画
像間の位置合わせを行なう位置合わせ処理と、位置合わ
せをした撮影画像間でボケ味調整等の画質に関する所定
の演算を行って1枚の色成分画像を作成する演算処理と
からなる場合、色成分がR,G,Bであれば、Gの色成
分の画像に対する位置合わせ処理で算出された位置ずれ
情報を用いてR,Bの色成分の画像に対する位置合わせ
処理を行なうことで、R,Bの色成分の画像に対する位
置合わせ処理の処理時間がGの色成分の画像に対する位
置合わせ処理の処理時間よりも短くなり、全ての色成分
の画像に対して同一処理を行なうよりも処理時間が短く
なる。
For example, a predetermined image processing for each color component is performed to perform positioning between photographed images, and a predetermined operation relating to image quality such as blur adjustment is performed between the photographed images that have been subjected to the positioning, thereby obtaining one image. If the color component image is composed of R, G, and B, if the color components are R, G, and B, the R and B colors are calculated using the displacement information calculated in the registration process for the G color component image. By performing the alignment process on the image of the component, the processing time of the alignment process on the image of the R and B color components is shorter than the processing time of the alignment process on the image of the G color component. The processing time is shorter than performing the same processing on the image of FIG.

【0023】また、色成分がY,Cr,Cbであれば、
Yの色成分の画像に対する位置合わせ処理で算出された
位置ずれ情報を用いてCr,Cbの色成分の画像に対す
る位置合わせ処理を行なうことで、Cr,Cbの色成分
の画像に対する位置合わせ処理の処理時間がYの色成分
の画像に対する位置合わせ処理の処理時間よりも短くな
り、全ての色成分の画像に対して同一処理を行なうより
も処理時間が短くなる。
If the color components are Y, Cr, Cb,
By performing the registration process on the Cr and Cb color component images using the displacement information calculated in the registration process on the Y color component image, the registration process on the Cr and Cb color component images is performed. The processing time is shorter than the processing time of the alignment processing for the image of the Y color component, and the processing time is shorter than performing the same processing for all the color component images.

【0024】また、画像処理が位置合わせ処理の前に撮
影画像毎にデータを補間して元の画像データ数を増加す
る補間処理を含む場合、色成分がR,G,Bであれば、
当該補間処理におけるR,Bの色成分の画像のデータ補
間数をGの色成分の画像のデータ補間数よりも少なくす
ることで、R,Bの色成分の画像に対する補間処理の処
理時間がGの色成分の画像に対する補間処理の処理時間
よりも短くなり、全ての色成分の画像に対して同一処理
を行なうよりも処理時間が短くなる。
Further, if the image processing includes an interpolation process of interpolating data for each captured image to increase the number of original image data before the alignment process, if the color components are R, G, B,
By making the number of data interpolations of the image of the R and B color components in the interpolation process smaller than the number of data interpolation of the image of the G color component, the processing time of the interpolation process for the image of the R and B color components is G Is shorter than the processing time of the interpolation processing for the image of the color component, and the processing time is shorter than the same processing for the image of all the color components.

【0025】また、色成分がY,Cr,Cbであれば、
当該補間処理におけるCr,Cbの色成分の画像のデー
タ補間数をYの色成分の画像のデータ補間数よりも少な
くすることで、Cr,Cbの色成分の画像に対する補間
処理の処理時間がGの色成分の画像に対する補間処理の
処理時間よりも短くなり、全ての色成分の画像に対して
同一処理を行なうよりも処理時間が短くなる。
If the color components are Y, Cr, Cb,
By making the number of data interpolation of the image of the color component of Cr and Cb in the interpolation process smaller than the number of data interpolation of the image of the color component of Y, the processing time of the interpolation process for the image of the color component of Cr and Cb becomes G Is shorter than the processing time of the interpolation processing for the image of the color component, and the processing time is shorter than the same processing for the image of all the color components.

【0026】なお、画像処理に補間処理を含むもので
は、R,Bの色成分の画像のデータ数がGの画像のデー
タ数と一致するように、R,Bの色成分の画像のデータ
数を補間することで、合成後の画像の画質が向上する。
When the image processing includes interpolation processing, the number of data of the R and B color component images is set so that the number of data of the R and B color component images matches the number of data of the G image. Is interpolated, the image quality of the synthesized image is improved.

【0027】[0027]

【発明の実施の形態】図1は本発明に係る画像処理シス
テムに適用されるデジタルスチルカメラ(カラー撮像装
置)のカメラ本体の正面図、図2は同デジタルスチルカ
メラに内蔵された主要部材の配置を示す上面図、図3
は、同デジタルスチルカメラに内蔵された主要部材の配
置を示す右側面図、図4は同デジタルスチルカメラの背
面図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a front view of a camera body of a digital still camera (color imaging device) applied to an image processing system according to the present invention. FIG. 2 is a view showing main members incorporated in the digital still camera. Top view showing arrangement, FIG. 3
Is a right side view showing an arrangement of main components built in the digital still camera, and FIG. 4 is a rear view of the digital still camera.

【0028】デジタルスチルカメラ1は、カメラ本体2
とこのカメラ本体2の正面略中央に着脱可能に装着され
るズームレンズからなる交換レンズ3とからなる一眼レ
フレックスカメラで構成されている。カメラ本体2は、
正面略中央に交換レンズ3が装着されるマウント部20
1が設けられ、正面左端部にグリップ部202が設けら
れている。
The digital still camera 1 includes a camera body 2
A single-lens reflex camera comprising an interchangeable lens 3 comprising a zoom lens which is detachably mounted substantially at the center of the front of the camera body 2. The camera body 2
Mount part 20 to which interchangeable lens 3 is mounted substantially at the center of the front
1 is provided, and a grip portion 202 is provided at the left end of the front.

【0029】グリップ部202の内部には電池収納室2
03とカード収納室204とが設けられ、電池収納室2
03には4本の単3形乾電池E1〜E4(カメラの電源
電池)が収納され、カード収納室204には撮影画像の
画像データを記録するためのメモリカードMCが着脱可
能に収納されるようになっている。
The battery compartment 2 is provided inside the grip 202.
03 and a card storage room 204 are provided.
03 stores four AA batteries E1 to E4 (power supply batteries of the camera), and a card storage room 204 detachably stores a memory card MC for recording image data of a captured image. It has become.

【0030】マウント部201の下部には装着された交
換レンズ3との電気的接続を行なうための複数個の接点
STと機械的接続を行なうための複数個のカプラーCP
とが設けられている。電気的な接点STは、交換レンズ
3に内蔵されたレンズROM301(図3参照)から当
該レンズに関する固有の情報(開放F値や焦点距離等の
情報)をカメラ本体2内の全体制御部(図6参照)に読
み出したり、交換レンズ3内のズーム用レンズの位置や
フォーカス用レンズの位置の情報を全体制御部に出力す
るためのものである。カプラーCPはカメラ本体2内に
設けられたズームレンズ駆動用のモータZM(図3参
照)の駆動力とフォーカスレンズ駆動用のモータFM
(図3参照)の駆動力とを交換レンズ3側に伝達するた
めのものである。
A plurality of contacts ST for making electrical connection with the mounted interchangeable lens 3 and a plurality of couplers CP for making mechanical connection are provided below the mount portion 201.
Are provided. The electrical contact ST stores information unique to the lens from the lens ROM 301 (see FIG. 3) incorporated in the interchangeable lens 3 (information such as the open F-number and focal length) in the overall control unit (see FIG. 6) and outputs information on the position of the zoom lens and the position of the focus lens in the interchangeable lens 3 to the overall control unit. The coupler CP includes a driving force of a zoom lens driving motor ZM (see FIG. 3) provided in the camera body 2 and a focus lens driving motor FM.
This is for transmitting the driving force (see FIG. 3) to the interchangeable lens 3 side.

【0031】マウント部201に交換レンズ3が装着さ
れたときの当該レンズ3の光軸L上であってカメラ本体
2内の適所にカラー撮像素子205が配設されている。
カラー撮像素子205(以下、CCD205という。)
は、図5に示すようにCCD(Charge-Coupled Devic
e)からなるエリアセンサ205Aの各画素の表面に、
R(赤),G(緑),B(青)のカラーフィルタ205
Bが市松模様状に貼り付けられた、いわゆるベイヤー方
式と呼ばれる単板式カラーエリアセンサで構成され、例
えば1600×1200=192万個の画素数を有して
いる。
When the interchangeable lens 3 is mounted on the mount section 201, a color image pickup element 205 is disposed at an appropriate position in the camera body 2 on the optical axis L of the lens 3.
Color imaging device 205 (hereinafter, referred to as CCD 205)
Is a CCD (Charge-Coupled Device) as shown in FIG.
e) on the surface of each pixel of the area sensor 205A comprising
R (red), G (green), B (blue) color filters 205
B is a so-called Bayer type single-plate type color area sensor which is pasted in a checkered pattern, and has, for example, 1600 × 1200 = 1.92 million pixels.

【0032】なお、図5に示すようにエリアセンサのi
行j列目の画素位置を(i,j)(i=1,2,…n、
j=1,2,…m)とし、n=1600、m=1200
とすると、R,G,Bの各カラーフィルタは、 R;(2h+1,2k+1) G;(2h+2,2k+1),(2h+1,2k+2) B;(2h+2,2k+2) 但し、h=0,1,2,…n/2(=800)、k=
0,1,2,…m/2(=600)の画素位置に配置さ
れている。
Note that, as shown in FIG.
The pixel position of the row j column is (i, j) (i = 1, 2,... N,
j = 1, 2,... m), n = 1600, m = 1200
Then, R, G, and B color filters are: R; (2h + 1, 2k + 1) G; (2h + 2, 2k + 1), (2h + 1, 2k + 2) B; (2h + 2, 2k + 2) where h = 0, 1, 2 , ... n / 2 (= 800), k =
, M / 2 (= 600) pixel positions.

【0033】カメラ本体2のグリップ部202の上面に
はシャッタボタン206が設けられている。シャッタボ
タン206の半押し操作と全押し操作とは後述するスイ
ッチS1,S2により検出されるようになっている。ス
イッチS1がオンになると(シャッタボタン206が半
押しされると)、被写体の静止画を撮影するための準備
動作(露出制御値の設定や焦点調節等の準備動作)が行
なわれ、スイッチS2がオンになると(シャッタボタン
206が全押しされると)、撮影動作(CCD205を
露光し、その露光によって得られた画像信号に所定の画
像処理を行なってメモリカードMCに記録する一連の動
作)が行なわれる。
A shutter button 206 is provided on the upper surface of the grip portion 202 of the camera body 2. The half-press operation and the full-press operation of the shutter button 206 are detected by switches S1 and S2 described later. When the switch S1 is turned on (when the shutter button 206 is half-pressed), a preparatory operation for photographing a still image of a subject (a preparatory operation such as setting of an exposure control value and a focus adjustment) is performed, and the switch S2 is turned on. When the shutter button 206 is turned on (when the shutter button 206 is fully pressed), a shooting operation (a series of operations of exposing the CCD 205, performing predetermined image processing on an image signal obtained by the exposure, and recording the image signal on the memory card MC) is performed. Done.

【0034】カメラ本体2の上面の略中央には電子ビュ
ーファインダ4(EVF;Electronic View Finder)と
ポップアップタイプのフラッシュ5とが設けられてい
る。電子ビューファインダ4はCCD205で撮影され
た被写体のモニタ画像(撮影待機状態においてCCD2
05により動画撮影された被写体の画像)を表示するカ
ラー液晶表示デバイスからなる表示部401(以下、L
CD表示部401という。)とこのカラー液晶表示デバ
イスに表示されたモニタ画像をファインダ窓403の外
側に導く接眼レンズ402とを備えている。
An electronic view finder (EVF: Electronic View Finder) 4 and a pop-up type flash 5 are provided substantially at the center of the upper surface of the camera body 2. The electronic viewfinder 4 displays a monitor image of the subject photographed by the CCD 205 (the CCD 2 in a photographing standby state).
A display unit 401 (hereinafter, referred to as L) composed of a color liquid crystal display device for displaying an image of a subject photographed as a moving image according to
This is called a CD display unit 401. ) And an eyepiece 402 for guiding the monitor image displayed on the color liquid crystal display device to the outside of the finder window 403.

【0035】撮影待機状態では電子ビューファインダ4
に被写体のモニタ画像(動画像)が表示されるので、撮
影者はファインダ窓403を覗くことによってモニタ画
像により被写体を視認することができる。
In the photographing standby state, the electronic viewfinder 4
Since the monitor image (moving image) of the subject is displayed on the screen, the photographer can visually recognize the subject from the monitor image by looking through the finder window 403.

【0036】カメラ本体2の背面の略中央にはカラー液
晶表示デバイスからなる表示部207(以下、LCD表
示部207という。)が設けられている。LCD表示部
207は、記録モードにおいて撮影モードや撮影条件等
を設定するためのメニュー画面を表示したり、再生モー
ドにおいてメモリカードMCに記録された撮影画像を再
生表示するものである。
A display unit 207 (hereinafter, referred to as an LCD display unit 207) formed of a color liquid crystal display device is provided substantially at the center of the rear surface of the camera body 2. The LCD display unit 207 displays a menu screen for setting a photographing mode, photographing conditions, and the like in the recording mode, and reproduces and displays a photographed image recorded on the memory card MC in the reproduction mode.

【0037】撮影モードには露出制御に関するモードと
画像合成処理に関するモードとが含まれる。露出制御に
関するモードとはレリーズ時の露出制御値(絞りの絞り
値と露光時間)の決定の仕方に関するモードである。露
出制御に関するモードには少なくともプログラムモー
ド、シャッタ優先モード、絞り優先モードが含まれる。
露出制御値は予め設定された複数のプログラム線図のい
ずれか1つを用いて設定されるようになっており、プロ
グラムモードでは標準的なプログラム線図を用いて露出
制御値が設定され、シャッタ優先モードでは絞り値より
シャッタ速度(露光時間)を優先するようなプログラム
線図を用いて露出制御値が設定され、絞り優先モードで
はシャッタ速度より絞り値を優先するようなプログラム
線図を用いて露出制御値が設定される。
The shooting modes include a mode relating to exposure control and a mode relating to image combining processing. The mode relating to the exposure control is a mode relating to a method of determining an exposure control value (aperture value of an aperture and an exposure time) at the time of release. The modes related to exposure control include at least a program mode, a shutter priority mode, and an aperture priority mode.
The exposure control value is set using one of a plurality of preset program charts. In the program mode, the exposure control value is set using a standard program chart, and the exposure control value is set. In the priority mode, the exposure control value is set using a program diagram that gives priority to the shutter speed (exposure time) over the aperture value. In the aperture priority mode, the exposure control value is set using a program diagram that gives priority to the aperture value over the shutter speed. The exposure control value is set.

【0038】画像合成処理に関するモードとは、レリー
ズ時に撮影条件を変えて、若しくは撮影条件をそのまま
で連続して2回撮影を行ない、その撮影によって得られ
た2枚の撮影画像をそれぞれメモリカードMCに記録す
るモードである。このモードで連続して撮影された2枚
の撮影画像は、後述するコンピュータ等からなる画像処
理装置で所定の画像処理を行い、合成して元の撮影画像
よりも画質や映像効果の高い画像を得るためのものであ
る。
The mode relating to the image synthesizing process means that the photographing conditions are changed at the time of release, or the photographing is performed twice continuously while keeping the photographing conditions as they are, and the two photographed images obtained by the photographing are respectively stored in the memory card MC. Mode. Two photographed images consecutively photographed in this mode are subjected to predetermined image processing by an image processing device composed of a computer or the like, which will be described later, and combined to form an image having higher image quality and video effect than the original photographed image. To gain.

【0039】画像合成処理に関するモードには少なくと
も「ボケ味調整モード」、「階調調整モード」、「超解
像モード」が含まれる。ボケ味調整モードとは、画像処
理で主被写体(例えば人物等)に対して焦点を合せた撮
影画像Aと主被写体の背景に焦点を合わせた撮影画像B
とを合成することにより所望のボケ具合を有する画像を
得るために、1回のシャッタ操作で合焦位置を変化させ
て連続して2回の撮影動作を行い、撮影画像Aと撮影画
像Bとを得るモードである。
The modes relating to the image synthesis processing include at least a "blur taste adjustment mode", a "gradation adjustment mode", and a "super-resolution mode". The blur adjustment mode refers to a photographed image A focused on a main subject (for example, a person or the like) in image processing and a photographed image B focused on the background of the main subject.
In order to obtain an image having a desired degree of blur by combining the two, the shooting position is changed by one shutter operation and the shooting operation is performed twice consecutively. Is the mode in which

【0040】階調調整モードとは、画像処理で主被写体
に対して露出を合せた撮影画像Aと主被写体の背景に露
出を合わせた撮影画像Bとを合成することにより、例え
ば画面全体に適正な濃度分布を有する画像や主被写体と
背景とのコントラストを意図的に大きくし、創作性の強
い画像を得るために、1回のシャッタ操作で露出条件を
変化させて連続して2回の撮影動作を行い、撮影画像A
と撮影画像Bとを得るモードである。
The gradation adjustment mode is a mode in which a photographed image A whose exposure is adjusted to the main subject in image processing and a photographed image B whose exposure is adjusted to the background of the main subject are combined so that, for example, the entire screen is properly adjusted. In order to intentionally increase the contrast between an image having a high density distribution or the main subject and the background, and obtain a highly creative image, two consecutive shots with the exposure condition changed by one shutter operation Performing the operation, the photographed image A
And a captured image B.

【0041】超解像モードとは、主被写体に対する撮影
位置が互いに微小変化した撮影画像Aと撮影画像Bとを
合成することにより、元の撮影画像よりも解像度の高い
画像を得るために、1回のシャッタ操作でピントや露出
条件を変えないで連続して2回の撮影動作を行い、1回
目の撮影と2回目の撮影との間で僅かに異なるカメラア
ングルの相違により画面内の主被写体の位置が微小変化
した撮影画像Aと撮影画像Bとを得るモードである。
The super-resolution mode is used to combine a photographed image A and a photographed image B whose photographing positions with respect to the main subject have been slightly changed to obtain an image having a higher resolution than the original photographed image. Two consecutive shooting operations without changing the focus and exposure conditions by the two shutter operations, and the main subject in the screen due to a slightly different camera angle between the first shooting and the second shooting Is a mode in which a photographed image A and a photographed image B whose positions are slightly changed are obtained.

【0042】なお、画像処理装置におけるボケ味調整処
理、階調調整処理及び超解像処理の詳細は後述する。
The details of the blur adjustment processing, gradation adjustment processing and super-resolution processing in the image processing apparatus will be described later.

【0043】LCD表示部207の左側には電源スイッ
チ208が設けられている。この電源スイッチ208は
記録モード(写真撮影の機能を果たすモード)及び再生
モード(記録画像をLCD表示部207に再生するモー
ド)を切換設定するモード設定スイッチを兼ねている。
すなわち、電源スイッチ208は3点スライドスイッチ
からなり、接点を中央の「OFF」位置に設定すると、
電源がオフになり、接点を上方の「REC」位置に設定
すると、電源がオンになるとともに記録モードが設定さ
れ、接点を下方の「PLAY」位置に設定すると、電源
がオンになるとともに再生モードが設定される。
On the left side of the LCD display unit 207, a power switch 208 is provided. The power switch 208 also functions as a mode setting switch for switching between a recording mode (a mode for performing a photographing function) and a reproduction mode (a mode for reproducing a recorded image on the LCD display unit 207).
That is, the power switch 208 is formed of a three-point slide switch, and when the contact is set to the central “OFF” position,
When the power is turned off and the contacts are set to the upper “REC” position, the power is turned on and the recording mode is set. When the contacts are set to the lower “PLAY” position, the power is turned on and the playback mode is set. Is set.

【0044】LCD表示部207の右側上方位置には4
連スイッチ209が設けられている。4連スイッチ20
9は円形の操作ボタンを有し、この操作ボタンにおける
上下左右の4方向の押圧操作がそれぞれ検出されるよう
になっている。4連スイッチ209は多機能化され、例
えばLCD表示部207に表示されるメニュー画面で選
択された項目を変更したり、インデックス画面で選択さ
れた再生対象のコマを変更するための操作スイッチとし
て機能するとともに、左右方向のスイッチは交換レンズ
3のズーム比を変更するためのスイッチとしても機能す
るようになっている。
At the upper right position of the LCD display unit 207, 4
A continuous switch 209 is provided. Quad switch 20
Reference numeral 9 denotes a circular operation button, and the operation of pressing the operation button in four directions of up, down, left, and right is detected. The quad switch 209 is multifunctional, and functions as, for example, an operation switch for changing an item selected on a menu screen displayed on the LCD display unit 207 or changing a playback target frame selected on the index screen. In addition, the switch in the left-right direction also functions as a switch for changing the zoom ratio of the interchangeable lens 3.

【0045】また、4連スイッチ209の下方位置には
LCD表示部207の表示や表示内容に関する操作を行
なうためスイッチ群210が設けられている。スイッチ
群210には取消スイッチ210a、確定スイッチ21
0b、メニュー表示スイッチ210c及び表示スイッチ
210dが含まれる。
A switch group 210 is provided below the four-way switch 209 for performing operations related to display on the LCD display unit 207 and display contents. The switch group 210 includes a cancel switch 210a and a decision switch 21.
0b, a menu display switch 210c, and a display switch 210d.

【0046】取消スイッチ210aはメニュー画面で選
択された内容を取り消すためのスイッチである。確定ス
イッチ210bはメニュー画面で選択された内容を確定
するためのスイッチである。メニュー表示スイッチ21
0cはLCD表示部207にメニュー画面を表示させた
り、メニュー画面の内容を切り換えたりするためのスイ
ッチである。メニュー表示スイッチ210cを押圧する
毎にメニュー画面に切り換わる。表示スイッチ210d
はLCD表示部207への表示を行なわせたり、その表
示を消したりするスイッチである。電源電池E1〜E4
の節電を図るため、カメラ起動時はLCD表示部207
の表示は行なわれないようになっている。表示スイッチ
210dを押圧する毎にLCD表示部207の表示と非
表示とが交互に行なわれる。
The cancel switch 210a is a switch for canceling the contents selected on the menu screen. The confirmation switch 210b is a switch for confirming the content selected on the menu screen. Menu display switch 21
Reference numeral 0c denotes a switch for displaying a menu screen on the LCD display unit 207 or switching the contents of the menu screen. Each time the menu display switch 210c is pressed, the menu screen is switched. Display switch 210d
Is a switch for displaying on the LCD display unit 207 or for turning off the display. Power batteries E1 to E4
In order to save power, the LCD display unit 207
Is not displayed. Each time the display switch 210d is pressed, the display and non-display of the LCD display unit 207 are alternately performed.

【0047】メニュー画面では、例えば複数の項目が配
列表示され、現在選択されている項目に選択状態を示す
表示(例えばカーソルや反転表示等)が行なわれる。例
えば撮影モードの画像合成処理に関するモードを選択す
る場合、LCD表示部207には、図6に示すようなメ
ニュー画面が表示される。このメニュー画面における
「通常撮影」の項目は、銀塩カメラにおける撮影動作と
同様の通常の撮影を行なうモードである。
On the menu screen, for example, a plurality of items are displayed in an array, and a display (for example, a cursor or an inverted display) indicating a selected state is performed on the currently selected item. For example, when selecting a mode relating to image synthesis processing in the shooting mode, a menu screen as shown in FIG. The item of “normal shooting” on this menu screen is a mode for performing normal shooting similar to the shooting operation of the silver halide camera.

【0048】図6のメニュー画面において、4連スイッ
チ209の上方向スイッチが押されると、黒三角印のカ
ーソルKの表示位置(すなわち、カーソルKが示す項
目)が上方向にサイクリックに移動し、4連スイッチ2
09の下方向スイッチが押されると、カーソルKが示す
項目表示位置が下方向にサイクリックに移動する。そし
て、スイッチ群210の確定スイッチ210bが押され
ると、その時カーソルKで指示されている項目(図6で
は階調調整モード)が撮影モードとして設定される。
In the menu screen of FIG. 6, when the up switch of the quad switch 209 is pressed, the display position of the black triangle cursor K (ie, the item indicated by the cursor K) cyclically moves upward. , 4 switches 2
When the down switch 09 is pressed, the item display position indicated by the cursor K moves cyclically downward. When the confirmation switch 210b of the switch group 210 is pressed, the item (the gradation adjustment mode in FIG. 6) indicated by the cursor K at that time is set as the shooting mode.

【0049】従って、撮影者は撮影モード選択用のメニ
ュー画面において、4連スイッチ209を上下方向に操
作して所望の撮影モードを選択し、確定スイッチ210
dを操作することでその撮影モードを設定することがで
きる。なお、露出制御に関するモードについても同様の
方法で所望の撮影モードを設定することができる。
Therefore, the photographer selects a desired photographing mode by operating the four-way switch 209 in the vertical direction on the photographing mode selection menu screen, and
By operating d, the shooting mode can be set. It should be noted that a desired photographing mode can be set in the same manner for the mode relating to the exposure control.

【0050】また、インデックス画面ではメモリカード
MCに記録されている全ての画像から9コマ分のサムネ
イル画像が配列表示され、現在選択されているコマに選
択されている表示(例えば点滅表示や枠表示等)が行な
われる。4連スイッチ209の上下左右の何れかの方向
スイッチを押圧すると、メニュー画面やインデックス画
面の選択状態を示す表示がその方向の項目やコマに移動
する。例えば上方向スイッチを押圧すると、メニュー画
面やインデックス画面の選択状態を示す表示が上方向の
項目やコマに移動する。
On the index screen, nine thumbnail images of all images recorded on the memory card MC are displayed in an array, and the display selected for the currently selected frame (for example, blinking display or frame display) Etc.) are performed. When one of the up, down, left and right direction switches of the quad switch 209 is pressed, the display indicating the selected state of the menu screen or the index screen moves to the item or frame in that direction. For example, when the upward switch is pressed, the display indicating the selected state of the menu screen or the index screen moves to the upward item or frame.

【0051】交換レンズ3のズーム操作では、4連スイ
ッチ209の右方向スイッチを押圧すると、交換レンズ
3がワイド側に連続的に移動し、4連スイッチ209の
左方向スイッチを押圧すると、交換レンズ3のズーム用
レンズがテレ側に連続的に移動する。
In the zoom operation of the interchangeable lens 3, when the right switch of the quadruple switch 209 is pressed, the interchangeable lens 3 continuously moves to the wide side, and when the leftward switch of the quadruple switch 209 is pressed, the interchangeable lens 3 is pressed. The zoom lens 3 continuously moves to the telephoto side.

【0052】図7は、デジタルスチルカメラ1の内部構
成を示すブロック構成図である。
FIG. 7 is a block diagram showing the internal configuration of the digital still camera 1.

【0053】デジタルスチルカメラ1は、主にレンズ1
01、撮像部102、信号処理部103、発光制御部1
04、レンズ制御部105、表示部106、操作部10
7及び全体制御部108で構成されている。
The digital still camera 1 mainly includes a lens 1
01, imaging unit 102, signal processing unit 103, light emission control unit 1
04, lens control unit 105, display unit 106, operation unit 10
7 and the overall control unit 108.

【0054】レンズ101は交換レンズ3に相当するも
のである。レンズ101はフォーカス用レンズ101a
及びズーム用レンズ101bを備え、内部に透過光量を
調節するための絞り101cが設けられている。
The lens 101 corresponds to the interchangeable lens 3. The lens 101 is a focusing lens 101a
And a lens 101b for adjusting the amount of transmitted light.

【0055】撮像部102はレンズ101を通して入射
した被写体光像を画像信号(電気画像)に光電変換して
取り込むものである。撮像部102にはCCD205に
相当するCCD102a、このCCD102aの撮像動
作を制御するタイミングジェネレータ102b及びタイ
ミングジェネレータ102bの駆動を制御するタイミン
グ制御回路102cが含まれる。
The image pickup section 102 photoelectrically converts a light image of a subject incident through the lens 101 into an image signal (electric image) and takes in the image signal. The imaging unit 102 includes a CCD 102a corresponding to the CCD 205, a timing generator 102b for controlling an imaging operation of the CCD 102a, and a timing control circuit 102c for controlling driving of the timing generator 102b.

【0056】CCD102aはタイミングジェネレータ
102bから入力される駆動制御信号(積分開始信号/
積分終了信号)に基づいて被写体光像を所定の時間(露
光時間)だけ受光して画像信号(電荷蓄積信号)に変換
し、その画像信号をタイミングジェネレータ102bか
ら入力される読出制御信号(水平同期信号、垂直同期信
号、転送信号等)を用いて信号処理部103に出力す
る。このとき、画像信号はR,G,Bの各色成分に分離
されて信号処理部103に出力される。すなわち、画素
位置(2h+1,2k+1)の各画素で受光された画像
信号を順次読み出すことでRの色成分の画像信号が出力
され、画素位置(2h+2,2k+1),(2h+1,
2k+2)の各画素で受光された画像信号を順次読み出
すことでGの色成分の画像信号が出力され、画素位置
(2h+2,2k+2)の各画素で受光された画像信号
を順次読み出すことでBの色成分の画像信号が出力され
る。
The CCD 102a receives a drive control signal (integration start signal /
Based on the integration end signal), the subject light image is received for a predetermined time (exposure time) and converted into an image signal (charge accumulation signal), and the image signal is read out by a read control signal (horizontal synchronization) input from the timing generator 102b. (A signal, a vertical synchronization signal, a transfer signal, etc.). At this time, the image signal is separated into R, G, and B color components and output to the signal processing unit 103. That is, the image signals of the R color component are output by sequentially reading the image signals received by the pixels at the pixel positions (2h + 1, 2k + 1), and the pixel positions (2h + 2, 2k + 1), (2h + 1,
By sequentially reading out the image signals received by each pixel at 2k + 2), an image signal of the G color component is output. By reading out the image signals received at each pixel at the pixel position (2h + 2, 2k + 2), the B signal is read out. An image signal of a color component is output.

【0057】タイミングシェネレータ102bはタイミ
ング制御回路102cから入力される制御信号に基づい
て駆動制御信号を生成するとともに、基準クロックに基
づいて読出制御信号を生成し、CCD102aに出力す
る。タイミング制御回路102cは撮像部102の撮影
動作を制御するものである。タイミング制御回路102
cは全体制御部108から入力される制御信号に基づい
て撮影制御信号を生成する。この撮影制御信号には記録
モードにおいて撮影待機中に被写体の動画像(以下、ラ
イブビュー画像という。)を電子ビューファインダ4に
モニタ表示するための撮影の制御信号、シャッタボタン
6が操作されて被写体の静止画(以下、記録画像とい
う。)を撮影するための制御信号、基準クロック、CC
D102aから出力された画像信号を信号処理部103
で信号処理するためのタイミング信号(同期クロック)
などが含まれる。このタイミング信号は信号処理部10
3内の信号処理回路103a及びA/D変換回路103
bに入力される。
The timing generator 102b generates a drive control signal based on a control signal input from the timing control circuit 102c, generates a read control signal based on a reference clock, and outputs the read control signal to the CCD 102a. The timing control circuit 102c controls the photographing operation of the imaging unit 102. Timing control circuit 102
c generates a shooting control signal based on a control signal input from the overall control unit 108. The photographing control signal includes a photographing control signal for displaying a moving image of a subject (hereinafter, referred to as a live view image) on the electronic viewfinder 4 during monitor standby in the recording mode, and the shutter button 6 is operated to operate the subject. Control signal, reference clock, and CC for capturing a still image (hereinafter, referred to as a recorded image)
D102a outputs the image signal to the signal processing unit 103
Signal (synchronous clock) for signal processing by
And so on. This timing signal is transmitted to the signal processing unit 10.
3 signal processing circuit 103a and A / D conversion circuit 103
b.

【0058】信号処理部103はCCD102aから出
力される画像信号に所定のアナログ信号処理及びデジタ
ル信号処理を行うものである。画像信号の信号処理は当
該画像データを構成する各画素の受光信号毎に行なわれ
る。以下、説明の便宜上、各画素の受光信号とこれらの
集合により撮影画像を構成する画像信号とを区別するた
め、必要に応じて各画素の受光信号を画素信号(アナロ
グ信号)もしくは画素データ(デジタル信号)という。
The signal processing section 103 performs predetermined analog signal processing and digital signal processing on the image signal output from the CCD 102a. The signal processing of the image signal is performed for each light receiving signal of each pixel constituting the image data. Hereinafter, for convenience of explanation, in order to distinguish a light receiving signal of each pixel from an image signal forming a captured image based on a set of these signals, the light receiving signal of each pixel is converted to a pixel signal (analog signal) or pixel data (digital) as necessary. Signal).

【0059】信号処理部103にはアナログ信号処理回
路103a、A/D変換回路103b、黒レベル補正回
路103c、WB回路103d、γ補正回路103e及
び画像メモリ103fが含まれる。なお、黒レベル補正
回路103c、WB回路103d及びγ補正回路103
eはデジタル信号処理を行う回路を構成するものであ
る。
The signal processing section 103 includes an analog signal processing circuit 103a, an A / D conversion circuit 103b, a black level correction circuit 103c, a WB circuit 103d, a γ correction circuit 103e, and an image memory 103f. The black level correction circuit 103c, the WB circuit 103d, and the γ correction circuit 103
"e" constitutes a circuit for performing digital signal processing.

【0060】アナログ信号処理回路103aは主にCD
S回路(相関二重サンプリング)回路及びAGC(オー
トゲインコントロール)回路からなり、CCD102a
から出力される画素信号のサンプリングノイズの低減と
信号レベルの調整を行う。AGC回路におけるゲインコ
ントロールには、絞り101cの絞り値とCCD102
aの露光時間とで適性露出が得られなかった場合(例え
ば非常に低輝度の被写体を撮影する場合等)の撮影画像
のレベル不足を補償する場合も含まれる。A/D変換回
路102bはアナログ信号処理回路103aから出力さ
れる各画素信号をデジタルの画像データに変換するもの
である。A/D変換回路102bは各画素で受光された
画素信号を、例えば10ビットの画素データに変換す
る。
The analog signal processing circuit 103a is mainly composed of a CD.
The CCD 102a includes an S circuit (correlated double sampling) circuit and an AGC (auto gain control) circuit.
To reduce the sampling noise and adjust the signal level of the pixel signal output from. The gain control in the AGC circuit includes the aperture value of the aperture 101 c and the CCD 102.
This also includes a case where insufficient level of a captured image is compensated for when an appropriate exposure cannot be obtained with the exposure time a (for example, when a very low-luminance subject is captured). The A / D conversion circuit 102b converts each pixel signal output from the analog signal processing circuit 103a into digital image data. The A / D conversion circuit 102b converts a pixel signal received by each pixel into, for example, 10-bit pixel data.

【0061】黒レベル補正回路103cはA/D変換さ
れた各画素データの黒レベルを基準の黒レベルに補正す
るものである。WB回路103dは撮影画像のホワイト
バランスを調整するものである。WB回路103dは全
体制御部108から入力されるレベル変換テーブルを用
いてR,G,Bの各色成分の画素データのレベルを変換
することで撮影画像のホワイトバランスを調整する。な
お、レベル変換テーブルの各色成分の変換係数は全体制
御部108から撮影画像毎に設定される。γ補正回路1
03eは画素データのγ特性を補正するものである。γ
補正回路103eは予め設定された補正テーブルを用い
て各画素データのレベルを補正する。
The black level correction circuit 103c corrects the black level of each A / D converted pixel data to a reference black level. The WB circuit 103d adjusts the white balance of the captured image. The WB circuit 103 d adjusts the white balance of the captured image by converting the levels of the pixel data of the R, G, and B color components using the level conversion table input from the overall control unit 108. The conversion coefficient of each color component in the level conversion table is set by the overall control unit 108 for each captured image. γ correction circuit 1
03e corrects the γ characteristic of the pixel data. γ
The correction circuit 103e corrects the level of each pixel data using a preset correction table.

【0062】画像メモリ103fは信号処理の終了した
画像データを一時保存するメモリである。画像メモリ1
03fは少なくとも2フレーム分の画像データを記憶し
得る容量を有している。これは、ボケ味調整モード等の
撮影では2回連続して露光が行なわれ、2フレーム分の
画像データが取り込まれるから、これらをそれぞれ保存
できるようにするためである。なお、1フレーム分の画
像データを記憶し得る記憶容量は、例えばCCD102
aの画素数を1600×1200=192万とすると、
192万個の画素データを記憶し得る容量である。
The image memory 103f is a memory for temporarily storing image data for which signal processing has been completed. Image memory 1
03f has a capacity capable of storing image data of at least two frames. This is because two consecutive exposures are performed in the imaging in the blur adjustment mode or the like and two frames of image data are captured, so that these can be stored. The storage capacity capable of storing one frame of image data is, for example, the CCD 102
Assuming that the number of pixels of a is 1600 × 1200 = 1.92 million,
This is a capacity capable of storing 1.92 million pixel data.

【0063】発光制御部104は全体制御部108から
入力される発光制御信号に基づいてフラッシュ5の発光
を制御する。発光制御信号には発光準備の指示、発光タ
イミング及び発光量とが含まれる。発光制御部104は
全体制御部108から発光準備の指示があると、メイン
コンデンサを充電して発光可能状態にし、発光タイミン
グ信号に同期してメインコンデンサの蓄積電荷を放電す
ることによりフラッシュ5を発光させる。そして、全体
制御部108から入力される発光停止信号に基づいてメ
インコンデンサの蓄積電荷の放電を停止させる。これに
よりフラッシュ5は所要の発光量で発光される。
The light emission control unit 104 controls light emission of the flash 5 based on a light emission control signal input from the overall control unit 108. The light emission control signal includes a light emission preparation instruction, light emission timing, and light emission amount. Upon receiving an instruction to prepare for light emission from the overall control unit 108, the light emission control unit 104 charges the main capacitor to enable light emission, and discharges the accumulated charge in the main capacitor in synchronization with the light emission timing signal to emit the flash 5. Let it. Then, based on the light emission stop signal input from the overall control unit 108, the discharge of the accumulated charge in the main capacitor is stopped. Thus, the flash 5 emits light with a required light emission amount.

【0064】レンズ制御部105はレンズ101内のフ
ォーカス用レンズ101a、ズーム用レンズ101b及
び絞り101cの各部材の駆動を制御するものである。
レンズ制御部105は絞り101cの絞り値を制御する
絞り制御回路105a、フォーカスモータFMの駆動を
制御するフォーカス制御回路105b及びズームモータ
ZMの駆動を制御するズーム制御回路105cを備えて
いる。
The lens control unit 105 controls the driving of the focusing lens 101a, the zoom lens 101b, and the diaphragm 101c in the lens 101.
The lens control unit 105 includes an aperture control circuit 105a for controlling the aperture value of the aperture 101c, a focus control circuit 105b for controlling the drive of the focus motor FM, and a zoom control circuit 105c for controlling the drive of the zoom motor ZM.

【0065】絞り制御回路105aは全体制御部108
から入力される絞り値に基づいて絞り101aを駆動
し、その開口量を当該絞り値に設定する。フォーカス制
御回路105bは全体制御部108から入力されるAF
制御信号(例えば駆動パルス数等の制御値)に基づいて
フォーカスモータFMの駆動量を制御し、フォーカス用
レンズを焦点位置に設定する。ズーム制御回路105c
は全体制御部108から入力されるズーム制御信号(4
連スイッチ209の操作情報)に基づいてズームモータ
ZMを駆動し、ズーム用レンズ101bを4連スイッチ
209で指定された方向に移動させる。すなわち、ズー
ム制御回路105cは全体制御部108から4連スイッ
チ209の右方向の操作情報が入力されると、ズームモ
ータZMを正方向に駆動してズーム用レンズ101bを
ワイド側に移動させ、4連スイッチ209の左方向の操
作情報が入力されると、ズームモータZMを逆方向に駆
動してズーム用レンズ101bをテレ側に移動させる。
The aperture control circuit 105a is a general control unit 108
The aperture 101a is driven on the basis of the aperture value input from, and the aperture amount is set to the aperture value. The focus control circuit 105b controls the AF input from the overall control unit 108.
The drive amount of the focus motor FM is controlled based on a control signal (for example, a control value such as the number of drive pulses), and the focus lens is set at the focal position. Zoom control circuit 105c
Is a zoom control signal (4
The zoom motor ZM is driven based on the operation information of the continuous switch 209), and the zoom lens 101b is moved in the direction specified by the quad switch 209. That is, when the right operation information of the quad switch 209 is input from the overall control unit 108, the zoom control circuit 105c drives the zoom motor ZM in the forward direction to move the zoom lens 101b to the wide side, and When the left operation information of the continuous switch 209 is input, the zoom motor ZM is driven in the reverse direction to move the zoom lens 101b to the tele side.

【0066】表示部106はLCD表示部207への表
示と電子ビューファインダ4への表示とを行うものであ
る。表示部106にはLCD表示部207に相当するデ
ィスプレイ106a及びVRAM106bと電子ビュー
ファインダ4内のLCD表示部401に相当するディス
プレイ106c及びVRAM106dとが含まれる。デ
ィスプレイ106aは、例えば640×480=307
200の画素数を有し、ディスプレイ106cは、例え
ば400×300=120000の画素数を有してい
る。従って、VRAM106bはディスプレイ106a
の画素数に対応して略30.7万個の画素データが記憶
可能になされ、VRAM106dはディスプレイ106
cの画素数に対応して略12万個の画素データが記憶可
能になっている。
The display unit 106 performs display on the LCD display unit 207 and display on the electronic viewfinder 4. The display unit 106 includes a display 106a and a VRAM 106b corresponding to the LCD display unit 207, and a display 106c and a VRAM 106d corresponding to the LCD display unit 401 in the electronic viewfinder 4. The display 106a has, for example, 640 × 480 = 307.
The display 106c has, for example, 400 × 300 = 120,000 pixels. Therefore, the VRAM 106b is connected to the display 106a.
370,000 pixel data can be stored corresponding to the number of pixels of VRAM 106d.
Approximately 120,000 pixel data can be stored corresponding to the number of pixels of c.

【0067】撮影待機中ではCCD102aで撮影さ
れ、所定の信号処理の後に画像メモリ103fに格納さ
れる動画の各フレーム画像のデータが順次、全体制御部
108に読み出され、データサイズがディスプレイ10
6cの表示サイズに調整されて(すなわち、192万画
素の画像データが略12万画素の画像データに調整され
て)VRAM106dに転送される。これにより被写体
のプレビュー画像がディスプレイ106c(LCD表示
部401の表示面)にモニタ表示される。また、表示ス
イッチ210dに操作によりLCD表示部207の表示
が指示されると、全体表示部108に読み出された各フ
レーム画像のデータがディスプレイ106aの表示サイ
ズに調整されて(すなわち、192万画素の画像データ
が略30.7万画素の画像データに調整されて)VRA
M106bに転送され、これにより被写体のプレビュー
画像がディスプレイ106a(LCD表示部207の表
示面)にもモニタ表示される。
During the photographing standby, the photographing is performed by the CCD 102a, and after predetermined signal processing, the data of each frame image of the moving image stored in the image memory 103f is sequentially read out to the overall control unit 108, and the data size is displayed on the display 10
The display size is adjusted to 6c (that is, the image data of 1.92 million pixels is adjusted to image data of approximately 120,000 pixels) and transferred to the VRAM 106d. As a result, a preview image of the subject is displayed on the display 106c (display surface of the LCD display unit 401) on the monitor. When display of the LCD display unit 207 is instructed by operating the display switch 210d, the data of each frame image read to the overall display unit 108 is adjusted to the display size of the display 106a (that is, 1.92 million pixels). VRA is adjusted to image data of approximately 307000 pixels)
The preview image of the subject is also displayed on the display 106a (display surface of the LCD display unit 207) on the monitor.

【0068】更にメニュースイッチ210cの操作によ
りメニュー表示が指示されると、全体制御部108内の
ROM108aに記憶されたメニュー画面の画像データ
がVRAM106bに読み出され、これによりディスプ
レイ106aの表示内容がメニュー画面に切り換えられ
る。
Further, when the menu display is instructed by operating the menu switch 210c, the image data of the menu screen stored in the ROM 108a in the overall control unit 108 is read out to the VRAM 106b, and the display contents of the display 106a are changed to the menus. You can switch to the screen.

【0069】再生モードでは全体制御部108によりメ
モリカードMCに記録された各コマの画像ファイルから
撮影画像のサムネイル画像が読み出され、所定のフォー
マットに従って配列されてインデックス表示用の画像デ
ータが作成され、その画像データがVRAM106bに
読み出される。これによりディスプレイ106aにはメ
モリカードMCに記録された撮影画像の一覧が表示され
る。そして、4連スイッチ209の操作により再生すべ
きコマが指定されると、メモリカードMCに記録された
そのコマに対応する画像ファイルに記録された撮影画像
の画像データが読み出され、ディスプレイ106aの表
示サイズに調整されてVRAM106bに転送される。
これにより撮影画像がディスプレイ106a(LCD表
示部207の表示面)に再生表示される。
In the reproduction mode, thumbnail images of the shot images are read from the image file of each frame recorded on the memory card MC by the overall control unit 108, arranged in a predetermined format, and image data for index display is created. , The image data is read out to the VRAM 106b. As a result, a list of captured images recorded on the memory card MC is displayed on the display 106a. When the frame to be reproduced is designated by operating the quad switch 209, the image data of the photographed image recorded in the image file corresponding to the frame recorded on the memory card MC is read, and the image data of the display 106a is read. The image is adjusted to the display size and transferred to the VRAM 106b.
As a result, the captured image is reproduced and displayed on the display 106a (the display surface of the LCD display unit 207).

【0070】操作部107はカメラ本体2に設けられた
撮影や再生に関する操作部材の操作情報を全体制御部1
08に入力するものである。操作部107から入力され
る操作情報にはシャッタボタン206、電源スイッチ2
08、4連スイッチ209、スイッチ群210等の各操
作部材の操作情報が含まれる。
The operation unit 107 transmits operation information of operation members related to photographing and reproduction provided in the camera body 2 to the overall control unit 1.
08. Operation information input from the operation unit 107 includes a shutter button 206, a power switch 2
08, four-switch 209, switch group 210, and other operation members.

【0071】全体制御部108はデジタルスチルカメラ
1の有する撮影機能及び再生機能を集中制御するもので
ある。全体制御部108にはカードインターフエース1
09を介してメモリカードMCが接続されている。ま
た、通信用インターフェース110を介してパーソナル
コンピュータPCが外部接続されるようになっている。
The overall control unit 108 centrally controls the photographing function and the reproducing function of the digital still camera 1. The overall control unit 108 has a card interface 1
09 is connected to a memory card MC. Also, a personal computer PC is externally connected via the communication interface 110.

【0072】全体制御部108はマイクロコンクピュー
タからなり、撮影機能及び再生機能における種々の具体
的な処理を行なうための処理プログラムや上述の撮像部
102、信号処理部103、発光制御部104、レンズ
制御部105、表示部106等の駆動を制御するための
制御プログラムが記憶されたROM108aと処理プロ
グラム及び制御プログラムに従って種々の演算作業を行
なうためのRAM108bを備えている。
The overall control unit 108 is composed of a microcomputer, and includes a processing program for performing various specific processes in the photographing function and the reproduction function, and the above-described imaging unit 102, signal processing unit 103, light emission control unit 104, lens The control unit 105 includes a ROM 108a in which a control program for controlling driving of the display unit 106 and the like is stored, and a RAM 108b for performing various arithmetic operations in accordance with a processing program and a control program.

【0073】全体制御部108の行なう具体的な処理に
は、ライブビュー画像を取り込んだり、被写体を撮影す
る際の露出制御値(CCD102aの露光時間Tv〔A
PEX値〕と絞り101cの絞り値Av〔APEX
値〕)を算出する処理(露出制御値演算処理)、記録モ
ードにおいてCCD102aから画像メモリ103fに
取り込まれたライブビュー画像を電子ビューファイダ4
に表示したり、再生モードにおいてメモリカードMCか
ら画像メモリ103fに読み出された記録画像をLCD
表示部207に表示する処理(画像表示処理)、記録モ
ードにおいてCCD102aから画像メモリ103fに
取り込まれた記録画像をカードメモリMCに記録する処
理(記録処理)したり、再生モードにおいてメモリカー
ドMCから再生すべき記録画像を画像メモリ103fに
読み出す処理(再生処理)、ボケ味調整モード等の特殊
撮影モードにおいて連続して露光動作を行なわせる処理
(特殊露光制御処理)等が含まれる。
The specific processing performed by the overall control unit 108 includes an exposure control value (an exposure time Tv [A
PEX value] and the aperture value Av of the aperture 101c [APEX
Value]) (exposure control value calculation process), and in the recording mode, the live view image taken into the image memory 103f from the CCD 102a is converted into an electronic viewfinder 4.
Or the recorded image read out from the memory card MC to the image memory 103f in the reproduction mode by the LCD.
A process for displaying on the display unit 207 (image display process), a process for recording a recording image taken from the CCD 102a into the image memory 103f in the recording mode in the recording mode (recording process), and a reproduction from the memory card MC in the reproduction mode The process includes a process of reading a recording image to be recorded to the image memory 103f (reproduction process), a process of continuously performing an exposure operation in a special shooting mode such as a blur adjustment mode (special exposure control process), and the like.

【0074】露出値演算部108c、表示制御部108
d、記録制御部108e、再生制御部108f及び特殊
露光制御部108gは全体制御部108における上述の
各処理を機能ブロックで表わしたものである。
Exposure value calculator 108c, display controller 108
d, a recording control unit 108e, a reproduction control unit 108f, and a special exposure control unit 108g represent the above-described processes in the overall control unit 108 by functional blocks.

【0075】露出値定部108cは露出値演算処理を行
なうもので、ライブビュー画像のGの色成分の画像デー
タを用いて被写体の輝度を判定し、その判定結果に基づ
いて露出制御値を演算する。
The exposure value determination unit 108c performs an exposure value calculation process, determines the brightness of the subject using image data of the G color component of the live view image, and calculates an exposure control value based on the determination result. I do.

【0076】表示制御部108dは画像表示処理を行な
うもので、上述の表示部106の表示動作、すなわち、
画像メモリ103fに一時保存されている画像データを
読み出し、必要に応じて画像サイズを表示先の画像サイ
ズに調整した後、VRAM106cまたはVRAM10
6dに転送する動作を行なう。
The display control unit 108d performs an image display process. The display operation of the display unit 106, that is,
After reading out the image data temporarily stored in the image memory 103f and adjusting the image size to the image size of the display destination as necessary, the VRAM 106c or the VRAM 10
6d.

【0077】記録制御部108eは記録処理を行なうも
のである。記録制御部108eは、通常撮影モードにお
いて、シャッタボタン206により撮影が指示される
と、撮影指示後に画像メモリ103fに一時記憶された
画像データ(静止画の画像データ)をRAM108bに
読み出し、例えば2次元DCT変換、ハフマン符号化等
のJPEG方式による所定の圧縮処理を行なって記録用
の画像データを作成する。また、画像メモリ103fか
ら縦横両方向でそれぞれ8画素毎に画素データをRAM
108bに読み出すことで、画素数200×150のサ
ムネイル画像を作成する。更に、これらの記録用の画像
データに付随して記録される撮影画像に関するタグ情報
を作成する。このタグ情報にはレンズ名称、コマ番号、
撮影時の焦点距離、撮影時のFナンバー、焦点位置、被
写体輝度、ホワイトバランス調整値、撮影モード、圧縮
率、撮影日、フラッシュ発光の有無等が含まれる。
The recording control section 108e performs a recording process. In the normal shooting mode, when shooting is instructed by the shutter button 206 in the normal shooting mode, the recording control unit 108e reads out the image data (still image data) temporarily stored in the image memory 103f after the shooting instruction to the RAM 108b. A predetermined compression process by the JPEG method such as DCT conversion and Huffman coding is performed to create image data for recording. Also, pixel data is stored in the image memory 103f every 8 pixels in both the vertical and horizontal directions.
By reading it out to 108b, a thumbnail image having 200 × 150 pixels is created. Further, tag information relating to a captured image to be recorded accompanying these image data for recording is created. This tag information includes the lens name, frame number,
The information includes a focal length at the time of photographing, an F-number at the time of photographing, a focal position, a subject brightness, a white balance adjustment value, a photographing mode, a compression ratio, a photographing date, and whether or not a flash is emitted.

【0078】そして、記録制御部108eは圧縮された
撮影画像及びサムネイル画像の画像データにタグ情報を
添付してEXIF(Exchangeable Image File Format)
形式の画像ファィルを作成し、この画像ファィルをメモ
リカードMCに記録する。
The recording control unit 108e attaches tag information to the compressed image data of the photographed image and the thumbnail image, and adds EXIF (Exchangeable Image File Format)
A format image file is created, and this image file is recorded on the memory card MC.

【0079】ボケ味調整モード、階調調整モード及び超
解像モードの撮影モードにおいても撮影画像がA/D変
換された後に画像ファィルが作成されてメモリカードM
Cに記録される。
Also in the blur adjustment mode, the gradation adjustment mode, and the super-resolution mode, an image file is created after the captured image is A / D converted and the memory card M
Recorded in C.

【0080】尤もこれらの撮影モードでは1回のシャッ
タ操作で2枚の撮影画像A,Bが生じるので、各撮影画
像A,Bについて非圧縮のTIFF(Tag Image File F
ormat)形式の画像ファィルが作成されてそれぞれメモ
リカードMCに記録される。また、撮影画像A,Bはボ
ケ味や階調や解像度などの優れた画像を生成するために
用いられるので、両画像ファイルのタグ情報には画像合
成用の撮影画像であることが認識できる情報が含まれ
る。また、撮影画像A,Bは画像合成によって画質を改
善するためのものであるから、画質の低下要因となる圧
縮処理は行なわないで、全画素データがそのまま記録さ
れる。
In these photographing modes, two photographed images A and B are generated by one shutter operation, so that each photographed image A and B is uncompressed TIFF (Tag Image File FFF).
(ormat) format image files are created and recorded on the memory card MC. Further, since the photographed images A and B are used to generate an image having excellent blur, gradation, resolution, and the like, the tag information of both image files includes information that can be recognized as a photographed image for image synthesis. Is included. Further, since the photographed images A and B are for improving the image quality by image synthesis, all the pixel data are recorded as they are without performing compression processing which causes a decrease in image quality.

【0081】図8は、メモリカードMCに記録された画
像ファイルの構成例を示すものである。
FIG. 8 shows an example of the structure of an image file recorded on the memory card MC.

【0082】同図において、「P000001.TI
F」、「P000002.TIF」等は画像ファイル名
を示している。本実施形態では画像ファイル名を「P
X.Y」で表記しており、「PX.Y」の「X」は画像
ファイルが作成された順番を示す6桁の番号であり、
「Y」は画像データの形式を示す記号である。「Y」に
入る記号「TIF」はCCD205から出力される画素
データをそのまま記録する形式であることを示し、記号
「JPG」はJPEG形式で圧縮されたデータであるこ
とを示している。
In the figure, “P000001.TI”
“F”, “P000002.TIF” and the like indicate image file names. In the present embodiment, the image file name is "P
X. Y ”,“ X ”of“ PX.Y ”is a 6-digit number indicating the order in which the image files were created,
“Y” is a symbol indicating the format of the image data. The symbol "TIF" in "Y" indicates that the pixel data output from the CCD 205 is recorded as it is, and the symbol "JPG" indicates that the data is compressed in the JPEG format.

【0083】また、ボケ味調整モード、階調調整モード
及び超解像モードでは連続して2枚の撮影画像が取り込
まれ、これらの画像データについてそれぞれ画像ファイ
ルが作成されるから、本実施形態では両画像ファイルを
1つのホルダに纏めてメモリカードMCに記録するよう
になっている。従って、「1b」及び「2b」、「1
t」、「2h」等はそれぞれボケ味調整モード、階調調
整モード及び超解像モードで撮影された画像ファィルの
ホルダ名を示している。
In the blur adjustment mode, the gradation adjustment mode, and the super-resolution mode, two captured images are taken in continuously, and an image file is created for each of these image data. Both image files are combined into one holder and recorded on the memory card MC. Therefore, “1b”, “2b”, “1”
“t”, “2h”, and the like indicate the holder names of the image files captured in the blur adjustment mode, the gradation adjustment mode, and the super-resolution mode, respectively.

【0084】なお、本実施形態ではホルダ名を「Ni」
で表記しており、「Ni」の「i」は撮影モードを示す
記号(b,t,h)であり、「N」は各撮影モードにお
ける撮影順を示す番号である。例えば「1b」はボケ味
調整モードで最初に撮影された画像の画像データが格納
されたホルダであることを示し、「2b」はボケ味調整
モードで2番目に撮影された画像の画像データが格納さ
れたホルダであることを示している。
In this embodiment, the holder name is “Ni”.
Where “i” of “Ni” is a symbol (b, t, h) indicating a shooting mode, and “N” is a number indicating a shooting order in each shooting mode. For example, “1b” indicates that the image data of the first image captured in the blur adjustment mode is stored in the holder, and “2b” indicates that the image data of the second image captured in the blur adjustment mode is stored. Indicates that it is a stored holder.

【0085】従って、図8は、ボケ味調整モードで撮影
され、作成された2個のホルダ1b,2bと階調調整モ
ード及び超解像モードでそれぞれ撮影され、作成された
ホルダ1t,1hと通常撮影モードで撮影され、作成さ
れた2個の画像ファイル1n,2nとがホルダPに纏め
られてメモリカードMCに保存されていることを示して
いる。
Therefore, FIG. 8 shows two holders 1b and 2b photographed and produced in the blur adjustment mode and holders 1t and 1h photographed and produced in the gradation adjustment mode and the super-resolution mode, respectively. This shows that the two image files 1n and 2n that have been photographed and created in the normal photographing mode are collected in the holder P and stored in the memory card MC.

【0086】図9は、メモリカードMCへの画像ファイ
ルの記録方法を示す図である。
FIG. 9 is a diagram showing a method of recording an image file on the memory card MC.

【0087】メモリカードMCの先頭の記憶領域にはホ
ルダ情報と各ホルダに属する画像ファイルの情報とを記
憶するインデックス領域が設けられ、その後の領域に各
画像ファイルがファイル番号Xの順に記憶されている。
An index area for storing holder information and information on image files belonging to each holder is provided in the head storage area of the memory card MC, and the respective image files are stored in the subsequent area in the order of the file number X. I have.

【0088】メモリカードMCにおける各画像ファイル
の記録領域は3つの領域からなり、上から各領域にタグ
情報のデータ、撮影画像のデータ及びサムネイル画像の
データが記憶される。タグ情報データ及びサムネイル画
像データのデータサイズは画像ファィルによって変化し
ないが、撮影画像のデータサイズは圧縮率や撮影モード
によって変化する。このため、メモリカードMCの画像
ファィルの記憶領域に記憶可能なファイル数は各画像フ
ァィルの撮影画像データのデータサイズによって変化す
る。
The recording area of each image file in the memory card MC is composed of three areas, and the data of the tag information, the data of the photographed image, and the data of the thumbnail image are stored in each area from the top. The data sizes of the tag information data and the thumbnail image data do not change depending on the image file, but the data size of the shot image changes depending on the compression ratio and the shooting mode. Therefore, the number of files that can be stored in the image file storage area of the memory card MC changes depending on the data size of the captured image data of each image file.

【0089】再生制御部108fはメモリカードMCに
記録された撮影画像のLCD表示部207への再生処理
を行なうものである。再生制御部108fは、電源スイ
ッチ208により再生モードが設定されると、メモリカ
ードMCに記録された各画像ファイルからサムネイル画
像を読み出し、順次、所定のインデックスフォーマット
に従ってVRAM106bに記憶する。例えば1ページ
当たり、9枚のサムネイル画像が3×3に2次配列され
るようにVRAM106bに記憶する。従って、これに
よりLCD表示部207に9枚の2次元配列されたサム
ネイル画像がインデックス表示される。
The reproduction control unit 108f performs a process of reproducing the captured image recorded on the memory card MC on the LCD display unit 207. When the reproduction mode is set by the power switch 208, the reproduction control unit 108f reads out the thumbnail images from each image file recorded on the memory card MC, and sequentially stores the thumbnail images in the VRAM 106b according to a predetermined index format. For example, nine thumbnail images are stored in the VRAM 106b so as to be arranged in a 3 × 3 secondary array per page. Accordingly, nine two-dimensionally arranged thumbnail images are index-displayed on the LCD display unit 207.

【0090】なお、撮影モードがボケ味調整モード、階
調調整モード及び超解像モードである対関係の画像ファ
ィルについては、両画像ファイルに同一のサムネイル画
像が記憶されているので、一方の画像ファイルのみから
サムネイル画像が読み出される。
Note that the same thumbnail image is stored in both image files for the related image files in which the shooting mode is the blur adjustment mode, the gradation adjustment mode, and the super-resolution mode. A thumbnail image is read from only the file.

【0091】インデックス表示されたサムネイル画像に
対して再生すべきコマのサムネイル画像が4連スイッチ
209及びスイッチ群210によって指定されると、再
生処理部108fは、そのコマに対応する画像ファィル
から撮影画像のデータを読み出し、そのコマが通常撮影
モードの場合は、データが圧縮されているので、所定の
伸長処理を行なった後、画像メモリ103fに記憶し、
そのコマが通常撮影モードでない場合は、データは圧縮
されていないので、そのまま画像メモリ103fに記憶
する。この画像メモリ103fに読み出されたデータ
は、上述したように表示制御部108dによりデータサ
イズが調整されてVRAM106bに転送され、これに
よりLCD表示部207に再生表示される。
When a thumbnail image of a frame to be reproduced with respect to the index-displayed thumbnail image is designated by the four-way switch 209 and the switch group 210, the reproduction processing unit 108f reads the captured image from the image file corresponding to the frame. Is read out, and when the frame is in the normal shooting mode, since the data is compressed, a predetermined decompression process is performed, and the data is stored in the image memory 103f.
If the frame is not in the normal shooting mode, the data is not compressed and is stored in the image memory 103f as it is. The data read out to the image memory 103f is adjusted in data size by the display control unit 108d and transferred to the VRAM 106b as described above, and is thereby reproduced and displayed on the LCD display unit 207.

【0092】なお、再生すべきコマがボケ味調整モード
で撮影されたコマである場合は、ピントの合っている撮
影画像(本実施形態では後述するように2回目に撮影さ
れた画像)の画像ファィルから撮影画像のデータが読み
出され、階調調整モード及び超解像モードで撮影された
コマである場合は、対応する画像ファイルの内、いずれ
か一方の画像ファイルから撮影画像のデータが読み出さ
れる。
If the frame to be reproduced is a frame shot in the bokeh adjustment mode, an image of a focused shot image (an image shot second time as described later in this embodiment). If the captured image data is read from the file and the frame is captured in the gradation adjustment mode or the super-resolution mode, the captured image data is read from one of the corresponding image files. It is.

【0093】特殊露光制御部108gは、ボケ味調整モ
ード、階調調整モード及び超解像モードが設定されてい
る状態でシャッタボタン6が全押しされたときのCCD
102aの露光動作を制御するものである。特殊露光制
御部108gは、基本的にS2スイッチがオンになる
と、画像合成用の画像を取り込むため、連続してCCD
102aの露光動作を2回繰り返す。
The special exposure control unit 108g operates the CCD when the shutter button 6 is fully pressed in a state where the blur adjustment mode, the gradation adjustment mode, and the super-resolution mode are set.
The exposure operation 102a is controlled. Basically, when the S2 switch is turned on, the special exposure control unit 108g continuously captures an image for image synthesis.
The exposure operation of 102a is repeated twice.

【0094】次に、デジタルスチルカメラ1の記録モー
ドにおける撮影動作について、本発明に係るボケ味調整
モード、階調調整モード及び超解像モードにおける撮影
動作を説明する。
Next, with respect to the photographing operation in the recording mode of the digital still camera 1, the photographing operation in the blur adjustment mode, the gradation adjustment mode and the super-resolution mode according to the present invention will be described.

【0095】図10はボケ味調整モードでの静止画の撮
影手順を示すフローチャートである。
FIG. 10 is a flowchart showing the procedure for photographing a still image in the blur adjustment mode.

【0096】ボケ味調整モードにおいて、シャッタボタ
ン206が半押しされると(#1でYES)、静止画撮
影のための準備が行なわれる。すなわち、絞り101c
の絞り値が開放絞り値(例えばF=2.8)に設定され
(#3)、レンズ101の焦点が∞位置に調節される
(#5)。また、CCD102aの露光時間が設定さ
れ、ホワイトバランス調整が行なわれる(#7)。
In the blur adjustment mode, when the shutter button 206 is half-pressed (YES in # 1), preparations for photographing a still image are performed. That is, the diaphragm 101c
Is set to an open aperture value (for example, F = 2.8) (# 3), and the focal point of the lens 101 is adjusted to the ∞ position (# 5). Further, the exposure time of the CCD 102a is set, and white balance adjustment is performed (# 7).

【0097】この状態でシャッタボタン206が全押し
されると(#7でYES)、CCD102aをステップ
#7で設定された露光時間だけ露光して被写体の静止画
像が取り込まれる(#11)。露光の後、CCD102
aから出力される画像信号は信号処理部103で所定の
アナログ信号処理、A/D変換及び所定のデジタル信号
処理が行なわれて画像メモリ103fに記憶される。こ
の撮影画像はレンズ101の焦点を∞位置に調節してい
るので、画面の背景にピントが合い、画面内の人物等の
主被写体に対してはピンボケ状態となっている。
When the shutter button 206 is fully pressed in this state (YES in # 7), the CCD 102a is exposed for the exposure time set in step # 7, and a still image of the subject is captured (# 11). After exposure, the CCD 102
The image signal output from a is subjected to predetermined analog signal processing, A / D conversion, and predetermined digital signal processing in the signal processing unit 103, and is stored in the image memory 103f. In this captured image, the focus of the lens 101 is adjusted to the position ∞, so that the background of the screen is in focus and the main subject such as a person in the screen is out of focus.

【0098】続いて、全体制御部108の記録制御部1
08eによりタグ情報のデータが作成されるとともに、
画像メモリ103fに記憶された画像データを用いてサ
ムネイル画像の画像データが作成され、これらのデータ
と画像メモリ103fに記憶された画像データとから画
像ファィルが作成され、メモリカードMCに記憶される
(#13)。なお、この撮影画像に対するタグ情報の撮
影モードには「ボケ味調整モード1/2」(図8参照)
のように、ボケ味調整モードで1回目に撮影されたもの
であることを示す情報が付与される。
Subsequently, the recording control unit 1 of the overall control unit 108
08e creates tag information data,
Image data of a thumbnail image is created using the image data stored in the image memory 103f, an image file is created from these data and the image data stored in the image memory 103f, and stored in the memory card MC ( # 13). The shooting mode of the tag information for the shot image is “blur taste adjustment mode 1/2” (see FIG. 8).
As described above, information indicating that the image has been shot for the first time in the blur adjustment mode is added.

【0099】この撮影モードに関する情報をタグ情報に
入れているのは、通常撮影モードの撮影画像と識別する
とともに、後述するように画像処理装置でこの画像ファ
ィルが選択されたとき、自動的にボケ味調整処理の処理
プログラムを起動して直ちにボケ味調整処理ができるよ
うにするためである。なお、ボケ味調整モードで撮影さ
れた2枚目の撮影画像に付いても同様であり、階調調整
モードや超解像モードで撮影された画像についても同様
にタグ情報に撮影モードに関する情報を記録するように
している。
The information relating to the photographing mode is included in the tag information because it is distinguished from the photographed image in the normal photographing mode, and is automatically blurred when this image file is selected by the image processing apparatus as described later. This is in order to start the processing program of the taste adjustment processing and immediately perform the blur adjustment processing. Note that the same applies to the second captured image captured in the bokeh adjustment mode. Similarly, for the image captured in the gradation adjustment mode or the super-resolution mode, the tag information includes information about the capture mode. I try to record it.

【0100】続いて、レンズ101の焦点が、例えば3
m先の位置に調節され(#15)、更にCCD102a
の露光時間が設定されるとともに、ホワイトバランス調
整が行なわれる(#17)。
Subsequently, the focal point of the lens 101 is, for example, 3
m (# 15), and the CCD 102a
Is set, and the white balance is adjusted (# 17).

【0101】そして、CCD102aをステップ#17
で設定された露光時間だけ露光して被写体の静止画像が
取り込まれる(#19)。露光の後、CCD102aか
ら出力される画像信号は信号処理部103で所定のアナ
ログ信号処理、A/D変換及び所定のデジタル信号処理
が行なわれて画像メモリ103fに記憶される。この撮
影画像はレンズ101の焦点を3m先に調節しているの
で、ほぼ画面内の主被写体に対しピントが合っている。
Then, the CCD 102a is moved to step # 17.
The still image of the subject is captured by exposing for the exposure time set in (# 19). After the exposure, the image signal output from the CCD 102a is subjected to predetermined analog signal processing, A / D conversion, and predetermined digital signal processing in the signal processing unit 103, and is stored in the image memory 103f. In this captured image, the focus of the lens 101 is adjusted 3 m ahead, so that the main subject in the screen is almost in focus.

【0102】続いて、全体制御部108の表示制御部1
08dにより画像メモリ103fからRAM108bに
画像データが読み出され、データサイズが調整された
後、VRAM106bに転送されてLCD表示部207
に表示される(#21)。この表示処理は撮影直後に撮
影画像をモニタできるようにするためのもので、所定の
時間(例えば2秒間)が経過すると、ライブビュー画像
に切り換えられる。
Subsequently, the display control unit 1 of the overall control unit 108
08d, the image data is read from the image memory 103f to the RAM 108b, and the data size is adjusted.
(# 21). This display process is to enable monitoring of the captured image immediately after shooting, and after a predetermined time (for example, 2 seconds) elapses, the image is switched to the live view image.

【0103】また、全体制御部108の記録制御部10
8eによりタグ情報のデータが作成されるとともに、画
像メモリ103fに記憶された画像データを用いてサム
ネイル画像の画像データが作成される。なお、この撮影
画像に対するタグ情報の撮影モードには「ボケ味調整モ
ード2/2」のように、ボケ味調整モードで2回目に撮
影されたものであることを示す情報が付与される。
The recording control unit 10 of the overall control unit 108
The tag information data is created by 8e, and the image data of the thumbnail image is created using the image data stored in the image memory 103f. Note that information indicating that the image has been shot for the second time in the blur adjustment mode, such as “blur taste adjustment mode 2/2”, is given to the shooting mode of the tag information for the shot image.

【0104】そして、これらのデータと画像メモリ10
3fに記憶された画像データとから画像ファィルが作成
され、メモリカードMCに記憶される(#23)。これ
により撮影処理は終了し、撮影待機状態(ライブビュー
画像の表示状態)に戻る。
The data and the image memory 10
An image file is created from the image data stored in the memory card 3f and stored in the memory card MC (# 23). Thus, the photographing process ends, and the process returns to the photographing standby state (the display state of the live view image).

【0105】なお、この実施形態では、最初に遠景側に
焦点を合わせた後、2回目に近景側に焦点を合すように
しているが、合焦位置の変更順はこの逆であってもよ
い。また、カメラ起動後、ボケ味調整モードで撮影が行
なわれる場合、カメラ起動時はフォーカス用レンズ10
1aが∞位置に初期設定されるので、最初の撮影では遠
景側に焦点を合わせる方がフォーカス制御の無駄が無
く、合理的である。
In this embodiment, the focus is first set on the distant view side, and then the focus is set on the near view side for the second time. However, the order of changing the focus position may be reversed. Good. In addition, when shooting is performed in the blur adjustment mode after the camera is started, when the camera is started, the focusing lens 10 is used.
Since 1a is initially set to the ∞ position, it is more reasonable to focus on the distant view side in the first shooting without wasteful focus control.

【0106】また、2回目の撮影では合焦位置をカメラ
から3mの位置に固定しているが、これはボケ味調整処
理により任意のピント状態の合成画像が作成されるの
で、合成前の撮影画像の合焦位置を正確に決定する必要
性が低いことと、フォーカス制御の処理時間を出来るだ
け短くして連続撮影を迅速に行なえるようにすることを
考慮したものであり、合焦位置としてカメラからの距離
を他の距離に固定してもよく、AF処理により正確に主
被写体までの距離としてもよい。
In the second photographing, the in-focus position is fixed at a position 3 m from the camera. However, since the combined image in an arbitrary focused state is created by the blur adjustment processing, the photographing before combining is performed. Considering that the need to accurately determine the focus position of the image is low and that the processing time for focus control is as short as possible so that continuous shooting can be performed quickly, The distance from the camera may be fixed to another distance, or the distance to the main subject may be accurately determined by AF processing.

【0107】図11は、階調調整モードでの静止画の撮
影手順を示すフローチャートである。
FIG. 11 is a flowchart showing a procedure for photographing a still image in the gradation adjustment mode.

【0108】階調調整モードにおいて、シャッタボタン
206が半押しされると(#31でYES)、静止画撮
影のための準備が行なわれる。すなわち、レンズ101
の焦点が主被写体に調節されるとともに、ライブビュー
画像を用いて露出制御値(Tv,Av)が算出され、ホ
ワイトバランス調整値が設定される(#33)。
In the gradation adjustment mode, when shutter button 206 is half-pressed (YES in # 31), preparations for photographing a still image are performed. That is, the lens 101
Is adjusted to the main subject, an exposure control value (Tv, Av) is calculated using the live view image, and a white balance adjustment value is set (# 33).

【0109】この状態でシャッタボタン206が全押し
されると(#35でYES)、ステップ#33で設定さ
れたシャッタスピードTv(APEX値)より2段階アン
ダーのシャッタスピード(Tv−2)が設定され(#3
7)、このシャッタスピードに相当する露光時間だけC
CD102aを露光して被写体の静止画像が取り込まれ
る(#39)。露光の後、CCD102aから出力され
る画像信号は信号処理部103で所定のアナログ信号処
理、A/D変換及び所定のデジタル信号処理が行なわれ
て画像メモリ103fに記憶される。この撮影画像はC
CD102の露光時間を適正値より短くしているので、
全体的に暗い画像となっている。
If the shutter button 206 is fully pressed in this state (YES in # 35), a shutter speed (Tv-2) two steps lower than the shutter speed Tv (APEX value) set in step # 33 is set. (# 3
7), the exposure time corresponding to this shutter speed is C
The still image of the subject is captured by exposing the CD 102a (# 39). After the exposure, the image signal output from the CCD 102a is subjected to predetermined analog signal processing, A / D conversion, and predetermined digital signal processing in the signal processing unit 103, and is stored in the image memory 103f. This shot image is C
Since the exposure time of the CD 102 is shorter than the appropriate value,
The image is dark overall.

【0110】続いて、全体制御部108の記録制御部1
08eによりタグ情報のデータが作成されるとともに、
画像メモリ103fに記憶された画像データを用いてサ
ムネイル画像の画像データが作成され、これらのデータ
と画像メモリ103fに記憶された画像データとから画
像ファィルが作成され、メモリカードMCに記憶される
(#41)。なお、この撮影画像に対するタグ情報の撮
影モードには「階調調整モード1/2」のように、階調
調整モードで1回目に撮影されたものであることを示す
情報が付与される。
Subsequently, the recording control unit 1 of the overall control unit 108
08e creates tag information data,
Image data of a thumbnail image is created using the image data stored in the image memory 103f, an image file is created from these data and the image data stored in the image memory 103f, and stored in the memory card MC ( # 41). It should be noted that information indicating that the image has been shot for the first time in the gradation adjustment mode, such as “gradation adjustment mode 1/2”, is added to the imaging mode of the tag information for the captured image.

【0111】続いて、ステップ#33で設定されたシャ
ッタスピードTv(EV値)より2段階オーバーのシャッ
タスピード(Tv+2)が設定され(#43)、このシ
ャッタスピードに相当する露光時間だけCCD102a
を露光して被写体の静止画画像が取り込まれる(#4
5)。露光の後、CCD102aから出力される画像信
号は信号処理部103で所定のアナログ信号処理、A/
D変換及び所定のデジタル信号処理が行なわれて画像メ
モリ103fに記憶される。この撮影画像はCCD10
2の露光時間を適正値より長くしているので、全体的に
明るい画像となっている。
Subsequently, a shutter speed (Tv + 2) that is two steps over the shutter speed Tv (EV value) set in step # 33 is set (# 43), and the CCD 102a is exposed for an exposure time corresponding to this shutter speed.
And a still image of the subject is captured (# 4).
5). After the exposure, the image signal output from the CCD 102a is subjected to a predetermined analog signal
D conversion and predetermined digital signal processing are performed and stored in the image memory 103f. This photographed image is CCD10
Since the exposure time of No. 2 is longer than the appropriate value, an overall bright image is obtained.

【0112】続いて、全体制御部108の記録制御部1
08eによりタグ情報のデータが作成されるとともに、
画像メモリ103fに記憶された画像データを用いてサ
ムネイル画像の画像データが作成され、これらのデータ
と画像メモリ103fに記憶された画像データとから画
像ファィルが作成され、メモリカードMCに記憶される
(#47)。
Subsequently, the recording control unit 1 of the overall control unit 108
08e creates tag information data,
Image data of a thumbnail image is created using the image data stored in the image memory 103f, an image file is created from these data and the image data stored in the image memory 103f, and stored in the memory card MC ( # 47).

【0113】なお、この撮影画像に対するタグ情報の撮
影モードには「階調調整モード2/2」のように、階調
調整モードで2回目に撮影されたものであることを示す
情報が付与される。
[0113] Note that information indicating that the image has been shot for the second time in the gradation adjustment mode, such as "gradation adjustment mode 2/2", is added to the photographing mode of the tag information for the photographed image. You.

【0114】続いて、全体制御部108の表示制御部1
08dにより画像メモリ103fから1回目の撮影画像
Aの画像データと2回目の撮影画像Bの画像データとが
RAM108bに読み出され、両撮影画像の平均濃度を
有する画像C(以下、平均濃度画像Cという。)の画像
データが作成される(#49)。すなわち、撮影画像A
を構成する画素データをga(i,j)(i=1,2,…n,
j=1,2,…m)、撮影画像Bを構成する画素データを
gb(i,j)とすると、gc(i,j)={ga(i,j)+gb(i,j)}
/2を演算することで平均濃度画像Cの画像データが作
成される。
Subsequently, the display control unit 1 of the overall control unit 108
08d, the image data of the first shot image A and the image data of the second shot image B are read out from the image memory 103f into the RAM 108b, and an image C having an average density of both the shot images (hereinafter referred to as an average density image C) Is created (# 49). That is, photographed image A
Ga (i, j) (i = 1, 2,... N,
j = 1, 2,... m) and gb (i, j) as pixel data constituting the captured image B, gc (i, j) = {ga (i, j) + gb (i, j)}.
By calculating / 2, image data of the average density image C is created.

【0115】この画像データはデータサイズが調整され
た後、VRAM106bに転送されてLCD表示部20
7に表示される(#51)。この表示処理は撮影直後に
撮影画像をモニタできるようにするためのもので、所定
の時間(例えば2秒間)が経過すると、ライブビュー画
像に切り換えられる。
After adjusting the data size, the image data is transferred to the VRAM 106b and
7 is displayed (# 51). This display process is to enable monitoring of the captured image immediately after shooting, and after a predetermined time (for example, 2 seconds) elapses, the image is switched to the live view image.

【0116】なお、モニタ画像として平均濃度画像Cを
用いているのは、1回目と2回目の撮影画像の濃度はそ
れぞれ適正濃度よりそれぞれ−側と+側にずれているの
で、両者の平均値を取ることで演算処理に時間をかける
ことなく適正な濃度バランスを有する画像を直ちに表示
するようにしたものである。
The average density image C is used as the monitor image because the densities of the first and second shot images are shifted from the appropriate densities to the minus side and the plus side, respectively. Thus, an image having an appropriate density balance is immediately displayed without taking much time for the arithmetic processing.

【0117】この実施形態では、適正な露出制御に対し
て±2段階だけずらした露出値で連続的に2枚の画像を
撮影するようにしているが、適正露出値からのずれ量は
これに限定されるものではない。また、プラス/マイナ
スのずれ量を異なるようにしてもよく、撮影者がずれ量
を設定できるようにしても良い。
In this embodiment, two images are continuously photographed with an exposure value shifted by ± 2 steps with respect to the appropriate exposure control. It is not limited. Further, the positive / negative shift amount may be different, and the photographer may be able to set the shift amount.

【0118】図12は、超解像モードでの静止画の撮影
手順を示すフローチャートである。
FIG. 12 is a flowchart showing a procedure for photographing a still image in the super-resolution mode.

【0119】超解像モードにおいて、シャッタボタン2
06が半押しされると(#61でYES)、静止画撮影
のための準備が行なわれる。すなわち、レンズ101の
焦点が主被写体に調節されるとともに、ライブビュー画
像を用いて露出制御値(Tv,Av)が算出され、ホワ
イトバランス調整値が設定される(#63)。
In the super-resolution mode, the shutter button 2
When 06 is half-pressed (YES in # 61), preparation for still image shooting is performed. That is, the focus of the lens 101 is adjusted to the main subject, the exposure control value (Tv, Av) is calculated using the live view image, and the white balance adjustment value is set (# 63).

【0120】この状態でシャッタボタン206が全押し
されると(#65でYES)、ステップ#63で設定さ
れたシャッタスピードTvに相当する露光時間だけCC
D102aを露光して被写体の静止画像が取り込まれる
(#67)。露光の後、CCD102aから出力される
画像信号は信号処理部103で所定のアナログ信号処
理、A/D変換及び所定のデジタル信号処理が行なわれ
て画像メモリ103fに記憶される。
If the shutter button 206 is fully depressed in this state (YES in # 65), the exposure time CC corresponding to the shutter speed Tv set in step # 63 is used.
D102a is exposed to capture a still image of the subject (# 67). After the exposure, the image signal output from the CCD 102a is subjected to predetermined analog signal processing, A / D conversion, and predetermined digital signal processing in the signal processing unit 103, and is stored in the image memory 103f.

【0121】続いて、全体制御部108の記録制御部1
08eによりタグ情報のデータが作成されるとともに、
画像メモリ103fに記憶された画像データを用いてサ
ムネイル画像の画像データが作成され、これらのデータ
と画像メモリ103fに記憶された画像データとから画
像ファィルが作成され、メモリカードMCに記憶される
(#69)。なお、この撮影画像に対するタグ情報の撮
影モードには「超解像モード1/2」のように、超解像
モードで1回目に撮影されたものであることを示す情報
が付与される。
Subsequently, the recording control unit 1 of the overall control unit 108
08e creates tag information data,
Image data of a thumbnail image is created using the image data stored in the image memory 103f, an image file is created from these data and the image data stored in the image memory 103f, and stored in the memory card MC ( # 69). It should be noted that information indicating that the image has been captured for the first time in the super-resolution mode, such as "super-resolution mode 1/2", is added to the imaging mode of the tag information for the captured image.

【0122】続いて、ステップ#63で設定されたシャ
ッタスピードTvに相当する露光時間だけCCD102
aを露光して再度、被写体の静止画像が取り込まれる
(#71)。露光の後、CCD102aから出力される
画像信号は信号処理部103で所定のアナログ信号処
理、A/D変換及び所定のデジタル信号処理が行なわれ
て画像メモリ103fに記憶される。この撮影画像は1
回目の撮影画像と撮影条件は同じであるが、撮影タイミ
ングが異なるため、1回目の撮影画像に対してカメラア
ングルが僅かに異なったものとなっている点で相違して
いる。
Subsequently, the CCD 102 for the exposure time corresponding to the shutter speed Tv set in step # 63.
After exposing a, a still image of the subject is captured again (# 71). After the exposure, the image signal output from the CCD 102a is subjected to predetermined analog signal processing, A / D conversion, and predetermined digital signal processing in the signal processing unit 103, and is stored in the image memory 103f. This photographed image is 1
The photographing conditions are the same as the first photographed image, but the photographing timing is different, so that the camera angle is slightly different from the first photographed image.

【0123】続いて、全体制御部108の記録制御部1
08eによりタグ情報のデータが作成されるとともに、
画像メモリ103fに記憶された画像データを用いてサ
ムネイル画像の画像データが作成され、これらのデータ
と画像メモリ103fに記憶された画像データとから画
像ファィルが作成され、メモリカードMCに記憶される
(#73)。
Subsequently, the recording control unit 1 of the overall control unit 108
08e creates tag information data,
Image data of a thumbnail image is created using the image data stored in the image memory 103f, an image file is created from these data and the image data stored in the image memory 103f, and stored in the memory card MC ( # 73).

【0124】なお、この撮影画像に対するタグ情報の撮
影モードには「超解像モード2/2」のように、超解像
モードで2回目に撮影されたものであることを示す情報
が付与される。
It should be noted that information indicating that the image has been shot for the second time in the super-resolution mode, such as “super-resolution mode 2/2”, is added to the imaging mode of the tag information for the captured image. You.

【0125】続いて、全体制御部108の表示制御部1
08dにより画像メモリ103fから1回目の撮影画像
がRAM108bに読み出され、データサイズが調整さ
れた後、VRAM106bに転送されてLCD表示部2
07に表示される(#75)。この表示処理には2回目
の撮影画像を用いてもよい。
Subsequently, the display control unit 1 of the overall control unit 108
08d, the first captured image is read from the image memory 103f to the RAM 108b, the data size is adjusted, and then transferred to the VRAM 106b, where the LCD display unit 2
07 (# 75). The second captured image may be used for this display processing.

【0126】この表示処理は撮影直後に撮影画像をモニ
タできるようにするためのもので、所定の時間(例えば
2秒間)が経過すると、ライブビュー画像に切り換えら
れる。また、2枚の画像を合成して解像度の高い画像を
作成するには処理時間を要し、モニタ表示には適さない
ので、ステップ#75では処理前の撮影画像を直接表示
するようにしている。
This display processing is for enabling the photographed image to be monitored immediately after photographing, and is switched to a live view image after a predetermined time (for example, 2 seconds) has elapsed. In addition, processing time is required to create a high-resolution image by combining two images, and the image is not suitable for display on a monitor. Therefore, in step # 75, the captured image before processing is directly displayed. .

【0127】次に、本発明に係る撮像システムに適用さ
れる画像処理装置について説明する。
Next, an image processing apparatus applied to the imaging system according to the present invention will be described.

【0128】図13は、画像処理装置の構成を示す外観
図である。同図に示す画像処理装置6は、パーソナルコ
ンピュータ7とその出力装置であるプリンタ8とで構成
されている。
FIG. 13 is an external view showing the configuration of the image processing apparatus. The image processing apparatus 6 shown in FIG. 1 includes a personal computer 7 and a printer 8 as its output device.

【0129】パーソナルコンピュータ7(以下、パソコ
ン7という。)は、FDドライバ701a、メモリカー
ドリーダ701b及びCD−ROMドライバ701cを
備えたコンピュータ本体701とCRT若しくはLCD
からなるディスプレイ702とキーボード703とマウ
ス704とで構成されている。
A personal computer 7 (hereinafter, referred to as a personal computer 7) includes a computer main body 701 having an FD driver 701a, a memory card reader 701b and a CD-ROM driver 701c, and a CRT or LCD.
702, a keyboard 703, and a mouse 704.

【0130】パソコン7は、ボケ味調整モードで撮影さ
れた2枚の撮影画像を合成して所望のボケ具合を有する
撮影画像を作成するための処理プログラム(以下、ボケ
味調整処理プログラムという。)、階調調整モードで撮
影された2枚の撮影画像を合成して所望の階調を有する
撮影画像を作成するための処理プログラム(以下、階調
調整処理プログラムという。)及び超解像モードで撮影
された2枚の撮影画像を合成して解像度の高い撮影画像
を作成するための処理プログラム(以下、超解像処理プ
ログラムという。)等の画像合成用の処理プログラムが
記録されたCD−ROM9をCD−ROMドライバ70
1cに装着し、この画像合成用の処理プログラムをコン
ピュータ本体701内のハードディスク(主記憶装置)
にインストールすることにより画像処理装置として機能
する。
[0130] The personal computer 7 combines the two captured images captured in the blur adjustment mode to create a captured image having a desired degree of blur (hereinafter referred to as a blur adjustment processing program). A processing program for synthesizing two photographed images photographed in the gradation adjustment mode to create a photographed image having a desired gradation (hereinafter, referred to as a gradation adjustment processing program) and a super-resolution mode. CD-ROM 9 in which a processing program for image synthesis such as a processing program (hereinafter, referred to as a super-resolution processing program) for synthesizing two shot images and creating a high-resolution shot image is recorded. To the CD-ROM driver 70
1c, and stores the processing program for image synthesis in a hard disk (main storage device) in the computer main body 701.
Function as an image processing apparatus when installed in a computer.

【0131】なお、本実施形態では、CD−ROM9に
記録された処理プログラムをコンピュータ7にインスト
ールすることにより画像処理装置を構成するようにして
いるが、予め装置本体の主記憶装置に処理プログラムが
記憶された専用の画像処理装置であってもよい。
In this embodiment, the image processing apparatus is configured by installing the processing program recorded on the CD-ROM 9 into the computer 7. However, the processing program is stored in the main memory of the apparatus in advance. The stored dedicated image processing device may be used.

【0132】画像合成用の処理プログラムによる2枚の
撮影画像の合成処理手順や合成された画像(ボケ具合や
階調が調整された画像若しくは高解像度の画像)は、後
述するようにディスプレイ702に表示される。また、
合成後の画像はプリンタ8によってハードコピーを作成
することができる。
The procedure for synthesizing the two photographed images by the image synthesizing processing program and the synthesized image (image with adjusted blur and gradation or high-resolution image) are displayed on the display 702 as described later. Is displayed. Also,
A hard copy of the combined image can be created by the printer 8.

【0133】次に、画像処理装置6における画像合成処
理について説明する。
Next, the image synthesizing process in the image processing device 6 will be described.

【0134】図14は、画像合成用の処理プログラムを
起動するための処理手順を示すフローチャートである。
FIG. 14 is a flowchart showing a processing procedure for starting a processing program for image composition.

【0135】ボケ味調整処理プログラム、階調調整処理
プログラム及び超解像処理プログラムの各処理プログラ
ムは、各処理プログラムに対応する撮影モードで撮影さ
れた画像の画像ファイルを備えたフォルダが指定される
と、それに連動して起動されるようになっている。
For each processing program of the blur adjustment processing program, the gradation adjustment processing program, and the super-resolution processing program, a folder having an image file of an image photographed in the photographing mode corresponding to each processing program is designated. And it is started in conjunction with it.

【0136】例えばキーボード703若しくはマウス7
04の操作により上記各モードで撮影後のメモリカード
MCへのアクセスが指示され、上記各モードで撮影され
た画像が格納されたフォルダを指定する、又はフォルダ
内の画像ファイルを示すアイコンにカーソルを移動さ
せ、そのアイコンの画像ファイルを開く指示が入力され
ると、メモリカードMCに記憶された当該画像ファイル
からタグ情報がパソコン本体7内に読み込まれ(#8
1)、そのタグ情報内の撮影モードの内容が判別される
(#83,#87,#91)。
For example, the keyboard 703 or the mouse 7
By operating the button 04, access to the memory card MC after shooting in each of the above modes is instructed, and a folder storing images shot in each of the above modes is designated, or a cursor is moved to an icon indicating an image file in the folder. When the icon is moved and an instruction to open the image file of the icon is input, the tag information is read from the image file stored in the memory card MC into the personal computer body 7 (# 8).
1), the contents of the photographing mode in the tag information are determined (# 83, # 87, # 91).

【0137】撮影モードがボケ味調整モードであれば
(#83でYES)、ボケ味調整処理プログラムが起動
され(#85)、撮影モードが階調調整モードであれば
(#87でYES)、階調調整処理プログラムが起動さ
れ(#89)、撮影モードが超解像モードであれば(#
91でYES)、超解像処理プログラムが起動され(#
93)、撮影モードが通常撮影モードであれば(#91
でNO)、通常の撮影画像を対象とする上記処理プログ
ラム以外の所定の処理プログラム、例えば画像補正用の
処理プログラムが起動される(#95)。
If the shooting mode is the blur adjustment mode (YES in # 83), the blur adjustment processing program is started (# 85), and if the shooting mode is the gradation adjustment mode (YES in # 87), The gradation adjustment processing program is started (# 89), and if the shooting mode is the super-resolution mode (# 89).
The super-resolution processing program is started (YES at 91) (#
93), if the shooting mode is the normal shooting mode (# 91)
NO), a predetermined processing program other than the above-described processing program for a normal captured image, for example, a processing program for image correction is started (# 95).

【0138】図15は、ボケ味調整処理プログラムが起
動したときのディスプレイ702に表示されるボケ味調
整用のダイアログ・ボックスの一例を示す図である。
FIG. 15 is a diagram showing an example of a dialog box for blur adjustment displayed on the display 702 when the blur adjusting program is started.

【0139】図15に示す作業画面はパーソナルコンピ
ュータ7の所定のOS(OperatingSystem)上でボケ味
調整処理プログラムを起動したときのもので、デスク・
トップ画面にボケ味調整処理を行なうためのダイアログ
・ボックス10が表示されている。
The work screen shown in FIG. 15 is a screen displayed when the blur adjustment processing program is started on a predetermined OS (Operating System) of the personal computer 7.
A dialog box 10 for performing blur adjustment processing is displayed on the top screen.

【0140】ダイアログ・ボックス10にはボケ味調整
処理に関係する撮影画像のサムネイル画像を表示する3
個の表示領域11a〜11cと処理内容や処理条件を入
力するための6個のボタン表示12a〜12fとが表示
される。
The dialog box 10 displays a thumbnail image of a photographed image related to the blur adjustment processing.
Display areas 11a to 11c and six button displays 12a to 12f for inputting processing contents and processing conditions are displayed.

【0141】表示領域12a及び表示領域11bは画面
上部に配置され、表示領域11aには2枚目の撮影画像
(近景にピントの合った撮影画像)のサムネイル画像A
が表示され、表示領域11bには1枚目の撮影画像(遠
景にピントの合った撮影画像のサムネイル画像Bが表示
される。また、表示領域11cは表示領域12aの下部
に配置され、サムネイル画像Aとサムネイル画像Bとを
合成してボケ味調整のシミュレートを行なったサムネイ
ル画像C(図24参照)が表示される。
The display area 12a and the display area 11b are arranged at the upper part of the screen, and the display area 11a displays the thumbnail image A of the second photographed image (the photographed image focused on the foreground).
Is displayed, and a first captured image (a thumbnail image B of a captured image focused on a distant view) is displayed in a display area 11b. A display area 11c is arranged below the display area 12a, and a thumbnail image is displayed. A thumbnail image C (see FIG. 24) in which A and the thumbnail image B are combined to simulate the blur adjustment is displayed.

【0142】ボタン表示12a〜12eは表示領域11
bの下部にこの順に縦配列されて表示され、ボタン表示
12fは表示領域11cの下部に表示されている。
The button displays 12a to 12e are displayed in the display area 11.
The button display 12f is displayed in the lower part of the display area 11c in a vertical arrangement in the lower part of the display area b.

【0143】「ファイル」と表記されたボタン表示12
a(以下、ファイルボタン12aという。)は他の撮影
コマの画像ファイルを開くためのボタンである。ファイ
ルボタン12aにカーソルKを移動してマウス704が
ダブルクリックされると、他の撮影コマの画像ファィル
を開くための所定の処理ソフトが行なわれ、図16に示
すフローチャートに従って画像ファイルの読取処理が行
なわれる。
Button display 12 labeled “File”
a (hereinafter, referred to as a file button 12a) is a button for opening an image file of another photographed frame. When the cursor K is moved to the file button 12a and the mouse 704 is double-clicked, predetermined processing software for opening an image file of another photographed frame is performed, and image file reading processing is performed according to the flowchart shown in FIG. Done.

【0144】すなわち、ディスプレイ702の画面に画
像ファイルを開くためのダイアログ・ボックスが表示さ
れ、開くべき撮影コマが指定されると(#101)、メ
モリカードMCから当該撮影コマに対応する画像ファイ
ルのタグ情報に含まれる撮影モードの情報が読み出され
る(#103)。そして、その撮影モードの情報からそ
の撮影コマがボケ味調整モードで撮影されたものである
か否かが判別され(#105)、ボケ味調整モードで撮
影されたものであれば(#105でYES)、指定され
た撮影コマに対する画像合成処理と現在開いている画像
合成処理ソフトとが一致するので、その撮影コマに対応
するホルダに含まれる2個の画像ファィルからそれぞれ
撮影画像とサムネイル画像の画像データがRAM108
bに読み出され(#107)、ボケ味調整モードで撮影
されたものでなければ(#105でNO)、指定された
撮影コマに対する画像合成処理と現在開いている画像合
成処理ソフトとが一致しないので、所定のエラーメッセ
ージが表示される(#109)。
That is, a dialog box for opening an image file is displayed on the screen of the display 702, and when a frame to be opened is designated (# 101), the image file corresponding to the frame is read from the memory card MC. The information on the shooting mode included in the tag information is read (# 103). Then, it is determined from the information on the shooting mode whether or not the shot frame was shot in the blur adjustment mode (# 105). If the shot was shot in the blur adjustment mode (# 105). YES), since the image compositing processing for the specified photographed frame matches the currently open image compositing software, the photographed image and the thumbnail image are respectively extracted from the two image files included in the holder corresponding to the photographed frame. Image data is stored in RAM 108
b (# 107), and unless the image was shot in the blur adjustment mode (NO in # 105), the image synthesis processing for the designated shooting frame matches the currently open image synthesis processing software. No, a predetermined error message is displayed (# 109).

【0145】なお、図16に示すフローチャートでは、
指定された撮影コマが現在開いているボケ味調整処理に
対応したボケ味調整モードで撮影されたものでない場合
は、その撮影コマに対する画像合成処理が不適合である
としてエラーメッセージを表示し、作業者にボケ味調整
モードで撮影された撮影コマを指定するようにしている
が、図17に示すフローチャートのように、指定された
撮影コマが現在開いているボケ味調整処理に対応したボ
ケ味調整モードで撮影されたものでない場合は、その撮
影コマの撮影モードに対応した画像合成処理ソフトを起
動して当該撮影コマに対する画像合成処理を直ちにでき
るようにしてもよい。
Note that, in the flowchart shown in FIG.
If the specified shooting frame is not taken in the bokeh adjustment mode corresponding to the currently open bokeh adjustment process, an error message is displayed indicating that the image combining process for the shooting frame is incompatible, and the operator is notified. In FIG. 17, a frame shot in the blur adjustment mode is designated. However, as shown in the flowchart of FIG. 17, the blur adjustment mode corresponding to the blur adjustment process in which the designated frame is currently open. If the image was not captured by the camera, image synthesis processing software corresponding to the shooting mode of the shooting frame may be activated to immediately perform image synthesis processing on the shooting frame.

【0146】図16に示すフローチャートは、現在起動
している画像合成処理ソフトを優先し、この画像合成処
理ソフトを終了させない限り、当該画像合成処理ソフト
に適合しない撮影モードで撮影された撮影コマの画像フ
ァイルのオープンを禁止するものである。このフローチ
ャートは、現在起動している画像合成処理ソフトに適合
しない撮影コマの画像ファイルが開かれることによるそ
の後の矛盾した処理を解消するための複雑な処理を不要
とし、処理が簡単になる点で有利である。
The flowchart shown in FIG. 16 gives priority to the currently activated image synthesizing software, and unless the image synthesizing software is terminated, a frame shot in a shooting mode that is not compatible with the image synthesizing software is executed. This prohibits the opening of the image file. This flowchart eliminates the need for complicated processing to resolve the subsequent inconsistent processing due to the opening of the image file of the shooting frame that is not compatible with the currently activated image synthesis processing software, and the processing is simplified. It is advantageous.

【0147】一方、図17に示すフローチャートは、指
定された撮影コマの撮影モードを優先し、当該撮影コマ
に対する画像合成処理ソフトが現在起動している画像合
成処理ソフトと適合しない場合は、起動すべき画像合成
処理ソフトを切り換えるものである。このフローチャー
トは、指定された撮影コマの撮影モードが現在起動して
いる画像合成処理ソフトと適合しなければ、その都度指
定された撮影コマの撮影モードに適合する画像合成処理
ソフトを再起動するので、図16に示すフローチャート
よりも処理が複雑になる。
On the other hand, the flowchart shown in FIG. 17 gives priority to the photographing mode of the designated photographing frame. If the image composing software for the photographing frame is not compatible with the currently activated image composing software, it is activated. This is to switch image synthesis processing software to be performed. If the shooting mode of the specified shooting frame is not compatible with the currently activated image synthesis processing software, this flowchart restarts the image synthesis processing software that matches the shooting mode of the specified shooting frame each time. The processing is more complicated than the flowchart shown in FIG.

【0148】しかし、上述したように本実施形態では、
最初に起動される画像合成処理ソフトは、最初に画像フ
ァイルが開かれた撮影コマの撮影モードに対応したもの
であり、作業者が指定した撮影コマの撮影モードに付随
するようになっている。これは、作業者は所望の撮影コ
マについて所要の画像合成処理をした後、鑑賞するとい
う作業性を考慮したものであるが、図17のフローチャ
ートもこの考え方に共通するものであり、作業者にとっ
ては作業効率がよいという利点がある。
However, as described above, in this embodiment,
The image synthesis processing software started first corresponds to the shooting mode of the shooting frame in which the image file is first opened, and is attached to the shooting mode of the shooting frame specified by the operator. This takes into account the workability of the worker performing a required image synthesis process for a desired photographing frame and then viewing it. The flowchart of FIG. Has the advantage of good work efficiency.

【0149】なお、図17に示すフローチャートは、図
16のフローチャートのステップ#109を図14に示
すフローチャートのステップ#87〜#95と同一の処
理内容を有するステップ#109-1〜#109-4に置
き換えたもので、撮影モードがボケ味調整モードでなけ
れば(#105でNO)、撮影モードが階調調整モー
ド、超解像モード及び通常撮影モードの何れであるか判
別され(#109-1,#109-3)、撮影モードが階
調調整モードであれば(#109-1でYES)、階調
調整処理プログラムが起動され(#109-2)、撮影
モードが超解像モードであれば(#109-3でYE
S)、超解像処理プログラムが起動され(#109-
4)、撮影モードが通常撮影モードであれば(#109
-3でNO)、通常の撮影画像を対象とする上記処理プ
ログラム以外の所定の処理プログラム、例えば画像補正
用の処理プログラムが起動される(#109-5)。
In the flowchart shown in FIG. 17, step # 109 of the flowchart of FIG. 16 is replaced with steps # 109-1 to # 109-4 having the same processing contents as steps # 87 to # 95 of the flowchart of FIG. If the shooting mode is not the blur adjustment mode (NO in # 105), it is determined whether the shooting mode is the gradation adjustment mode, the super-resolution mode, or the normal shooting mode (# 109- 1, # 109-3), if the shooting mode is the gradation adjustment mode (YES in # 109-1), the gradation adjustment processing program is started (# 109-2), and the shooting mode is set to the super-resolution mode. If there is (YE in # 109-3
S), the super-resolution processing program is started (# 109-
4) If the shooting mode is the normal shooting mode (# 109)
(NO at -3), a predetermined processing program other than the above-described processing program for a normal captured image, for example, a processing program for image correction is started (# 109-5).

【0150】図15に戻り、「実行」と表記されたボタ
ン表示12bは(以下、実行ボタン12bという。)は
ボケ味調整モードで撮影されたピント状態の異なる2枚
の撮影画像を用いて実際にボケ味調整処理を実行するた
めのボタンである。
Returning to FIG. 15, the button display 12b described as “execute” (hereinafter referred to as the “execute button 12b”) is actually displayed by using two images of different focus states photographed in the blur adjustment mode. Is a button for executing the blur adjustment processing.

【0151】実行ボタン12bにカーソルKを移動して
マウス704がダブルクリックされると、ピント状態の
異なる2枚の撮影画像を用いてボケ味調整画像を作成す
るための所定の処理ソフトが起動し、図20〜図22に
示すフローチャートに従ってボケ味調整処理が行なわれ
る。
When the cursor K is moved to the execution button 12b and the mouse 704 is double-clicked, predetermined processing software for creating a blur adjustment image using two shot images having different focus states is activated. The blur adjustment processing is performed according to the flowcharts shown in FIGS.

【0152】ここで、本実施形態で採用するボケ味調整
画像作成の方法について簡単に説明する。このボケ味調
整画像作成の方法はサムネイル画像を用いてボケ味調整
画像をシミュレートする場合にも適用される。
Here, a brief description will be given of a method for creating a blur adjustment image employed in the present embodiment. This method of creating a blurred image is also applied to a case where a blurred image is simulated using a thumbnail image.

【0153】ピント状態の異なる2枚の画像(例えば図
18に示すように、近景に合焦し、遠景がピンボケ状態
の近景合焦画像Irと遠景に合焦し、近景がピンボケ状
態の画像If)を用いて任意のピント状態の画像Iを作
成する方法として種々の方法が知られているが、基本的
に、2枚の画像Ir,If間での位置合わせ(レジスト
レーション処理)と、所定の演算処理によるボケ味調
整画像の作成(画像合成処理)という2つの工程で構成
される。
Two images having different focus states (for example, as shown in FIG. 18, the near view is focused, the distant view is focused on the near view focused image Ir and the distant view is focused, and the near view is the blurred image If Various methods are known as a method for creating an image I in an arbitrary focused state by using the method (1). Basically, positioning (registration processing) between two images Ir and If and a predetermined method are performed. (The image synthesis processing) of the blur adjustment image by the above calculation processing.

【0154】レジストレーション処理は、画像合成処理
において画面内の同一の図柄を正確に合成するため、合
成対象となる両画像の位置を合わせるものである。レジ
ストレーション処理は、画像全体のレジストレーション
(粗い位置合わせ)とその後の局所的なレジストレーシ
ョン(細かい位置合わせ)の2段階で行なわれる。
In the registration processing, the positions of both images to be synthesized are aligned in order to accurately synthesize the same symbol in the screen in the image synthesizing processing. The registration process is performed in two stages: registration of the entire image (coarse registration) and subsequent local registration (fine registration).

【0155】画像全体のレジストレーションでは、例え
ば近景合焦画像Irを基準にして遠景合焦画像Ifを拡
大/縮小、平行移動、回転等を行ないつつ両画像Ir,
Ifを照合して、両画像Ir,Ifが一致する遠景合焦画
像Ifの拡大率、平行移動量及び回転角等が算出され
る。なお、近景合焦画像Irに対する遠景合焦画像Ifの
一致度は、両画像間の対応する各画素のレベル差の2乗
平均値ΔVを算出し、これらの総和ΣΔVを指標として
評価され、この総和ΣΔVが最小となる拡大率、平行移
動量及び回転角等の値が画像の位置合わせ情報として算
出される。
In the registration of the entire image, for example, the two images Ir and Ir are enlarged / reduced, translated, rotated, and the like with respect to the distant focused image If with reference to the focused near image Ir.
By comparing If, the enlargement ratio, the translation amount, the rotation angle, and the like of the far-field focused image If in which both images Ir and If match are calculated. Note that the degree of coincidence of the far-field focused image If with the near-field focused image Ir is evaluated by calculating the root mean square value ΔV of the level difference of each corresponding pixel between the two images, and using the sum ΣΔV thereof as an index. Values such as an enlargement ratio, a translation amount, and a rotation angle that minimize the sum ΣΔV are calculated as image alignment information.

【0156】なお、拡大率、平行移動量及び回転角等の
画像の位置合わせ情報は、近景合焦画像Irと遠景合焦
画像Ifの合焦状態が異なり、両画像Ir,Ifを直接比
較すると、誤差が生じる可能性があるので、階層化マッ
チング法を用いて算出される。
It should be noted that the image positioning information such as the enlargement ratio, the amount of parallel movement, and the rotation angle is different from the in-focus state of the near-field focused image Ir and the far-field focused image If, and the two images Ir and If are directly compared. Since there is a possibility that an error occurs, the calculation is performed using a hierarchical matching method.

【0157】局所的なレジストレーション処理は、近景
合焦画像Irと画像全体のレジストレーションを行なっ
た遠景合焦画像Ifとの間で画素毎の位置ずれを補正す
るものである。この補正は近景合焦画像Ifの画素位置
(x,y)と画像全体のレジストレーションを行なった
遠景合焦画像Ifの画素位置(x+m,y+n)を中心
にr×r画素内の両画像の対応する画素のレベル差の2
乗平均値を算出し、更にr×r個の総和が最小となるパ
ラメータ(m,n)を算出することにより行なわれる。
全ての画素に対してパラメータ(m,n)を算出し、こ
のパラメータ(m,n)を用いて遠景合焦画像Ifを補
正すると、最終的に近景合焦画像Irに対して位置合わ
せの行なわれた遠景画像画像Ifが得られる。
The local registration process is for correcting a positional shift of each pixel between the near-field focused image Ir and the far-field focused image If obtained by registering the entire image. This correction is based on the pixel position (x, y) of the near-field focused image If and the pixel position (x + m, y + n) of the far-field focused image If obtained by registering the entire image. 2 of the level difference of the corresponding pixel
This is performed by calculating a square mean value and further calculating parameters (m, n) that minimize the total of r × r.
When the parameters (m, n) are calculated for all the pixels, and the far-field in-focus image If is corrected using the parameters (m, n), the position is finally adjusted with respect to the near-field in-focus image Ir. The obtained distant view image If is obtained.

【0158】なお、レジストレーション処理は、近景合
焦画像Irと遠景合焦画像Ifとが全く同一であれば必ず
しも必要はないが、撮影画像のように異なる時間に撮影
された画像の場合は連続的に撮影されたものであっても
被写体が画面内で微小変位していることが通常であるか
ら、本実施形態では必ずレジストレーション処理を行な
っている。
Note that the registration processing is not necessarily required if the near-field focused image Ir and the far-field focused image If are exactly the same. In general, the registration processing is always performed in the present embodiment because the subject is slightly displaced within the screen even if the subject is photographed in a targeted manner.

【0159】画像合成処理としては、例えばセグメント
法、反復法、逆フィルタ法などの種々の方法が知られて
いる。本実施形態では反復法を採用しているので、以下
の説明では反復法について説明する。
As the image synthesizing process, various methods such as a segment method, an iterative method and an inverse filter method are known. Since the present embodiment employs an iterative method, the following description describes the iterative method.

【0160】図18に示すように、近景合焦画像Irを
表す関数g1(x,y)は、合焦している近景領域を表す関数
をf1(x,y)、合焦している遠景領域を表す関数をf2(x,
y)、合焦していない遠景領域のボケ具合を表す関数をh
2(x,y)とすると、 g1(x,y)=f1(x,y)+h2(x,y)・f2(x,y)…(1) で表される。
As shown in FIG. 18, the function g1 (x, y) representing the near-field focused image Ir is represented by f1 (x, y) representing the focused near-view area, and the focused far-field image is represented by f1 (x, y). The function representing the region is represented by f2 (x,
y), a function representing the degree of blurring of the out-of-focus distant view area is h
Assuming that 2 (x, y), g1 (x, y) = f1 (x, y) + h2 (x, y) · f2 (x, y) (1)

【0161】同様に、遠景合焦画像Irを表す関数g2
(x,y)は、合焦していない近景領域のボケ具合を表す関
数をh1(x,y)とすると、 g2(x,y)=f2(x,y)+h1(x,y)・f1(x,y)…(2) で表される。
Similarly, a function g2 representing the far-field in-focus image Ir
(x, y) is given by h2 (x, y), where h1 (x, y) is a function representing the degree of blurring of the unfocused foreground area, and g2 (x, y) = f2 (x, y) + h1 (x, y). f1 (x, y)... (2)

【0162】一方、ボケ味調整画像Iが近景合焦画像I
rの近景領域をボケ関数ha(x,y)でぼかした画像と遠景
合焦画像Ifの遠景領域をボケ関数hb(x,y)でぼかした
画像とを合成して作成されるとすると、ボケ味調整画像
Iを表す関数f(x,y)は、 f(x,y)=ha(x,y)・f1(x,y)+hb(x,y)・f2(x,y)…(3) で表される。
On the other hand, the defocus adjustment image I is a close-up in-focus image I
Assuming that an image obtained by blurring the foreground area of r with the blur function ha (x, y) and an image obtained by blurring the distant view area of the far-field focused image If with the blur function hb (x, y) are created, The function f (x, y) representing the blur adjustment image I is f (x, y) = ha (x, y) · f1 (x, y) + hb (x, y) · f2 (x, y) … (3)

【0163】なお、ボケ関数h1,h2は、ボケ具合を表
す関数hを、 h(x,y)=(1/πR2)・exp(-(x2+y2)/R2)…(4) R;ボケ量(ボケ半径) の二次元ガウス関数で表されると仮定して遠景合焦画像
Ifの近景領域画像や近景合焦画像Irの遠景領域画像か
ら推定することができるが、撮影画像の場合は撮影レン
ズの合焦位置からボケ量を算出することができるので、
本実施形態では画像ファイルのタグ情報に含まれる撮影
レンズの種類と撮影時の焦点距離の情報とに基づいて予
め設定されたテーブルを参照して設定されるようになっ
ている。また、ボケ関数ha,hbは予めディフォルト値
が設定されているが、後述するように「設定」と表記さ
れたボタン12c(以下、設定ボタン12cという。)
を操作することで開かれるダイアログ・ボックスから所
望のボケ量を設定することができるようになっている。
[0163] It should be noted that the blurring function h1, h2 is, the function h representing the extent of blurring, h (x, y) = (1 / πR 2) · exp (- (x 2 + y 2) / R 2) ... ( 4) R: The blur amount (blur radius) is assumed to be represented by a two-dimensional Gaussian function, and can be estimated from the near-field image of the far-field in-focus image If or the far-field image of the near-field in-focus image Ir. In the case of a shot image, the amount of blur can be calculated from the focus position of the shooting lens,
In the present embodiment, the setting is made by referring to a table set in advance based on the type of the photographing lens included in the tag information of the image file and the information on the focal length at the time of photographing. The blur functions ha and hb have default values set in advance, but as described later, a button 12c described as "setting" (hereinafter, referred to as a setting button 12c).
The user can set the desired amount of blur from a dialog box opened by operating.

【0164】(1)〜(3)式からf1(x,y)、f2(x,y)
を消去すると、近景合焦画像Irの関数g1(x,y)、遠景
合焦画像Ifの関数g2(x,y)、ボケ味調整画像Iの関数
f(x,y)の間の関係式 (ha-hb・h1)・g1+(hb-ha・h2)・g2=(δ-h1・h2)・f…(5) が得られる。なお、(5)式でδはディラックのデルタ
関数である。また、(5)式では便宜上、関数表記の変
数(x,y)部分を省略している。以下の説明でも変数(x,y)
の部分を省略して各関数を表記するものとする。
From equations (1) to (3), f1 (x, y) and f2 (x, y)
Is eliminated, a relational expression between the function g1 (x, y) of the near-field focused image Ir, the function g2 (x, y) of the far-field focused image If, and the function f (x, y) of the blur adjusted image I (Ha−hb · h1) · g1 + (hb−ha · h2) · g2 = (δ−h1 · h2) · f (5) In equation (5), δ is a Dirac delta function. In equation (5), the variable (x, y) part of the function notation is omitted for convenience. Variables (x, y) in the following explanation
Each function is described by omitting the part.

【0165】よって、(5)式を解くことによりボケ味
調整画像Iを示す関数fを得ることができる。反復法
は、(5)式において、左辺をg=(ha-hb・h1)・g1+(hb
-ha・h2)・g2とおき、ボケ味調整画像を表す関数fの初期
値f(0)(例えば関数g1,g2,(g1+g2)/2等)
を適当に設定してg+h1・h2・f(K)=f(K+1)(k=
0,1,2,…)の反復演算を繰り返すと、k→∞でf
()が(5)式を満足するfに収束することから、この
反復演算を繰り返すことにより(5)式の解を得る方法
である。従って、g+h1・h2・f(K)の反復演算を繰
り返すことにより所望のボケ具合を有するボケ味調整画
像Iが算出される。
Therefore, by solving the equation (5), a function f indicating the blurred image I can be obtained. In the iterative method, in equation (5), the left side is g = (ha−hb · h1) · g1 + (hb
-ha · h2) · g2, and the initial value f (0) of the function f representing the blur adjustment image (eg, functions g1, g2, (g1 + g2) / 2, etc.)
Is set appropriately, and g + h1 · h2 · f (K) = f (K + 1) (k =
0, 1, 2,...), K → ∞
Since () converges to f that satisfies the expression (5), this method is a method of obtaining the solution of the expression (5) by repeating this repetitive operation. Therefore, the blur adjustment image I having a desired degree of blur is calculated by repeating the repetition of g + h1, h2, f (K) .

【0166】図15に戻り、設定ボタン12cは、近景
合焦画像Irのボケ量R1、遠景合焦画像のボケ量R2及
び反復演算回数kのボケ味調整処理のためのパラメータ
を設定するためのボタンである。設定ボタン12cにカ
ーソルKを移動してマウス704がダブルクリックされ
ると、ボケ量R1,R2及び反復演算回数kのパラメータ
を設定するための処理プログラムが起動し、ディスプレ
イ702の画面に、図19に示すようなパラメータ設定
用のダイアログ・ボックス13が表示される。
Returning to FIG. 15, the setting button 12c is used to set parameters for the blur amount R1 of the near-field focused image Ir, the blur amount R2 of the far-field focused image, and the blur adjustment process of the number of repetition operations k. Button. When the cursor K is moved to the setting button 12c and the mouse 704 is double-clicked, a processing program for setting parameters of the blur amounts R1 and R2 and the number of repetition operations k is started, and the screen of the display 702 is displayed on the screen of FIG. A dialog box 13 for setting parameters as shown in FIG.

【0167】ダイアログ・ボックス13にはボケ量すr
1,r2を設定するためのスライドスイッチ表示14a,
14bと反覆演算回数kを入力するための領域15と設
定内容を確定するための「OK」ボタン表示16とが表
示される。ボケ量r1,r2はスライドスイッチ表示14
a,14bにカーソルKを移動し、マウス704をワン
クリックした状態で左右に移動させて当該カーソルKを
移動させることでその設定値が変更される。ボケ量r
1,r2の設定値はスライドスイッチ表示14a,14b
が左側に移動すると小さくなり、右側に移動すると大き
くなる。
In the dialog box 13, the amount of blur is displayed.
Slide switch display 14a for setting 1, r2
14b, an area 15 for inputting the number k of repeated operations, and an "OK" button display 16 for confirming the set contents are displayed. The blur amount r1, r2 is indicated by a slide switch display 14.
By moving the cursor K to a and 14b and moving the cursor K left and right with the mouse 704 being one-clicked, the set value is changed. Defocus amount r
The set values of 1 and r2 are indicated by slide switch displays 14a and 14b.
Moves to the left and decreases and moves to the right.

【0168】なお、操作者には感覚的なボケ具合しかイ
メージできず、ボケ量r1,r2の具体的な数値と実際の
ボケ具合との関係は認識できないので、図19の設定画
面では近景合焦画像及び遠景合焦画像の感覚的なボケ具
合が、例えば10段階のスライダー形式で入力できるよ
うになっている。
It is to be noted that the operator can only imagine the degree of blur, and cannot recognize the relationship between the specific numerical values of the blur amounts r1 and r2 and the actual degree of blur. The sensational blur of the in-focus image and the far-field in-focus image can be input, for example, in a 10-step slider format.

【0169】反復演算回数kは窓15にカーソルKを移
動し、キーボード703から直接、数値を入力すること
で設定される。OKボタン表示16にカーソルKを移動
し、マウス704をダブルクリックすると、設定された
近景合焦画像及び遠景合焦画像のボケ具合と反復演算回
数kが確定される。
The number of repetition operations k is set by moving the cursor K to the window 15 and inputting a numerical value directly from the keyboard 703. When the cursor K is moved to the OK button display 16 and the mouse 704 is double-clicked, the degree of blur of the set near-field focused image and the far-field focused image and the number of repetition operations k are determined.

【0170】図15に戻り、「シミュレーション」と表
記されたボタン表示12dは(以下、シミュレーション
ボタン12dという。)は表示領域11aに表示された
サムネイル画像Aと表示領域11bに表示されたサムネ
イル画像Bとを用いてボケ味調整処理をシミュレートす
るためのボタンである。
Returning to FIG. 15, the button display 12d labeled "simulation" (hereinafter, simulation button 12d) is a thumbnail image A displayed in the display area 11a and a thumbnail image B displayed in the display area 11b. This button is used to simulate the bokeh adjustment process using.

【0171】2枚のピント状態の異なる画像を用いて任
意のピント具合の画像を合成する場合、仕上がり状態が
どのようになるかは実際に合成してみなければ分からな
いのが通常であるが、そのために実際の撮影画像を用い
てボケ味調整処理をしていたのでは、撮影画像の画像デ
ータは膨大であるため、処理結果が出るまで長時間を要
し、簡単にボケ味を確認した場合には極めて不便であ
る。そこで、本実施形態では画素数の少ないサムネイル
画像を用いてボケ味調整をシミュレートすることによ
り、簡易かつ迅速にボケ味調整画像を確認できるように
している。
In the case of combining two images having different focus states using two images having different focus states, it is usually impossible to know how the finished state will be without actually combining the images. Therefore, if the blur adjustment processing was performed using the actual photographed image, the image data of the photographed image was enormous, so it took a long time until the processing result was obtained, and the bokeh was easily confirmed. This is extremely inconvenient in some cases. Therefore, in the present embodiment, the blur adjustment is simulated using a thumbnail image having a small number of pixels, so that the blur adjusted image can be easily and quickly confirmed.

【0172】シミュレーションボタン12dにカーソル
Kを移動してマウス704がダブルクリックされると、
サムネイル画像を用いてボケ味調整画像を作成するため
の所定の処理ソフトが起動し、図23に示すフローチャ
ートに従ってサムネイル画像を用いたボケ味調整処理が
行なわれる。
When the cursor K is moved to the simulation button 12d and the mouse 704 is double-clicked,
Predetermined processing software for creating a blur adjustment image using the thumbnail image is activated, and the blur adjustment processing using the thumbnail image is performed according to the flowchart shown in FIG.

【0173】「終了」と表記されたボタン表示12eは
(以下、終了ボタン12eという。)はボケ味調整処理
を終了するためのボタンで、ダイアログ・ボックス10
の左上隅に表示された×印表示と同一機能を果たすもの
である。終了ボタン12eにカーソルKを移動してマウ
ス704がダブルクリックされると、ボケ味調整処理の
ソフトが終了する。
The button display 12e described as "end" (hereinafter referred to as an end button 12e) is a button for ending the blur adjustment processing, and the dialog box 10 is provided.
Has the same function as the X mark displayed in the upper left corner of the. When the cursor K is moved to the end button 12e and the mouse 704 is double-clicked, the software of the blur adjustment processing ends.

【0174】「中止」と表記されたボタン表示12fは
(以下、中止ボタン12fという。)はボケ味調整処理
のシミュレーション処理を途中で中止させるためのボタ
ンである。中止ボタン12fにカーソルKを移動してマ
ウス704がダブルクリックされると、ボケ味調整処理
のシミュレーションが中止される。
The button display 12f described as "cancel" (hereinafter referred to as "cancel button 12f") is a button for interrupting the simulation processing of the blur adjustment processing in the middle. When the cursor K is moved to the stop button 12f and the mouse 704 is double-clicked, the simulation of the blur adjustment processing is stopped.

【0175】次に、図20〜図22のフローチャートに
従ってボケ味調整処理について具体的に説明する。
Next, the blur adjustment processing will be described in detail with reference to the flowcharts shown in FIGS.

【0176】ボケ味調整処理のソフトが起動すると、指
定されたホルダに含まれる2個の画像ファイルP(X+
1).TIF,PX.TIFからそれぞれサムネイル画
像A,Bが読み出され、ダイアログ・ボックスの表示領
域11a,11bに表示される(#111,#11
3)。
When the software for the blur adjustment process is started, two image files P (X +
1). TIF, PX. The thumbnail images A and B are read from the TIF and displayed in the display areas 11a and 11b of the dialog box (# 111 and # 11).
3).

【0177】続いて、近景合焦画像及び遠景合焦画像に
対するボケ量R1,R2及び反復演算回数kが設定される
(#115,#117)。ボケ量R1,R2及び反復演算
回数kは、上述したように図19に示す設定画面で操作
者によって設定されなければ、予め設定されたディフォ
ルト値(例えばボケ具合はレベル5、反復演算回数kは
20)に設定され、操作者によって新たに設定される
と、その設定値が設定される。
Subsequently, the blur amounts R1, R2 and the number of repetition operations k for the near-field focused image and the far-field focused image are set (# 115, # 117). Unless the amount of blur R1, R2 and the number of repetition operations k are set by the operator on the setting screen shown in FIG. 19 as described above, a preset default value (for example, the degree of blur is level 5, the number of repetition operations k is 20), and when newly set by the operator, the set value is set.

【0178】続いて、サムネイル画像を用いたボケ味調
整処理のシミュレーションが指示されている否かが判別
され(#119)、シミュレーションが指示されていれ
ば(#119でYES)、図23に示すフローチャート
に従ってボケ味調整処理のシミュレーションが行なわれ
た後(#121)、ステップ#123に移行し、シミュ
レーションが指示されていなければ(#119でN
O)、ステップ#121をスキップしてステップ#12
3に移行する。
Subsequently, it is determined whether or not a simulation of the bokeh adjustment process using the thumbnail image is instructed (# 119). If the simulation is instructed (YES in # 119), it is shown in FIG. After the simulation of the blur adjustment process is performed according to the flowchart (# 121), the process proceeds to step # 123, and if the simulation is not instructed (N in # 119).
O), skip step # 121 and skip to step # 12
Move to 3.

【0179】ボケ味調整処理のシミュレーションを行な
うソフトが起動すると、まず、サムネイル画像Aとサム
ネイル画像Bとの間でのレジストレーション処理がGの
色成分の画像を用いて行なわれ(#191)、サムネイ
ル画像Aに対するサムネイル画像Bのずれ量(δx,δ
y)が決定される(#193)。なお、本実施形態で
は、簡易に平行移動のみでレジストレーション処理を行
なっているので、縦方向xと横方向yとについてずれ量
(δx,δy)が算出される。
When the software for simulating the blur adjustment process is started, first, a registration process between the thumbnail image A and the thumbnail image B is performed using the G color component image (# 191). The shift amount (δx, δ) of the thumbnail image B with respect to the thumbnail image A
y) is determined (# 193). In the present embodiment, since the registration processing is simply performed only by the parallel movement, the shift amount (δx, δy) is calculated for the vertical direction x and the horizontal direction y.

【0180】続いて、サムネイル画像BのR,G,Bの
各色成分の画像を全体的にずれ量(δx,δy)だけ移
動させてサムネイル画像Aとサムネイル画像Bとの位置
合わせが行なわれる(#195)。
Subsequently, the images of the R, G, and B color components of the thumbnail image B are moved as a whole by the amount of shift (δx, δy), and the alignment between the thumbnail image A and the thumbnail image B is performed. # 195).

【0181】続いて、タグ情報に含まれる撮影レンズの
種類と撮影時の焦点距離の情報とに基づき予めROM1
08aに記憶された所定のテーブルを参照してサムネイ
ル画像Aに対応する撮影画像のボケ量(ボケ半径)r1
(上記(4)式におけるボケ量Rに相当)と撮影画像B
に対応する撮影画像のボケ量(ボケ半径)r2(上記
(4)式におけるボケ量Rに相当)とが設定され(#1
97)、これらのボケ量r1,r2を4分の1にしてサム
ネイル画像Aに対するボケ量r1’(=r1/4)とサム
ネイル画像Bに対するボケ量r2’(=r2/4)とが決
定される(#199)。
Subsequently, based on the type of the photographing lens and the information of the focal length at the time of photographing included in the tag information, the ROM 1
The blur amount (blur radius) r1 of the photographed image corresponding to the thumbnail image A is referred to by referring to a predetermined table stored in 08a.
(Corresponding to the blur amount R in the above equation (4)) and the photographed image B
Is set as the blur amount (blur radius) r2 (corresponding to the blur amount R in the above equation (4)) of the captured image corresponding to (# 1).
97), the blur amounts r1 and r2 are reduced to 1/4, and the blur amount r1 '(= r1 / 4) for the thumbnail image A and the blur amount r2' (= r2 / 4) for the thumbnail image B are determined. (# 199).

【0182】ボケ量r1,r2を4分の1にしてサムネイ
ル画像A,Bに対するボケ量r1’,r2’を算出してい
るのは、本実施形態ではサムネイル画像A,Bのサイズ
を撮影画像の1/4にしているため、撮影画像に対して
予め算出されているボケ量r1,r2を1/4にしなけれ
ば、サムネイル画像A,Bに対するボケ量r1’,r2’
とならないからである。サムネイル画像A,Bのサイズ
が撮影画像の1/nであれば、サムネイル画像A,Bに
対するボケ量r1’,r2’はr1’=r1/n,r2’=
r2/nで算出される。
The reason why the blur amounts r1 'and r2' for the thumbnail images A and B are calculated by setting the blur amounts r1 and r2 to 1/4 is that the size of the thumbnail images A and B is determined by Since the blur amounts r1 and r2 calculated in advance for the captured image are not reduced to 1/4, the blur amounts r1 'and r2' for the thumbnail images A and B are set.
Because it does not. If the size of the thumbnail images A and B is 1 / n of the photographed image, the blur amounts r1 'and r2' for the thumbnail images A and B are r1 '= r1 / n and r2' =
It is calculated by r2 / n.

【0183】続いて、反復法によりボケ味調整画像Cを
算出する際の反復演算回数をカウントするカウンタのカ
ウント値Nが「0」にリセットされる(#201)。続
いて、R,G,Bの各色成分について、1回目のボケ味
調整画像Cを表すf(1)がf( 1)=g+h1・h2・f(0)
により演算され(#203)、その演算結果が表示領域
11cに表示される(#205)。ここに、関数f(0)
はボケ味調整画像Cを表す関数fの初期値で、例えばサ
ムネイル画像Aを表す関数g1とサムネイル画像Bを表
す関数g2との平均値(g1+g2)/2である。また、
ボケ関数h1,h2は、上記(4)式のボケ量Rにそれぞ
れステップ#199で設定されたボケ量r1’,r2’を
代入して得られるボケ関数である。また、関数gは、上
記(4)式のボケ量Rにそれぞれ予め設定されたボケ量
のディフォルト値ra,rbを代入して得られるボケ関数
ha,hbと上記ボケ関数h1,h2及び画像関数g1,g2
とからg=(ha-hb・h1)・g1+(hb-ha・h2)・g2により算出さ
れるものである。
Subsequently, the blur adjustment image C is obtained by an iterative method.
A counter that counts the number of repetitive operations when calculating
The count value N is reset to "0" (# 201). Continued
And the first bokeh for each color component of R, G, B
F representing the adjusted image C(1)Is f( 1)= G + h1, h2, f(0)
(# 203), and the calculation result is displayed in the display area.
11c (# 205). Where the function f(0)
Is the initial value of the function f representing the blur adjustment image C.
The function g1 representing the thumbnail image A and the thumbnail image B are shown.
Average value (g1 + g2) / 2 with the function g2. Also,
The blurring functions h1 and h2 are respectively added to the blurring amount R in the above equation (4).
The blur amounts r1 'and r2' set in step # 199 are
It is a blur function obtained by substitution. The function g is
The blur amount preset in each of the blur amounts R in equation (4)
Function obtained by substituting the default values ra and rb of
ha, hb, the blurring functions h1, h2 and the image functions g1, g2
G = (ha-hb · h1) · g1 + (hb-ha · h2) · g2
It is what is done.

【0184】続いて、中止ボタン12fにカーソルKを
移動してマウス704をダブルクリックすることにより
演算の中止が指示されているか否か、反復演算中に反復
演算結果が収束しているか否か、反復演算回数Nが設定
された所定回数kに達しているか否かが順次、判別され
(#207,#209,#211)、反復演算の中止が
指示されている(#207でYES)、反復演算結果が
収束している(#209でYES)、あるいは反復演算
回数Nが設定された所定回数kに達していると(#21
1でYES)、サムネイル画像によるボケ味調整処理の
シミュレーションを終了する。
Subsequently, by moving the cursor K to the stop button 12f and double-clicking the mouse 704, it is determined whether or not the stop of the operation is instructed, and whether or not the result of the iterative operation has converged during the iterative operation. It is sequentially determined whether or not the number of repetition operations N has reached the set predetermined number k (# 207, # 209, # 211), and the stop of the repetition operation is instructed (YES in # 207). If the calculation result converges (YES in # 209), or if the number of repetition calculations N reaches the set predetermined number k (# 21)
If 1 is YES), the simulation of the blur adjustment processing based on the thumbnail image ends.

【0185】一方、反復演算の中止が指示されておらず
(#207でNO)、反復演算結果も収束しておらず
(#209でNO)、反復演算回数Nが所定回数kに達
していなければ(#211でNO)、カウンタのカウン
ト値Nが1だけインクリメントされて(#213)、ス
テップ#203に戻り、次のボケ味調整演算が行なわれ
る。すなわち、2回目の場合は、1回目のボケ味調整画
像Cを表すf(1)を用いてf(2)=g+h1・h2・f(1)
が演算され、その演算結果f(2)が表示領域11cに更
新的に表示される(#203,#205,#207)。
On the other hand, it is not instructed to stop the iterative operation (NO in # 207), the result of the iterative operation has not converged (NO in # 209), and the number N of iterative operations has not reached the predetermined number k. If (NO in # 211), the count value N of the counter is incremented by 1 (# 213), and the process returns to step # 203 to perform the next blur adjustment calculation. That is, in the second case, f (2) = g + h 1 · h 2 · f (1) using f (1) representing the first bokeh adjustment image C.
Is calculated, and the calculation result f (2) is renewedly displayed in the display area 11c (# 203, # 205, # 207).

【0186】図24は、サムネイル画像を用いたボケ味
調整処理のシミュレーション状態を示す図である。同図
は、反復演算が5回行なわれた状態を示し、表示領域1
1cにその演算結果であるボケ味調整画像Cが表示さ
れ、ダイアログ・ボックスの下部に処理途中であること
を示すプログレス・バー17と反復演算回数表示18と
が表示されている。作業者は反復演算処理の途中経過が
表示領域11cの表示画像で逐次確認できるので、所望
のボケ具合の画像が得られた時点で中止ボタン12fに
カーソルKを移動させてマウス704をダブルクリック
することによりシミュレーションを中止させることがで
きる。
FIG. 24 is a diagram showing a simulation state of the blur adjustment processing using the thumbnail images. The figure shows a state where the repetitive operation has been performed five times, and the display area 1
In FIG. 1c, a bokeh adjustment image C as the calculation result is displayed, and a progress bar 17 indicating that the processing is being performed and a repetition calculation count display 18 are displayed at the bottom of the dialog box. Since the operator can sequentially confirm the progress of the repetitive operation processing on the display image in the display area 11c, the operator moves the cursor K to the stop button 12f and double-clicks the mouse 704 when an image of a desired degree of blur is obtained. Thus, the simulation can be stopped.

【0187】以下、同様の方法でボケ味調整画像Cを表
すf(k)を算出する反復演算が繰り返し行なわれ(#2
03〜#213のループ)、この間に反復演算の中止が
指示されるか、反復演算結果が収束すると(#207又
は#209でYES)、その時点でサムネイル画像によ
るボケ味調整処理のシミュレーションを終了し、反復演
算の中止も指示されず、反復演算結果も収束しなければ
(#207又は#209でNO)、反復演算回数Nが所
定回数kに達した時点で(#211でYES)、サムネ
イル画像によるボケ味調整処理のシミュレーションを終
了する。
Thereafter, an iterative operation for calculating f (k) representing the blurred image C is repeatedly performed in the same manner (# 2).
During this period, if it is instructed to stop the iterative operation or the result of the iterative operation converges (YES in # 207 or # 209), the simulation of the blur adjustment process using the thumbnail image is terminated at that time. However, if the stop of the iterative operation is not instructed and the result of the iterative operation does not converge (NO in # 207 or # 209), when the number N of iterative operations reaches the predetermined number k (YES in # 211), the thumbnail is displayed. The simulation of the blur adjustment process using the image ends.

【0188】図20に戻り、ステップ#123に移行す
ると、撮影画像を用いたボケ味調整処理の実行が指示さ
れているか否かが判別され、ボケ味調整処理の実行が指
示されていなければ(#123でNO)、ステップ#1
15に戻り、実行指示の待機状態となる。
Returning to FIG. 20, when the flow shifts to step # 123, it is determined whether or not execution of the blur adjustment process using the photographed image is instructed. If the execution of the blur adjustment process is not instructed ( (NO in # 123), Step # 1
The process returns to step 15 to be in a standby state for an execution instruction.

【0189】ボケ味調整処理の実行が指示されると(#
123でYES)、ステップ#125に移行し、画像フ
ァイルP(X+1).TIF,PX.TIFからそれぞ
れ撮影画像(遠景合焦画像gaと近景合焦画像gb)の
R,G,Bの色成分の画像データがコンピュータ本体7
01内の記憶装置に読み出される(#125,#12
7)。続いて、両撮影画像ga,gbのGの色成分の画像
データについて、不足する画素位置の画像データが補間
される(#129,#131)。
When execution of the blur adjustment processing is instructed (#
123), the flow proceeds to step # 125, where the image file P (X + 1). TIF, PX. The image data of the R, G, and B color components of the captured images (the distant view focused image ga and the close view focused image gb) are respectively obtained from the TIF.
01 (# 125, # 12)
7). Subsequently, with respect to the image data of the G color component of the two captured images ga and gb, the image data at the insufficient pixel position is interpolated (# 129, # 131).

【0190】すなわち、本実施形態では単板式のカラー
撮像素子205で撮影された撮影画像に対してボケ味調
整処理を行なうので、図25(a)に示すようにGの色
成分の画像データは(2h+2,2k+1)と(2h+
1,2k+2)(h=0,1,2…n/2、k=0,
1,2,…m/2)の画素位置にしか存在しないから、
同図(b)に示すように画素位置(2h+1,2k+
1),(2h+2,2k+2)に画像データG’が補間
される。この画像データG’の補間処理は、例えば補間
すべき画素位置の画像データとして隣接する画素位置の
画像データGの平均値を演算することにより行なわれ
る。例えば画素位置(2,2)の画像データG 2,2は画
素位置(2,1),(1,3),(3,2),(2,
3)の画像データG2,1,G1,3,G3,2,G2,3を用いて
2,2=(G2,1+G1,3+G3,2+G2,3)/4により算
出される。
That is, in this embodiment, a single-plate type collar is used.
Bokeh tone for captured image captured by image sensor 205
Since the adjustment process is performed, the color of G is
The component image data is (2h + 2, 2k + 1) and (2h +
1,2k + 2) (h = 0,1,2, ... n / 2, k = 0,
1, 2,..., M / 2)
As shown in FIG. 2B, the pixel positions (2h + 1, 2k +
1), image data G 'is interpolated in (2h + 2, 2k + 2)
Is done. The interpolation processing of the image data G '
Image data of the pixel position to be
This is performed by calculating the average value of the image data G.
You. For example, the image data G at the pixel position (2, 2) 2,2Is a picture
Elementary positions (2,1), (1,3), (3,2), (2,
3) Image data G2,1, G1,3, G3,2, G2,3Using
G2,2= (G2,1+ G1,3+ G3,2+ G2,3) / 4
Will be issued.

【0191】続いて、サムネイル画像を用いたボケ味調
整処理のシミュレーションが実施されたか否かが判別さ
れ(#133)、既にボケ味調整処理のシミュレーショ
ンが実施されていれば(#133でYES)、撮影画像
gaと撮影画像gbとの間でのレジストレーション処理に
おけるずれ量の初期値(δx0,δy0)として、その
シミュレーションで算出されたサムネイル画像Aに対す
るサムネイル画像Bのずれ量(δx,δy)を4倍した
値(4δx,4δy)が設定され(#135)、ボケ味
調整処理のシミュレーションが実施されていなければ
(#133でNO)、適当な値が設定される(#13
7)。
Subsequently, it is determined whether or not the simulation of the blur adjustment process using the thumbnail image has been performed (# 133), and if the simulation of the blur adjustment process has already been performed (YES in # 133). The shift amount (δx, δy) of the thumbnail image B with respect to the thumbnail image A calculated by the simulation is set as the initial value (δx0, δy0) of the shift amount in the registration processing between the shot image ga and the shot image gb. Are set to 4 times (4δx, 4δy) (# 135), and if the simulation of the blur adjustment process is not performed (NO in # 133), an appropriate value is set (# 13).
7).

【0192】ステップ#135は、サムネイル画像につ
いてずれ量(δx,δy)が算出されているので、その
ずれ量(δx,δy)に基づく初期値を用いることによ
り撮影画像でのレジストレーション処理におけるずれ量
(δx’,δy’)を容易かつ高速に算出できるように
するものである。ずれ量(4δx,4δy)を撮影画像
でのレジストレーション処理におけるずれ量の初期値
(δx0,δy0)を設定しているのは、サムネイル画
像が撮影画像のサイズを1/4に縮少して作成されてい
るからである。従って、サムネイル画像が撮影画像のサ
イズを1/nに縮少して作成されていれば、撮影画像で
のレジストレーション処理におけるずれ量の初期値(δ
x0,δy0)は(n・δx,n・δy)となる。
In step # 135, since the shift amount (δx, δy) is calculated for the thumbnail image, the initial value based on the shift amount (δx, δy) is used to determine the shift in the registration process in the photographed image. The amount (δx ′, δy ′) can be calculated easily and at high speed. The initial value (δx0, δy0) of the shift amount in the registration processing of the shot image is set as the shift amount (4δx, 4δy) because the thumbnail image is created by reducing the size of the shot image to 1 /. Because it is. Therefore, if the thumbnail image is created by reducing the size of the captured image to 1 / n, the initial value (δ
x0, δy0) becomes (n · δx, n · δy).

【0193】続いて、Gの色成分の画像を用いて撮影画
像gaと撮影画像gbとの間でのレジストレーション処理
が行なわれ(#139)、撮影画像gaに対する撮影画
像gbのずれ量(δx’,δy’)が決定される(#1
41)。そして、撮影画像gbのR,G,Bの各色成分
の画像を全体的にずれ量(δx’,δy’)だけ移動さ
せて撮影画像gaと撮影画像gbとの位置合わせが行なわ
れ(#143)、画像ファイルP(X+1).TIF,
PX.TIFのタグ情報に含まれる撮影レンズの種類と
撮影時の焦点距離の情報とに基づき予めROM108a
に記憶された所定のテーブルを参照して撮影画像gaの
ボケ量r1と撮影画像gbのボケ量(ボケ半径)r2とが
設定される(#147)。
Subsequently, a registration process is performed between the photographed image ga and the photographed image gb using the image of the G color component (# 139), and the shift amount (δx) of the photographed image gb with respect to the photographed image ga. ', Δy') is determined (# 1
41). Then, the images of the R, G, and B color components of the photographed image gb are moved as a whole by the amount of shift (δx ′, δy ′), and the positions of the photographed image ga and the photographed image gb are aligned (# 143). ), Image file P (X + 1). TIF,
PX. The ROM 108a is determined in advance based on the type of photographing lens included in the tag information of the TIF and information on the focal length during photographing.
The blur amount r1 of the photographed image ga and the blur amount (blur radius) r2 of the photographed image gb are set with reference to a predetermined table stored in (# 147).

【0194】続いて、両撮影画像ga,gbのR,Bの色
成分の画像データについて、画像データの存在しない画
素位置の画像データを間引いて反復演算処理用の画像デ
ータが作成される(#147〜#153)。例えばRの
色成分の場合、図26(a)に示すように(2h+1,
2k+1)の画素位置にしか画像データがないから、こ
れ以外の画素位置の画像データを間引いて同図(b)に
示すようにn/4×m/4の画像サイズに縮少された反
復演算処理用の画像データが作成される。Bの色成分に
ついても同様に、(2h+2,2k+2)の画素位置に
しか画像データがないから、これ以外の画素位置の画像
データを間引いてn/4×m/4の画像サイズに縮少さ
れた反復演算処理用の画像データが作成される。
Subsequently, with respect to the image data of the R and B color components of the two captured images ga and gb, the image data at the pixel position where no image data exists is thinned out to create image data for iterative calculation processing (#). 147- # 153). For example, in the case of the R color component, (2h + 1,
Since there is image data only at the pixel position of 2k + 1), the image data at other pixel positions are thinned out and the repetitive operation is reduced to an image size of n / 4 × m / 4 as shown in FIG. Image data for processing is created. Similarly, since there is image data only at the pixel position of (2h + 2, 2k + 2) for the color component B, the image data at other pixel positions is thinned out and reduced to an image size of n / 4 × m / 4. Image data for the iterative calculation process is created.

【0195】このようにボケ味調整の反復演算を行なう
前にGの色成分については全画素位置に対して画像デー
タを補間し、R,Bの色成分については画像データのな
い画素位置を間引くようにしているのは、Gの色成分は
解像度に与える影響が顕著であるのに対し、R,Bの色
成分は解像度に与える影響は小さく、色味に与える影響
が大きいという人間の視覚特性を考慮したものである。
As described above, before performing the repetitive calculation of the blur adjustment, the image data is interpolated with respect to all the pixel positions for the G color component, and the pixel positions having no image data for the R and B color components are thinned out. The reason is that the G color component has a remarkable effect on the resolution, whereas the R and B color components have a small effect on the resolution and a large effect on the color. Is considered.

【0196】一般にデジタル画像処理では解像度の高い
程、高精度の処理結果が得られるが、処理対象のデータ
数が膨大となり、処理時間が長くなる。このため、処理
結果に対する許容品質との関係で可能な限り処理対象の
データ数を減らして処理時間を短くすることが必要であ
り、また、操作性や省電力化等の観点からも要求され
る。
Generally, in digital image processing, the higher the resolution, the higher the accuracy of the processing result. However, the number of data to be processed becomes enormous, and the processing time becomes longer. Therefore, it is necessary to shorten the processing time by reducing the number of data to be processed as much as possible in relation to the allowable quality for the processing result, and also required from the viewpoint of operability, power saving, and the like. .

【0197】反復法によるボケ味調整処理においては、
ボケ味調整具合をできるだけ正確に認識できることが品
質上要求されるから、それに与える影響の大きいGの色
成分の画像データについては補間処理を行なって全画素
位置の画像データを作成することにより処理結果の品質
で高めるようにする一方、ボケ味調整具合に与える影響
の少ないR,Bの画像データについては元々画像データ
の存在しない画素位置の画像データを演算処理の対象か
ら除外して処理時間を可能な限り短くするようにしてい
る。
In the bokeh adjustment processing by the iterative method,
Since it is required in quality to be able to recognize the degree of blur adjustment as accurately as possible, the image data of the G color component, which has a large effect on the image data, is subjected to interpolation processing to create image data of all pixel positions. For R and B image data that have little effect on the degree of bokeh adjustment, the image data at the pixel position where no image data originally exists is excluded from the target of the arithmetic processing, and the processing time can be increased. I try to keep it as short as possible.

【0198】これにより処理後のボケ具合の品質に影響
を与えることなく、R,Bの色成分についてもGの色成
分と同様に全画素位置に画像データを補間してボケ味調
整処理を行なうよりも高速でボケ味調整処理を行なうこ
とができる。
As a result, the R and B color components are subjected to image data interpolation at all pixel positions in the same manner as the G color components without affecting the quality of the blurred state after the processing, and the blur adjustment processing is performed. The bokeh adjustment process can be performed at a higher speed.

【0199】続いて、ステップ#155〜#173で
R,G,Bの色成分の画像毎に反復法によりボケ味調整
処理が行なわれる。この処理は基本的にサムネイル画像
を用いたシミュレーションにおけるボケ味調整処理(図
23に示すフローチャートのステップ#203〜#21
3の処理)と同一であるが、Gの色成分の画像に対して
はボケ量をr1,r2にしているのに対し、R,Bの色成
分の画像に対してはボケ量をr1/2,r2/2にしてい
る点で相違している(#157,#161)。
Subsequently, in steps # 155 to # 173, the blur adjustment processing is performed by an iterative method for each image of the R, G, and B color components. This process is basically a blur adjustment process in the simulation using the thumbnail image (steps # 203 to # 21 in the flowchart shown in FIG. 23).
3), but the blur amounts are r1 and r2 for the G color component image, whereas the blur amounts are r1 / r for the R and B color component images. 2 and r2 / 2 (# 157, # 161).

【0200】R,Bの色成分の画像に対するボケ量をG
の色成分の画像に対するボケ量の1/2にしているの
は、Gの色成分の画像のデータサイズはフルサイズであ
るのに対し、R,Bの色成分の画像はステップ#147
〜#153でデータサイズをフルサイズに対して1/2
×1/2に縮小しているからである。R,Bの色成分デ
ータサイズがフルサイズに対して1/s×1/sに縮小
されている場合は、R,Bの色成分の画像に対するボケ
量はr1/s,r2/sとなる。
The amount of blur for the image of the R and B color components is represented by G
The reason why the blur amount of the color component image is set to 1 / is that the data size of the G color component image is the full size, while the image of the R and B color components is step # 147.
~ # 153 to デ ー タ the data size to full size
This is because it has been reduced to × 1/2. When the R and B color component data sizes are reduced to 1 / s × 1 / s with respect to the full size, the blur amounts of the R and B color component images with respect to the image are r1 / s and r2 / s. .

【0201】ボケ味調整処理が終了すると(#167,
#169,#171でYES)、続いて、ボケ味調整画
像gcのR,Bの色成分の画像データに対して補間処理
が行なわれる(#175,#177)。この補間処理
は、R,Bの色成分のボケ味調整画像gcは間引き処理
によりデータサイズが縮小されているので、フルサイズ
の画像データに復元するものである。例えばRの色成分
のボケ味調整画像gcは、図27(a)(b)に示すよ
うに各画素データRの画素位置を対応する(2h+1,
2k+1)の画素位置に戻した後、これらの画像データ
Rを用いて同図(c)に示すようにデータが不足する画
素位置の画像データR’が補間される。その画像データ
R’の補間は上述したGの色成分の画像データの補間方
法と同様にして行なわれる。Bの色成分のボケ味調整画
像gcについても同様の方法で補間処理が行なわれる。
When the blur adjustment processing ends (# 167,
Then, an interpolation process is performed on the image data of the R and B color components of the blur adjustment image gc (# 175 and # 177). In this interpolation processing, since the data size of the blur adjustment image gc of the R and B color components has been reduced by the thinning-out processing, the interpolation processing restores full-size image data. For example, the blur adjustment image gc of the R color component corresponds to the pixel position of each pixel data R as shown in FIGS. 27A and 27B (2h + 1,
After returning to the pixel position of 2k + 1), the image data R 'at the pixel position where data is insufficient is interpolated using these image data R as shown in FIG. The interpolation of the image data R 'is performed in the same manner as the above-described interpolation method of the image data of the G color component. Interpolation processing is also performed on the blur adjustment image gc of the B color component in the same manner.

【0202】続いて、R,G,Bの色成分のボケ味調整
画像gcが合成され(#179)、その合成結果は、図
28に示すようにディスプレイ702に処理結果表示用
のダイアログ・ボックス19を表示させ、その表示領域
20に表示される(#181)。
Subsequently, the blur adjustment image gc of the R, G, and B color components is synthesized (# 179), and the synthesis result is displayed on the display 702 as shown in FIG. 19 is displayed, and is displayed in the display area 20 (# 181).

【0203】このダイアログ・ボックス19にはその下
部に、作成されたボケ味調整画像gcの保存を指示する
ためのボタン表示21(以下、保存ボタン21とい
う。)が表示されており、保存ボタン21にカーソルK
を移動してマウス704がダブルクリックされると(#
183でYES)、更に図29に示すようにディスプレ
イ702に保存条件入力用のダイアログ・ボックス22
が表示され、このダイアログ・ボックス22に従って圧
縮率、ファイル名及びホルダ名等が入力され(#18
5,#187)、そのダイアログ・ボックス22の下部
に表示されたOKボタン16にカーソルKを移動してマ
ウス704がダブルクリックされると、入力された条件
に従ってボケ味調整画像gcの画像データがコンピュー
タ本体701内の所定のメモリに保存される(#18
9)。
At the bottom of the dialog box 19, a button display 21 (hereinafter referred to as a save button 21) for instructing to save the created bokeh adjustment image gc is displayed. Cursor K
Is moved and the mouse 704 is double-clicked (#
183), and a dialog box 22 for inputting storage conditions is displayed on the display 702 as shown in FIG.
Is displayed, and a compression ratio, a file name, a folder name, and the like are input in accordance with the dialog box 22 (# 18).
5, # 187), when the cursor K is moved to the OK button 16 displayed at the bottom of the dialog box 22 and the mouse 704 is double-clicked, the image data of the blur adjustment image gc is changed according to the input condition. It is stored in a predetermined memory in the computer main body 701 (# 18)
9).

【0204】すなわち、圧縮率が設定されていると(#
185でYES)、その圧縮率で所定の圧縮方式(JP
EG方式等)によりボケ味調整画像gcの画像データが
圧縮され(#187)、圧縮率が設定されていなければ
(#185でNO)、圧縮処理を行なうことなく、設定
されたファイル名でコンピュータ本体7内の所定のメモ
リに保存され(#189)、次のボケ味調整処理を行な
うべくステップ#111に戻る。
That is, if the compression ratio is set (#
185, YES) and a predetermined compression method (JP
The image data of the blur adjustment image gc is compressed by the EG method or the like (# 187), and if the compression ratio is not set (NO in # 185), the computer performs the compression processing without performing the compression process and uses the set file name. It is stored in a predetermined memory in the main body 7 (# 189), and returns to step # 111 to perform the next blur adjustment processing.

【0205】なお、図29に示すダイアログ・ボックス
22では、圧縮率の入力表示がスライダー表示23で表
示され、スライダー表示23にカーソルKを移動し、マ
ウス704をワンクリックした状態で左右に移動させて
当該カーソルKを移動させることで圧縮率が設定され
る。圧縮率が0%に設定されると、圧縮処理は行なわれ
ない。
In the dialog box 22 shown in FIG. 29, the input display of the compression ratio is displayed on the slider display 23, the cursor K is moved to the slider display 23, and the mouse 704 is moved left and right with one click. By moving the cursor K, the compression ratio is set. When the compression ratio is set to 0%, no compression processing is performed.

【0206】次に、階調調整処理について説明する。Next, the gradation adjustment processing will be described.

【0207】図30は、階調調整処理プログラムが起動
したときのディスプレイ702に表示される階調調整用
のダイアログ・ボックスの一例を示す図である。
FIG. 30 is a diagram showing an example of a dialog box for tone adjustment displayed on the display 702 when the tone adjustment processing program is started.

【0208】階調調整用のダイアログ・ボックス24の
構成は基本的に図15に示すボケ味調整用のダイアログ
・ボックス10と同じである。従って、ダイアログ・ボ
ックス10と同一機能を果たすものには同一の番号を付
している。
The configuration of the dialog box 24 for gradation adjustment is basically the same as the dialog box 10 for blur adjustment shown in FIG. Therefore, the same numbers are given to those that perform the same functions as the dialog box 10.

【0209】画面上部に配置された表示領域12a,1
2bにはそれぞれ2枚目の撮影画像(露出オーバーの撮
影画像)のサムネイル画像Aと1枚目の撮影画像(露出
アンダーの撮影画像)のサムネイル画像Bとが表示さ
れ、表示領域12cにはサムネイル画像Aとサムネイル
画像Bとを合成して階調調整のシミュレーションを行な
ったサムネイル画像Cが表示される。
Display areas 12a, 1 arranged at the top of the screen
2b, a thumbnail image A of a second photographed image (an overexposed photographed image) and a thumbnail image B of a first photographed image (an underexposed photographed image) are displayed, and a thumbnail is displayed in a display area 12c. A thumbnail image C in which the image A and the thumbnail image B are combined and a simulation of gradation adjustment is performed is displayed.

【0210】ここで、階調調整処理の内容について簡単
に説明する。
Here, the contents of the gradation adjustment processing will be briefly described.

【0211】本実施形態では、階調調整処理に用いられ
る撮影画像は被写体の輝度に対して適正露出より2段階
露出アンダーの撮影画像G1と2段階露出オーバーの撮
影画像G2である。被写体の輝度に対して適正露出で撮
影された画像の階調特性は、図32の特性(c)に示す
ように被写体の輝度レベルとA/D変換レベルとが略等
しくなるが、露出アンダーの撮影画像G1は撮像素子へ
の露光量が抑えられるので、その階調特性は同図の特性
(a)に示すように、被写体の輝度レベルに対してA/
D変換レベルは低く抑えられたものとなっている。
In the present embodiment, the photographed images used in the gradation adjustment processing are a photographed image G1 underexposed by two steps from the proper exposure and a photographed image G2 overexposed by two steps with respect to the luminance of the subject. The gradation characteristic of an image photographed at an appropriate exposure with respect to the luminance of the subject is such that the luminance level of the subject and the A / D conversion level are substantially equal as shown in the characteristic (c) of FIG. Since the exposure amount of the photographed image G1 to the image pickup device is suppressed, the gradation characteristic is A / A with respect to the luminance level of the subject, as shown by the characteristic (a) in FIG.
The D conversion level is kept low.

【0212】一方、露出オーバーの撮影画像G2は撮像
素子への露光量が過剰になるので、その階調特性は同図
の特性(b)に示すように、被写体の輝度レベルに対し
てA/D変換レベルは高く強調されたものとなってい
る。
On the other hand, since the overexposed photographed image G2 has an excessive amount of exposure to the image sensor, its gradation characteristic is A / A with respect to the luminance level of the subject as shown in characteristic (b) of FIG. The D conversion level is highly emphasized.

【0213】階調調整処理では、画素毎に撮影画像G1
の画像データと撮影画像G2の画像データとを適当な加
算比率で加算することにより図32の階調特性(a)と
階調特性(b)とで挟まれた範囲内で任意の階調特性を
有する撮影画像が作成される。加算比率は、画像データ
のレベルに無関係に一定ではなく、図33に示すように
画像データのレベルが低くなるのに応じて露出オーバー
の撮影画像G2の画像データの加算比率が大きくなるよ
うに変化させている。このように露出オーバーの撮影画
像G2の加算比率を大きくしているのは、被写体の暗い
部分を見やすくするためである。
In the gradation adjustment processing, the photographed image G1
32 is added to the image data of the photographed image G2 at an appropriate addition ratio to obtain an arbitrary gradation characteristic within the range between the gradation characteristics (a) and (b) in FIG. Is created. The addition ratio is not constant irrespective of the level of the image data, but changes so that the addition ratio of the image data of the overexposed captured image G2 increases as the level of the image data decreases as shown in FIG. Let me. The reason why the addition ratio of the overexposed captured image G2 is increased in this way is to make it easy to see a dark part of the subject.

【0214】図33は、露出オーバーの撮影画像G2の
レベルを基準にして各レベルにおける加算比率を示した
もので、撮影画像G2の画素位置(i,j)の画素デー
タg2(i,j)が、例えばA/D変換範囲の略1/2のレ
ベルDであるとすると、当該画素データg2(i,j)と撮影
画像G1の画素位置(i,j)の画素データg1(i,j)と
をR2:R1(=0.4:0.6)で加算して階調調整
画像Gcの画素位置(i,j)の画素データgc(i,j)が
作成される。すなわち、図34に示すように画素データ
g1(i,j)のレベルをD’とすると、画素データgc(i,j)
のレベルDcはR1・D’+R2・D=0.4D’+0.
6Dとなる。
FIG. 33 shows the addition ratio at each level based on the level of the overexposed photographed image G2. Pixel data g2 (i, j) at the pixel position (i, j) of the photographed image G2 is shown. Is, for example, a level D that is approximately の of the A / D conversion range, the pixel data g2 (i, j) and the pixel data g1 (i, j) at the pixel position (i, j) of the captured image G1. ) Is added at R2: R1 (= 0.4: 0.6) to create pixel data gc (i, j) at the pixel position (i, j) of the gradation adjusted image Gc. That is, if the level of the pixel data g1 (i, j) is D 'as shown in FIG. 34, the pixel data gc (i, j)
Is D1 + D2 + D2 = 0.4D '+ 0.
6D.

【0215】この結果、同図に示すように画素位置
(i,j)の被写体の輝度レベルdに対して撮影画像G
1,G2ではそれぞれ階調レベルがa点とb点となって
いたが、階調調整画像Gcでは階調レベルが両点の間に
あるc点となる。
As a result, as shown in the figure, the brightness of the subject at the pixel position (i, j) d
1 and G2, the gradation levels are point a and point b, respectively. However, in the gradation adjustment image Gc, the gradation level is point c between the two points.

【0216】従って、階調調整処理においては、露出オ
ーバーの撮影画像G2を構成する画素データg2(i,j)の
レベルに対応する撮影画像G1,G2の加算比率をそれ
ぞれR1(g2(i,j)),R2(g2(i,j))(但し、0≦R1(g
2(i,j)),R2(g2(i,j))≦1、R1(g2(i,j))+R2(g2
(i,j))=1)とすると、各画素位置(i,j)(i=
1,2,…n,j=1,2,…m)についてR1(g2(i,
j))・g1(i,j)+R2(g2(i,j))・g2(i,j)を演算するこ
とにより階調調整画像Gcの画素データgc(i,j)が算出
され、撮影画像G1の階調特性と撮影画像G2の階調特
性との間の任意の階調特性を有する階調調整画像Gcが
作成される。
Therefore, in the gradation adjustment processing, the addition ratio of the photographed images G1 and G2 corresponding to the level of the pixel data g2 (i, j) constituting the photographed image G2 overexposed is set to R1 (g2 (i, j). j)), R2 (g2 (i, j)) (where 0 ≦ R1 (g
2 (i, j)), R2 (g2 (i, j)) ≦ 1, R1 (g2 (i, j)) + R2 (g2
(i, j)) = 1), each pixel position (i, j) (i =
1,2, ... n, j = 1,2, ... m) R1 (g2 (i,
j)) · g1 (i, j) + R2 (g2 (i, j)) · g2 (i, j) to calculate pixel data gc (i, j) of the gradation-adjusted image Gc. A gradation adjustment image Gc having an arbitrary gradation characteristic between the gradation characteristics of the image G1 and the photographed image G2 is created.

【0217】図30に戻り、階調調整のシミュレーショ
ンはボケ味調整のシミュレーションに比べて処理時間が
短いので、階調調整ソフトが起動すると、常にサムネイ
ル画像を用いた階調調整のシミュレーションが自動的に
行なわれて表示領域11cに表示されるようになってい
る。従って、階調調整用のダイアログ・ボックス24に
はシミュレーションボタン12cは設けられていない。
Returning to FIG. 30, the simulation of gradation adjustment has a shorter processing time than the simulation of bokeh adjustment. Therefore, when the gradation adjustment software is started, the simulation of gradation adjustment using a thumbnail image is always performed automatically. And is displayed in the display area 11c. Therefore, the simulation button 12c is not provided in the tone adjustment dialog box 24.

【0218】スライダーの表示25(以下、スライダー
25という。)は、サムネイル画像を用いた階調調整の
シミュレーションにおけるサムネイル画像Aとサムネイ
ル画像Bとの合成比を設定するものである。ここにいう
合成比は図33に示す露出オーバー画像のレベルv毎の
加算比ではなく、全体的なサムネイル画像Aとサムネイ
ル画像Bとの合成割合で、図33では加算比率特性Rに
よって仕切られる上側領域(撮影画像G1が加算される
領域)と下側領域(撮影画像G2が加算される領域)と
の面積比に類似したものである。
The slider display 25 (hereinafter, slider 25) is for setting the composition ratio of the thumbnail images A and B in the simulation of the gradation adjustment using the thumbnail images. The combination ratio here is not an addition ratio for each level v of an overexposed image shown in FIG. 33 but a combination ratio of the entire thumbnail image A and thumbnail image B. In FIG. This is similar to the area ratio between the area (the area to which the captured image G1 is added) and the lower area (the area to which the captured image G2 is added).

【0219】従って、スライダー25にカーソルKを移
動し、マウス704をワンクリックした状態で左右に移
動させて当該カーソルK(すなわち、スライダー表示2
5)を移動させることで、図33における加算比率特性
Rの曲線が点線で示すR’,R”の特性のように上下に
変更されてサムネイル画像Aとサムネイル画像Bとの合
成比が任意に設定される。スライダー25がスライド範
囲の中間位置にあると、加算比率特性は、ほほ図33の
特性Rに設定され、スライダー25がスライド範囲の中
間位置から右側に移動すると、同図の特性R’のように
なり(すなわち、露出オーバーの撮影画像G2の合成割
合が大きくなり)、左側に移動すると、同図の特性R”
のようになる(すなわち、露出アンダーの撮影画像G1
の合成割合が大きくなる)。
Therefore, the cursor K is moved to the slider 25 and the mouse 704 is moved left and right with one click of the mouse 704 so that the cursor K (that is, the slider display 2) is clicked.
By moving 5), the curve of the addition ratio characteristic R in FIG. 33 is changed up and down like the characteristics of R ′ and R ″ indicated by the dotted line, and the composite ratio between the thumbnail images A and B is arbitrarily set. When the slider 25 is at the middle position of the slide range, the addition ratio characteristic is set to the characteristic R in FIG. 33, and when the slider 25 moves rightward from the middle position of the slide range, the characteristic R in FIG. (In other words, the composition ratio of the overexposed photographed image G2 increases), and when moving to the left, the characteristic R "in FIG.
(Ie, the underexposed captured image G1)
Is increased).

【0220】「バリエーション」と表記されたボタン表
示12g(以下、バリエーションボタン12g)は、予
め設定された5種類の加算比率特性でサムネイル画像A
とサムネイル画像Bとを合成して5種類の階調調整画像
C1〜C5を作成するものである。
[0220] The button display 12g labeled "Variation" (hereinafter referred to as the variation button 12g) has a thumbnail image A with five kinds of preset addition ratio characteristics.
And the thumbnail image B to create five types of gradation-adjusted images C1 to C5.

【0221】表示領域11cにはサムネイル画像を用い
た階調調整のシミュレーションが表示されるが、合成比
を粗く変化させたときに階調調整結果がどのように変化
するかを知りたいときは、スライダー25を移動して合
成比を適当に変化させる必要があり、操作が面倒であ
る。バリエーションボタン12gは、階調調整具合が粗
く変化するように予め設定された5種類の加算比率特性
で5段階の階調調整をシミュレーションし、図31に示
すようにそのシミュレーション結果を一括表示させるこ
とで、操作者に所望の階調具合がどのような加算比率特
性で得られるかを確認し易くするものである。
A simulation of gradation adjustment using a thumbnail image is displayed in the display area 11c. If it is desired to know how the gradation adjustment result changes when the synthesis ratio is roughly changed, It is necessary to move the slider 25 to appropriately change the composition ratio, and the operation is troublesome. The variation button 12g is used to simulate five-stage gradation adjustment with five types of preset addition ratio characteristics so that the gradation adjustment condition roughly changes, and collectively display the simulation results as shown in FIG. Thus, it is easy for the operator to confirm what kind of addition ratio characteristics the desired gradation condition can be obtained.

【0222】なお、一括表示されたバリエーションのシ
ミュレーション結果の中に所望の階調特性があれば、そ
の画像にカーソルKを移動させ、マウス704をダブル
クリックすることにより本画像での階調調整処理におけ
る加算比率特性を設定することができる。図31では真
ん中のシミュレーション画像C3(太枠で囲まれた画像
C3)が選択されており、本画像で階調調整処理が行な
われると、シミュレーション画像C3の階調特性とほぼ
同一の階調特性を有する階調調整画像Gcが得られる。
If there is a desired gradation characteristic in the simulation result of the variation displayed collectively, the cursor K is moved to the image and the mouse 704 is double-clicked to execute the gradation adjustment processing in the main image. Can be set. In FIG. 31, the middle simulation image C3 (image C3 surrounded by a thick frame) is selected, and when the gradation adjustment processing is performed on the main image, the gradation characteristics almost the same as the gradation characteristics of the simulation image C3 Is obtained.

【0223】次に、図35,図36のフローチャートに
従って階調調整処理について具体的に説明する。
Next, the tone adjustment processing will be described in detail with reference to the flowcharts of FIGS.

【0224】階調調整処理のソフトが起動すると、指定
されたホルダNtに含まれる2個の画像ファイルP(X
+1).TIF,PX.TIFからそれぞれサムネイル
画像A,Bが読み出され、ダイアログ・ボックス20の
表示領域11a,11bに表示される(#221,#2
23)。
When the software for the gradation adjustment process is started, two image files P (X
+1). TIF, PX. The thumbnail images A and B are read from the TIF and displayed in the display areas 11a and 11b of the dialog box 20 (# 221 and # 2).
23).

【0225】続いて、スライダー25の設定位置から加
算比率特性が読み取られ(#225)、その加算比率特
性を用いて図37に示すフローチャートに従ってサムネ
イル画像による階調調整のシミュレーションが行なわれ
る(#227)。
Subsequently, the addition ratio characteristic is read from the set position of the slider 25 (# 225), and using the addition ratio characteristic, a simulation of gradation adjustment using a thumbnail image is performed according to the flowchart shown in FIG. 37 (# 227). ).

【0226】階調調整処理のシミュレーションを行なう
ソフトが起動すると、まず、サムネイル画像Aとサムネ
イル画像Bとの間でのレジストレーション処理がGの色
成分の画像を用いて行なわれ(#291)、サムネイル
画像Aに対するサムネイル画像Bのずれ量(δx,δ
y)が決定される(#293)。続いて、サムネイル画
像BのR,G,Bの各色成分の画像を全体的にずれ量
(δx,δy)だけ移動させてサムネイル画像Aとサム
ネイル画像Bとの位置合わせが行なわれる(#29
5)。この位置合わせ処理は、ボケ味調整処理の場合と
同様である。
When the software for simulating the gradation adjustment processing is started, first, the registration processing between the thumbnail image A and the thumbnail image B is performed using the G color component image (# 291). The shift amount (δx, δ) of the thumbnail image B with respect to the thumbnail image A
y) is determined (# 293). Subsequently, the images of the R, G, and B color components of the thumbnail image B are moved as a whole by the amount of shift (δx, δy), and the position of the thumbnail image A and the position of the thumbnail image B are adjusted (# 29).
5). This positioning process is the same as the blur adjustment process.

【0227】続いて、R,G,Bの各色成分について、
設定された加算比率特性に基づいてサムネイル画像Aと
サムネイル画像Bとの合成処理が行なわれ(#29
7)、その処理結果が表示領域11cに表示される(#
299)。すなわち、露出オーバーのサムネイル画像A
を構成する画素データをga(i,j)(i=1,2,…n/
4、j=1,2,…m/4)、露出アンダーのサムネイ
ル画像Bを構成する画素データをgb(i,j)(i=1,
2,…n/4、j=1,2,…m/4)、画素データg
a(i,j)に対応するサムネイル画像A,Bの加算比率をそ
れぞれRa(ga(i,j)),Rb(ga(i,j))(但し、0≦R
a(ga(i,j)),Rb(ga(i,j))≦1、Ra(ga(i,j))+Rb
(ga(i,j))=1)とすると、R,G,Bの各色成分につ
いて、各画素位置(i,j)毎にRa(ga(i,j))・ga
(i,j)+Rb(ga(i,j))・gb(i,j)を演算することにより
階調調整画像Cの画素データgc(i,j)が算出され、その
算出結果が表示領域11cに表示される。
Subsequently, for each of the R, G, and B color components,
The thumbnail image A and the thumbnail image B are combined based on the set addition ratio characteristic (# 29).
7), the processing result is displayed in the display area 11c (#
299). That is, the overexposed thumbnail image A
Ga (i, j) (i = 1, 2,... N /
4, j = 1, 2,..., M / 4), and pixel data constituting the underexposed thumbnail image B is represented by gb (i, j) (i = 1,
2,... N / 4, j = 1, 2,..., M / 4), pixel data g
The addition ratios of the thumbnail images A and B corresponding to a (i, j) are Ra (ga (i, j)) and Rb (ga (i, j)) (where 0 ≦ R
a (ga (i, j)), Rb (ga (i, j)) ≦ 1, Ra (ga (i, j)) + Rb
Assuming that (ga (i, j)) = 1), Ra (ga (i, j)) · ga for each pixel position (i, j) for each of the R, G, and B color components.
By calculating (i, j) + Rb (ga (i, j)) · gb (i, j), pixel data gc (i, j) of the gradation adjusted image C is calculated, and the calculation result is displayed in the display area. 11c is displayed.

【0228】図35に戻り、サムネイル画像による階調
調整処理が終了すると、スライダー25によりシミュレ
ーションの加算比率特性が変更されているか否かが判別
され(#229)、加算比率特性が変更されていなけれ
ば(#229でNO)、バリエーションボタン12gに
カーソルKを移動してマウス704がダブルクリックさ
れたか(バリエーションボタン12gが操作されたか)
否かが判別され(#231)、バリエーションボタン1
2gがされていなければ(#231でNO)、更に実行
ボタン12bにカーソルKを移動してマウス704がダ
ブルクリックされたか(実行ボタン12bが操作された
か)否かが判別される。
Returning to FIG. 35, when the gradation adjustment process using the thumbnail image is completed, it is determined whether or not the addition ratio characteristic of the simulation has been changed by the slider 25 (# 229), and the addition ratio characteristic must be changed. If (NO in # 229), the cursor K is moved to the variation button 12g and the mouse 704 is double-clicked (whether the variation button 12g is operated).
Is determined (# 231), and the variation button 1
If 2g has not been performed (NO in # 231), it is further determined whether or not the cursor K has been moved to the execute button 12b and the mouse 704 has been double-clicked (the execute button 12b has been operated).

【0229】バリエーションボタン12gも実行ボタン
12bも操作されていなければ(#231,#233で
NO)、ステップ#229に戻り、サムネイル画像によ
る階調調整のシミュレーション結果を表示した状態で待
機状態となる。
If neither the variation button 12g nor the execution button 12b is operated (NO in # 231, # 233), the process returns to step # 229, and enters a standby state in which the simulation result of the gradation adjustment using the thumbnail image is displayed. .

【0230】一方、スライダー25の移動により加算比
率特性が変更されると(#229でYES)、ステップ
#225に戻り、変更後の加算比率特性を用いて階調調
整のシミュレーションが行なわれる(#225〜#22
9)。
On the other hand, if the addition ratio characteristic is changed by moving the slider 25 (YES in # 229), the process returns to step # 225, and a simulation of gradation adjustment is performed using the changed addition ratio characteristic (#) 225 to # 22
9).

【0231】また、バリエーションボタン12gが操作
されると(#231でYES)、例えば図38に示すよ
うな予め設定された5種類の加算比率特性〜を用い
てステップ#227と同様の方法で5種類の階調調整の
シミュレーションが行なわれ(#235)、そのシミュ
レーション結果が図31に示すように表示される(#2
37)。
When the variation button 12g is operated (YES in # 231), for example, five kinds of preset addition ratio characteristics are used as shown in FIG. A simulation of the kind of gradation adjustment is performed (# 235), and the simulation result is displayed as shown in FIG. 31 (# 2).
37).

【0232】そして、表示された5枚の階調調整画像C
1〜C5のうち、何れかの階調調整画像にカーソルKを
移動してマウス704がダブルクリックされると(その
階調調整画像が選択されると)(#239でYES)、
ステップ#241に移行し、選択された階調調整画像の
加算比率特性を用いて撮影画像に対して階調調整処理が
実行される。図31の例では、階調調整画像C3が選択
されているので、図38の加算比率特性を用いて撮影
画像に対し階調調整処理が実行される。階調調整画像C
1〜C5の選択がなければ(#239でNO)、ステッ
プ#229に戻り、シミュレーション結果を表示した状
態で待機状態となる。
Then, the displayed five gradation-adjusted images C are displayed.
When the cursor K is moved to any one of the gradation adjustment images from 1 to C5 and the mouse 704 is double-clicked (when the gradation adjustment image is selected) (YES in # 239),
The process proceeds to step # 241 to execute a gradation adjustment process on the captured image using the addition ratio characteristic of the selected gradation adjustment image. In the example of FIG. 31, since the gradation adjustment image C3 is selected, the gradation adjustment processing is performed on the captured image using the addition ratio characteristics of FIG. Gradation adjustment image C
If there is no selection of 1 to C5 (NO in # 239), the process returns to step # 229, and enters a standby state with the simulation result displayed.

【0233】また、実行ボタン12bが操作されると
(#233でYES)、ステップ#241に移行し、ス
ライダー25若しくは5枚の階調調整画像C1〜C5の
選択により設定された加算比率特性を用いて撮影画像に
対し階調調整処理が実行される。
If the execution button 12b is operated (YES in # 233), the flow shifts to step # 241 to change the addition ratio characteristic set by selecting the slider 25 or the five gradation-adjusted images C1 to C5. The gradation adjustment process is performed on the captured image using the image data.

【0234】撮影画像に対する階調調整処理では、ま
ず、画像ファイルP(X+1).TIF,PX.TIF
からそれぞれ撮影画像(露出アンダー画像G1と露出オ
ーバー画像G2)のR,G,Bの色成分の画像データが
コンピュータ本体701内の記憶装置に読み出される
(#241,#243)。続いて、両撮影画像G1,G
2のGの色成分の画像データについて、不足する画素位
置の画像データが補間される(#245,#247)。
この補間処理はボケ味調整処理における補間処理と同一
である。
In the gradation adjustment process for a captured image, first, the image file P (X + 1). TIF, PX. TIF
Then, the image data of the R, G, and B color components of the captured images (the underexposed image G1 and the overexposed image G2) are read out to storage devices in the computer main body 701 (# 241 and # 243). Subsequently, both photographed images G1, G
With respect to the image data of the second G color component, the image data at the insufficient pixel position is interpolated (# 245, # 247).
This interpolation processing is the same as the interpolation processing in the blur adjustment processing.

【0235】続いて、撮影画像G1と撮影画像G2との
間でのレジストレーション処理におけるずれ量の初期値
(δx0,δy0)として、サムネイル画像による階調
調整処理のシミュレーションで算出されたサムネイル画
像Aに対するサムネイル画像Bのずれ量(δx,δy)
を4倍した値(4δx,4δy)が設定される(#24
9)。階調調整処理では常にサムネイル画像による階調
調整処理のシミュレーションが行なわれるので、撮影画
像でのレジストレーション処理におけるずれ量の初期値
としてサムネイル画像でのシミュレーション結果で得ら
れたずれ量を利用するようにしている。
Subsequently, as the initial value (δx0, δy0) of the shift amount in the registration processing between the photographed image G1 and the photographed image G2, the thumbnail image A calculated by the simulation of the gradation adjustment processing using the thumbnail image is used. Of the thumbnail image B with respect to (δx, δy)
(4δx, 4δy) are set (# 24).
9). In the gradation adjustment process, a simulation of the gradation adjustment process using a thumbnail image is always performed. Therefore, the shift amount obtained from the simulation result of the thumbnail image is used as an initial value of the shift amount in the registration process of the captured image. I have to.

【0236】続いて、Gの色成分の画像を用いて撮影画
像G1と撮影画像G2との間でのレジストレーション処
理が行なわれ(#251)、撮影画像G1に対する撮影
画像G2のずれ量(δx’,δy’)が決定される(#
253)。そして、撮影画像G2のR,G,Bの各色成
分の画像を全体的にずれ量(δx’,δy’)だけ移動
させて撮影画像G1と撮影画像G2との位置合わせが行
なわれ(#255)、まず、Gの各色成分について階調
調整処理が行なわれる(#257)。この階調調整処理
はサムネイル画像を用いたシミュレーションにおける階
調調整処理と同一である。
Subsequently, a registration process is performed between the photographed image G1 and the photographed image G2 using the image of the G color component (# 251), and the displacement amount (δx) of the photographed image G2 with respect to the photographed image G1. ', Δy') is determined (#
253). Then, the images of the R, G, and B color components of the photographed image G2 are entirely moved by the amount of shift (δx ′, δy ′), and the positions of the photographed image G1 and the photographed image G2 are adjusted (# 255). First, gradation adjustment processing is performed on each color component of G (# 257). This gradation adjustment processing is the same as the gradation adjustment processing in the simulation using the thumbnail image.

【0237】続いて、Rの色成分について階調調整処理
が行なわれ(#259〜#265)、その後、Bの色成
分について階調調整処理が行なわれる(#265〜#2
73)。R,Bの色成分については、ボケ味調整処理と
同様に、画像データの存在しない画素位置の画像データ
を間引いて階調調整処理用の画像データを作成した後
(#259,#261,#267,#269)、その画
像データを用いて階調調整処理が行なわれ(#263,
#271)、その後、画像データの補間処理が行なわれ
る(#265,#373)。
Subsequently, gradation adjustment processing is performed on the R color component (# 259 to # 265), and thereafter, gradation adjustment processing is performed on the B color component (# 265 to # 2).
73). For the R and B color components, image data for gradation adjustment processing is created by thinning out image data at pixel positions where no image data exists, similarly to the blur adjustment processing (# 259, # 261, # 267, # 269), and tone adjustment processing is performed using the image data (# 263, # 269).
Then, the image data is interpolated (# 265, # 373).

【0238】ステップ#259,#261,#267,
#269の画像データの間引き処理は、ボケ味調整処理
における画像データの間引き処理(図21に示すフロー
チャートのステップ#147〜#153の処理参照)と
同一である。また、ステップ#263,#271の階調
調整処理は、サムネイル画像を用いたシミュレーション
における階調調整処理と同一である。また、ステップ#
265,#273の画像データの補間処理は、ボケ味調
整処理における画像データの補間処理(図22に示すフ
ローチャートのステップ#175〜#177の処理参
照)と同一である。
Steps # 259, # 261, # 267,
The image data thinning process of # 269 is the same as the image data thinning process in the blur adjustment process (see the processes of steps # 147 to # 153 in the flowchart shown in FIG. 21). Further, the gradation adjustment processing in steps # 263 and # 271 is the same as the gradation adjustment processing in the simulation using the thumbnail image. Step #
The interpolation processing of the image data of 265 and # 273 is the same as the interpolation processing of the image data in the blur adjustment processing (see the processing of steps # 175 to # 177 in the flowchart shown in FIG. 22).

【0239】続いて、R,G,Bの色成分の階調調整画
像Gcが合成され(#275)、その合成結果は、ボケ
味調整処理の場合と同様に、図39に示すようにディス
プレイ702に処理結果表示用のダイアログ・ボックス
19を表示させ、その表示領域20に表示される(#2
77)。
Subsequently, the gradation adjusted image Gc of the R, G, B color components is synthesized (# 275), and the synthesized result is displayed on the display as shown in FIG. A dialog box 19 for displaying the processing result is displayed on the display area 702 and displayed in the display area 20 (# 2).
77).

【0240】そして、保存ボタン21にカーソルKを移
動してマウス704がダブルクリックされると(#27
9でYES)、階調調整画像Gcの画像データがコンピ
ュータ本体701内の所定のメモリに保存される(#2
81)。
When the cursor K is moved to the save button 21 and the mouse 704 is double-clicked (# 27
(YES at 9), the image data of the gradation adjusted image Gc is stored in a predetermined memory in the computer main body 701 (# 2)
81).

【0241】次に、超解像処理について説明する。Next, the super-resolution processing will be described.

【0242】図40は、超解像処理プログラムが起動し
たときのディスプレイ702に表示される超解像処理用
のダイアログ・ボックスの一例を示す図である。
FIG. 40 is a diagram showing an example of a dialog box for super-resolution processing displayed on the display 702 when the super-resolution processing program is started.

【0243】超解像処理用のダイアログ・ボックス26
の構成も基本的に図15に示すボケ味調整用のダイアロ
グ・ボックス10と同じで、図15において、表示領域
11cとシミュレーションボタン12dを除去したもの
である。超解像処理では、サムネイル画像を用いて超解
像処理を行なってもその効果を視認することは困難であ
るので、サムネイル画像で超解像処理を行なうためのシ
ミュレーションボタン12dとその結果を表示する表示
領域11cは設けていない。
Dialog box 26 for super-resolution processing
Is basically the same as the dialog box 10 for blur adjustment shown in FIG. 15. In FIG. 15, the display area 11c and the simulation button 12d are removed. In the super-resolution processing, even if the super-resolution processing is performed using the thumbnail images, it is difficult to visually recognize the effect. Therefore, the simulation button 12d for performing the super-resolution processing on the thumbnail images and the result are displayed. The display area 11c is not provided.

【0244】表示領域11a,11b、ファイルボタン
11a、実行ボタン11b及び終了ボタン11eはダイ
アログ・ボックス10のものと同一機能を果たすもので
ある。
The display areas 11a and 11b, the file button 11a, the execution button 11b, and the end button 11e have the same functions as those of the dialog box 10.

【0245】ここで、超解像処理の内容について、図4
1を用いて簡単に説明する。なお、説明の便宜上、一次
元の画像データについて説明する。
Here, the contents of the super-resolution processing will be described with reference to FIG.
1 will be briefly described. For convenience of description, one-dimensional image data will be described.

【0246】被写体に対して撮影者がカメラを構えてシ
ャッタ操作を行なったときに、連続して2回の露光動作
を行って得られた2枚の撮影画像は、通常、撮影者が完
全に静止していることはないから、カメラアングルの僅
かな相違に起因して互いに被写体に対する撮影位置がわ
ずかに変位したものとなっている。
When the photographer holds the camera and performs a shutter operation on the subject, two photographed images obtained by performing two consecutive exposure operations are usually completely captured by the photographer. Since the camera is not stationary, the photographing positions with respect to the subject are slightly displaced from each other due to a slight difference in the camera angle.

【0247】従って、本実施の形態では、最初の撮影画
像と2回目の撮影画像とをそれぞれ補間処理するととも
に、両撮影画像の位置合わせをして合成することより、
解像度の高い画像を得るようにしている。
Therefore, in the present embodiment, the first photographed image and the second photographed image are each interpolated, and the two photographed images are aligned and synthesized.
Try to get a high resolution image.

【0248】すなわち、最初に撮影画像の画像データを
図41(a)とし、2枚目の撮影画像の画像データを図
41(b)とし、2枚目の撮影画像は最初の撮影画像に
対して被写体に対する撮影位置が右側にΔxだけずれて
いるとする。なお、図41(a)(b)において、曲線
Pは被写体の輝度特性を示し、a(1),a(2),…及びb
(1),b(2),…は画素位置、C(1),C(2),…及びD
(1),D(2),…は各画素の受光レベルを示している。ま
た、C(1)’,C(2)’,…は、受光レベルC(1),C
(2),…を用いて画素位置a(1),a(2),…の間を補間
したレベルであり、D(1)’,D(2)’,…は、受光レベ
ルD(1),D(2),…を用いて画素位置b(1),b(2),…
の間を補間したレベルである。
That is, FIG. 41A shows the image data of the first photographed image, FIG. 41B shows the image data of the second photographed image, and FIG. 41B shows the image data of the second photographed image. It is assumed that the shooting position with respect to the subject is shifted to the right by Δx. 41 (a) and 41 (b), a curve P indicates the luminance characteristic of the subject, and a (1), a (2),.
(1), b (2),... Are pixel positions, C (1), C (2),.
(1), D (2),... Indicate the light receiving level of each pixel. C (1) ′, C (2) ′,...
Are levels interpolated between pixel positions a (1), a (2),... Using D (1) ′, D (2) ′,. ), D (2),..., Pixel positions b (1), b (2),.
This is the level interpolated between.

【0249】図41(a)(b)に示すように、最初の
撮影画像における各画素の被写体に対する受光位置と2
枚目の撮影画像における各画素の被写体に対する受光位
置とは相違しているから、両撮影画像の画像データから
撮像素子の画素数の2倍の画像データが得られる。
As shown in FIGS. 41A and 41B, the light receiving position of each pixel in the first photographed image with respect to the subject
Since the light receiving position of each pixel with respect to the subject in the second captured image is different, image data of twice the number of pixels of the image sensor can be obtained from the image data of both captured images.

【0250】従って、同図(c)に示すように、最初の
撮影画像と2枚目の撮影画像の位置合わせをして両画像
データを合成することにより撮像素子の画素密度に対し
て2倍の画素密度を有する画像データが得られる。
Therefore, as shown in FIG. 27C, the first photographed image and the second photographed image are aligned and the two image data are synthesized, thereby doubling the pixel density of the image sensor. Is obtained.

【0251】なお、本実施の形態では、2回の露光にお
けるカメラアングルの微差に基づく被写体に対する撮像
素子の受光位置のずれを利用しているから、画素位置a
(i)と画素位置b(i)とのずれ量Δxは一定せず、画素位
置b(i)は画素位置a(i)と画素位置a(i+1)との中間に
必ず位置するとは限らないので、ずれ量Δxが非常に小
さい場合は、両画像画像の位置合わせが十分な精度で行
なえない虞がある。
In the present embodiment, since the shift of the light receiving position of the image pickup device with respect to the subject based on the slight difference in the camera angle between the two exposures is used, the pixel position a
The shift amount Δx between (i) and the pixel position b (i) is not constant, and the pixel position b (i) is not always located in the middle between the pixel position a (i) and the pixel position a (i + 1). Therefore, when the deviation amount Δx is very small, there is a possibility that the positioning of the two images cannot be performed with sufficient accuracy.

【0252】そこで、これを改善するため、本実施の形
態では最初の撮影画像の画像データと2枚目の撮影画像
の画像データとをそれぞれ補間処理した後、合成するよ
うにしている。このようにすることで、図41(c)に
示すように、画素位置b(i)と画素位置a(i+1)との間に
画像データC(i)’,D(i)’が補間され、2枚の撮影画
像は高い精度で位置合わせが行なわれるので、解像度の
高い画像が得られる。
Therefore, in order to improve this, in the present embodiment, the image data of the first captured image and the image data of the second captured image are interpolated and then combined. By doing so, as shown in FIG. 41C, the image data C (i) ′ and D (i) ′ are between the pixel position b (i) and the pixel position a (i + 1). Interpolation is performed and the two captured images are aligned with high accuracy, so that a high-resolution image can be obtained.

【0253】図40に戻り、設定ボタン12cは上述し
た補間方法を設定するためのボタンである。本実施の形
態では、周知のキュービック・コンボリューション(Qu
ibicconvolution)法、クゥオドラティックスプライン
(Quadratic spline)法及びインテグレーティング・リ
サンプラー(Integrating resampler)法の中から所望
の補間方法が選択できるようになっている。
Returning to FIG. 40, the setting button 12c is a button for setting the above-described interpolation method. In this embodiment, a well-known cubic convolution (Qu
A desired interpolation method can be selected from an ibicconvolution method, a quadratic spline method, and an integrating resampler method.

【0254】設定ボタン12cにカーソルKを移動して
マウス704がダブルクリックされると、上記補間方法
を選択するための処理プログラムが起動し、ディスプレ
イ702の画面に、 図42に示すような補間方法設定
用のダイアログ・ボックス27が表示される。
When the cursor K is moved to the setting button 12c and the mouse 704 is double-clicked, a processing program for selecting the above-mentioned interpolation method is started, and the screen of the display 702 displays the interpolation method as shown in FIG. A setting dialog box 27 is displayed.

【0255】ダイアログ・ボックス27には上記3種類
の補間方法のリストが表示され、所望の補間方法の表示
位16置にカーソルKを移動し、マウス704をワンク
リックすると、その補間方法が選択され、先頭の〇印が
◎印に変更される。そして、この状態で設定内容を確定
するための「OK」ボタン16にカーソルKを移動し、
マウス704をワンクリックすると、その補間方法が設
定される。図42の例では、キュービック・コンボリュ
ーション法が設定される。
A list of the above three interpolation methods is displayed in the dialog box 27. When the cursor K is moved to the display position 16 of the desired interpolation method and the mouse 704 is clicked once, the interpolation method is selected. , The leading 〇 is changed to ◎. Then, in this state, the cursor K is moved to the “OK” button 16 for confirming the setting contents, and
When the mouse 704 is clicked once, the interpolation method is set. In the example of FIG. 42, the cubic convolution method is set.

【0256】次に、図43,図44のフローチャートに
従って超解像処理について具体的に説明する。
Next, the super-resolution processing will be described in detail with reference to the flowcharts shown in FIGS.

【0257】超解像処理のソフトが起動すると、指定さ
れたホルダNhに含まれる2個の画像ファイルP(X+
1).TIF,PX.TIFからそれぞれサムネイル画
像A,Bが読み出され、ダイアログ・ボックス20の表
示領域11a,11bに表示されるとともに(#29
1,#293)、超解像方式のデフォルト値が読み取ら
れて(#295)、超解像処理のスタンバイ状態となる
(#297のループ)。
When the super-resolution processing software is started, two image files P (X +
1). TIF, PX. The thumbnail images A and B are read from the TIF, respectively, displayed in the display areas 11a and 11b of the dialog box 20 (# 29).
1, # 293), the default value of the super-resolution method is read (# 295), and the super-resolution processing enters a standby state (loop of # 297).

【0258】そして、実行ボタン12cにより超解像処
理の実行が指示されると(#297でYES)、まず、
サムネイル画像Aとサムネイル画像Bとの間でのレジス
トレーション処理がGの色成分の画像を用いて行なわ
れ、サムネイル画像Aに対するサムネイル画像Bのずれ
量(δx,δy)が決定される(#299〜#30
5)。
When execution of super-resolution processing is instructed by execution button 12c (YES in # 297), first,
The registration process between the thumbnail image A and the thumbnail image B is performed using the G color component image, and the shift amount (δx, δy) of the thumbnail image B with respect to the thumbnail image A is determined (# 299). ~ # 30
5).

【0259】続いて、画像ファイルP(X+1).TI
F,PX.TIFからそれぞれ撮影画像(最初の撮影画
像g1と2回目の撮影画像g2)のR,G,Bの色成分
の画像データがコンピュータ本体701内の記憶装置に
読み出され、両撮影画像g1,g2のGの色成分の画像
データについて、それぞれ設定された補間方法によって
不足する画素位置の画像データを補間するとともに、解
像度の倍率nに応じて増加する画素位置の画像データが
補間される(#307,#309)。
Subsequently, the image file P (X + 1). TI
F, PX. The image data of the R, G, and B color components of the captured images (the first captured image g1 and the second captured image g2) are read out from the TIF to the storage device in the computer main body 701, and the two captured images g1 and g2 are read. With respect to the image data of the G color component, the image data at the insufficient pixel position is interpolated by the interpolation method set respectively, and the image data at the pixel position increasing according to the resolution magnification n is interpolated (# 307). , # 309).

【0260】すなわち、Gの色成分の画像データは、図
25(a)に示すように(2h+2,2k+1)と(2
h+1,2k+2)(h=0,1,2…n/2、k=
0,1,2,…m/2)の画素位置にしか画像データG
がないから、同図(b)に示すように画素位置(2h+
1,2k+1),(2h+2,2k+2)の画像データ
G’が補間され、更に、例えば解像度の倍率nを4倍と
すると、図45に示すように、各行各列について、各画
素位置の間に画素データG”が補間される。
That is, as shown in FIG. 25 (a), the image data of the G color component is (2h + 2, 2k + 1) and (2
h + 1, 2k + 2) (h = 0, 1, 2,... n / 2, k =
0, 1, 2,... M / 2)
Because there is no pixel position, as shown in FIG.
The image data G ′ of (1,2k + 1) and (2h + 2,2k + 2) are interpolated, and further, for example, when the resolution magnification n is set to 4 times, as shown in FIG. Pixel data G ″ is interpolated.

【0261】続いて、撮影画像g1と撮影画像g2との
間でのレジストレーション処理におけるずれ量の初期値
(δx0,δy0)として、ステップ#305で算出さ
れたサムネイル画像Aに対するサムネイル画像Bのずれ
量(δx,δy)を4倍した値(4δx,4δy)が設定
され(#311)、更にこのずれ量(4δx,4δy)
を用いてGの色成分の画像に関して撮影画像g1と撮影
画像g2との間でのレジストレーション処理が行なわれ
て(#313)、撮影画像g1に対する撮影画像g2の
ずれ量(δx’,δy’)が決定される(#315)。
Subsequently, as the initial value (δx0, δy0) of the deviation amount in the registration processing between the photographed image g1 and the photographed image g2, the deviation of the thumbnail image B from the thumbnail image A calculated in step # 305 A value (4δx, 4δy) obtained by quadrupling the amount (δx, δy) is set (# 311), and further, the deviation amount (4δx, 4δy)
, A registration process is performed between the photographed image g1 and the photographed image g2 on the image of the G color component (# 313), and the shift amount (δx ′, δy ′) of the photographed image g2 with respect to the photographed image g1. ) Is determined (# 315).

【0262】そして、撮影画像g2のGの色成分の画像
を全体的にずれ量(δx’,δy’)だけ移動させて撮
影画像g1と撮影画像g2との位置合わせが行なわれた
後(#317)、画像データG”の補間された各画素位
置について、撮影画像g1の補間データG”と撮影画像
g2の補間データG”との平均値が合成後のデータとし
て設定される(#319)。
Then, after the image of the G color component of the photographed image g2 is moved as a whole by the amount of shift (δx ′, δy ′), the positions of the photographed image g1 and the photographed image g2 are adjusted (# 317), for each interpolated pixel position of the image data G ″, the average value of the interpolation data G ″ of the photographed image g1 and the interpolation data G ″ of the photographed image g2 is set as data after synthesis (# 319). .

【0263】ステップ#317の処理は、図41の例で
説明すると、同図(a)(b)のように、2枚目の画像
の画像データを最初の画像の画像データに対してΔxだ
けずらせて被写体の輝度特性Pを一致させるものであ
る。
The processing in step # 317 will be described with reference to the example of FIG. 41. As shown in FIGS. 41A and 41B, the image data of the second image is added to the image data of the first image by Δx. The luminance characteristics P of the subject are shifted to match.

【0264】また、ステップ#319の処理は、画素密
度をn倍にした2枚の撮影画像相互で画素ピッチ単位で
位置合わせを行なうので、同一の画素位置に最初の撮影
画像のデータと2枚目の撮影画像のデータとが存在する
ことになるので、これらの平均値をその画素位置のデー
タとするものである。
In the process of step # 319, since the two photographed images whose pixel densities are n times are aligned with each other in pixel pitch units, the data of the first photographed image and the two photographed images are located at the same pixel position. Since the data of the photographed image of the eye exists, the average value of these data is used as the data of the pixel position.

【0265】図43に戻り、続いて、ステップ#321
〜#327でRの色成分の画像について、Gの色成分の
場合と同様の方法で画像データの合成処理が行なわれ、
ステップ#329〜#335でBの色成分の画像につい
て、Gの色成分の場合と同様の方法で画像データの合成
処理が行なわれる。
Returning to FIG. 43, subsequently, at step # 321
In steps # 327 to # 327, the image of the R color component is subjected to image data combining processing in the same manner as in the case of the G color component.
In steps # 329 to # 335, the image of the B color component is subjected to image data synthesis processing in the same manner as in the case of the G color component.

【0266】なお、Rの色成分の画像データは、図26
(a)に示すように(2h+1,2k+1)の画素位置
にしか画像データRがないから、同図(b)に示すよう
にこれ以外の画素位置(2h+2,2k+1),(2h
+1,2k+2),(2h+2,2k+2)の画像デー
タR’が補間された後、図46に示すように各行各列に
ついて、各画素位置の間に画素データR”が補間され
る。Bの色成分の画像データについても同様の方法で画
像データB’,B”が補間される。
The image data of the R color component is shown in FIG.
Since the image data R exists only at the pixel position (2h + 1, 2k + 1) as shown in (a), other pixel positions (2h + 2, 2k + 1), (2h) as shown in FIG.
After the image data R 'of (+1, 2k + 2) and (2h + 2, 2k + 2) are interpolated, the pixel data R "is interpolated between the pixel positions for each row and column as shown in FIG. The image data B ′ and B ″ are interpolated in the same manner for the component image data.

【0267】そして、超解像処理後のR,G,Bの各色
成分の画像データを合成して画素密度がn倍(図45,
図46の例では4倍)の超解像画像g3が作成され(#
337)、その超解像画像g3が、図47に示すように
ディスプレイ702の画面全体に表示される(#33
9)。なお、超解像処理では、処理結果の効果を認識し
やすくするため、超解像画像g3をディスプレイ702
の画面全体に表示させるようにしている。処理効果が認
識できるものであれば、超解像画像g3をディスプレイ
702の一部画面に表示させるようにしても良い。
Then, the image data of each of the R, G, and B color components after the super-resolution processing is synthesized to increase the pixel density by n times (FIG. 45,
A super-resolution image g3 of 4 × in the example of FIG. 46 is created (#
337), the super-resolution image g3 is displayed on the entire screen of the display 702 as shown in FIG. 47 (# 33).
9). In the super-resolution processing, the super-resolution image g3 is displayed on the display 702 in order to easily recognize the effect of the processing result.
To be displayed on the entire screen. If the processing effect can be recognized, the super-resolution image g3 may be displayed on a partial screen of the display 702.

【0268】そして、保存ボタン21にカーソルKを移
動してマウス704がダブルクリックされると(#34
1でYES)、超解像画像g3の画像データがコンピュ
ータ本体7内の所定のメモリに保存される(#34
3)。
Then, when the cursor K is moved to the save button 21 and the mouse 704 is double-clicked (# 34)
If YES at 1), the image data of the super-resolution image g3 is stored in a predetermined memory in the computer main body 7 (# 34).
3).

【0269】上記のように、デジタルスチルカメラ1で
ボケ味調整モード、階調調整モード及び超解像モードで
撮影された2枚一組の撮影画像はコンピュータからなる
画像処理装置6で、R,G,Bの色成分毎に互いに撮影
画像の位置合わせ処理が行なわれた後、所定の合成処理
により所望のボケ具合や階調特性を有する色成分画像や
解像度の高い色成分画像が作成され、更にこれらの色成
分画像を合成して所望のボケ具合や階調特性を有するカ
ラー画像や解像度の高いカラー画像が作成されるが、こ
の色成分毎の画像処理において、人間の視覚特性上解像
度に与える影響の大きいGの色成分については、全画素
位置の画像データを用いて位置合わせ処理を行ない、人
間の視覚特性上解像度に与える影響の小さいR,Bの色
成分については、Gの色成分で算出された位置合わせ情
報を利用することで位置合わせ処理の簡略化を行なうよ
うにしているので、R,G,Bの各色成分について同一
の位置合わせ処理を繰り返す場合に比して処理時間を短
くすることができる。
As described above, a set of two shot images shot by the digital still camera 1 in the bokeh adjustment mode, the gradation adjustment mode, and the super-resolution mode is processed by the image processing device 6 including a computer to obtain R, After the alignment process of the captured images is performed for each of the G and B color components, a color component image having a desired degree of blur and gradation characteristics and a color component image having a high resolution are created by a predetermined combination process. Further, by combining these color component images, a color image having a desired degree of blur and gradation characteristics and a high-resolution color image are created. For the G color component that has a large effect, alignment processing is performed using image data at all pixel positions, and for the R and B color components that have a small effect on resolution due to human visual characteristics, Since the alignment processing is simplified by using the alignment information calculated for the color components of the color components R, G, and B, the same alignment processing is repeated for each of the R, G, and B color components. Processing time can be shortened.

【0270】また、色成分毎のボケ味調整、階調調整及
び超解像処理等の所定の画像処理においても、Gの色成
分の画像については全画素位置の画像データを用いて画
像処理を行ない、R,Bの色成分の画像については、全
画素位置の画像データを用いないで画像処理を行なうよ
うにしているので、全ての各色成分の画像について全画
素位置の画像データを用いて画像処理を繰り返す場合に
比して処理時間を短くすることができる。
Also, in predetermined image processing such as bokeh adjustment, gradation adjustment, and super-resolution processing for each color component, image processing of the G color component image is performed using image data at all pixel positions. Since the image processing of the R and B color components is performed without using the image data of all the pixel positions, the image processing of all the color components is performed using the image data of all the pixel positions. The processing time can be reduced as compared with the case where the processing is repeated.

【0271】具体的には、本実施形態では、ベイヤー方
式の単板式カラーCCDを用いて画像が撮影されている
ため、撮影画像を構成するR,G,Bの各色成分の画像
は、不足する画素位置の画像データを補間する必要があ
るが、色成分毎のボケ味調整、階調調整及び超解像処理
等の所定の画像処理においては、Gの色成分の画像につ
いては補間処理により全画素位置の画像データを補間し
て画像処理を行ない、R,Bの色成分の画像について
は、補間処理をしないで、元の画像データを用いて画像
処理を行なうようにしているので、全ての各色成分の画
像について全画素位置の画像データを補間した後、画像
処理を行なう場合に比して処理時間を短くすることがで
きる。
Specifically, in this embodiment, since the image is photographed using the Bayer-type single-chip color CCD, the images of the R, G, and B color components constituting the photographed image are insufficient. Although it is necessary to interpolate the image data at the pixel position, in predetermined image processing such as bokeh adjustment, gradation adjustment, and super-resolution processing for each color component, the G color component image is completely interpolated. Since the image processing is performed by interpolating the image data at the pixel position, and the image processing of the R and B color components is performed without using the interpolation processing, the image processing is performed using the original image data. After interpolating the image data of all pixel positions for the image of each color component, the processing time can be shortened as compared with the case where image processing is performed.

【0272】なお、R,Bの色成分の画像については、
所定の画像処理が終了し、色成分画像を合成する際に不
足する画素位置の画像データを補間するようにしている
ので、合成後の画像の画質が劣化することはない。
Note that the image of the R and B color components is
Since the predetermined image processing is completed and the image data at the pixel position that is insufficient when the color component images are combined is interpolated, the image quality of the combined image does not deteriorate.

【0273】また、上記実施形態では、画像処理をR,
G,Bの色成分で行なう場合について説明したが、Y,
Cr,Cbの色成分で行なう場合にも本発明は適用可能
で、Cr,Cbの色成分の画像に対する画像処理をYの
色成分の画像処理より簡略化するとよい。すなわち、一
般に人間の視覚特性上解像度に影響の大きい色成分と解
像度への影響は小さいが色再現性に影響の大きい色成分
とに分離して画像処理をする場合、後者の色成分の画像
に対する画像処理を前者の色成分の画像に対する画像処
理よりも簡略化する(例えば処理対象のデータ数を揃え
るための補間処理を省いたり、位置合わせ処理を省くな
ど)ようにすればよい。
In the above embodiment, the image processing is R,
The case of performing with G and B color components has been described.
The present invention is also applicable to the case where the processing is performed using the Cr and Cb color components, and the image processing for the image of the Cr and Cb color components may be simplified compared to the image processing for the Y color component. That is, in general, when image processing is performed by separating color components having a large influence on resolution and color components having a small effect on resolution but having a large effect on color reproducibility in terms of human visual characteristics, the latter color component The image processing may be simplified compared to the former image processing of the color component image (for example, the interpolation processing for equalizing the number of data to be processed or the alignment processing may be omitted).

【0274】また、上記実施の形態では、ボケ味調整モ
ード、階調調整モード及び超階調処理モードで撮影され
た2枚の撮影画像の合成処理をパソコン7で行なうよう
にしていたが、デジタルスチルカメラ1のROM108
aに上述したボケ味調整処理プログラム、階調調整処理
プログラム及び超解像処理プログラムを搭載し、全体制
御部108でこれらのプログラムに従って2枚の撮影画
像の合成処理を行ない、その処理結果を、図48に示す
ようにメモリカードMCに記録するようにしてもよい。
In the above-described embodiment, the personal computer 7 is used to combine two photographed images photographed in the blur adjustment mode, the gradation adjustment mode, and the super gradation processing mode. ROM 108 of still camera 1
a, the above-described bokeh adjustment processing program, gradation adjustment processing program, and super-resolution processing program are installed, and the overall control unit 108 performs a synthesis process of two captured images according to these programs, and the processing result is As shown in FIG. 48, the information may be recorded on the memory card MC.

【0275】なお、図48は、図8に示すメモリカード
MC内の画像ファィルの構成例において、ボケ味調整モ
ード、階調調整モード及び超解像モードの撮影画像に対
するホルダにそれぞれ合成処理した画像の画像ファイル
「P000001.JPG」,「P000003.JP
G」,「P000005.JPG」,「P00000
7.JPG」を追加したものである。
FIG. 48 is a diagram showing an example of the configuration of the image file in the memory card MC shown in FIG. 8, which is obtained by synthesizing each of the photographed images in the blur adjustment mode, the gradation adjustment mode, and the super-resolution mode with the holder. Image files "P000001.JPG", "P000003.JP"
G "," P000005.JPG "," P00000
7. JPG ”.

【0276】これらのファィル名から分かるように、合
成処理後の画像データはJPEG方式で圧縮されてい
る。合成処理後の画像データだけでなく、撮影画像の生
のデータもメモリカードMCに記録しているのは、パソ
コン7でも画像処理を行なうことができるようにしてい
るためである。メモリカードMCの容量効率を高めるた
めに、合成処理後の画像データだけメモリカードMCに
記録するようにしても良い。
As can be seen from these file names, the image data after the synthesizing process is compressed by the JPEG system. The reason that not only the image data after the synthesizing process but also the raw data of the photographed image is recorded in the memory card MC is that the personal computer 7 can perform the image processing. In order to increase the capacity efficiency of the memory card MC, only the image data after the synthesizing process may be recorded on the memory card MC.

【0277】デジタルスチルカメラ1の画像処理機能を
搭載する際、ソフトウェアで全体制御部108により合
成処理を行なわせるようにすると、全体制御部108の
処理負担が大きくなるので、ハードウェアで合成処理が
行なわれる構成にしてもよい。
When the image processing function of the digital still camera 1 is installed, if the synthesis processing is performed by the overall control unit 108 using software, the processing load on the overall control unit 108 increases. The configuration may be performed.

【0278】図49は、超解像モードを備え、このモー
ドでの超解像処理をハードウェアで実行するようにした
デジタルスチルカメラの内部構成を示すブロック図であ
る。また、図50は、複数画像処理部の内部構成を示す
ブロック図である。
FIG. 49 is a block diagram showing the internal configuration of a digital still camera having a super-resolution mode in which super-resolution processing in this mode is executed by hardware. FIG. 50 is a block diagram showing the internal configuration of the multiple image processing unit.

【0279】同図は、図7において、信号処理部103
内に、超階調処理モードで撮影された2枚の撮影画像の
合成処理を行なう複数画像処理部111を設けたもので
ある。図7に示す部材と同一機能の部材には同一番号を
付している。
The figure is different from the signal processor 103 shown in FIG.
And a multi-image processing unit 111 for performing a combining process of two captured images captured in the super gradation processing mode. Members having the same functions as those shown in FIG. 7 are denoted by the same reference numerals.

【0280】複合画像処理部111は、図50に示すよ
うに、R,G,Bの色成分の画像データを輝度(Y),
色差(Cr=R−Y),色差(Cb=B−Y)の画像デ
ータに変換するRGB/YCrCb変換部111a、フィ
ルタ111b,111c、補間処理部111d,111
e、レジストレーション処理部111f及び画像合成部
111gで構成されている。
As shown in FIG. 50, the composite image processing section 111 converts the image data of the R, G, and B color components into luminance (Y),
An RGB / YCrCb converter 111a for converting color difference (Cr = RY) and color difference (Cb = BY) image data, filters 111b and 111c, and interpolation processors 111d and 111.
e, a registration processing unit 111f and an image synthesizing unit 111g.

【0281】RGB/YCrCb変換部111aは、全体
制御部108から最初の撮影画像及び2枚目の撮影画像
のR,G,Bの色成分の画像データが入力されると、一
旦、画像メモリ103fに格納した後、各撮影画像につ
いて、R:G:B=0.3:0.59:0.11の割合
で加算合成して輝度データYを作成するとともに、最初
の撮影画像について、R,Bの画像データからこの輝度
データYを減算して色差データCr,Cbのデータを作
成する。なお、色差データCr,Cbについて最初の撮
影画像だけを用いるのは、色差データCr,Cbについ
ては、解像度に与える影響が少ないので、最初の撮影画
像と2枚目の撮影画像との位置合わせ処理をしないで、
処理速度をできるだけ早くするためである。色差データ
Cr,Cbについて2枚目の撮影画像だけを用いるよう
にしてもよい。
When the RGB / YCrCb conversion unit 111a receives the image data of the R, G, and B color components of the first captured image and the second captured image from the overall control unit 108, the image memory 103f After that, the luminance data Y is created by adding and synthesizing each photographed image at a ratio of R: G: B = 0.3: 0.59: 0.11, and R, G, The luminance data Y is subtracted from the B image data to create color difference data Cr and Cb. The reason that only the first captured image is used for the color difference data Cr and Cb is that the color difference data Cr and Cb have little effect on the resolution, and therefore the alignment process between the first captured image and the second captured image is performed. Don't
This is to make the processing speed as fast as possible. For the color difference data Cr and Cb, only the second captured image may be used.

【0282】両撮影画像の輝度データYが作成される
と、各撮影画像の輝度データYについて、フィルタ回路
111bによりノイズ成分が除去された後、補間処理回
路111dでデータの補間処理が行なわれる。この補間
処理は、図41で説明したデータC(1)’,C(2)’,
…、データD(1)’,D(2)’,…の補間処理に相当し、
図43,図44のフローチャートではステップ#30
7,#308の補間処理に相当している。
When the luminance data Y of both photographed images is created, a noise component is removed from the luminance data Y of each photographed image by the filter circuit 111b, and then the data is interpolated by the interpolation processing circuit 111d. This interpolation processing is performed by the data C (1) ′, C (2) ′,
.., Data D (1) ′, D (2) ′,.
In the flowcharts of FIGS. 43 and 44, step # 30
7, # 308.

【0283】また、最初の撮影画像の色差データCr,
Cbが作成されると、この色差データCr,Cbについ
て、フィルタ回路111cによりノイズ成分が除去され
た後、補間処理回路111eでデータの補間処理が行な
われる。なお、この補間処理は、図41で説明したデー
タC(1)’,C(2)’,…、データD(1)’,D(2)’,…
の補間処理に相当し、図43,図44のフローチャート
ではステップ#321,#329の補間処理に相当して
いる。
Also, the color difference data Cr,
When Cb is created, the color difference data Cr and Cb are subjected to a data interpolation process by an interpolation processing circuit 111e after a noise component is removed by a filter circuit 111c. Note that this interpolation processing is performed by the data C (1) ′, C (2) ′,..., Data D (1) ′, D (2) ′,.
43. In the flowcharts of FIGS. 43 and 44, this corresponds to the interpolation processing of steps # 321 and # 329.

【0284】輝度データYについては、補間処理が終了
すると、レジストレーション処理部111fで最初の撮
影画像と2枚目の撮影画像との位置合わせが行なわれ
る。この処理は、図43,図44のフローチャートのス
テップ#313〜#319に相当し、輝度データYにつ
いては解像度の高い画像データを得るものである。一
方、補間後の色差データCr,Cbについては、最初の
撮影画像と2枚目の撮影画像との位置合わせは行なわれ
ない。
For the luminance data Y, when the interpolation processing is completed, the registration processing section 111f aligns the first photographed image with the second photographed image. This processing corresponds to steps # 313 to # 319 in the flowcharts of FIGS. 43 and 44, and obtains high-resolution image data for the luminance data Y. On the other hand, with respect to the color difference data Cr and Cb after the interpolation, the alignment between the first captured image and the second captured image is not performed.

【0285】そして、レジストレーション処理が行なわ
れた輝度データYと最初の撮影画像の色差データCr,
Cbとは画像処理部111gで合成され(図44のフロ
ーチャートのステップ#337に相当)、合成後の画像
データは画像データ103fに記憶される。
The luminance data Y subjected to the registration processing and the color difference data Cr,
Cb is combined by the image processing unit 111g (corresponding to step # 337 in the flowchart of FIG. 44), and the combined image data is stored in the image data 103f.

【0286】なお、この実施の形態では、処理速度をで
きるだけ早くするため、色差データCr,Cbに対して
はレジストレーション処理部は設けていないが、色差デ
ータCr,Cbに対してもレジストレーション処理部を
設けてもよい。
In this embodiment, in order to make the processing speed as fast as possible, no registration processing section is provided for the color difference data Cr and Cb, but the registration processing section is also provided for the color difference data Cr and Cb. A part may be provided.

【0287】また、上記実施形態では、超解像処理にお
けるレジストレーション処理の初期値をサムネイル画像
を用いたシミュレーションで算出しているが、このシミ
ュレーションをしないで、直接撮影画像のレジストレー
ション処理を行なうようにしてもよい。
Further, in the above embodiment, the initial value of the registration processing in the super-resolution processing is calculated by the simulation using the thumbnail image, but the registration processing of the photographed image is performed directly without performing the simulation. You may do so.

【0288】また、階調調整処理では、常にサムネイル
画像を用いてシミュレーションをしているが、ボケ味調
整処理と同様にシミュレーションの指示がされたときに
おこなうようしてもよい。
In the gradation adjustment processing, a simulation is always performed using a thumbnail image. However, the simulation may be performed when a simulation instruction is issued, similarly to the blur adjustment processing.

【0289】[0289]

【発明の効果】以上説明したように、本発明によれば、
カラー撮像装置で撮影された2枚のカラー画像に対し、
色成分毎に所定の画像処理を行なって1枚の色成分画像
を作成し、各色成分の画像を合成して1枚のカラー画像
を作成する画像処理システムであって、複数の色成分の
画像のうち、人間の視覚特性上解像度に与える影響の小
さい色成分に対する画像処理を他の色成分に対する画像
処理よりも簡略化するようにしたので、全ての色成分に
対して同一の画像処理を繰り返す場合に比して画像処理
の時間が短くなり、合成後の画像の画質を劣化すること
なく合成処理の時間を可能な限り短縮することができ
る。
As described above, according to the present invention,
For two color images taken by a color imaging device,
An image processing system that performs a predetermined image processing for each color component to create one color component image, and combines the images of each color component to create one color image, wherein an image of a plurality of color components is provided. Of these, the image processing for a color component having a small effect on resolution in terms of human visual characteristics is simplified compared to the image processing for other color components, so the same image processing is repeated for all color components As compared with the case, the time of the image processing becomes shorter, and the time of the combining processing can be reduced as much as possible without deteriorating the image quality of the combined image.

【0290】また、同一の被写体に対して連続して2回
撮像し、それによって得られた2枚のカラー画像に対
し、色成分毎に所定の画像処理を行なって1枚の色成分
画像を作成し、各色成分の画像を合成して1枚のカラー
画像を作成するカラー撮像装置であって、複数の色成分
の撮影画像のうち、人間の視覚特性上解像度に与える影
響の小さい色成分に対する画像処理を他の色成分に対す
る画像処理よりも簡略化するようにしたので、全ての色
成分に対して同一の画像処理を繰り返す場合に比して画
像処理の時間が短くなり、合成後の画質を劣化させるこ
となく可能な限り短い時間で撮影画像と異なる画質の画
像を得ることができる。
Further, the same subject is imaged twice consecutively, and the two color images obtained thereby are subjected to predetermined image processing for each color component to form one color component image. A color imaging apparatus that creates and combines images of respective color components to create a single color image, wherein a color image that has a small effect on resolution in terms of human visual characteristics among captured images of a plurality of color components is provided. Image processing is simplified compared to image processing for other color components, so image processing time is shorter than when the same image processing is repeated for all color components. It is possible to obtain an image having a different image quality from the captured image in the shortest possible time without deteriorating the image quality.

【0291】また、上記画像処理方法からなる処理プロ
グラムを情報記録媒体に記録することにより、この情報
記録媒体を介してカラー撮像装置やコンピュータなどか
ら画像処理装置に画像処理方法の処理プログラムを搭載
することで、画像合成により撮影画像と異なる画質の画
像を得る機能を備えたカラー撮像装置や画像処理システ
ムを簡単に構築することができる。
Further, by recording a processing program comprising the above-described image processing method on an information recording medium, a processing program of the image processing method is mounted on the image processing apparatus from a color imaging device or a computer via the information recording medium. Accordingly, it is possible to easily construct a color imaging device or an image processing system having a function of obtaining an image having a different image quality from a captured image by image synthesis.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像処理システムに適用される
デジタルスチルカメラのカメラ本体の正面図である。
FIG. 1 is a front view of a camera body of a digital still camera applied to an image processing system according to the present invention.

【図2】 同デジタルスチルカメラの主要部材の配置を
示す図である。
FIG. 2 is a view showing an arrangement of main members of the digital still camera.

【図3】 同デジタルスチルカメラに内蔵された主要部
材の配置を示す右側面図である。
FIG. 3 is a right side view showing an arrangement of main members built in the digital still camera.

【図4】 同デジタルスチルカメラの背面図である。FIG. 4 is a rear view of the digital still camera.

【図5】 カラー撮像素子の撮像面の構成を示す図であ
る。
FIG. 5 is a diagram illustrating a configuration of an imaging surface of a color imaging device.

【図6】 撮影モードの選択方法を説明するための図で
ある。
FIG. 6 is a diagram for explaining a method of selecting a shooting mode.

【図7】 デジタルスチルカメラの内部構成を示すブロ
ック図である。
FIG. 7 is a block diagram showing an internal configuration of the digital still camera.

【図8】 メモリカードに記録された画像ファイルの構
成例を示す図である。
FIG. 8 is a diagram showing a configuration example of an image file recorded on a memory card.

【図9】 メモリカードへの画像ファイルの記録方法を
示す図である。
FIG. 9 is a diagram showing a method of recording an image file on a memory card.

【図10】 ボケ味調整モードでの撮影手順を示すフロ
ーチャートである。
FIG. 10 is a flowchart illustrating a shooting procedure in the blur adjustment mode.

【図11】 階調調整モードでの撮影手順を示すフロー
チャートである。
FIG. 11 is a flowchart showing a shooting procedure in a gradation adjustment mode.

【図12】 超解像モードでの撮影手順を示すフローチ
ャートである。
FIG. 12 is a flowchart illustrating a shooting procedure in a super-resolution mode.

【図13】 画像処理装置の構成を示す外観図である。FIG. 13 is an external view illustrating a configuration of an image processing apparatus.

【図14】 画像合成用の処理プログラムを起動するた
めの処理手順を示すフローチャートである
FIG. 14 is a flowchart illustrating a processing procedure for activating a processing program for image composition.

【図15】 ボケ味調整処理プログラムが起動したとき
のディスプレイに表示されるボケ味調整用のダイアログ
・ボックスの一例を示す図である。
FIG. 15 is a diagram illustrating an example of a blur adjustment dialog box displayed on the display when the blur adjustment processing program is activated.

【図16】 画像ファイルの読取処理のフローチャート
である。
FIG. 16 is a flowchart of an image file reading process.

【図17】 画像ファイルの読取処理の他のフローチャ
ートである。
FIG. 17 is another flowchart of an image file reading process.

【図18】 ボケ味調整処理に使用されるピント状態の
異なる2枚の画像を示すもので、(a)は近景合焦画像
であり、(b)は遠景合焦画像である。
FIGS. 18A and 18B show two images having different focus states used in the blur adjustment processing, in which FIG. 18A is a near-field focused image and FIG. 18B is a far-field focused image.

【図19】 ボケ味調整処理に必要なパラメータを設定
するためにディスプレイに表示されるダイアログ・ボッ
クスの一例を示す図である。
FIG. 19 is a diagram showing an example of a dialog box displayed on a display for setting parameters necessary for the blur adjustment processing.

【図20】 ボケ味調整処理の処理手順を示すフローチ
ャートである。
FIG. 20 is a flowchart showing a processing procedure of a blur adjustment process.

【図21】 ボケ味調整処理の処理手順を示すフローチ
ャートである。
FIG. 21 is a flowchart illustrating a processing procedure of a blur adjustment process.

【図22】 ボケ味調整処理の処理手順を示すフローチ
ャートである。
FIG. 22 is a flowchart illustrating a processing procedure of a blur adjustment process.

【図23】 サムネイル画像を用いたボケ味調整処理の
処理手順を示すフローチャートである。
FIG. 23 is a flowchart illustrating a processing procedure of a blur adjustment process using a thumbnail image.

【図24】 サムネイル画像を用いてボケ味調整処理を
シミュレートした場合のディスプレイにおける表示内容
を示す図である。
FIG. 24 is a diagram showing display contents on a display in a case where a blur adjustment process is simulated using a thumbnail image.

【図25】 Gの色成分について画像データの補間処理
を説明するための図で,(a)は補間前の画像データを
示す図、(b)は補間後の画像データを示す図である。
25A and 25B are diagrams for explaining an image data interpolation process for a G color component. FIG. 25A is a diagram illustrating image data before interpolation, and FIG. 25B is a diagram illustrating image data after interpolation.

【図26】 Rの色成分の画像データを間引いて反復演
算処理用の画像データを作成する方法を示す図で、
(a)は間引く前の画像データを示す図、(b)は間引
き後の画像データを示す図である。
FIG. 26 is a diagram illustrating a method of creating image data for iterative operation processing by thinning out image data of the R color component;
(A) is a diagram showing image data before thinning, and (b) is a diagram showing image data after thinning.

【図27】 Rの色成分について画像データを補間して
ボケ味調整画像を作成する方法を説明するための図で、
(a)は補間前の画像データを示す図、(b)は画像デ
ータを元の画素位置に復元した状態を示す図、(c)補
間後の画像データを示す図である。
FIG. 27 is a diagram for explaining a method of creating a blur adjustment image by interpolating image data for the R color component;
(A) is a diagram showing image data before interpolation, (b) is a diagram showing a state where image data is restored to the original pixel position, and (c) is a diagram showing image data after interpolation.

【図28】 ボケ味調整画像を表示するためにディスプ
レイに表示されるダイアログ・ボックスの一例を示す図
である。
FIG. 28 is a diagram illustrating an example of a dialog box displayed on a display to display a blur adjustment image.

【図29】 ボケ味調整画像を保存するための条件を入
力するためにディスプレイに表示されるダイアログ・ボ
ックスの一例を示す図である。
FIG. 29 is a diagram showing an example of a dialog box displayed on a display for inputting a condition for saving a blur adjustment image.

【図30】 階調調整処理プログラムが起動したときの
ディスプレイに表示される階調調整用のダイアログ・ボ
ックスの一例を示す図である。
FIG. 30 is a diagram illustrating an example of a dialog box for tone adjustment displayed on the display when the tone adjustment processing program is activated.

【図31】 バリエーションボタンにより予め設定され
た5種類の加算比率特性で階調調整をシミュレーション
したときのシミュレーション結果の表示例を示す図であ
る。
FIG. 31 is a diagram illustrating a display example of a simulation result when a gradation adjustment is simulated with five types of addition ratio characteristics preset by a variation button.

【図32】 露出オーバーの撮影画像と露出アンダーの
撮影画像のA/D変換レベルにおける相違を示す図であ
る。
FIG. 32 is a diagram illustrating a difference in an A / D conversion level between an overexposed captured image and an underexposed captured image.

【図33】 階調調整処理における露出オーバーの撮影
画像と露出アンダーの撮影画像との合成比率の一例を示
す図である。
FIG. 33 is a diagram illustrating an example of a combination ratio of an overexposed photographed image and an underexposed photographed image in the gradation adjustment processing.

【図34】 同一の被写体の輝度レベルに対する露出オ
ーバーの撮影画像、露出アンダーの撮影画像及び階調調
整画像のA/D変換レベルを示す図である。
FIG. 34 is a diagram illustrating A / D conversion levels of an overexposed photographed image, an underexposed photographed image, and a gradation adjusted image with respect to the luminance level of the same subject.

【図35】 階調調整モードで撮影された露出値の異な
る2枚の撮影画像を用いた階調味調整処理のフローチャ
ートである。
FIG. 35 is a flowchart of a tone adjustment process using two shot images having different exposure values shot in the tone adjustment mode.

【図36】 階調調整処理の処理手順を示すフローチャ
ートである。
FIG. 36 is a flowchart illustrating a processing procedure of gradation adjustment processing.

【図37】 サムネイル画像を用いた階調調整処理の処
理手順を示すフローチャートである。
FIG. 37 is a flowchart illustrating a procedure of a tone adjustment process using a thumbnail image.

【図38】 バリエーション処理における加算比率特性
の一例を示す図である。
FIG. 38 is a diagram illustrating an example of an addition ratio characteristic in a variation process.

【図39】 作成された階調調整画像を表示するために
ディスプレイに表示されるダイアログ・ボックスの一例
を示す図である。
FIG. 39 is a diagram illustrating an example of a dialog box displayed on a display to display a created gradation adjustment image.

【図40】 超解像処理プログラムが起動したときのデ
ィスプレイに表示される超解像調整用のダイアログ・ボ
ックスの一例を示す図である。
FIG. 40 is a diagram illustrating an example of a dialog box for super-resolution adjustment displayed on the display when the super-resolution processing program is activated.

【図41】 超解像処理を説明するための図である。FIG. 41 is a diagram for describing super-resolution processing.

【図42】 超解像処理における補正方法の設定するた
めにディスプレイに表示されるダイアログ・ボックスの
一例を示す図である。
FIG. 42 is a diagram illustrating an example of a dialog box displayed on a display for setting a correction method in super-resolution processing.

【図43】 超解像処理の処理手順を示すフローチャー
トである。
FIG. 43 is a flowchart showing a processing procedure of super-resolution processing.

【図44】 超解像処理の処理手順を示すフローチャー
トである。
FIG. 44 is a flowchart showing a processing procedure of super-resolution processing.

【図45】 Gの色成分の画像データの補間方法を説明
するための図である。
FIG. 45 is a diagram for describing a method of interpolating image data of a G color component.

【図46】 Rの色成分の画像データの補間方法を説明
するための図である。
FIG. 46 is a diagram for explaining a method of interpolating image data of an R color component.

【図47】 超解像処理の処理結果の表示例を示す図で
ある。
FIG. 47 is a diagram illustrating a display example of a processing result of the super-resolution processing.

【図48】 デジタルスチルカメラで画像合成処理まで
行なう場合のメモリカードへの画像ファイルの記録方法
を示す図である。
FIG. 48 is a diagram illustrating a method of recording an image file on a memory card when performing image combining processing with a digital still camera.

【図49】 画像処理機能を備えたデジタルスチルカメ
ラの内部構成を示すブロック図である。
FIG. 49 is a block diagram showing an internal configuration of a digital still camera having an image processing function.

【図50】 複数画像処理部の内部構成を示すブロック
図である。
FIG. 50 is a block diagram illustrating an internal configuration of a multiple image processing unit.

【符号の説明】[Explanation of symbols]

1 デジタルスチルカメラ(カラー撮像装置) 101 レンズ 102 撮像部 103 信号処理部 104 発光制御部 105 レンズ制御部 106 表示部 107 操作部 108 カードI/F 108 全体制御部 109 カードインターフェース 110 通信用インターフェース 111 複数画像処理部(画像処理手段,画像合成手
段) 111a RGB/YCrCb変換部 111b,111c フィルタ 111d,111e 補間処理部 111f レジストレーション処理部 111g 画像合成部 2 カメラ本体 205 カラー撮像素子 206 シャッタボタン 207 表示部 208 電源スイッチ 209 4連スイッチ 210 スイッチ群 3 交換レンズ 4 電子ビューファインダ 5 フラッシュ 6 画像処理装置 7 パーソナルコンピュータ 701 コンピュータ本体(画像処理装置) 701b メモリカードリーダ 701c CD−ROMドライバ 702 ディスプレイ 703 キーボード 704 マウス 9 CD−ROM MC メモリカード(記録媒体)
DESCRIPTION OF SYMBOLS 1 Digital still camera (color imaging device) 101 lens 102 imaging part 103 signal processing part 104 light emission control part 105 lens control part 106 display part 107 operation part 108 card I / F 108 whole control part 109 card interface 110 communication interface 111 plural Image processing unit (image processing unit, image synthesizing unit) 111a RGB / YCrCb conversion unit 111b, 111c filter 111d, 111e interpolation processing unit 111f registration processing unit 111g image synthesis unit 2 camera body 205 color image sensor 206 shutter button 207 display unit 208 Power switch 209 Quad switch 210 Switch group 3 Interchangeable lens 4 Electronic viewfinder 5 Flash 6 Image processing device 7 Personal computer 701 Compiler Computer body (image processing device) 701b Memory card reader 701c CD-ROM driver 702 Display 703 Keyboard 704 Mouse 9 CD-ROM MC Memory card (recording medium)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 9/04 H04N 9/64 R 5C079 9/07 9/69 9/64 101:00 9/69 1/40 D // H04N 101:00 1/46 Z (72)発明者 沖須 宣之 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 (72)発明者 藤井 真一 大阪市中央区安土町二丁目3番13号 大阪 国際ビル ミノルタ株式会社内 Fターム(参考) 5B057 BA02 BA23 BA26 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC02 CD05 CE08 CE11 CE16 CE18 CH08 CH11 CH18 DA07 DA16 DA17 5C065 AA03 BB02 BB12 BB48 CC03 DD02 DD17 EE05 GG13 GG17 GG21 GG26 5C066 AA01 AA11 BA20 CA05 EA14 EC05 EE01 GA01 GA02 GA05 KE02 KE03 KE07 KM02 KM13 5C076 AA19 AA21 AA22 AA26 AA27 AA40 BA01 BA06 BB25 BB32 5C077 LL18 MP08 PP03 PP15 PP20 PP23 PP32 PP34 PP58 PQ08 PQ12 RR19 TT09 5C079 HB01 HB04 JA01 LA02 LA12 LA17 LA28 LA31 LA37 LA40 MA11 NA02 NA04 NA05 NA11 NA27 PA00 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 9/04 H04N 9/64 R 5C079 9/07 9/69 9/64 101: 00 9/69 1 / 40 D // H04N 101: 00 1/46 Z (72) Inventor Noriyuki Okisu 2-13-13 Azuchicho, Chuo-ku, Osaka City Osaka International Building Minolta Co., Ltd. (72) Inventor Shinichi Fujii Chuo-ku, Osaka City 2-13-13 Azuchicho Osaka International Building Minolta Co., Ltd. F-term (reference) 5B057 BA02 BA23 BA26 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC02 CD05 CE08 CE11 CE16 CE18 CH08 CH11 CH18 DA07 DA16 DA17 5C065 AA03 BB02 BB03 BB03 CC DD02 DD17 EE05 GG13 GG17 GG21 GG26 5C066 AA01 AA11 BA20 CA05 EA14 EC05 EE01 GA01 GA02 GA05 KE02 KE03 KE07 KM02 KM13 5C076 AA19 AA21 AA22 AA26 AA27 AA40 BA01 BA06 BB25 BB32 5C0PP PP20 PP23 PP32 PP34 PP58 PQ08 PQ12 RR19 TT09 5C079 HB01 HB04 JA01 LA02 LA12 LA17 LA28 LA31 LA37 LA40 MA11 NA02 NA04 NA05 NA11 NA27 PA00

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 画像合成により撮影画像と異なる画質の
画像を得るべく同一の被写体に対して連続して2枚のカ
ラー画像を撮影するカラー撮像装置と、上記カラー撮像
装置で撮影された2枚のカラー画像に対し、色成分毎に
所定の画像処理を行って1枚の色成分画像を作成する画
像処理手段と、上記画像処理手段で作成された各色成分
の画像を合成して1枚のカラー画像を作成する画像合成
手段とを備えた画像処理装置とからなる画像処理システ
ムであって、上記画像処理手段は、上記複数の色成分の
画像のうち、人間の視覚特性上解像度に与える影響の小
さい第1の色成分の画像に対する処理を他の第2の色成
分の画像に対する処理よりも簡略化することを特徴とす
る画像処理システム。
1. A color imaging device for continuously capturing two color images of the same subject in order to obtain an image having a different image quality from a captured image by image synthesis, and two images captured by the color imaging device. Image processing means for performing a predetermined image processing for each color component on the color image to create one color component image, and combining the image of each color component created by the image processing means into one An image processing system comprising: an image synthesizing unit that generates a color image; and wherein the image processing unit has an effect on resolution of human visual characteristics among the plurality of color component images. An image processing system that simplifies a process for an image of a first color component with a smaller value than a process for an image of another second color component.
【請求項2】 上記色成分毎の所定の画像処理は、撮影
画像間の位置合わせを行う位置合わせ処理と、位置合わ
せをした撮影画像間で画質に関する所定の演算を行って
1枚の色成分画像を作成する演算処理とからなり、上記
画像処理手段は、上記第1の色成分の画像に対する位置
合わせ処理を上記第2の色成分の画像に対する位置合わ
せ処理よりも簡略化するものであることを特徴とする請
求項1記載の画像処理システム。
2. The predetermined image processing for each color component includes a positioning process for performing alignment between photographed images, and a predetermined operation relating to image quality between the aligned photographed images to perform one color component processing. The image processing means simplifies the positioning process for the image of the first color component compared to the positioning process for the image of the second color component. The image processing system according to claim 1, wherein:
【請求項3】 上記画像処理手段は、上記第2の色成分
の画像に対する位置合わせ処理で算出された位置ずれ情
報を用いて上記第1の色成分の画像に対する位置合わせ
処理を行うことで、上記第1の色成分に対する位置合わ
せ処理の簡略化を行なうものであることを特徴とする請
求項2記載の画像処理システム。
3. The image processing device according to claim 1, wherein the image processing unit performs position alignment processing on the image of the first color component using positional deviation information calculated by alignment processing on the image of the second color component. 3. The image processing system according to claim 2, wherein the positioning process for the first color component is simplified.
【請求項4】 上記成分毎の所定の画像処理には、上記
位置合わせ処理の前に撮影画像毎にデータを補間して元
の画像データ数を増加する補間処理を含み、上記画像処
理手段は、上記第1の色成分の画像に対する補間処理を
第2の色成分に対する補間処理よりも簡略化するもので
あることを特徴とする請求項2又は3記載の画像処理シ
ステム。
4. The predetermined image processing for each component includes an interpolation process of interpolating data for each photographed image to increase the number of original image data before the alignment process. 4. The image processing system according to claim 2, wherein the interpolation processing for the image of the first color component is simplified compared to the interpolation processing for the second color component.
【請求項5】 上記画像処理手段は、上記補間処理にお
ける上記第1の色成分の画像のデータ補間数を上記第2
の色成分の画像のデータ補間数より少なくすることで、
上記第1の色成分に対する補間処理の簡略化を行なうも
のであることを特徴とする請求項4記載の画像処理シス
テム。
5. The image processing means according to claim 2, wherein the number of data interpolations of the image of the first color component in the interpolation processing is the second number.
By making it smaller than the number of data interpolations of the image of the color component of
5. The image processing system according to claim 4, wherein the interpolation processing for the first color component is simplified.
【請求項6】 上記画像処理手段は、上記演算処理にお
いて、上記第1の色成分の画像のデータ数が上記第2の
色成分の画像のデータ数と一致するように、当該第1の
色成分の画像のデータ数を補間することを特徴とする請
求項5記載の画像処理システム。
6. The image processing means according to claim 1, wherein in the calculation processing, the first color component image data number is equal to the second color component image data number. The image processing system according to claim 5, wherein the number of data of the component image is interpolated.
【請求項7】 上記色成分はR(赤),G(緑),B
(青)の色成分からなり、上記第1の色成分はR,Bの
色成分で、上記第2の色成分はGの色成分であることを
特徴とする請求項1〜6のいずれかに記載の画像処理シ
ステム。
7. The color components are R (red), G (green), B
7. A color component (blue), wherein the first color component is an R and B color component and the second color component is a G color component. An image processing system according to claim 1.
【請求項8】 上記色成分はY(輝度),Cr(赤の色
差),Cb(青の色差)の色成分からなり、上記第1の
色成分はCr,Cbの成分で、上記第2の色成分はYの
成分であることを特徴とする請求項1〜6のいずれかに
記載の画像処理システム。
8. The color component includes Y (luminance), Cr (red color difference), and Cb (blue color difference) color components, the first color component is a Cr, Cb component, and the second color component is a second color component. 7. The image processing system according to claim 1, wherein the color component is a Y component.
【請求項9】 上記画質に関する所定の演算処理は、画
像のピントのボケ具合を調整するボケ味調整処理である
ことを特徴とする請求項2記載の画像処理システム。
9. The image processing system according to claim 2, wherein the predetermined calculation processing relating to the image quality is a blur adjustment processing for adjusting a degree of blur of focus of the image.
【請求項10】 上記画質に関する所定の演算処理は、
画像の階調を調整する階調調整処理であることを特徴と
する請求項2記載の画像処理システム。
10. The predetermined arithmetic processing relating to the image quality,
3. The image processing system according to claim 2, wherein the image processing is a gradation adjustment process for adjusting a gradation of an image.
【請求項11】 上記画質に関する所定の演算処理は、
画像の解像度を高める超解像処理であることを特徴とす
る請求項2記載の画像処理システム。
11. The predetermined arithmetic processing relating to the image quality,
3. The image processing system according to claim 2, wherein the image processing is super-resolution processing for increasing the resolution of the image.
【請求項12】 被写体光像を画像信号に光電変換して
出力する撮像手段と、画像合成により撮影画像と異なる
画質の画像を得るべく同一の被写体に対して連続して2
回、上記撮像手段の撮像動作を行なわせる撮像制御手段
と、上記撮像手段で撮影された2枚のカラー画像に対
し、色成分毎に所定の画像処理を行って1枚の色成分画
像を作成する画像処理手段と、上記画像処理手段で作成
された各色成分の画像を合成して1枚のカラー画像を作
成する画像合成手段とを備えた撮像装置であって、上記
画像処理手段は、上記複数の色成分の画像のうち、人間
の視覚特性上解像度に与える影響の小さい第1の色成分
の画像に対する処理を他の第2の色成分の画像に対する
処理よりも簡略化することを特徴とする撮像装置。
12. An image pickup means for photoelectrically converting a light image of a subject into an image signal and outputting the image signal.
An image capturing control unit for performing the image capturing operation of the image capturing unit; and performing a predetermined image processing for each color component on the two color images captured by the image capturing unit to generate one color component image. An image processing apparatus comprising: an image processing unit that performs image processing; and an image combining unit that combines images of the respective color components created by the image processing unit to create a single color image. It is characterized in that, among images of a plurality of color components, processing on an image of a first color component having a small effect on resolution due to human visual characteristics is simplified compared to processing on an image of another second color component. Imaging device.
【請求項13】 上記色成分毎の所定の画像処理は、撮
影画像間の位置合わせを行う位置合わせ処理と、位置合
わせをした撮影画像間で画質に関する所定の演算を行っ
て1枚の色成分画像を作成する演算処理とからなり、上
記画像処理手段は、上記第2の色成分の画像に対する位
置合わせ処理で算出された位置ずれ情報を用いて上記第
1の色成分の画像に対する位置合わせ処理を行うこと
で、上記第1の色成分の画像に対する位置合わせ処理の
簡略化を行なうものであることを特徴とする請求項12
記載の撮像装置。
13. The predetermined image processing for each color component includes a positioning process for performing alignment between photographed images, and a predetermined operation relating to image quality between the aligned photographed images to perform one color component processing. The image processing means includes an arithmetic process for creating an image, wherein the image processing means uses the positional displacement information calculated in the alignment process for the image of the second color component to perform an alignment process for the image of the first color component. 13. The method according to claim 12, wherein the step (c) simplifies the positioning process for the image of the first color component.
An imaging device according to claim 1.
【請求項14】 上記色成分毎の所定の画像処理には、
上記位置合わせ処理の前に撮影画像毎にデータを補間し
て元の画像データ数を増加する補間処理を含み、上記画
像処理手段は、上記補間処理における上記第1の色成分
の画像のデータ補間数を上記第2の色成分の画像のデー
タ補間数より少なくすることで、上記第1の成分の画像
に対する補間処理の簡略化を行なうものであることを特
徴とする請求項12又は13記載の撮像装置。
14. The predetermined image processing for each color component includes:
The image processing means includes an interpolation process for increasing the number of original image data by interpolating data for each photographed image before the positioning process, wherein the image processing means performs data interpolation of the image of the first color component in the interpolation process. 14. The image processing apparatus according to claim 12, wherein the number is smaller than the data interpolation number of the image of the second color component, thereby simplifying the interpolation processing for the image of the first component. Imaging device.
【請求項15】 上記画像処理手段は、上記演算処理に
おいて、上記第1の色成分の画像のデータ数が上記第2
の色成分の画像のデータ数と一致するように、当該第1
の色成分の画像のデータ数を補間することを特徴とする
請求項14記載の撮像装置。
15. The image processing means according to claim 1, wherein in the calculation processing, the number of data of the image of the first color component is equal to the second data number.
So that the number of data of the image of the color component
The image pickup apparatus according to claim 14, wherein the number of data of the image of the color component is interpolated.
【請求項16】 上記色成分はR(赤),G(緑),B
(青)の色成分からなり、上記第1の色成分はR,Bの
色成分で、第2の色成分はGの色成分であることを特徴
とする請求項12〜15のいずれかに記載の撮像装置。
16. The color components are R (red), G (green), B
The color component of (blue), wherein the first color component is an R and B color component and the second color component is a G color component. An imaging device according to any one of the preceding claims.
【請求項17】 上記画質に関する所定の演算処理は、
画像のピントのボケ具合を調整するボケ味調整処理であ
ることを特徴とする請求項12記載の撮像装置。
17. The predetermined arithmetic processing relating to the image quality,
13. The imaging apparatus according to claim 12, wherein the blur adjustment processing is for adjusting the degree of out-of-focus of the image.
【請求項18】 上記画質に関する所定の演算処理は、
画像の階調を調整する階調調整処理であることを特徴と
する請求項12記載の撮像装置。
18. The predetermined arithmetic processing relating to image quality,
The image pickup apparatus according to claim 12, wherein the image pickup apparatus performs a gradation adjustment process for adjusting a gradation of an image.
【請求項19】 上記画質に関する所定の演算処理は、
画像の解像度を高める超解像処理であることを特徴とす
る請求項12記載の撮像装置。
19. The predetermined arithmetic processing relating to the image quality,
13. The image pickup apparatus according to claim 12, wherein the image pickup apparatus performs a super-resolution process for increasing an image resolution.
【請求項20】 画像合成により撮影画像と異なる画質
の画像を得るべく同一の被写体を連続的に撮像して得ら
れる複数枚のカラー画像に対し、色成分毎に所定の画像
処理を行って1枚の成分画像を作成する画像処理ステッ
プと、上記画像処理ステップで作成された各色成分の画
像を合成して1枚のカラー画像を作成する画像合成ステ
ップとからなる画像処理方法であって、上記画像処理ス
テップは、上記複数の色成分の画像のうち、人間の視覚
特性上解像度に与える影響の小さい第1の色成分の画像
に対する処理を他の第2の色成分の画像に対する処理よ
りも簡略化することを特徴とする画像処理方法。
20. Performing predetermined image processing for each color component on a plurality of color images obtained by continuously imaging the same subject so as to obtain an image having a different image quality from the captured image by image synthesis. An image processing method comprising: an image processing step of creating a single component image; and an image combining step of combining images of respective color components created in the image processing step to create one color image. In the image processing step, of the plurality of color component images, processing on an image of a first color component which has little effect on resolution in terms of human visual characteristics is simpler than processing on an image of another second color component. An image processing method characterized by:
【請求項21】 画像合成により撮影画像と異なる画質
の画像を得るべく同一の被写体を連続的に撮像して得ら
れる複数枚のカラー画像に対し、色成分毎に所定の画像
処理を行って1枚の成分画像を作成する第1の画像処理
と、上記画像処理ステップで作成された各色成分の画像
を合成して1枚のカラー画像を作成する第2の画像処理
とを、コンピュータに実行させるためのプログラムを記
録したコンピュータ読取可能な記録媒体であって、上記
第1の画像処理は、上記複数の色成分の画像のうち、人
間の視覚特性上解像度に与える影響の小さい第1の色成
分の画像に対する処理を他の第2の色成分の画像に対す
る処理よりも簡略化することを特徴とする記録媒体。
21. Performing predetermined image processing for each color component on a plurality of color images obtained by successively capturing the same subject in order to obtain an image having a different image quality from the captured image by image synthesis. A computer executes first image processing for creating one component image and second image processing for creating one color image by combining images of the respective color components created in the image processing step. Computer-readable recording medium having recorded thereon a first color component of the plurality of color component images, the first color component having a small effect on resolution in terms of human visual characteristics. A recording medium for simplifying the processing for the image of the second color component compared with the processing for the image of another second color component.
JP2000301293A 2000-09-29 2000-09-29 IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD Expired - Fee Related JP3444281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000301293A JP3444281B2 (en) 2000-09-29 2000-09-29 IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000301293A JP3444281B2 (en) 2000-09-29 2000-09-29 IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD

Publications (2)

Publication Number Publication Date
JP2002112007A true JP2002112007A (en) 2002-04-12
JP3444281B2 JP3444281B2 (en) 2003-09-08

Family

ID=18782854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000301293A Expired - Fee Related JP3444281B2 (en) 2000-09-29 2000-09-29 IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD

Country Status (1)

Country Link
JP (1) JP3444281B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295566A (en) * 2004-04-01 2005-10-20 Microsoft Corp Luminance correction
JP2005331633A (en) * 2004-05-19 2005-12-02 Noritsu Koki Co Ltd Photographic print system
CN1328912C (en) * 2002-12-25 2007-07-25 富士胶片株式会社 Image synthesizing method and camera device
JP2007305113A (en) * 2006-04-11 2007-11-22 Matsushita Electric Ind Co Ltd Image processing method and image processor
JP2008287329A (en) * 2007-05-15 2008-11-27 Nikon System:Kk Image evaluation device and image evaluation program
US7903155B2 (en) 2004-11-30 2011-03-08 Konica Minolta Holdings, Inc. Image capturing apparatus and program
JP2011128834A (en) * 2009-12-17 2011-06-30 Nikon Corp Image processing program and image pickup device
WO2014156669A1 (en) * 2013-03-29 2014-10-02 コニカミノルタ株式会社 Image processing device and image processing method
US9092883B2 (en) 2011-11-28 2015-07-28 Olympus Corporation Image processing device, image processing method and storage medium storing image processing program
US9230179B2 (en) 2013-02-19 2016-01-05 Nec Corporation Driver assistance system, driver assistance method and information storage medium
WO2017149969A1 (en) * 2016-03-04 2017-09-08 ソニー株式会社 Signal processing device and imaging appratus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1328912C (en) * 2002-12-25 2007-07-25 富士胶片株式会社 Image synthesizing method and camera device
JP2005295566A (en) * 2004-04-01 2005-10-20 Microsoft Corp Luminance correction
JP4559116B2 (en) * 2004-05-19 2010-10-06 ノーリツ鋼機株式会社 Photo printing system
JP2005331633A (en) * 2004-05-19 2005-12-02 Noritsu Koki Co Ltd Photographic print system
US7903155B2 (en) 2004-11-30 2011-03-08 Konica Minolta Holdings, Inc. Image capturing apparatus and program
JP2007305113A (en) * 2006-04-11 2007-11-22 Matsushita Electric Ind Co Ltd Image processing method and image processor
JP2008287329A (en) * 2007-05-15 2008-11-27 Nikon System:Kk Image evaluation device and image evaluation program
JP2011128834A (en) * 2009-12-17 2011-06-30 Nikon Corp Image processing program and image pickup device
US9092883B2 (en) 2011-11-28 2015-07-28 Olympus Corporation Image processing device, image processing method and storage medium storing image processing program
US9230179B2 (en) 2013-02-19 2016-01-05 Nec Corporation Driver assistance system, driver assistance method and information storage medium
WO2014156669A1 (en) * 2013-03-29 2014-10-02 コニカミノルタ株式会社 Image processing device and image processing method
WO2017149969A1 (en) * 2016-03-04 2017-09-08 ソニー株式会社 Signal processing device and imaging appratus
US10877357B2 (en) 2016-03-04 2020-12-29 Sony Corporation Signal processing apparatus and imaging apparatus
US11275296B2 (en) 2016-03-04 2022-03-15 Sony Corporation Signal processing apparatus and imaging apparatus

Also Published As

Publication number Publication date
JP3444281B2 (en) 2003-09-08

Similar Documents

Publication Publication Date Title
JP4904108B2 (en) Imaging apparatus and image display control method
JP4932660B2 (en) Image recording apparatus and image recording method
JP3395770B2 (en) Digital still camera
JP5893713B1 (en) Imaging apparatus, imaging method, and processing program
JP2002112008A (en) Image processing system and recording medium recording image processing program
JP4697606B2 (en) Imaging apparatus and focus control method
JP2009147730A (en) Moving image generating apparatus, moving image shooting apparatus, moving image generating method, and program
JP2001177741A (en) Electronic camera and display system
JP2008028960A (en) Photographing apparatus and exposure control method
JP3859131B2 (en) Digital camera
JP2003125269A (en) Digital camera
JP2003121732A (en) Digital camera
JP3444281B2 (en) IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD
JP2002290831A (en) Image processor, display device, program, and storage medium
JP4189820B2 (en) Imaging apparatus and image recording method
JP2006287735A (en) Picture voice recording apparatus and collecting voice direction adjustment method
JP4033456B2 (en) Digital camera
JP2004023747A (en) Electronic camera
JP4788172B2 (en) Imaging apparatus and program
JP2003051979A (en) Electronic camera provided with image processing function and a computer-readable recording medium recording program enabling the electronic camera to realize the image processing function
JP4049291B2 (en) Digital still camera
JP3826885B2 (en) Electronic camera
JP2008182486A (en) Photographing device, and image processing method
JP4902365B2 (en) Image composition apparatus and program
JP3727841B2 (en) Digital still camera

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030527

LAPS Cancellation because of no payment of annual fees