JP2001169301A - Multi-board type image pickup device and recording medium for processing image data - Google Patents

Multi-board type image pickup device and recording medium for processing image data

Info

Publication number
JP2001169301A
JP2001169301A JP34531299A JP34531299A JP2001169301A JP 2001169301 A JP2001169301 A JP 2001169301A JP 34531299 A JP34531299 A JP 34531299A JP 34531299 A JP34531299 A JP 34531299A JP 2001169301 A JP2001169301 A JP 2001169301A
Authority
JP
Japan
Prior art keywords
data
color
image
color component
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34531299A
Other languages
Japanese (ja)
Inventor
Kenichi Ishiga
健一 石賀
Satoshi Ejima
聡 江島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP34531299A priority Critical patent/JP2001169301A/en
Publication of JP2001169301A publication Critical patent/JP2001169301A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the resolution of image data picked up by image pickup elements 214a and 214b. SOLUTION: Image processing sections 31a, 431b amplify object image signals picked up by image pickup elements 214a and 214b that are placed on a conjugate image forming face with a shift by 1/2 pixel pitch in longitudinal and lateral directions respectively up to a prescribed level. Analog/digital converter circuits 432a, 432b respectively convert the image signals picked up by the image pickup elements 214a and 214b into digital signals, and DSP 433a, 433b apply image processing to the digital signals independently. The two image data after the image processing are respectively interpolated so as to have all color data corresponding to each pixel position and the two image data after the interpolation processing are arranged at an interval of one in longitudinal and lateral directions respectively. The two image data after the arrangement are combined in a checkered pattern and data of blank pixels in the checkered pattern are interpolated and calculated in response to the orientation similar to that of color data that are closest to the data of the blank pixels.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、同一の被写体像を
複数の撮像装置で撮像し、各々の撮像装置から出力され
た画像データを合成する多板式撮像装置および画像デー
タの合成処理プログラムが格納された記録媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multi-plate type image pickup device for picking up the same subject image by a plurality of image pickup devices and synthesizing image data outputted from each image pickup device, and a program for synthesizing image data. The recorded recording medium.

【0002】[0002]

【従来の技術】たとえば、特開平10−248069号
公報(第1の従来技術とする)に記載されているように、
CCDのような撮像素子を用いて被写体像を撮像する撮
像装置において、2枚の撮像素子を画素配列に対応して
1/2画素ピッチ斜めにずらして配置し、これら2枚の
撮像素子で同一の被写体を撮像して各々の撮像素子から
出力された画像データを合成することにより画像データ
の解像度を向上する、いわゆる空間画素ずらし法と呼ば
れる撮像方法が知られている。
2. Description of the Related Art For example, as described in JP-A-10-248069 (hereinafter referred to as a first prior art),
In an imaging device that captures a subject image using an imaging device such as a CCD, two imaging devices are arranged obliquely shifted by a half pixel pitch corresponding to the pixel arrangement, and the two imaging devices have the same configuration. There is known an imaging method called a so-called spatial pixel shift method, in which the resolution of image data is improved by imaging the subject and synthesizing the image data output from each imaging element.

【0003】第1の従来技術によれば、撮像素子の画素
位置に対応してR色、G色およびB色の全てを有するよ
うに各々の撮像素子によるデータに対して単板補間処理
を施してから、単板補間処理後の2枚の画像データが合
成処理される。単板補間処理では、ベイヤ配列の色フ
ィルタが取り付けられた各々の撮像素子による画像情報
が、それぞれ倍密度画素面に伸長される。伸長された
それぞれの画像情報における注目する色の画素出力を有
するラインについて、既存の画素出力を内分して空格子
点における画素情報が補間される。画素情報が補間さ
れた2つのラインに挟まれたラインについて、2列のラ
インの各画素を内分して画素情報が補間される。2枚の
画像の合成処理では、補間処理により得られた2つの画
像情報について、対応する画素同士がR色、G色および
B色ごとに加算されて画像合成される。この方法によれ
ば、画像合成前に単板ごとに倍密度線形補間が行われる
ので、他の撮像素子の画素出力を用いて補間する場合に
生じるエッジ部分の偽信号の発生を防止することができ
る。さらに、合成時に2板の画像情報が加算されるの
で、S/N比を向上する効果が得られる。
According to the first prior art, single-chip interpolation is performed on data from each image sensor so as to have all of R, G, and B colors corresponding to the pixel positions of the image sensor. After that, the two pieces of image data after the single-plate interpolation processing are combined. In the single-chip interpolation processing, image information from each image pickup device to which a Bayer array color filter is attached is expanded to a double-density pixel surface. For a line having a pixel output of a color of interest in each of the expanded image information, the existing pixel output is internally divided to interpolate the pixel information at a vacancy. With respect to a line sandwiched between two lines in which the pixel information is interpolated, the pixel information is interpolated by internally dividing each pixel in the two lines. In the combining process of two images, corresponding two pixels of the two pieces of image information obtained by the interpolation process are added to each other for each of the R, G, and B colors to combine the images. According to this method, since double-density linear interpolation is performed for each single board before image synthesis, it is possible to prevent generation of a false signal at an edge portion that occurs when interpolation is performed using the pixel output of another image sensor. it can. Furthermore, since the image information of the two boards is added at the time of synthesis, an effect of improving the S / N ratio can be obtained.

【0004】また、画像電子学会研究会予稿98-08-04
(第2の従来技術とする)には、ベイヤ配列の色フィルタ
を用いた単板カラーセンサで撮影された2枚の画像に対
し、単板補間しないで合成を行い高精細な1枚の画像に
する画像処理アルゴリズムが開示されている。第2の従
来技術によれば、ベイヤ配列の色フィルタが取り付けら
れた2枚のカラーセンサで撮影された画像について、画
素ずらしに対応して倍密度画素面上の半分の画素にデー
タを配置してから画像の補間・合成処理が行われる。補
間・合成処理は、補間対象色とは異なる色の撮影信号
を有する画素位置について、画素ずらし方向に対して法
線方向に存在する注目画素と同じ色成分を用いて相似的
に注目画素における色成分を生成する。撮影画素が存
在しない空白画素位置について、周辺画素を参照してエ
ッジ線分の稜線方向を検出し、検出した稜線方向に線形
補間して注目画素における色成分を生成することにより
行われる。この方法によれば、補間対象色と異なる色の
撮影信号から相似的に色成分を生成するとともに、方向
性を考慮して色成分を生成するので合成処理後の画像を
高解像度化することができる。
[0004] Also, Proceedings of the Institute of Image Electronics Engineers of Japan 98-08-04
(The second prior art) has a high-definition single image obtained by combining two images captured by a single-plate color sensor using a Bayer array color filter without performing single-plate interpolation. An image processing algorithm is disclosed. According to the second conventional technique, data is arranged in half pixels on a double-density pixel surface corresponding to pixel shift for an image photographed by two color sensors to which a Bayer array color filter is attached. After that, the image interpolation / synthesis processing is performed. The interpolation / synthesis process uses the same color component as the target pixel existing in the normal direction with respect to the pixel shift direction for the pixel position having a shooting signal of a color different from the interpolation target color. Generate components. This is performed by detecting a ridge direction of an edge line by referring to peripheral pixels at a blank pixel position where no photographic pixel exists, and generating a color component at the pixel of interest by performing linear interpolation in the detected ridge direction. According to this method, a color component is generated similarly from a photographing signal of a color different from the interpolation target color, and a color component is generated in consideration of the directionality, so that the resolution of the image after the synthesis processing can be increased. it can.

【0005】さらにまた、特開平10−155158号
公報(第3の従来技術とする)には、3原色に対応して市
松模様状に画素配列された2枚の撮像素子から出力され
た画素信号に対し、単板補間をしないで解像度を倍以上
に向上させる撮像装置が開示されている。第3の従来技
術によれば、ベイヤ配列による2枚の撮像素子で撮影さ
れた画素信号について、画素ずらしに対応して倍密度画
素面上の半分の画素にデータを配置してから画素信号の
補間・合成処理が行われる。補間・合成処理は、B色
信号を有する画素の周囲のR色およびG色信号を同一の
輝度信号とみなして局所画素相関度を算出し、算出され
た相関度が最大となる方向に隣接する2つの輝度信号を
平均して輝度信号Yを生成する。倍密度画素面で半分
の画素に生成された輝度信号Yから低域成分を除去して
高域輝度信号YHを生成し、撮像素子で撮影されたR
色、G色およびB色信号からローパスフィルタにより倍
密度画素面を全面補間した信号に対して上記高域輝度信
号YHを加算することにより行われる。この方法によれ
ば、2枚の撮像素子が出力する3原色の画素信号のう
ち、特定の2原色の画素信号を用いて輝度信号の高域成
分を生成することにより、合成処理後の画像の高解像度
化を図ることができる。
Further, Japanese Patent Application Laid-Open No. H10-155158 (hereinafter referred to as a third prior art) discloses a pixel signal output from two image sensors arranged in a checkered pattern corresponding to three primary colors. On the other hand, there is disclosed an imaging apparatus which improves the resolution more than twice without performing single-plate interpolation. According to the third conventional technique, with respect to a pixel signal photographed by two imaging elements in a Bayer array, data is arranged in half the pixels on the double-density pixel surface in accordance with the pixel shift, and then the pixel signal is Interpolation / synthesis processing is performed. In the interpolation / synthesis processing, the R and G color signals around the pixel having the B color signal are regarded as the same luminance signal, the local pixel correlation is calculated, and the pixels are adjacent in the direction in which the calculated correlation becomes maximum. A luminance signal Y is generated by averaging the two luminance signals. The high-frequency luminance signal YH is generated by removing the low-frequency component from the luminance signal Y generated for half the pixels on the double-density pixel surface, and the R image captured by the image sensor is obtained.
This is performed by adding the high-frequency luminance signal YH to a signal obtained by interpolating the entire surface of the double-density pixel surface from the color, G, and B color signals using a low-pass filter. According to this method, the high-frequency component of the luminance signal is generated using the pixel signals of the specific two primary colors among the pixel signals of the three primary colors output by the two image pickup devices, so that the image of the image after the synthesis processing is generated. Higher resolution can be achieved.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述し
た第1〜第3の従来技術にはそれぞれ次のような問題が
あった。すなわち、第1の従来技術では、単板補間処理
において既存の画素出力を内分して線形補間するのみで
あるので、たとえば、補間対象色の信号が注目画素位置
においてピーク成分を有する場合に、線形補間を行って
も十分なピーク値を得られないので偽色が発生するおそ
れがある。また、補間の際に画素出力の方向性を考慮し
ないのでエッジがシャープにならないおそれがある。
However, the first to third prior arts described above have the following problems. That is, in the first prior art, since the existing pixel output is only linearly interpolated in the single-chip interpolation process, for example, when the signal of the interpolation target color has a peak component at the target pixel position, Even if linear interpolation is performed, a sufficient peak value cannot be obtained, so that a false color may be generated. In addition, since the direction of pixel output is not taken into account during interpolation, edges may not be sharpened.

【0007】第2の従来技術では、2枚のカラーセンサ
で撮像された生のデータを画素ずらしに対応して倍密度
画素面上に配置し、配置されたデータに対して補間・合
成処理が行われる。この結果、それぞれのカラーセンサ
が異なるゲインで撮像された場合に上記配置後のデータ
にジャギーが発生し、エッジ線分の稜線方向の検出にも
影響を及ぼすおそれがある。また、最初から倍密度に補
間・合成するように意図されているので、1枚のカラー
センサによるデータのみを扱うような汎用性が考慮され
ていない。
In the second prior art, raw data captured by two color sensors is arranged on a double-density pixel surface in accordance with pixel shift, and interpolation / synthesis processing is performed on the arranged data. Done. As a result, when the respective color sensors are imaged with different gains, jaggies occur in the data after the arrangement, which may affect the detection of the ridge direction of the edge line. Further, since it is intended to interpolate and combine at double density from the beginning, versatility such as handling only data by one color sensor is not considered.

【0008】第3の従来技術では、R色およびG色を同
等の輝度信号として扱い、これら2色の色信号による輝
度信号からB色位置の輝度信号を補間生成するので、R
色およびG色が同等でない場合に偽色が発生するおそれ
がある。また、R色とG色の違いを考慮しないで方向検
出を行うと、エッジがシャープにならないおそれがあ
る。さらに、色信号については高解像度化が全く考慮さ
れておらず、かつ高解像度化を図る高域輝度信号の抽出
も倍密度画素面における半分の画素に対してしか行われ
ていないという問題がある。さらにまた、2枚の撮像素
子が異なるゲインで撮像された場合に、画素ずらしに対
応して倍密度画素面上に配置されたデータにジャギーが
発生するので、高域輝度信号に影響を及ぼすおそれがあ
る。
In the third prior art, the R and G colors are treated as equivalent luminance signals, and the luminance signal at the B color position is interpolated and generated from the luminance signals based on these two color signals.
When the color and the G color are not equal, a false color may occur. If the direction is detected without considering the difference between the R color and the G color, the edge may not be sharpened. Further, there is a problem that the resolution of the color signal is not considered at all, and the extraction of the high-frequency luminance signal for the purpose of increasing the resolution is performed only for half of the pixels on the double-density pixel surface. . Furthermore, when two imaging elements are imaged with different gains, jaggies occur in the data arranged on the double-density pixel surface corresponding to the pixel shift, which may affect the high-frequency luminance signal. There is.

【0009】本発明の目的は、補間対象色と異なる色と
の間の相似性を用いた補間と撮像信号の方向性を考慮し
た補間とを単板補間と単板補間後の画像データ合成とに
組み込むことにより、単板ごとにデータを扱える汎用性
を備え、高精細な合成画像を出力するようにした多板式
撮像装置を提供することにある。また、本発明の他の目
的は、補間対象色と異なる色との間の相似性を用いた補
間と画像データの方向性を考慮した補間とを単板補間と
単板補間後の画像データ合成とに組み込んで画像合成を
行うようにしたプログラムを格納した記録媒体を提供す
ることにある。
An object of the present invention is to perform interpolation using similarity between a color to be interpolated and a different color and interpolation in consideration of the directionality of an image pickup signal as single-chip interpolation and image data synthesis after single-chip interpolation. An object of the present invention is to provide a multi-chip type imaging device which has general versatility capable of handling data for each veneer and outputs a high-definition composite image. Another object of the present invention is to perform interpolation using similarity between a color to be interpolated and a different color and interpolation taking into account the directionality of image data by single-chip interpolation and image data synthesis after single-chip interpolation. It is another object of the present invention to provide a recording medium storing a program for performing image composition by incorporating the program into a computer.

【0010】[0010]

【課題を解決するための手段】一実施の形態を示す図1
〜図3に対応づけて本発明を説明する。 (1)請求項1の発明は、画素配列の方向に関して縦横
両方向の少なくとも一方に1/2画素ずらした複数のカ
ラー撮像装置で同一の被写体像を撮像し、少なくとも2
つのカラー撮像装置214a,214bから出力された撮像デー
タを合成して被写体像を得る多板式撮像装置に適用され
る。そして、2つのカラー撮像装置214a,214bから出力
されたそれぞれの撮像データに対し、少なくとも画像デ
ータの方向性を用いた補間および複数の色成分の撮像デ
ータを用いた補間のいずれか一方を用いてカラー撮像装
置214a,214bの全画素に対応して全色成分データを生成
する単板補間手段433a〜b,436a〜b,439と、単板補間手
段433a〜b,436a〜b,439により生成された2つの全色成
分データを合成する合成手段433a〜b,436a〜b,439とを
備えることにより、上述した目的を達成する。 (2)請求項2の発明は、請求項1に記載の多板式撮像
装置において、合成手段433a〜b,436a〜b,439は、2つ
の全色成分データによる方向性を用いて合成を行うこと
を特徴とする。 (3)請求項3の発明は、請求項1または2に記載の多
板式撮像装置において、2つのカラー撮像装置214a,214
bが画素配列の方向に関して縦横両方向に1/2画素ず
つずらして配置されている場合、合成手段433a〜b,436a
〜b,439は、2つの全色成分データについて、それぞれ
各色成分ごとに画素配列の方向に対応して縦横両方向に
一列おきに色成分データを配置し、一列おきに配置され
た一方の色成分データの間に一列おきに配置された他方
の色成分データを配置して各色成分ごとの市松模様状の
色成分データ配列とするデータ配列手段433a〜b,436a〜
b,439と、データ配列手段433a〜b,436a〜b,439による市
松模様状の色成分データ配列において、少なくとも縦横
2方向の類似度を算出する類似度算出手段439と、類似
度算出手段439により算出された類似度からこの類似度
の方向性を分類する方向性分類手段439と、各色成分ご
との市松模様状の色成分データ配列において、方向性分
類手段439により分類された方向に配置された色成分デ
ータを用いて空白画素位置の補間データを各色成分ごと
に生成する補間手段433a〜b,436a〜b,439とを備えるこ
とを特徴とする。 (4)請求項4の発明は、請求項1または2に記載の多
板式撮像装置において、2つのカラー撮像装置214a,214
bが画素配列の方向に関して縦横両方向に1/2画素ず
つずらして配置されている場合、合成手段433a〜b,436a
〜b,439は、2つの全色成分データについて、それぞれ
各色成分ごとに画素配列の方向に対応して縦横両方向に
1/2画素ピッチずらして重ねて配置するデータ配置手
段433a〜b,436a〜b,439と、データ配置手段433a〜b,436
a〜b,439により各色成分ごとに重ねて配置された色成分
データに対し、縦横各1/2画素ピッチで囲まれる全て
の重なり部分について、この重なり部分を構成する2つ
の色成分データの平均値を算出する第1の算出手段439
と、第1の算出手段439により算出された色成分データ
の平均値において、少なくとも2方向の類似度を算出す
る類似度算出手段439と、類似度算出手段439により算出
された類似度からこの類似度の方向性を分類する方向性
分類手段439と、各色成分ごとに第1の算出手段439で算
出された色成分データの平均値に対し、方向性分類手段
439により分類された方向に配置された所定数の色成分
データを用いて再び重み付け平均して注目画素位置の合
成データを各色成分ごとに算出する第2の算出手段439
とを備えることを特徴とする。 (5)請求項5の発明は、請求項3または4に記載の多
板式撮像装置において、類似度算出手段439は、単板補
間手段433a〜b,436a〜b,439により生成された全色成分
データを用いて類似度を算出することを特徴とする。 (6)請求項6の発明は、請求項3または5に記載の多
板式撮像装置において、類似度算出手段439は、空白画
素位置に対する類似度とこの空白画素の周辺の画素位置
に対する類似度とを用いて類似度を算出することを特徴
とする。 (7)請求項7の発明は、請求項3または4に記載の多
板式撮像装置において、方向性分類手段439は、類似度
算出手段439により算出された各方向の類似度の差が所
定値未満であるとき、各方向の類似度は同等と分類する
ことを特徴とする。 (8)請求項8の発明は、請求項4に記載の多板式撮像
装置において、2つのカラー撮像装置214a,214bは露光
量を変えて被写体像を撮像することを特徴とする。 (9)請求項9の発明は、画素配列の方向に関して縦横
両方向の少なくとも一方に1/2画素ずらした複数のカ
ラー撮像装置で同一の被写体像を撮像し、少なくとも2
つのカラー撮像装置214a,214bから出力された撮像デー
タを合成して被写体像を得る多板式撮像装置に適用され
る。そして、2つのカラー撮像装置214a,214bから出力
されたそれぞれの撮像データの全画素に対応して全色成
分データを生成する単板補間手段433a〜b,436a〜b,439
と、単板補間手段433a〜b,436a〜b,439により生成され
た2つの全色成分データによる方向性を用いて合成を行
う合成手段433a〜b,436a〜b,439とを備えることによ
り、上述した目的を達成する。 (10)請求項10の発明は、請求項9に記載の多板式
撮像装置において、単板補間手段433a〜b,436a〜b,439
は、2つのカラー撮像装置214a,214bから出力されたそ
れぞれの撮像データに対し、少なくとも画像データの方
向性を用いた補間および複数の色成分の撮像データを用
いた補間のいずれか一方を用いて2つのカラー撮像装置
214a,214bの全画素に対応して全色成分データを生成す
ることを特徴とする。 (11)請求項11の発明は、画素配列の方向に関して
縦横両方向の少なくとも一方に1/2画素ずらした複数
のカラー撮像装置で同一の被写体像を撮像し、少なくと
も2つのカラー撮像装置214a,214bから出力された撮像
データを合成して被写体像を得る多板式撮像装置に適用
される。そして、2つのカラー撮像装置214a,214bから
出力されたそれぞれの撮像データに対し、少なくとも画
像データの方向性を用いた補間および複数の色成分の撮
像データを用いた補間のいずれか一方を用いてカラー撮
像装置214a,214bの全画素に対応して少なくとも輝度成
分に対応するデータを生成する単板補間手段433a〜b,43
6a〜b,439と、単板補間手段433a〜b,436a〜b,439により
生成された輝度成分に対応する2つのデータを合成する
合成手段433a〜b,436a〜b,439とを備えることにより、
上述した目的を達成する。 (12)請求項12の発明による画像データ処理用記録
媒体は、画素配列の方向に関して縦横両方向の少なくと
も一方に1/2画素ずらした複数のカラー撮像装置で同
一の被写体像を撮像した2つの画像データに対し、少な
くとも画像データの方向性を用いた補間および複数の色
成分の画像データを用いた補間のいずれか一方を用いて
全画素に対応して全色成分データを生成する単板補間処
理と、単板補間処理により生成された2つの全色成分デ
ータを合成する合成処理とを行うプログラムを格納し、
このプログラムを実行することにより、上述した目的を
達成する。 (13)請求項13の発明は、請求項12に記載の画像
データ処理用記録媒体において、複数のカラー撮像装置
が画素配列の方向に関して縦横両方向に1/2画素ずつ
ずらして配置されている場合、合成処理は、2つの全色
成分データについて、それぞれ各色成分ごとに画像デー
タの画素配列の方向に対応して縦横両方向に一列おきに
色成分データ配置し、一列おきに配置された一方の色成
分データの間に一列おきに配置された他方の色成分デー
タを配置して各色成分ごとの市松模様状の色成分データ
配列とするデータ配列処理と、データ配列処理による市
松模様状の色成分データ配列において、少なくとも縦横
2方向の類似度を算出する類似度算出処理と、類似度算
出処理により算出された類似度からこの類似度の方向性
を分類する方向性分類処理と、各色成分ごとの市松模様
状の色成分データ配列において、方向性分類処理により
分類された方向に配置された色成分データを用いて空白
画素位置の補間データを各色成分ごとに生成する補間処
理とを備えることを特徴とする。 (14)請求項14の発明は、請求項12に記載の画像
データ処理用記録媒体において、複数のカラー撮像装置
が画素配列の方向に関して縦横両方向に1/2画素ずつ
ずらして配置されている場合、合成処理は、2つの全色
成分データについて、それぞれ各色成分ごとに画像デー
タの画素配列の方向に対応して縦横両方向に1/2画素
ピッチずらして重ねて配置するデータ配置処理と、デー
タ配置処理により各色成分ごとに重ねて配置された色成
分データに対し、縦横各1/2画素ピッチで囲まれる全
ての重なり部分について、この重なり部分を構成する2
つの色成分データの平均値を算出する第1の算出処理
と、第1の算出処理により算出された色成分データの平
均値において、少なくとも2方向の類似度を算出する類
似度算出処理と、類似度算出処理により算出された類似
度からこの類似度の方向性を分類する方向性分類処理
と、各色成分ごとに第1の算出処理で算出された色成分
データの平均値に対し、方向性分類処理により分類され
た方向に配置された所定数の色成分データを用いて再び
重み付け平均して注目画素位置の合成データを各色成分
ごとに算出する第2の算出処理とを備えることを特徴と
する。
FIG. 1 shows an embodiment of the present invention.
The present invention will be described with reference to FIG. (1) According to the first aspect of the present invention, the same subject image is captured by a plurality of color imaging devices shifted by at least one half pixel in both the vertical and horizontal directions with respect to the direction of the pixel arrangement, and
The present invention is applied to a multi-plate imaging apparatus that obtains a subject image by combining imaging data output from two color imaging apparatuses 214a and 214b. Then, for each of the imaging data output from the two color imaging devices 214a and 214b, at least one of interpolation using the directionality of the image data and interpolation using the imaging data of a plurality of color components is used. Generated by single-chip interpolation means 433a-b, 436a-b, 439 for generating all color component data corresponding to all pixels of the color imaging devices 214a, 214b, and single-chip interpolation means 433a-b, 436a-b, 439 The above-mentioned object is achieved by providing the synthesizing means 433a-b and 436a-b, 439 for synthesizing the two sets of all color component data thus obtained. (2) The invention according to claim 2 is the multi-panel imaging apparatus according to claim 1, wherein the combining means 433a-b, 436a-b, 439 perform the combining using the directionality based on the two all-color component data. It is characterized by the following. (3) The invention of claim 3 is the multi-plate image pickup device according to claim 1 or 2, wherein the two color image pickup devices 214a and 214 are provided.
When b is displaced by 1/2 pixel in both the vertical and horizontal directions with respect to the direction of the pixel arrangement, the combining means 433a to 436a
B, 439 are color component data arranged in every other row in both the vertical and horizontal directions corresponding to the pixel arrangement direction for each of the two color component data, and one color component arranged every other row Data arranging means 433a-b, 436a-, arranging the other color component data arranged every other row between the data to form a checkerboard-shaped color component data array for each color component.
b, 439, and a similarity calculating unit 439 for calculating at least two vertical and horizontal similarities in a checkerboard pattern color component data array by the data arranging units 433a-b, 436a-b, 439, and a similarity calculating unit 439. And a direction classifying unit 439 for classifying the directionality of the similarity from the similarity calculated by the above, and in a checkered pattern color component data array for each color component, arranged in the direction classified by the directionality classifying unit 439. Interpolating means 433a-b, 436a-b, and 439 for generating interpolation data of a blank pixel position for each color component using the color component data thus obtained. (4) According to a fourth aspect of the present invention, there is provided the multi-plate type imaging apparatus according to the first or second aspect, wherein the two color imaging apparatuses 214a and 214 are provided.
When b is displaced by 1/2 pixel in both the vertical and horizontal directions with respect to the direction of the pixel arrangement, the combining means 433a to 436a
B, 439 are data arranging means 433a to 436a for arranging two full-color component data so as to overlap with each other for each color component by a half pixel pitch in both the vertical and horizontal directions corresponding to the pixel arrangement direction. b, 439, and data arrangement means 433a-b, 436
With respect to the color component data superimposed for each color component according to a to b, 439, the average of the two color component data constituting the overlapping portion is obtained for all the overlapping portions surrounded by the vertical and horizontal 1/2 pixel pitch. First calculating means 439 for calculating a value
A similarity calculating unit 439 for calculating the similarity in at least two directions in the average value of the color component data calculated by the first calculating unit 439; and the similarity calculated from the similarity calculated by the similarity calculating unit 439. Direction classification means 439 for classifying the direction of the degree, and a direction classification means for the color component data average value calculated by the first calculation means 439 for each color component.
A second calculating unit 439 for calculating weighted average again by using a predetermined number of color component data arranged in the direction classified by 439 and calculating composite data of a target pixel position for each color component.
And characterized in that: (5) The invention according to claim 5 is the multi-chip image pickup apparatus according to claim 3 or 4, wherein the similarity calculating means 439 includes all colors generated by the single-chip interpolation means 433a-b, 436a-b, 439. The similarity is calculated using the component data. (6) According to a sixth aspect of the present invention, in the multi-panel imaging apparatus according to the third or fifth aspect, the similarity calculating means 439 determines the similarity to a blank pixel position and the similarity to a pixel position around the blank pixel. Is used to calculate the degree of similarity. (7) According to the invention of claim 7, in the multi-chip imaging device according to claim 3 or 4, the directional classification means 439 determines that a difference between the similarities in each direction calculated by the similarity calculating means 439 is a predetermined value. When less than, the similarity in each direction is classified as being equal. (8) According to an eighth aspect of the present invention, in the multi-plate type imaging apparatus according to the fourth aspect, the two color imaging devices 214a and 214b capture a subject image by changing the exposure amount. (9) According to the ninth aspect of the present invention, the same subject image is captured by a plurality of color image capturing apparatuses shifted by at least one half pixel in both the vertical and horizontal directions with respect to the pixel array direction.
The present invention is applied to a multi-plate imaging apparatus that obtains a subject image by combining imaging data output from two color imaging apparatuses 214a and 214b. Then, single-plate interpolation means 433a-b, 436a-b, 439 for generating all color component data corresponding to all pixels of the respective imaging data output from the two color imaging devices 214a, 214b
And combining means 433a-b, 436a-b, 439 for performing combining using the directionality of the two full-color component data generated by the single-plate interpolation means 433a-b, 436a-b, 439. The above-mentioned object is achieved. (10) According to a tenth aspect of the present invention, there is provided the multi-chip type imaging apparatus according to the ninth aspect, wherein the single-plate interpolation means 433a-b, 436a-b, 439
For each of the imaging data output from the two color imaging devices 214a and 214b, at least one of interpolation using the directionality of the image data and interpolation using the imaging data of a plurality of color components is used. Two color imaging devices
It is characterized in that all color component data is generated corresponding to all pixels 214a and 214b. (11) According to the eleventh aspect of the present invention, the same subject image is captured by a plurality of color imaging devices shifted in at least one of the vertical and horizontal directions in the pixel array direction by at least one-half pixel, and at least two color imaging devices 214a and 214b The present invention is applied to a multi-panel imaging apparatus that obtains a subject image by combining imaging data output from a camera. Then, for each of the imaging data output from the two color imaging devices 214a and 214b, at least one of interpolation using the directionality of the image data and interpolation using the imaging data of a plurality of color components is used. Single-chip interpolation means 433a-b, 43 for generating data corresponding to at least the luminance component corresponding to all the pixels of the color imaging devices 214a, 214b
6a-b, 439, and combining means 433a-b, 436a-b, 439 for combining two data corresponding to the luminance components generated by the single-plate interpolation means 433a-b, 436a-b, 439. By
Achieve the above objectives. (12) The recording medium for image data processing according to the twelfth aspect, wherein two images obtained by capturing the same subject image by a plurality of color imaging devices shifted by at least one half pixel in both the vertical and horizontal directions with respect to the pixel arrangement direction. Single-chip interpolation processing for generating all color component data corresponding to all pixels using at least one of interpolation using image data directionality and interpolation using image data of a plurality of color components for data And a program for performing a synthesizing process for synthesizing two all-color component data generated by the single-plate interpolation process,
By executing this program, the above-described object is achieved. (13) The invention according to claim 13 is the image data processing recording medium according to claim 12, wherein the plurality of color imaging devices are arranged by being shifted by 1/2 pixel in both the vertical and horizontal directions in the pixel arrangement direction. In the combining process, the color component data is arranged every other row in both the vertical and horizontal directions corresponding to the direction of the pixel arrangement of the image data for each of the two color component data, and one color arranged every other row A data array process in which the other color component data arranged every other row is arranged between component data to form a checkerboard-like color component data array for each color component, and a checkerboard-like color component data by the data array process In the array, a similarity calculation process of calculating at least two similarities in the vertical and horizontal directions, and a directionality for classifying the directionality of the similarity from the similarity calculated by the similarity calculation process Classification processing and interpolation data of blank pixel positions are generated for each color component using color component data arranged in the direction classified by the directional classification process in a checkerboard pattern color component data array for each color component. And an interpolation process. (14) The invention according to claim 14 is the image data processing recording medium according to claim 12, wherein the plurality of color imaging devices are arranged by being shifted by 1/2 pixel in both the vertical and horizontal directions with respect to the direction of the pixel arrangement. The synthesizing process is a data arranging process of arranging two full-color component data so as to overlap with each other by shifting by 1/2 pixel pitch in both the vertical and horizontal directions corresponding to the pixel arrangement direction of the image data for each color component. With respect to the color component data superimposed and arranged for each color component by the processing, all the overlapping portions surrounded by the vertical and horizontal 1/2 pixel pitch constitute this overlapping portion 2
A first calculation process of calculating an average value of two color component data, a similarity calculation process of calculating a similarity in at least two directions in the average value of the color component data calculated by the first calculation process, Directional classification processing for classifying the directionality of the similarity from the similarity calculated by the degree calculation processing, and directional classification with respect to the average value of the color component data calculated in the first calculation processing for each color component. And a second calculation process of calculating a composite data of the pixel position of interest for each color component by weighting and averaging again using a predetermined number of color component data arranged in the direction classified by the process. .

【0011】なお、本発明の構成を説明する上記課題を
解決するための手段の項では、本発明を分かり易くする
ために実施の形態の図を用いたが、これにより本発明が
実施の形態に限定されるものではない。
In the section of the means for solving the above-mentioned problems, which explains the configuration of the present invention, the drawings of the embodiments are used to make the present invention easy to understand. However, the present invention is not limited to this.

【0012】[0012]

【発明の実施の形態】−第一の実施の形態− 以下、図面を参照して本発明の実施の形態を説明する。
図1に示すように、第一の実施の形態による一眼レフデ
ジタルスチルカメラ100は、カメラ本体200と、カ
メラ本体200に着脱されるファインダー装置50と、
レンズ91と絞り92を内蔵してカメラ本体200に着
脱される撮影レンズ1とを備える。被写体光Lは撮影レ
ンズ1を通過してカメラ本体200に入射され、ハーフ
ミラーからなるクイックリターンミラー3により焦点検
出(オートフォーカス:AF)のための通過光L1とファ
インダー観察用の反射光L2とに分離される。通過光L
1は、ファインダー観察状態ではクイックリターンミラ
ー3を通過してフィールドレンズ209で集光され、さ
らにミラー210で反射されて後述するミラー211に
導かれる。一方、反射光L2は、ファインダー装置50
に導かれて撮影レンズ1の一次結像面16と共役なファ
インダーマット4上に被写体像を結像し、その像がペン
タプリズム205を介してファインダー光学系207で
拡大されて撮影者18により観察される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS -First Embodiment- An embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the single-lens reflex digital still camera 100 according to the first embodiment includes a camera body 200, a finder device 50 detachable from the camera body 200,
The camera includes a photographing lens 1 which has a built-in lens 91 and a stop 92 and is attached to and detached from the camera body 200. The subject light L passes through the photographing lens 1 and is incident on the camera body 200. The quick return mirror 3, which is a half mirror, transmits light L1 for focus detection (auto focus: AF) and reflected light L2 for finder observation. Is separated into Passing light L
1 passes through the quick return mirror 3 in the finder observation state, is condensed by the field lens 209, is further reflected by the mirror 210, and is guided to the mirror 211 described later. On the other hand, the reflected light L2 is
To form a subject image on the finder mat 4 conjugate with the primary imaging surface 16 of the taking lens 1, and the image is enlarged by the finder optical system 207 via the pentaprism 205 and observed by the photographer 18. Is done.

【0013】デジタルスチルカメラ100がレリーズさ
れると、ハーフミラー3が破線3’で示す位置に回動
し、被写体光Lは分離されることなくミラー210側へ
進む。
When the digital still camera 100 is released, the half mirror 3 rotates to the position shown by the broken line 3 ', and the subject light L proceeds to the mirror 210 without being separated.

【0014】上述したフィールドレンズ209は、クイ
ックリターンミラー3の後方(図1では右側)に設けられ
ている。撮影レンズ1の一次結像面16の後方には、水
平方向に対して角度θ(たとえば45度)で固定されたミ
ラー210が設けられ、被写体光Lの光束をミラー21
1に向けて反射する。ミラー211に入射された光束
は、ミラー211で図面奥方向に水平に反射される。デ
ジタルスチルカメラ100を背面から透視した図2に示
すように、ミラー211で図2の右方向に反射された光
束は、後述する縮小光学系212に入射される。
The above-described field lens 209 is provided behind the quick return mirror 3 (right side in FIG. 1). A mirror 210 fixed at an angle θ (for example, 45 degrees) with respect to the horizontal direction is provided behind the primary imaging surface 16 of the photographing lens 1, and the light beam of the subject light L is
Reflects toward 1. The light beam incident on the mirror 211 is reflected horizontally by the mirror 211 in the depth direction of the drawing. As shown in FIG. 2 as seen through the digital still camera 100 from the back, the light beam reflected rightward in FIG. 2 by the mirror 211 enters a reduction optical system 212 described later.

【0015】図3は、上述した撮影レンズ1の一次結像
面16より後方(図3では右斜め上)に配置されている縮
小光学系212、ビームスプリッタ219および撮像素
子214aおよび214bからなる結像光学系の斜視図
である。縮小光学系212の内部には、リレーレンズ2
12aと212bとに挟まれて、シャッター板208と
絞り板215とが隣接して設けられている。シャッター
板208および絞り板215は円盤状に形成されてお
り、円盤の回転中心にそれぞれ設けられたステップモー
タ408、415(図2)によりシャッター板208およ
び絞り板215は回転される。
FIG. 3 shows an image forming system including a reduction optical system 212, a beam splitter 219, and image pickup devices 214a and 214b which are arranged behind the above-mentioned primary image forming surface 16 of the photographing lens 1 (in FIG. 3, upper right). It is a perspective view of an image optical system. The relay lens 2 is provided inside the reduction optical system 212.
A shutter plate 208 and an aperture plate 215 are provided adjacent to each other, sandwiched between 12a and 212b. The shutter plate 208 and the aperture plate 215 are formed in a disk shape, and the shutter plate 208 and the aperture plate 215 are rotated by step motors 408 and 415 (FIG. 2) provided at the center of rotation of the disk.

【0016】図3に示すように、シャッター板208に
は全ての被写体光束を遮光する完全遮光部208a、全
ての被写体光束を通過させる開口部208b、被写界の
水平方向に並ぶ一対の開口部を有する208cと208
d、および被写界の垂直方向に並ぶ一対の開口部208
eと208f、被写界の水平方向に対して斜め45度の
方向に並ぶ一対の開口部208gと208h、および上
記斜め45度と直交する方向に並ぶ一対の開口部208
iと208jが設けられている。そして、開口部208
c、開口部208e、開口部208g、および開口部2
08iには被写体光束からP偏光成分を透過させる偏光
板308c、308e、308g、308iが、開口部
208d、開口部208f、開口部208h、および開
口部208jには被写体光束からS偏光成分を透過させ
る偏光板308d、308f、308h、308jがそ
れぞれ設けられている。通常の撮影時には完全遮光部2
08aおよび開口部208bが用いられ、開口部208
c〜208jは後述する瞳分割方式による焦点検出動作
時に用いられる。
As shown in FIG. 3, the shutter plate 208 has a complete light blocking portion 208a for blocking all subject light beams, an opening portion 208b for passing all subject light beams, and a pair of opening portions arranged in the horizontal direction of the object scene. 208c and 208 having
d, and a pair of openings 208 arranged in the vertical direction of the object scene
e and 208f, a pair of openings 208g and 208h arranged in a direction oblique at 45 degrees to the horizontal direction of the object scene, and a pair of openings 208 arranged in a direction orthogonal to the oblique 45 degrees.
i and 208j are provided. Then, the opening 208
c, opening 208e, opening 208g, and opening 2
08i includes polarizing plates 308c, 308e, 308g, and 308i that transmit the P-polarized component from the subject light beam, and the opening portions 208d, 208f, 208h, and 208j transmit the S-polarized component from the subject light beam. Polarizing plates 308d, 308f, 308h, and 308j are provided, respectively. Complete shading part 2 for normal shooting
08a and the opening 208b are used.
c to 208j are used during a focus detection operation by a pupil division method described later.

【0017】一方、絞り板215には絞り開口部215
a〜215gが設けられている。全ての被写体光束を通
過させる開口部215aの面積を基準にして、絞り開口
部215b〜215gの開口面積は、開口部215b〜
215gに至るまで開口面積が順に半分ずつになるよう
に設定されている。図3に示すとうり、開口面積が大き
な開口部と小さな開口部とを交互に配置することによ
り、隣接する開口部間の間隔が狭くならないように構成
されている。縮小光学系212の射出側(図3でリレー
レンズ212bの右上)には偏光ビームスプリッタ21
9が設けられている。偏光ビームスプリッタ219は、
入射された被写体光束のうちP偏光成分を透過し、S偏
光成分を反射する。偏光ビームスプリッタ219を透過
した光束のP偏光成分は撮像素子214aに入射され、
偏光ビームスプリッタ219で反射された光束のS偏光
成分は撮像素子214bに入射される。撮像素子214
aおよび214b上に結像される像は、一次結像面16
において空中像として結像された像がフィールドレンズ
209、およびリレーレンズ212a、212bの作用
により縮小されたものである。なお、図3に不図示であ
るが、図2に示すように、撮像素子214aおよび21
4bと偏光ビームスプリッタ219との間には、CCD
保護ガラス213a、213bとオプティカル・ローパ
ス・フィルター223a、223bがそれぞれ設けられ
ている。なお、撮像素子214a、214bによる画像
に高い解像度を必要とする場合は、通常オプティカル・
ローパス・フィルター223aおよび223bが両方と
も外される。また、撮像素子214aおよび214b
は、互いに共役な結像面に1/2画素ピッチずらして配
設されている
On the other hand, the diaphragm plate 215 has a diaphragm opening 215.
a to 215 g are provided. With reference to the area of the opening 215a through which all the subject light beams pass, the aperture area of the aperture openings 215b to 215g is
The opening area is set so as to be halved in order to 215 g. As shown in FIG. 3, by alternately arranging openings having a large opening area and openings having a small opening area, the distance between adjacent openings is not reduced. On the exit side of the reduction optical system 212 (upper right of the relay lens 212b in FIG. 3), the polarization beam splitter 21 is disposed.
9 are provided. The polarization beam splitter 219 is
It transmits the P-polarized light component and reflects the S-polarized light component of the incident subject light beam. The P-polarized light component of the light beam transmitted through the polarization beam splitter 219 is incident on the image sensor 214a,
The S-polarized component of the light beam reflected by the polarization beam splitter 219 is incident on the image sensor 214b. Image sensor 214
a and 214b are imaged on the primary imaging surface 16
Are reduced by the action of the field lens 209 and the relay lenses 212a and 212b. Although not shown in FIG. 3, as shown in FIG.
4b and the polarization beam splitter 219, a CCD
Protective glasses 213a and 213b and optical low-pass filters 223a and 223b are provided, respectively. When a high resolution is required for the images obtained by the imaging devices 214a and 214b, the optical
Both low pass filters 223a and 223b are removed. Further, the image pickup devices 214a and 214b
Are arranged on the image planes conjugate to each other and shifted by a half pixel pitch.

【0018】図4は、この実施の形態のデジタルスチル
カメラ100の回路を示すブロック図である。CPU4
39はROM443に記憶されている制御プログラムが
起動されると、操作部材407から入力される操作信号
に基づいて、図4の各ブロックに対する制御を適宜行
う。操作部材407は、メインスイッチ、レリーズ釦、
後述するモード切換えスイッチなどである。デジタルス
チルカメラ100は、被写体像を撮像して画像データを
記録する記録モードと、記録された画像データを読み出
して再生する再生モードの2つの動作モードを有し、こ
れらの動作モードは上述したモード切換えスイッチから
入力される操作信号に基づいて切換えられる。
FIG. 4 is a block diagram showing a circuit of the digital still camera 100 according to this embodiment. CPU4
When the control program stored in the ROM 443 is started, the control unit 39 appropriately controls each block in FIG. 4 based on an operation signal input from the operation member 407. An operation member 407 includes a main switch, a release button,
This is a mode changeover switch described later. The digital still camera 100 has two operation modes, a recording mode in which a subject image is captured and image data is recorded, and a reproduction mode in which recorded image data is read and reproduced, and these operation modes are the above-described modes. Switching is performed based on an operation signal input from a changeover switch.

【0019】図3において既に図示した撮像素子214
aおよび214bは同じ画素数を有するCCDであり、
各画素に結像された光画像を電気的な画像信号に光電変
換する。デジタルシグナルプロセッサ(以下、DSPと
呼ぶ)433a,433bは、撮像素子214aおよび
214bに対してそれぞれ水平駆動信号を供給するとと
もに、撮像素子駆動回路434a,434bを制御して
撮像素子214aおよび214bに対する垂直駆動信号
をそれぞれ供給させる。
The image sensor 214 already shown in FIG.
a and 214b are CCDs having the same number of pixels,
The optical image formed on each pixel is photoelectrically converted into an electric image signal. Digital signal processors (hereinafter referred to as DSPs) 433a and 433b supply horizontal drive signals to the image sensors 214a and 214b, respectively, and control image sensor drive circuits 434a and 434b to control the vertical directions of the image sensors 214a and 214b. A drive signal is supplied.

【0020】画像処理部431a、431bは、CPU
439により制御され、撮像素子214aおよび214
bで光電変換された画像信号を所定のタイミングでサン
プリングして、所定の信号レベルとなるように増幅す
る。画像信号を増幅する増幅率は、撮影時と後述する焦
点検出時とで設定値が変更される。焦点検出時の露光時
間が短縮されるように、たとえば、焦点検出時は撮影時
の約4倍に設定される。アナログ/デジタル変換回路
(以下、A/D変換回路と呼ぶ)432a,432bの入
力ポートには画像処理部431aおよび431bから出
力された増幅後の画像信号がそれぞれ入力される。そし
て、A/D変換回路432a,432bでデジタル信号
に変換された画像データが上述したDSP433a,4
33bに入力され、輪郭補償やガンマ補正、ホワイトバ
ランス調整などの画像処理がそれぞれの画像データに対
して並行して施される。
The image processing units 431a and 431b have a CPU
439, the image sensors 214a and 214
The image signal photoelectrically converted at b is sampled at a predetermined timing and amplified to a predetermined signal level. The set value of the amplification factor for amplifying the image signal is changed between the time of shooting and the time of focus detection described later. In order to shorten the exposure time at the time of focus detection, for example, at the time of focus detection, it is set to about four times that at the time of shooting. Analog / digital conversion circuit
The amplified image signals output from the image processing units 431a and 431b are input to input ports of 432a and 432b (hereinafter, referred to as A / D conversion circuits). Then, the image data converted into digital signals by the A / D conversion circuits 432a and 432b is converted into the above-described DSPs 433a and 433a.
The image data is input to the image data 33b, and image processing such as contour compensation, gamma correction, and white balance adjustment is performed on each image data in parallel.

【0021】DSP433a,433bは、バッファメ
モリ436a,436bおよびメモリカード424に接
続されているデータバスを制御し、画像処理が施された
画像データをバッファメモリ436a,436bに一旦
記憶させたのち、バッファメモリ436a,436bか
ら記憶した画像データを読み出して、撮像素子214a
および214bによる2つの画像データを後述するよう
に合成する。その後、たとえば、JPEG圧縮のために
所定のフォーマット処理を行い、フォーマット処理後の
画像データをJPEG方式で所定の比率にデータ圧縮し
て、メモリカード424に記録させる。また、DSP4
33a,433bは上記の画像処理後の画像データをフ
レームメモリ435に記憶させて、カメラ本体200の
背面に設けられたLCD220(図2)上に表示させた
り、メモリカード424から記録された撮影画像データ
を読み出して伸張し、伸張後の撮影画像データをフレー
ムメモリ435に記憶させてLCD220上に表示させ
る。さらに、DSP433a,433bは、上述した画
像データのメモリカード424への記録、および伸張後
の撮影画像データのバッファメモリ436a,436b
への記録などにおけるデータ入出力のタイミング管理を
行う。
The DSPs 433a and 433b control the data buses connected to the buffer memories 436a and 436b and the memory card 424, and temporarily store the processed image data in the buffer memories 436a and 436b. The stored image data is read out from the memories 436a and 436b, and is read from the image sensor 214a.
And the two image data according to 214b are combined as described later. After that, for example, a predetermined format process is performed for JPEG compression, and the image data after the format process is data-compressed at a predetermined ratio by the JPEG method and recorded on the memory card 424. Also, DSP4
Reference numerals 33 a and 433 b store the image data after the image processing in the frame memory 435, display the image data on the LCD 220 (FIG. 2) provided on the back of the camera body 200, and record the captured image recorded from the memory card 424. The data is read and expanded, and the captured image data after expansion is stored in the frame memory 435 and displayed on the LCD 220. Further, the DSPs 433a and 433b record the above-described image data on the memory card 424, and buffer memory 436a and 436b of the decompressed photographed image data.
It manages the timing of data input / output during recording to the server.

【0022】バッファメモリ436aには、CCD21
4aによる画像データが、バッファメモリ436bに
は、CCD214bによる画像データがそれぞれ入り、
メモリカード424に対する画像データの入出力の速度
の違いと、CPU439やDSP433a,433bな
どにおける処理速度の違いを緩和するために利用され
る。測色素子417は、被写体およびその周囲の色温度
を測定し、測定結果を測色回路452に対して出力す
る。測色回路452は、測色素子417から出力された
測色結果であるアナログ信号に対して、所定の処理を施
してデジタル信号に変換し、変換後のデジタル信号をC
PU439に出力する。このデジタル出力信号に基づい
て、上述したホワイトバランス調整が行われる。タイマ
445は時計回路を内蔵し、現在の時刻に対応するタイ
ムデータをCPU439に出力する。このタイムデータ
は、上述した画像データとともにメモリカード424に
記録される。
The buffer memory 436a stores the CCD 21
4a, and the buffer memory 436b stores image data from the CCD 214b.
It is used to reduce the difference in the speed of input / output of image data to / from the memory card 424 and the difference in processing speed between the CPU 439 and the DSPs 433a and 433b. The colorimetric element 417 measures the color temperature of the subject and its surroundings, and outputs the measurement result to the colorimetric circuit 452. The colorimetric circuit 452 performs a predetermined process on the analog signal that is the colorimetric result output from the colorimetric element 417, converts the analog signal into a digital signal, and converts the converted digital signal into a C signal.
Output to PU439. The above-described white balance adjustment is performed based on the digital output signal. The timer 445 has a built-in clock circuit and outputs time data corresponding to the current time to the CPU 439. This time data is recorded on the memory card 424 together with the image data described above.

【0023】絞り駆動回路453は、上述した絞り板2
15の開口部215a〜215gのうち所定の開口部が
選択されるように、絞り板215を回転させるステップ
モータ415を駆動する。なお、絞り設定のための露出
の測定は、撮像素子214aおよび214bから出力さ
れる画像信号に基づいて行われる。シャッター駆動回路
454は、シャッター板208を回転させるステップモ
ータ408を駆動し、シャッター板208に設けられた
完全遮光部208aと全光束通過の開口部208bとを
切換えることにより、シャッターの開放時間を制御す
る。実際の露光時間の制御は、シャッター板208が開
口部208bに切換えられている間に、後述する電子シ
ャッタ動作が行われることにより制御される。また、焦
点検出時は開口部208c〜208jを切換える。
The diaphragm driving circuit 453 is provided with the diaphragm plate 2 described above.
A step motor 415 for rotating the aperture plate 215 is driven so that a predetermined one of the fifteen openings 215a to 215g is selected. The measurement of the exposure for setting the aperture is performed based on the image signals output from the image sensors 214a and 214b. The shutter drive circuit 454 drives the step motor 408 for rotating the shutter plate 208, and controls the shutter open time by switching between the complete light blocking portion 208a provided on the shutter plate 208 and the opening 208b through which all light beams pass. I do. The actual control of the exposure time is controlled by performing an electronic shutter operation described later while the shutter plate 208 is switched to the opening 208b. At the time of focus detection, the openings 208c to 208j are switched.

【0024】レンズ駆動回路430は、焦点調整を行う
ために撮影レンズ1に内蔵されているフォーカシングレ
ンズを移動させる。ファインダ内表示回路440は、上
述した各種の動作における設定内容などをファインダ内
表示素子426に表示させる。また、インターフェイス
448は、たとえば、撮影画像データなどの所定のデー
タを、不図示の所定の外部装置との間で授受するように
設けられている。
The lens drive circuit 430 moves a focusing lens built in the photographic lens 1 to perform focus adjustment. The in-finder display circuit 440 causes the in-finder display element 426 to display the settings in the various operations described above. The interface 448 is provided so as to exchange predetermined data such as captured image data with a predetermined external device (not shown).

【0025】−焦点検出− 上述したデジタルスチルカメラ100の焦点検出動作に
ついて説明する。CPU439は、絞り駆動回路453
を制御してステップモータ415を駆動し、絞り板21
5に形成された開口部のうち、全光束を通過させる開口
部215bを光軸上にセットする。また、シャッター駆
動回路454を制御してステップモータ408を駆動
し、たとえば、シャッター板208の光軸に対して垂直
方向に形成された開口部208eと208fとの中心が
光軸上になるようにセットする。すなわち、開口部20
8eと208fはカメラを横位置に構えた場合に垂直に
並んで配設される。
-Focus Detection-The focus detection operation of the digital still camera 100 will be described. The CPU 439 controls the aperture driving circuit 453
Is controlled to drive the stepping motor 415 and the diaphragm plate 21
Among the openings formed in 5, the opening 215b through which all light beams pass is set on the optical axis. Further, the shutter drive circuit 454 is controlled to drive the step motor 408 so that, for example, the centers of the openings 208 e and 208 f formed in a direction perpendicular to the optical axis of the shutter plate 208 are on the optical axis. set. That is, the opening 20
8e and 208f are arranged vertically side by side when the camera is held in a horizontal position.

【0026】撮影レンズ1に入射して一次結像面16で
結像した一次像は、被写体光束としてミラー210およ
び211で反射してシャッター板208に入射される。
入射された被写体光束は、P偏光成分の焦点検出光束と
S偏光成分の焦点検出光束として出射される。すなわ
ち、開口部208eに設けられたP偏光を透過する偏光
板308e(図3)の作用により、開口部208eを透過
する光束はP偏光成分のみになる。一方、開口部208
fに設けられたS偏光を透過する偏光板308fの作用
により、開口部208fを透過する光束はS偏光成分の
みになる。このため、開口部208eを透過したP偏光
成分の焦点検出光束は、偏光ビームスプリッタ209で
反射されることなく透過して撮像素子214aに入射さ
れる。開口部208fを透過したS偏光成分の焦点検出
光束は、偏光ビームスプリッタ209を透過することな
く反射されて撮像素子214bに入射される。このよう
に、撮像素子214aには開口部208eを透過した光
束が、撮像素子214bには開口部208fを透過した
光束が入射されるので、両撮像素子214aおよび21
4bから出力される画像信号に基づいた両被写体画像デ
ータを比較してコントラストを検出することにより、焦
点検出動作が行われる。
The primary image that has entered the photographic lens 1 and formed on the primary imaging surface 16 is reflected by mirrors 210 and 211 as a subject light beam and is incident on the shutter plate 208.
The incident subject light flux is emitted as a focus detection light flux of a P-polarized light component and a focus detection light flux of an S-polarized light component. That is, due to the action of the polarizing plate 308e (FIG. 3) provided in the opening 208e and transmitting P-polarized light, the light beam transmitted through the opening 208e becomes only a P-polarized component. On the other hand, the opening 208
Due to the action of the polarizing plate 308f provided in f and transmitting S-polarized light, the light beam transmitted through the opening 208f becomes only the S-polarized component. For this reason, the focus detection light flux of the P-polarized light component transmitted through the opening 208e is transmitted without being reflected by the polarization beam splitter 209, and is incident on the image sensor 214a. The focus detection light flux of the S-polarized light component transmitted through the opening 208f is reflected without passing through the polarization beam splitter 209, and is incident on the image sensor 214b. As described above, the light beam transmitted through the opening 208e enters the image sensor 214a, and the light beam transmitted through the opening 208f enters the image sensor 214b.
The focus detection operation is performed by comparing the two object image data based on the image signal output from 4b and detecting the contrast.

【0027】図3の光学系において、シャッター板20
8の開口部208eと208fを透過した画像を観測す
ることは、ミラー210およびミラー211の作用によ
り、被写界を水平方向にずれた二つの瞳に分割して観察
する事に相当するので瞳分割と呼ばれる。瞳分割の方向
は、シャッター板208を回転することにより変更され
る。たとえば、上述した開口部208eと208fの並
び方向と直交するように、シャッター板208の光軸に
対して水平方向に形成された開口部208cと208d
の中心が光軸上になるようにセットすると、被写界を垂
直方向に瞳分割して観察する事に相当する。被写界に水
平線などが含まれており、水平方向に瞳分割された被写
体画像からコントラストが得られない、すなわち、焦点
検出が難しいと判断されるときは、このように瞳分割の
方向を変えて焦点検出動作が行われる。瞳分割の方向
は、被写界に対して水平、垂直方向の他に開口部208
gと208hによる水平方向に対して斜め45度の方向
と、開口部208iと208jによる水平方向に対して
斜め−45度の方向が選択可能であり、これらの斜め方
向が被写体に応じて選択される。
In the optical system shown in FIG.
Observing the image transmitted through the apertures 208e and 208f of the E.8 corresponds to observing the object field by dividing the object field into two pupils shifted in the horizontal direction by the action of the mirrors 210 and 211. Called split. The direction of pupil division is changed by rotating the shutter plate 208. For example, the openings 208c and 208d formed in the horizontal direction with respect to the optical axis of the shutter plate 208 so as to be orthogonal to the direction in which the openings 208e and 208f are arranged.
Is set to be on the optical axis, which corresponds to observing the object scene by dividing the pupil in the vertical direction. If the object scene contains a horizontal line or the like and contrast cannot be obtained from the subject image divided horizontally in the pupil, that is, if it is determined that focus detection is difficult, change the direction of the pupil division in this way. The focus detection operation is performed. The direction of pupil division is horizontal and vertical with respect to the object field,
A direction of 45 degrees oblique to the horizontal direction by g and 208h and a direction of -45 degrees oblique to the horizontal direction by the openings 208i and 208j can be selected, and these oblique directions are selected according to the subject. You.

【0028】−画像データの単板補間− 撮像素子214aおよび214bは同じベイヤー配列の
カラーフィルタがオンチップされたCCDで構成され
る。偏光ビームスプリッタ219の作用により、撮像素
子214b上には撮像素子214aに入射される画像の
鏡像が投影される。図3においては、一次結像面16に
「P」が結像している場合、各撮像素子214aおよび
214b上に「P」がどのように結像されるかを示して
いる。したがって、撮像素子214bで撮像された画像
データは、画像読み出し後に画素のならび順を反対にな
らべ替えて、撮像素子214aで撮像された画像データ
の画素のならび順にそろえられる。撮像素子214aの
画素のならびを図5(a)に、撮像素子214bの画素の
ならびをならべ替えたものを図5(b)に示す。
-Single-chip interpolation of image data- The imaging elements 214a and 214b are constituted by CCDs on which color filters of the same Bayer arrangement are on-chip. By the operation of the polarization beam splitter 219, a mirror image of an image incident on the image sensor 214a is projected on the image sensor 214b. FIG. 3 shows how “P” is imaged on each of the imaging elements 214a and 214b when “P” is imaged on the primary image plane 16. Therefore, the image data captured by the image sensor 214b is rearranged in the reverse order of the pixels after the image is read, and is arranged in the pixel data of the image data captured by the image sensor 214a. FIG. 5A shows the arrangement of the pixels of the imaging element 214a, and FIG. 5B shows the arrangement of the pixels of the imaging element 214b.

【0029】単板補間は、上述したように構成される撮
像素子214aおよび214bによるそれぞれの画像デ
ータについて、全ての画素位置における色情報がR、
G、B色の全色分となるように補間算出する。すなわ
ち、図5(a)においてB112などで示される画素デー
タはB色のデータだけでG、R色のデータがなく、同様
にR121などで示される画素データはR色のデータだ
けでG、B色のデータがない。そこで、図5(a),(b)
に示されるような画像データの全ての画素位置におい
て、不足する色データを補間処理により算出する。単板
補間の手順は、類似度の算出、類似方向の分類、
類似方向を利用してG色データを補間するG色補間、
G色補間後のデータを利用してRおよびB色のデータを
補間するR色補間およびB色補間により行われる。
In the single-chip interpolation, the color information at all the pixel positions is R, R, and B for each image data by the image pickup devices 214a and 214b configured as described above.
The interpolation calculation is performed so as to cover all of the G and B colors. That is, in FIG. 5A, the pixel data indicated by B112 or the like is only the data of B color and has no data of G and R colors, and similarly, the pixel data indicated by R121 and the like is only the data of R color and is G and B data. There is no color data. Therefore, FIGS. 5A and 5B
In all the pixel positions of the image data as shown in (1), the missing color data is calculated by the interpolation processing. The procedure of single-plate interpolation is similarity calculation, similar direction classification,
G color interpolation for interpolating G color data using similar directions,
This is performed by R color interpolation and B color interpolation in which data of R and B colors are interpolated using data after G color interpolation.

【0030】図6は、図5(a),(b)に示した画像デー
タの画素位置を表す表である。類似度算出は、G色のデ
ータがない画素位置、たとえば、図6の座標[i,j]で
示されるR色のデータの位置に対して、座標[i,j]を
中心として画素配列の縦方向および横方向のデータとの
間に類似性があるか否かを調べるために行われる。座標
[i,j]に関する縦方向の類似度Cv0[i,j]が次式(1)
で算出され、座標[i,j]に関する横方向の類似度Ch0
[i,j]が次式(2)で算出される。
FIG. 6 is a table showing the pixel positions of the image data shown in FIGS. 5 (a) and 5 (b). The similarity calculation calculates the pixel arrangement of the pixel array around the coordinate [i, j] with respect to the pixel position where there is no G color data, for example, the position of the R color data indicated by the coordinate [i, j] in FIG. This is performed to check whether there is similarity between the data in the vertical direction and the data in the horizontal direction. The vertical similarity Cv0 [i, j] with respect to the coordinates [i, j] is given by the following equation (1).
, And the horizontal similarity Ch0 with respect to the coordinates [i, j]
[I, j] is calculated by the following equation (2).

【数1】 ただし、G[i,j-1]は座標[i,j-1]で示されるG色の
データの出力値であり、Z[i,j]は座標[i,j]で示さ
れるR色またはB色のデータの出力値である。
(Equation 1) Here, G [i, j-1] is the output value of the G color data indicated by the coordinates [i, j-1], and Z [i, j] is the R color data indicated by the coordinates [i, j]. Alternatively, it is the output value of the B color data.

【0031】上式(1)、(2)における第1項の絶対値
は、G色成分同士で比較して大まかな方向性を検出す
る。上式(1)、(2)の第2項および第3項の絶対値は、
第1項では検出できない細かな類似性を検出する。すな
わち、G色成分同士の画素ピッチより細かいG色とR色
成分およびG色とB色成分との間で検出を行うと、高周
波成分の類似性を検出できる。第1項および第2,3項
を加算することにより、両者の利点を同時に活かしてい
る。上式(1)、(2)により得られた縦方向の類似度およ
び横方向の類似度を各座標ごとに算出し、対象とする座
標[i,j]における縦方向の類似度および横方向の類似
度と、対象とする座標[i,j]の周辺における縦方向の
類似度および横方向の類似度とを、たとえば、図7に示
すような重み付けの表にしたがって加算することによ
り、最終的な縦類似度Cv[i,j]が次式(3)で算出さ
れ、横類似度Ch[i,j]が次式(4)で算出される。図7
の重み付けを使用するのは、対象とする座標[i,j]と
その周辺におけるデータの連続性を判断する目的で使用
される。
The absolute value of the first term in the above equations (1) and (2) is compared between the G color components to detect a rough direction. The absolute values of the second and third terms of the above equations (1) and (2) are
A fine similarity that cannot be detected in the first term is detected. That is, when the detection is performed between the G color and the R color component and between the G color and the B color component that are finer than the pixel pitch between the G color components, the similarity of the high frequency components can be detected. By adding the first term and the second and third terms, the advantages of both are utilized simultaneously. The vertical similarity and the horizontal similarity obtained by the above equations (1) and (2) are calculated for each coordinate, and the vertical similarity and the horizontal similarity at the target coordinate [i, j] are calculated. And the similarity in the vertical and horizontal directions around the target coordinate [i, j] are added, for example, according to a weighting table as shown in FIG. The vertical similarity Cv [i, j] is calculated by the following equation (3), and the horizontal similarity Ch [i, j] is calculated by the following equation (4). FIG.
Is used for the purpose of judging the continuity of the data at the target coordinate [i, j] and its surroundings.

【数2】 (Equation 2)

【0032】上式(3)、(4)で算出された縦類似度Cv
[i,j]および横類似度Ch[i,j]から類似性の方向を分
類する。たとえば、縦方向に同じデータが並んだ場合を
例にとれば、上式(1)で算出される縦方向の類似度は0
となり、この結果として上式(3)で算出される縦類似度
も0になる。したがって、算出された類似度が小さいほ
ど、その方向におけるデータの類似性が強くなる。図8
は縦類似度Cv[i,j]および横類似度Ch[i,j]から類似
方向を分類する表である。縦類似度Cv[i,j]が横類似
度Ch[i,j]以下のとき、縦方向に類似性が強いと判定
し(case1)、横類似度Ch[i,j]が縦類似度Cv[i,j]以
下のとき、横方向に類似性が強いと判定する(case2)。
画素データの出力に含まれるノイズによる誤判定を避け
るために、縦類似度Cv[i,j]および横類似度Ch[i,j]
の差の絶対値が所定値T以下の場合は、縦横両方向に類
似すると判定する(case3)。所定値Tは、類似度の算出
値が0〜255の範囲に規格化されているとき、通常露
光レベルでは0〜5程度に設定する。
The vertical similarity Cv calculated by the above equations (3) and (4)
The direction of similarity is classified based on [i, j] and the horizontal similarity Ch [i, j]. For example, taking the case where the same data is arranged in the vertical direction as an example, the vertical similarity calculated by the above equation (1) is 0.
As a result, the vertical similarity calculated by the above equation (3) also becomes zero. Therefore, the smaller the calculated similarity, the stronger the similarity of the data in that direction. FIG.
Is a table for classifying similar directions from the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j]. When the vertical similarity Cv [i, j] is equal to or smaller than the horizontal similarity Ch [i, j], it is determined that the similarity is strong in the vertical direction (case 1), and the horizontal similarity Ch [i, j] is the vertical similarity. When Cv [i, j] or less, it is determined that the similarity is strong in the horizontal direction (case 2).
In order to avoid erroneous determination due to noise included in the output of the pixel data, the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j]
If the absolute value of the difference is equal to or smaller than the predetermined value T, it is determined that the image is similar in both the vertical and horizontal directions (case 3). When the calculated value of the similarity is standardized in the range of 0 to 255, the predetermined value T is set to about 0 to 5 at the normal exposure level.

【0033】分類した類似方向を利用してG色補間を行
う。G色補間は、たとえば上述した図6の座標[i,j]
で示されるR色のデータの位置に対して、縦方向類似と
判定された場合は次式(5)により算出し、横方向類似と
判定された場合は次式(6)により算出する。
G color interpolation is performed using the classified similar directions. The G color interpolation is performed, for example, by using the coordinates [i, j] in FIG.
When it is determined that the position of the R color data indicated by is similar in the vertical direction, it is calculated by the following equation (5), and when it is determined that the similarity is in the horizontal direction, it is calculated by the following equation (6).

【数3】 G色補間を説明する図9を参照して説明すると、上式
(5)における第1項の平均値は座標[i,j-1]および
[i,j+1]のG色データの出力値から座標[i,j]におい
て算出される平均値91を表す。上式(5)における第2
項は座標[i,j]と座標[i,j-2]および[i,j+2]のR
色データの出力値から座標[i,j]において算出される
変化量を表す。G色データの出力値の平均をとるだけで
は平均値91しか得られないが、R色データ出力値から
算出される変化量を加えることにより、G色補間値92
が得られる。すなわち、図9のように、G色データを補
間する対象座標[i,j]に出力値のピークがある場合で
も、G色およびR色データの出力差を一定とみなして算
出した変化量が加えられることで、ピークを持たせたG
色補間値92を得ることができる。このような補間を色
差補間と呼び、上式(6)は横方向について同様の色差補
間を行うものである。
(Equation 3) Referring to FIG. 9 for explaining the G color interpolation,
The average value of the first term in (5) represents the average value 91 calculated at the coordinates [i, j] from the output values of the G color data at the coordinates [i, j-1] and [i, j + 1]. . The second in the above equation (5)
The term is R at coordinates [i, j] and coordinates [i, j-2] and [i, j + 2].
It represents the amount of change calculated at the coordinates [i, j] from the output value of the color data. Although only the average value 91 is obtained by averaging the output values of the G color data, the G color interpolation value 92 is obtained by adding the variation calculated from the R color data output value.
Is obtained. That is, as shown in FIG. 9, even when there is a peak of the output value at the target coordinate [i, j] where the G color data is to be interpolated, the change amount calculated assuming that the output difference between the G color data and the R color data is constant is constant. G that has a peak by being added
A color interpolation value 92 can be obtained. Such interpolation is called color difference interpolation, and the above equation (6) performs similar color difference interpolation in the horizontal direction.

【0034】類似の方向が縦横両方向と分類された場合
は、上式(5)および(6)によりG色補間値をそれぞれ算
出し、算出された2つのG色補間値の平均をとってG色
補間値とする。
If the similar direction is classified into both the vertical and horizontal directions, the G color interpolation values are calculated by the above equations (5) and (6), and the average of the two calculated G color interpolation values is calculated. The color interpolation value is used.

【0035】上述したようなG色補間により得られた全
画素分のG色データを利用して、R色およびB色データ
の補間を行う。R色補間は、たとえば、図6の座標[i-
1,j-1],[i-1,j],[i,j-1]で示されるR色データが
ない位置に対して、それぞれ次式(7)〜(9)により算出
される。
Using the G color data for all pixels obtained by the G color interpolation as described above, the R and B color data are interpolated. The R color interpolation is performed, for example, using the coordinates [i-
The positions where there is no R color data represented by [1, j-1], [i-1, j], [i, j-1] are calculated by the following equations (7) to (9), respectively.

【数4】 上式(7)〜(9)における第1項の平均値は、R色補間の
対象とする座標に隣接するR色データの出力値から算出
される平均値を表し、上式(7)〜(9)における第2項が
R色補間の対象とする座標およびこの座標に隣接するG
色データの出力値から算出される変化量を表す。すなわ
ち、G色補間で行われた色差補間と同様に、R色データ
の出力値の平均値にG色とR色データ間の出力差を一定
とみなして算出した変化量が加えられることで、R色デ
ータを補間する対象座標に出力値のピークがある場合で
も、ピークを持たせたR色補間値を得ることができる。
(Equation 4) The average value of the first term in the above equations (7) to (9) represents the average value calculated from the output values of the R color data adjacent to the coordinates to be subjected to the R color interpolation. The coordinates in which the second term in (9) is the object of the R color interpolation and the G adjacent to this coordinate
It represents the amount of change calculated from the output value of the color data. That is, as in the case of the color difference interpolation performed in the G color interpolation, the average value of the output values of the R color data is added with the change amount calculated assuming that the output difference between the G color and the R color data is constant. Even when there is a peak of the output value at the target coordinates for interpolating the R color data, an R color interpolation value having a peak can be obtained.

【0036】B色補間についても同様に、たとえば図6
の座標[i,j],[i-1,j],[i,j-1]で示されるB色デ
ータがない位置に対して、それぞれ次式(10)〜(12)
により算出される。R色、B色はG色に比べてサンプル
周波数が低いので、色差R−G、色差B−Gを利用して
G色データの高周波成分を反映させる。
Similarly, for the B color interpolation, for example, FIG.
For positions where there is no B color data represented by coordinates [i, j], [i-1, j], [i, j-1], the following equations (10) to (12)
Is calculated by Since the sample frequencies of the R color and the B color are lower than the sample frequency of the G color, the high frequency component of the G color data is reflected using the color difference RG and the color difference BG.

【数5】 以上説明した単板補間を撮像素子214aおよび撮像素
子214bによる画像データに対してそれぞれ行えば、
全画素位置に対応したG、R、B色の3色分のデータを
有する2組の画像データが得られる。
(Equation 5) If the single-chip interpolation described above is performed on image data obtained by the image sensor 214a and the image sensor 214b,
Two sets of image data having data for three colors of G, R, and B corresponding to all pixel positions are obtained.

【0037】−単板補間後の画像データの合成− 単板補間後の2組の画像データを1つの画像データとし
て合成する。なお、単板補間後の撮像素子214aおよ
び撮像素子214bによる画像データは、人間の視覚特
性に合わせるために所定のγ変換が行われ、線形階調デ
ータから高輝度側の階調が圧縮されたデータに変換され
る。本実施の形態における画像データの合成は、単板補
間後の撮像素子214aおよび撮像素子214bによる
画像データに対し、それぞれ先に階調変換を行ってから
1つの画像に合成する場合と、単板補間後の撮像素子2
14aおよび撮像素子214bによる画像データを1つ
の画像データに合成してから階調変換を行う場合のいず
れの場合にも対応できる。
-Synthesis of image data after single-chip interpolation- Two sets of image data after single-chip interpolation are synthesized as one image data. The image data obtained by the image sensor 214a and the image sensor 214b after the single-chip interpolation is subjected to a predetermined γ-conversion in order to match human visual characteristics, and a high-luminance-side gradation is compressed from the linear gradation data. Converted to data. In the present embodiment, image data is synthesized by performing tone conversion on image data obtained by the image sensor 214a and the image sensor 214b after single-chip interpolation, and then synthesizing them into one image. Image sensor 2 after interpolation
It is possible to cope with any case where the image data by the image pickup device 14a and the image sensor 214b is combined into one image data and then the gradation conversion is performed.

【0038】合成の手順は、データの配置、類似度
の算出、類似方向の分類、類似方向を利用した補間
により行われる。図10(a)、(b)は撮像素子214a
および214bによる画像データの単板補間後の画素な
らびを示す図である。データの配置は、図10(a)、
(b)の画像データをそれぞれ縦および横に一列おきに配
列し(図10(c)、(d))、図10(c)の画像データにお
けるデータのない列に図10(d)による画像データ列が
配列されるように倍密度画素面上に市松模様状に組み合
わせる(図10(e))。第一の実施の形態では、図10
(e)のように市松模様状に配置された画像データの空白
部分のデータを補間して得る。
The synthesis procedure is performed by arranging data, calculating similarity, classifying similar directions, and performing interpolation using similar directions. FIGS. 10A and 10B show the image pickup device 214a.
FIG. 11 is a diagram showing pixels and single-chip interpolation of image data according to FIGS. The data arrangement is shown in FIG.
The image data of FIG. 10B is arranged vertically and horizontally every other row (FIGS. 10C and 10D), and the image according to FIG. The data strings are combined in a checkered pattern on the double-density pixel surface so as to be arranged (FIG. 10E). In the first embodiment, FIG.
As shown in (e), the data of the blank portion of the image data arranged in a checkered pattern is obtained by interpolation.

【0039】類似度算出は、図10(e)の市松模様状に
配置されたデータにおいてデータがない位置、たとえ
ば、市松模様状の配置データの位置を表す図11におい
て座標[i,j]で示される位置に対しては、座標[i,j]
を中心としてデータ配列の縦方向および横方向のデータ
との間に類似性があるか否かを調べるために行われる。
座標[i,j]に関する縦方向の類似度Dv0[i,j]が次式
(13)で算出され、座標[i,j]に関する横方向の類似
度Dh0[i,j]が次式(14)で算出される。なお、図11
においてRGBと記載されているところは、この座標位置
でR、G、B各色のデータが上述した単板補間によりメ
モリ上に存在することを表す。
The similarity calculation is performed by using coordinates [i, j] in FIG. 11 representing a position where no data exists in the data arranged in a checkered pattern in FIG. For the indicated position, the coordinates [i, j]
Is performed to check whether there is similarity between the data in the vertical direction and the horizontal direction in the data array.
The vertical similarity Dv0 [i, j] for the coordinates [i, j] is
The horizontal similarity Dh0 [i, j] with respect to the coordinate [i, j] is calculated by the following equation (14). Note that FIG.
Indicates that the data of each color of R, G, and B exists on the memory at the coordinate position by the above-described single-chip interpolation.

【数6】 (Equation 6)

【0040】上式(13)、(14)は、各色のデータを用
いて隣接する同色成分同士を比較し、方向性を検出する
ものである。上式(13)、(14)により得られる縦方向
の類似度および横方向の類似度を各座標ごとに算出し、
対象とする座標[i,j]における縦方向の類似度および
横方向の類似度と、対象とする座標[i,j]の周辺にお
ける縦方向の類似度および横方向の類似度とを図7に示
す重み付けの表にしたがって加算することにより、最終
的な縦類似度Dv[i,j]が次式(15)で算出され、横類
似度Dh[i,j]が次式(16)で算出される。上述したよ
うに、図7に示すような重み付けの表により、注目画素
とその周辺画素との連続性を判断することができる。
The above equations (13) and (14) are for detecting the directionality by comparing adjacent same-color components using the data of each color. The vertical similarity and the horizontal similarity obtained by the above equations (13) and (14) are calculated for each coordinate,
The vertical similarity and the horizontal similarity at the target coordinate [i, j] and the vertical similarity and the horizontal similarity around the target coordinate [i, j] are shown in FIG. The final vertical similarity Dv [i, j] is calculated by the following equation (15), and the horizontal similarity Dh [i, j] is calculated by the following equation (16). Is calculated. As described above, the continuity between the target pixel and its surrounding pixels can be determined from the weighting table shown in FIG.

【数7】 (Equation 7)

【0041】上式(15)、(16)で算出された縦類似度
Dv[i,j]および横類似度Dh[i,j]から類似性の方向を
分類する。単板補間の場合と同様に、算出された類似度
が小さいほど、その方向におけるデータの類似性が強く
なる。図12は縦類似度Dv[i,j]および横類似度Dh
[i,j]から類似方向を分類する表である。縦類似度Dv
[i,j]が横類似度Dh[i,j]以下のとき、縦方向に類似
性が強いと判定し(case1)、横類似度Dh[i,j]が縦類似
度Dv[i,j]以下のとき、横方向に類似性が強いと判定
する(case2)。画素データの出力に含まれる撮像時のノ
イズの影響や、2つの撮像素子214a、214b間の
ゲイン微調整のずれによる誤判定を避けるために、縦類
似度Dv[i,j]および横類似度Dh[i,j]の差の絶対値が
所定値T2以下の場合は、縦横両方向に類似すると判定
する(case3)。所定値T2は、類似度の算出値が0〜2
55の範囲に規格化されているとき、通常露光レベルで
は0〜5程度に設定する。
Vertical similarity calculated by the above equations (15) and (16)
The similarity direction is classified based on Dv [i, j] and the horizontal similarity Dh [i, j]. As in the case of single-plate interpolation, the smaller the calculated similarity, the stronger the similarity of the data in that direction. FIG. 12 shows the vertical similarity Dv [i, j] and the horizontal similarity Dh.
It is a table | surface which classifies a similar direction from [i, j]. Vertical similarity Dv
When [i, j] is equal to or less than the horizontal similarity Dh [i, j], it is determined that the similarity is strong in the vertical direction (case 1), and the horizontal similarity Dh [i, j] is the vertical similarity Dv [i, j]. j] In the following cases, it is determined that the similarity is strong in the horizontal direction (case 2). The vertical similarity Dv [i, j] and the horizontal similarity are used to avoid the influence of noise at the time of imaging included in the output of the pixel data and the misjudgment due to the shift of the fine gain adjustment between the two image sensors 214a and 214b. When the absolute value of the difference between Dh [i, j] is equal to or smaller than a predetermined value T2, it is determined that the two directions are similar in both the vertical and horizontal directions (case 3). The predetermined value T2 is such that the calculated value of the similarity is 0 to 2
When standardized to the range of 55, the normal exposure level is set to about 0 to 5.

【0042】分類した類似方向を利用して、上述した画
像データの空白部分のデータを各色ごとに補間する。た
とえば、図11の座標[i,j]で示される位置に対し
て、縦方向類似と判定された場合は次式(17)〜(19)
により算出し、横方向類似と判定された場合は次式(2
0)〜(22)により算出する。
Using the classified similar directions, the above-mentioned blank data of the image data is interpolated for each color. For example, when it is determined that the position indicated by the coordinates [i, j] in FIG. 11 is similar in the vertical direction, the following expressions (17) to (19) are obtained.
, And when it is determined to be similar in the horizontal direction, the following equation (2)
0) to (22).

【数8】 (Equation 8)

【0043】類似の方向が縦横両方向と分類された場合
は、上式(17)〜(19)および(20)〜(22)により各
色の補間値をそれぞれ算出し、各色ごとに、算出された
2つの補間値の平均をとって補間値とする。以上説明し
たように、撮像素子214aによる画像データの画素な
らび(図10(a))および撮像素子214bによる画像デ
ータの画素ならび(図10(b))を市松模様状に組み合わ
せて配置し、データの空白部分を補間することにより、
元の画像データの画素ならびに対して縦横各2倍の解像
度を有する倍密度の画像データが合成される。
When the similar directions are classified into the vertical and horizontal directions, the interpolation values of each color are calculated by the above equations (17) to (19) and (20) to (22), and the calculated values are calculated for each color. The average of the two interpolated values is taken as the interpolated value. As described above, the pixel sequence of the image data by the image sensor 214a (FIG. 10A) and the pixel sequence of the image data by the image sensor 214b (FIG. 10B) are arranged in a checkered pattern, By interpolating the blank part of
Pixels of the original image data and double-density image data having a resolution twice as high both vertically and horizontally are synthesized.

【0044】このように構成されたデジタルスチルカメ
ラ100の記録モードの動作について説明する。図13
〜14は、半押しスイッチで起動されるプログラムを示
すフローチャートである。CPU439には、操作部材
407の1つである不図示のレリーズ釦に連動した半押
し操作信号と全押し操作信号がそれぞれ入力される。半
押し操作信号が入力されたと判定される(ステップS1
のY)と、画像処理部431aおよび431bで画像信
号を増幅する増幅率が、焦点検出時の所定値に変更され
る。続いて、絞り板215上の全光束を通過させる開口
部215aが光路上にセットされ(ステップS2)、シャ
ッター板208の光軸に対して垂直方向に形成された開
口部208eと208fが光路上になるようにセットさ
れる(ステップS3)。一方、ステップS1において半押
し操作信号が入力されたと判定されないとき(ステップ
S1のN)は、半押し操作信号が入力されるのを待つ。
The operation of the digital still camera 100 thus configured in the recording mode will be described. FIG.
14 is a flowchart showing a program started by the half-press switch. The CPU 439 receives a half-press operation signal and a full-press operation signal in conjunction with a release button (not shown), which is one of the operation members 407. It is determined that the half-press operation signal has been input (step S1).
Y), and the amplification factor for amplifying the image signal in the image processing units 431a and 431b is changed to a predetermined value at the time of focus detection. Subsequently, an opening 215a on the aperture plate 215 through which all light beams pass is set on the optical path (step S2), and openings 208e and 208f formed in a direction perpendicular to the optical axis of the shutter plate 208 are placed on the optical path. (Step S3). On the other hand, if it is not determined in step S1 that the half-press operation signal has been input (N in step S1), the process waits for the input of the half-press operation signal.

【0045】ステップS4で撮像素子214aと撮像素
子214bで撮像された画像信号に基づいた画像データ
が読み出され、画像データの中にコントラストがあるか
否かが判定される(ステップS5)。コントラストがある
と判定される(ステップS5のY)とステップS15へ移
行し、コントラストがないと判定される(ステップS5
のN)とシャッター板208が回転され、光軸に対して
水平方向に形成された開口部208cと208dが光路
上になるようにセットされる(ステップS6)。ステップ
S7で再び撮像素子214aと撮像素子214bで撮像
された画像信号に基づいた画像データが読み出され、画
像データの中の焦点検出領域において、コントラストが
あるか否かが判定される(ステップS8)。コントラスト
があると判定される(ステップS8のY)とステップS1
5へ移行し、コントラストがないと判定される(ステッ
プS8のN)と再びシャッター板208が回転され、光
軸に対して斜め方向に形成された開口部208gと20
8hが光路上になるようにセットされる(ステップS
9)。
In step S4, image data based on the image signals picked up by the image sensor 214a and the image sensor 214b is read, and it is determined whether or not the image data has a contrast (step S5). When it is determined that there is contrast (Y in step S5), the process proceeds to step S15, and it is determined that there is no contrast (step S5).
N), the shutter plate 208 is rotated, and the openings 208c and 208d formed in the horizontal direction with respect to the optical axis are set so as to be on the optical path (step S6). In step S7, the image data based on the image signals captured by the image sensor 214a and the image sensor 214b is read again, and it is determined whether or not there is a contrast in the focus detection area in the image data (step S8). ). When it is determined that there is contrast (Y in step S8), step S1
5, when it is determined that there is no contrast (N in step S8), the shutter plate 208 is rotated again, and the openings 208g and 20 formed obliquely with respect to the optical axis.
8h is set on the optical path (step S
9).

【0046】ステップS10でもう一度撮像素子214
aと撮像素子214bで撮像された画像信号に基づいた
画像データが読み出され、画像データの中で焦点検出領
域においてコントラストがあるか否かが判定される(ス
テップS11)。コントラストがあると判定される(ステ
ップS11のY)とステップS15へ移行し、コントラ
ストがないと判定される(ステップS11のN)ともう一
度シャッター板208が回転され、開口部208gと2
08hと直交するように形成された開口部208iと2
08jが光路上になるようにセットされる(ステップS
12)。ステップS13でさらにもう一度撮像素子21
4aと撮像素子214bで撮像された画像信号に基づい
た画像データが読み出され、画像データの中で焦点検出
領域においてコントラストがあるか否かが判定される
(ステップS14)。コントラストがあると判定される
(ステップS14のY)とステップS15へ移行し、コン
トラストがないと判定される(ステップS14のN)と、
ファインダ内表示回路440を介してファインダ内表示
素子426に合焦不可能の警告表示を行い(ステップS
17)、ステップS1へ戻る。
In step S10, the image sensor 214 is again activated.
The image data based on the image signal a and the image signal captured by the image sensor 214b is read, and it is determined whether or not the image data has a contrast in the focus detection area (step S11). When it is determined that there is a contrast (Y in step S11), the process proceeds to step S15, and when it is determined that there is no contrast (N in step S11), the shutter plate 208 is rotated again, and the openings 208g and 2
08h and openings 208i and 2
08j is set on the optical path (step S
12). In step S13, the image sensor 21
4a and image data based on the image signal imaged by the image sensor 214b are read, and it is determined whether or not there is contrast in the focus detection area in the image data.
(Step S14). Determined to have contrast
(Y in step S14) and the process proceeds to step S15, where it is determined that there is no contrast (N in step S14),
A warning indicating that focusing is impossible is displayed on the display element 426 in the viewfinder via the display circuit 440 in the viewfinder (step S).
17), and return to step S1.

【0047】ステップS15では、撮像素子214aと
撮像素子214bから出力される2つの画像データが比
較演算され、瞳分割による焦点検出が行われる。そし
て、得られた焦点検出データに基づいて撮影レンズ1の
フォーカシングレンズがレンズ駆動回路430により合
焦位置へ駆動される(ステップS16)。全押し操作信号
が入力されたと判定される(ステップS18のY)と、ク
イックリターンミラー3が跳ね上げられ、ステップS1
9に続く撮影シーケンスが実行される。一方、全押し操
作信号が入力されないと判定されたとき(ステップS1
8のN)は、ステップS1に戻る。
In step S15, the two image data output from the image sensor 214a and the image sensor 214b are compared, and focus detection is performed by pupil division. Then, based on the obtained focus detection data, the focusing lens of the photographing lens 1 is driven to the in-focus position by the lens driving circuit 430 (step S16). When it is determined that the full-press operation signal has been input (Y in step S18), the quick return mirror 3 is flipped up, and step S1 is performed.
An imaging sequence subsequent to 9 is executed. On the other hand, when it is determined that the full-press operation signal is not input (step S1).
8) returns to step S1.

【0048】ステップS19では、シャッター板208
の全光束を通過させる開口部208bが光路上にセット
され、撮像素子214aおよび撮像素子214bからの
出力に基づいて、適正な露出が得られるように露光時間
および絞り値が計算される(ステップS20)。そして、
画像処理部431aおよび431bで画像信号を増幅す
る増幅率が、焦点検出時の設定値から撮影時の所定の設
定値に変更される。ステップS20で計算された値に基
づいて、絞り板215上の開口部215a〜215hの
いずれかが光路上にセットされ(ステップS21)、撮像
素子214aおよび214bに蓄積されている電荷が排
出されて、いわゆる電子シャッター動作が行われる(ス
テップS22)。ステップS23において、撮像素子2
14a,214bが同一条件で所定時間露光される。露
光終了後、ステップS24でシャッター板208上の完
全遮光部208aが光路上にセットされ、撮像素子21
4aおよび214bから画像信号が読み出される(ステ
ップS25)。読み出された画像信号はDSP433
a,433bで所定の画像処理が行われ、それぞれ画像
処理が行われた画像データに対して上述した単板補間と
合成処理が行われる(ステップS26)。合成された画像
データが所定のフォーマットにより圧縮され、圧縮され
た画像データがメモリカード424に記録されて(ステ
ップS27)図13〜14による処理が終了する。
In step S19, the shutter plate 208
Is set on the optical path, and the exposure time and the aperture value are calculated based on the outputs from the image sensor 214a and the image sensor 214b so as to obtain an appropriate exposure (step S20). ). And
The amplification factor for amplifying the image signal in the image processing units 431a and 431b is changed from the set value at the time of focus detection to a predetermined set value at the time of shooting. Based on the value calculated in step S20, one of the openings 215a to 215h on the diaphragm plate 215 is set on the optical path (step S21), and the charges accumulated in the imaging elements 214a and 214b are discharged. That is, a so-called electronic shutter operation is performed (step S22). In step S23, the image sensor 2
14a and 214b are exposed for a predetermined time under the same conditions. After the exposure is completed, the complete light shielding portion 208a on the shutter plate 208 is set on the optical path in step S24,
Image signals are read from 4a and 214b (step S25). The read image signal is DSP433
The predetermined image processing is performed in steps a and 433b, and the above-described single-chip interpolation and combination processing are performed on the image data on which the image processing has been performed (step S26). The synthesized image data is compressed in a predetermined format, and the compressed image data is recorded on the memory card 424 (step S27), and the processing in FIGS.

【0049】以上説明した第一の実施の形態では次のよ
うな作用効果が得られる。 (1)単板補間時に複数の色データ、たとえば、RGB
(補色系フィルタの場合はCy,Mg,Ye,Gなど)を
用いて、対象とする画像データの周辺データに対する類
似性を調べ、類似性の方向性を考慮した上でG色補間を
行い、得られたG色データから色差補間によりR、B色
データを補間するようにしたので、2つの撮像素子21
4a、214bによる画像データごとに、それぞれ全て
の色データを有する高解像度の単板補間画像データを得
ることができる。したがって、撮像された絵柄が撮像素
子のナイキスト周波数に近い周波数成分をもつ場合でも
G色補間により絵柄が回復され、色差補間によりR色、
B色も高解像に復元される。また、単板補間画像データ
は全ての色データを有するので、たとえば、簡易的なモ
ニタ表示などに単板補間画像データを単独で使用してモ
ニタ表示するなどの汎用性が高められる。 (2)撮像素子214aおよび214bは同じベイヤ配
列のCCDを用い、共役な結像面に縦横1/2画素ピッ
チずつずらして配設したので、両撮像素子による画像デ
ータを合成することにより、1つの撮像素子の画素数と
比べて画面の縦方向および横方向に対して各々2倍の画
素数を持つ倍密度の画像データに変換できる。さらに、
それぞれの撮像素子による画像データを単板補間した全
ての色データを有する2組の画像データを用い、画像デ
ータの類似の方向性を考慮して合成するようにした。し
たがって、倍密度となる全画素位置に対応して、倍密度
画面で4画素を1周期とする各色のデータに対して1/
4周期ずれた位置に正しい色データが増えるので、偽色
が低減されて全ての色データの解像度が向上した高品位
な画像データが得られる。
In the first embodiment described above, the following operation and effect can be obtained. (1) A plurality of color data, for example, RGB during single-chip interpolation
(Cy, Mg, Ye, G, etc. in the case of a complementary color filter), examine the similarity of the target image data to the surrounding data, and perform G color interpolation in consideration of the directionality of the similarity. Since the R and B color data are interpolated from the obtained G color data by color difference interpolation, the two image pickup devices 21
It is possible to obtain high-resolution single-chip interpolated image data having all color data for each of the image data 4a and 214b. Therefore, even when the captured image has a frequency component close to the Nyquist frequency of the image sensor, the image is recovered by G color interpolation, and the R color,
The B color is also restored to a high resolution. Further, since the single-chip interpolation image data has all the color data, versatility such as displaying the monitor using the single-chip interpolation image data alone for a simple monitor display can be enhanced. (2) Since the image pickup devices 214a and 214b use CCDs having the same Bayer array and are arranged on the conjugate image plane with a shift of 1/2 pixel pitch in the vertical and horizontal directions, the image data from both image pickup devices is combined to obtain 1 The image data can be converted into double-density image data having twice the number of pixels in the vertical and horizontal directions of the screen as compared with the number of pixels of one image sensor. further,
Two sets of image data having all the color data obtained by interpolating the image data obtained by the respective image sensors on a single-chip basis are used, and the image data is synthesized in consideration of the similar directionality. Therefore, corresponding to all the pixel positions at which the density is doubled, the data of each color having one cycle of four pixels on the double-density screen is divided by 1 /.
Since correct color data is increased at positions shifted by four periods, false color is reduced, and high-quality image data with improved resolution of all color data is obtained.

【0050】(3)撮像素子214aおよび214bに
対応して、画像処理部431aおよび431b、A/D
変換回路432aおよび432b、DSP433aおよ
び433b、バッファメモリ436aおよび436bを
独立して設けるようにしたので、撮像素子214aおよ
び214bによる画像データの単板補間処理を同時に平
行して行うことが可能になり、単板補間処理を順番に行
うよりも処理時間を短縮する効果が得られる。
(3) The image processing units 431a and 431b corresponding to the image pickup devices 214a and 214b,
Since the conversion circuits 432a and 432b, the DSPs 433a and 433b, and the buffer memories 436a and 436b are provided independently, it is possible to simultaneously perform single-chip interpolation of image data by the imaging devices 214a and 214b in parallel. The effect of shortening the processing time can be obtained as compared with performing the single-plate interpolation processing sequentially.

【0051】以上の説明では、上式(13)、(14)を用
いて縦方向の類似度Dv0[i,j]および横方向の類似度Dh
0[i,j]を算出するようにしたが、次式(23)により
R、G、B色データが存在する画素位置について輝度Y
[i,j]を算出して、この輝度を用いて次式(24)、(2
5)により縦方向の類似度Dv0[i,j]および横方向の類
似度Dh0[i,j]を算出するようにしてもよい。
In the above description, the similarity Dv0 [i, j] in the vertical direction and the similarity Dh in the horizontal direction are calculated using the above equations (13) and (14).
0 [i, j] is calculated, but the luminance Y at the pixel position where the R, G, and B color data exists is calculated by the following equation (23).
[I, j] is calculated, and using this luminance, the following equations (24) and (2)
The vertical similarity Dv0 [i, j] and the horizontal similarity Dh0 [i, j] may be calculated according to 5).

【数9】 (Equation 9)

【0052】−第二の実施の形態− 第二の実施の形態は、単板補間後の画像データの下記合
成手順〜の各々が第一の実施の形態による合成手順
と異なる。この実施の形態による合成手順は、単板補間
後の2組の画像データに対して、データの配置、類
似度の算出、類似方向の分類、類似方向を利用した
重み付け平均により行われる。また、第二の実施の形態
では、撮像素子214aおよび214bが異なる露光条
件で露光される。
Second Embodiment In the second embodiment, each of the following synthesis procedures of image data after single-plate interpolation differs from the synthesis procedure according to the first embodiment. The synthesizing procedure according to this embodiment is performed by arranging data, calculating similarity, classifying similar directions, and performing weighted averaging using similar directions for two sets of image data after single-plate interpolation. In the second embodiment, the image sensors 214a and 214b are exposed under different exposure conditions.

【0053】−単板補間後の画像データの合成− 第二の実施の形態も第一の実施の形態と同様に、単板補
間後の撮像素子214aおよび撮像素子214bによる
画像データに対してそれぞれ先に階調変換を行ってから
1つの画像に合成する場合と、単板補間後の撮像素子2
14aおよび撮像素子214bによる画像データを1つ
の画像データに合成してから階調変換を行う場合のいず
れの場合にも対応できる。
-Synthesis of Image Data after Single-Chip Interpolation- In the second embodiment, as in the first embodiment, the image data from the image pickup device 214a and the image pickup device 214b after single-plate interpolation are respectively applied. A case where the image is first combined with a single image after performing the gradation conversion,
It is possible to cope with any case where the image data by the image pickup device 14a and the image sensor 214b is combined into one image data and then the gradation conversion is performed.

【0054】図15(a)、(b)は撮像素子214aおよ
び214bによる画像データの単板補間後の画素ならび
を示す図である。データの配置は、図15(a)の画素デ
ータに図15(b)の画像データを縦および横方向にそれ
ぞれ1/2画素ピッチずらして重ねる。図15(c)に示
すように、重ねられた1/2画素ピッチで囲まれた重な
り部分ごとに、その重なり部分を構成するデータの平均
で表す。たとえば、1/2画素ピッチで囲まれた重なり
の左上部分を例にとれば、画素データ111と画素デー
タ211により構成されるので、(111+211)/2
と表す。1/2画素ピッチで囲まれた重なり部分は、倍
密度画素面上における1画素に相当する。
FIGS. 15A and 15B are diagrams showing pixels after single-chip interpolation of image data by the image pickup devices 214a and 214b. The arrangement of the data is such that the image data of FIG. 15B is superimposed on the pixel data of FIG. As shown in FIG. 15C, each overlapping portion surrounded by the overlapped 1/2 pixel pitch is represented by an average of data constituting the overlapping portion. For example, taking the upper left portion of the overlap surrounded by the half pixel pitch as an example, since it is composed of pixel data 111 and pixel data 211, (111 + 211) / 2
It expresses. The overlapping portion surrounded by the half pixel pitch corresponds to one pixel on the double density pixel surface.

【0055】図16は、2組の画像データの平均値によ
り配置された図15(c)の配置データの位置を表す図で
ある。類似度算出は、たとえば図16において座標[i,
j]で示される位置に対して、座標[i,j]を中心として
データ配列の縦方向、横方向、斜め45度方向および斜
め135度方向の4方向に配置されたデータとの間に類
似性があるか否かを調べるために行われる。座標[i,
j]に関する縦方向の類似度Dv[i,j]が次式(26)で、
座標[i,j]に関する横方向の類似度Dh[i,j]が次式
(27)で算出され、座標[i,j]に関する斜め45度方
向の類似度D45[i,j]が次式(28)で、座標[i,j]に
関する斜め135度方向の類似度D135[i,j]が次式(2
9)で算出される。なお、図16においてRGBと記載され
ているところは、この座標位置でR、G、B各色のデー
タが上述した単板補間とデータ配置処理によりメモリ上
に存在することを表す。
FIG. 16 is a diagram showing the positions of the arrangement data shown in FIG. 15C arranged based on the average value of the two sets of image data. The similarity calculation is performed, for example, by using coordinates [i,
j] is similar to the data arranged in four directions of the data array in the vertical direction, the horizontal direction, the 45 ° diagonal direction, and the 135 ° diagonal direction with the coordinate [i, j] as the center. This is done to see if there is any potential. Coordinates [i,
j], the vertical similarity Dv [i, j] is given by the following equation (26).
The horizontal similarity Dh [i, j] for coordinates [i, j] is
The similarity D45 [i, j] of the coordinate [i, j] in the diagonal 45-degree direction is calculated by (27), and the similarity D135 of the coordinate [i, j] in the diagonal 135-degree direction is calculated by the following equation (28). [I, j] is given by the following equation (2)
It is calculated in 9). In FIG. 16, the description “RGB” indicates that the data of each color of R, G, and B exists in the memory at the coordinate position by the above-described single-chip interpolation and the data arrangement processing.

【数10】 (Equation 10)

【0056】上式(26)〜(29)は、各色のデータを用
いて隣接する同色成分同士を比較し、方向性を検出する
ものである。上式(26)〜(29)により得られる各方向
の類似度を各座標ごとに算出し、算出された各方向の類
似度から類似性の方向を分類する。単板補間の場合と同
様に、算出された類似度が小さいほど、その方向におけ
るデータの類似性が強くなる。したがって、各座標ごと
に算出された各方向の類似度のうち最小となる類似度Dm
in[i,j]を検出する。画素データの出力に含まれるノ
イズによる誤判定を避けるために、各座標ごとに算出さ
れた各方向の類似度のうち最大となる類似度Dmax[i,
j]を検出して、DmaxとDmin との差が所定値T3より大
きいか否かを検出する。図17は類似方向を分類する表
である。上記の差が所定値T3より大きく、かつ最小類
似度Dmin[i,j]が縦類似度Dv[i,j]であるとき、縦方
向に類似性が強いと判定し(case1)、上記の差が所定値
T3より大きく、かつ最小類似度Dmin[i,j]が横類似
度Dh[i,j]であるとき、横方向に類似性が強いと判定
する(case2)。
The above equations (26) to (29) are used to detect the directionality by comparing adjacent same color components using the data of each color. The similarity in each direction obtained by the above equations (26) to (29) is calculated for each coordinate, and the similarity direction is classified based on the calculated similarity in each direction. As in the case of single-plate interpolation, the smaller the calculated similarity, the stronger the similarity of the data in that direction. Therefore, the minimum similarity Dm among the similarities in each direction calculated for each coordinate is Dm.
in [i, j] is detected. In order to avoid an erroneous determination due to noise included in the output of the pixel data, the maximum similarity Dmax [i,
j] to detect whether the difference between Dmax and Dmin is greater than a predetermined value T3. FIG. 17 is a table for classifying similar directions. When the difference is larger than the predetermined value T3 and the minimum similarity Dmin [i, j] is the vertical similarity Dv [i, j], it is determined that the similarity is strong in the vertical direction (case 1). When the difference is larger than the predetermined value T3 and the minimum similarity Dmin [i, j] is the horizontal similarity Dh [i, j], it is determined that the similarity is strong in the horizontal direction (case 2).

【0057】また、Dmax[i,j]とDmin[i,j]との差が
所定値T3より大きく、かつ最小類似度Dmin[i,j]が
斜め45度類似度D45[i,j]であるとき、斜め45度方
向に類似性が強いと判定し(case3)、上記の差が所定値
T3より大きく、かつ最小類似度Dmin[i,j]が斜め1
35度類似度D135[i,j]であるとき、斜め135度方
向に類似性が強いと判定する(case4)。Dmax[i,j]とDm
in[i,j]との差が所定値T3以下の場合は、全ての方
向に類似すると判定する(case5)。所定値T3は、類似
度の算出値が0〜255の範囲に規格化されていると
き、通常露光レベルでは0〜5程度に設定する。
Further, the difference between Dmax [i, j] and Dmin [i, j] is larger than a predetermined value T3, and the minimum similarity Dmin [i, j] is a diagonal 45-degree similarity D45 [i, j]. , It is determined that the similarity is strong in the 45-degree diagonal direction (case 3), the difference is larger than the predetermined value T3, and the minimum similarity Dmin [i, j] is 1
When the degree of similarity is 35 degrees D135 [i, j], it is determined that the similarity is strong in the diagonal 135 degrees direction (case 4). Dmax [i, j] and Dm
When the difference from in [i, j] is equal to or smaller than the predetermined value T3, it is determined that the directions are similar in all directions (case 5). When the calculated value of the similarity is standardized in the range of 0 to 255, the predetermined value T3 is set to about 0 to 5 at the normal exposure level.

【0058】分類した類似方向を利用して、対象とする
画素データについて、類似方向に隣接する画像データと
の間で重み付け平均により画素データを再合成する。た
とえば図16の座標[i,j]で示される位置に対して、
縦方向類似と判定された場合は次式(30)〜(32)によ
り算出し、横方向類似と判定された場合は次式(33)〜
(35)により算出し、斜め45度方向類似と判定された
場合は次式(36)〜(38)により算出し、斜め135度
方向類似と判定された場合は次式(39)〜(41)により
算出する。
Using the classified similar direction, the target pixel data is re-synthesized by weighted average with the image data adjacent in the similar direction. For example, for a position indicated by coordinates [i, j] in FIG.
When it is determined to be similar in the vertical direction, it is calculated by the following equations (30) to (32).
(35), when it is determined to be similar in the diagonal direction of 45 degrees, it is calculated by the following formulas (36) to (38). ).

【数11】 [Equation 11]

【0059】類似の方向が全方向と分類された場合は、
上式(30)〜(32)および(33)〜(35)により各色の
重み付け平均値をそれぞれ算出し、各色ごとに、算出さ
れた2つの重み付け平均値を再平均して画素データの再
合成値とする。なお、上式(30)〜(41)による再合成
のループ処理は、各画素データの処理が終わるたびに各
画素のR,G,Bデータを上書きする方式と、ループ処
理が終わるまで上書きせずに結果を別のバッファメモリ
に保存しておく方式の2つが考えられるが、どちらの方
式で行ってもよい。
If a similar direction is classified as all directions,
The weighted average value of each color is calculated by the above equations (30) to (32) and (33) to (35), and the calculated two weighted average values are reaveraged for each color to re-synthesize pixel data. Value. Note that the re-synthesis loop processing according to the above equations (30) to (41) includes a method of overwriting the R, G, and B data of each pixel each time the processing of each pixel data ends, and a method of overwriting until the loop processing ends. There are two methods of storing the result in another buffer memory without using it, but either method may be used.

【0060】以上説明したように画像合成処理は次の
〜によるので、合成前の画像データの画素ならびに対
して縦横各2倍の解像度を有する倍密度の画像データが
合成される。 撮像素子214aによる画像データの画素ならび(図
15(a))および撮像素子214bによる画像データの
画素ならび(図15(b))を縦横1/2画素ピッチずらし
て重ねる。 1/2画素ピッチで囲まれた重なり部分ごとに、その
重なり部分を構成するデータの平均を算出する。 算出されたデータの平均値を類似度の方向性を用いて
再合成する。
As described above, since the image synthesizing process is as follows, double-density image data having twice the vertical and horizontal resolution with respect to the pixels of the image data before the synthesis are synthesized. The pixel sequence of the image data by the image sensor 214a (FIG. 15A) and the pixel sequence of the image data by the image sensor 214b (FIG. 15B) are shifted with a pitch of 1/2 pixel vertically and horizontally. For each overlapping portion surrounded by a 1/2 pixel pitch, an average of data constituting the overlapping portion is calculated. The average value of the calculated data is recombined using the directionality of the similarity.

【0061】−ワイドダイナミックレンジ− 上述したように、第二の実施の形態においては、撮像素
子214aおよび214bの露光条件を変えて撮像す
る、いわゆるワイドダイナミックレンジ撮影を行うもの
である。図18は撮像装置の入力値と出力値との関係を
示す図である。曲線Aは標準の露光条件における撮像装
置の入力値と出力値の関係を示す曲線であり、出力値は
撮像装置の出力をA/D変換してガンマ補正を施した後
の値である。標準の露光条件では、均一な18%の反射
率を有する被写体(標準反射板と呼ぶ)を撮影したとき、
出力値が次式(42)、(43)を満足するように標準露光
時間t0が決められる。
-Wide Dynamic Range- As described above, in the second embodiment, so-called wide dynamic range photographing is performed in which an image is taken while changing the exposure conditions of the image pickup devices 214a and 214b. FIG. 18 is a diagram illustrating a relationship between an input value and an output value of the imaging device. A curve A is a curve showing a relationship between an input value and an output value of the imaging device under standard exposure conditions, and the output value is a value after performing an A / D conversion of the output of the imaging device and performing gamma correction. Under a standard exposure condition, when a subject having a uniform reflectance of 18% (called a standard reflector) is photographed,
The standard exposure time t0 is determined so that the output value satisfies the following equations (42) and (43).

【数12】 上式によれば、撮像装置への入力値が1024となる被
写体を撮影したとき、撮像装置からの出力値が256と
して記録される。
(Equation 12) According to the above equation, when a subject whose input value to the imaging device is 1024 is photographed, the output value from the imaging device is recorded as 256.

【0062】曲線Bは、撮像素子の露光時間t1をt0/
2とした場合の撮像装置の入力値と出力値の関係を示す
曲線である。曲線Aに比べて露光量が半分になるので、
露光時間t0の場合の2倍である入力値2048となる
被写体を撮影したとき、撮像装置からの出力値が256
として記録される。曲線Cは、撮像素子の露光時間をt
2とした場合の撮像装置の入力値と出力値の関係を示す
曲線である。露光時間t2の値は、次式(44)を満たす
ように決定される。
The curve B indicates that the exposure time t1 of the image sensor is t0 /
4 is a curve showing a relationship between an input value and an output value of the imaging device when the number is 2. Since the exposure amount is halved compared to the curve A,
When a subject having an input value of 2048, which is twice as long as the exposure time t0, is photographed, the output value from the imaging device becomes 256
Is recorded as Curve C represents the exposure time of the image sensor at t.
6 is a curve showing the relationship between the input value and the output value of the imaging device when the value is 2. The value of the exposure time t2 is determined so as to satisfy the following equation (44).

【数13】 上式により、露光時間t2=1.67・t0が算出される。すな
わち、入力値が128である標準反射板を撮影した場合
に、露光時間t1=t0/2とする撮像装置(曲線B)およ
び露光時間t2=1.67・t0とする撮像装置(曲線C)からガ
ンマ補正後に出力される2つの出力値の平均が、標準露
光条件における撮像装置の出力値(曲線A)と等しくなる
ように露光時間t2が算出される。曲線Cは曲線Aに比
べて露光量が1.67倍になるので、露光時間t0の場
合の1/1.67倍の入力値614となる被写体を撮影
したとき、出力値が256として記録される。
(Equation 13) The exposure time t2 = 1.67 · t0 is calculated by the above equation. That is, when a standard reflector having an input value of 128 is photographed, the gamma is obtained from the image pickup device (curve B) with the exposure time t1 = t0 / 2 and the image pickup device (curve C) with the exposure time t2 = 1.67 · t0. The exposure time t2 is calculated so that the average of the two output values output after the correction becomes equal to the output value (curve A) of the imaging device under the standard exposure condition. Since the exposure amount of the curve C is 1.67 times as large as that of the curve A, the output value is recorded as 256 when a subject having an input value 614 of 1 / 1.67 times the exposure time t0 is photographed. You.

【0063】第二の実施の形態では、撮像素子214a
の露光時間をt1で、撮像素子214bの露光時間をt2
で露光する。そして、上述した合成手順により合成を行
うことにより、曲線Dに示すような撮像素子214a
(曲線B)および撮像素子214b(曲線C)による出力値
を合成した値が得られる。曲線Dに示されるように、撮
像装置の入力値が200以下となるような低輝度の入力
のとき、標準露光条件で露光した曲線Aの出力値と同等
の出力値となり、撮像装置の入力値が200を超える高
輝度の入力のとき、標準露光条件で露光した曲線Aの出
力値より低く抑えられた出力値となり、ダイナミックレ
ンジが広がる。
In the second embodiment, the image pickup device 214a
Is the exposure time of t1, and the exposure time of the image sensor 214b is t2.
Exposure. Then, by performing the synthesis according to the above-described synthesis procedure, the image sensor 214 a
(Curve B) and the output value of the image sensor 214b (Curve C) are combined. As shown in the curve D, when the input value of the imaging device is low such that the input value of the imaging device is 200 or less, the output value is equivalent to the output value of the curve A exposed under the standard exposure condition, and the input value of the imaging device is Is higher than 200, the output value becomes lower than the output value of the curve A exposed under the standard exposure condition, and the dynamic range is widened.

【0064】曲線Cの撮像素子214bによる画像デー
タの出力値が255を超えない範囲では、上述したよう
に合成することにより解像度が合成前の画像データの画
素ならびに対して縦横各2倍になる。また、撮像素子2
14bによる画像データの出力値が256の飽和レベル
に達したあとでも、撮像素子214aによる画像データ
の出力値は256以下で飽和レベルとならずに撮像素子
214aの入力値に応じた値を出力するので、撮像素子
214aおよび214bによる画像データの出力値を合
成した曲線Dは、入力値が2048となるまで連続した
値となる。なお、図15(c)を参照して上述したよう
に、2つの撮像素子214aおよび214bによる出力
データを重ねたとき、重ねられた1/2画素ピッチで囲
まれた重なり部分ごとに、その重なり部分を構成する双
方の撮像素子によるデータを平均したので、この実施の
形態による合成の結果は上記2つの撮像素子から出力さ
れる出力値の平均値である。
In the range where the output value of the image data by the image sensor 214b of the curve C does not exceed 255, the resolution is doubled in the vertical and horizontal directions with respect to the pixels of the image data before the synthesis by combining as described above. Also, the image sensor 2
Even after the output value of the image data by 14b reaches the saturation level of 256, the output value of the image data by the image sensor 214a is 256 or less and does not reach the saturation level and outputs a value corresponding to the input value of the image sensor 214a. Therefore, the curve D obtained by synthesizing the output values of the image data from the image sensors 214a and 214b is a continuous value until the input value becomes 2048. As described above with reference to FIG. 15C, when the output data from the two image sensors 214a and 214b are overlapped, the overlap is determined for each overlapped portion surrounded by the overlapped 1/2 pixel pitch. Since the data from both image sensors constituting the portion are averaged, the result of the combination according to this embodiment is the average value of the output values output from the two image sensors.

【0065】上述した露光時間決定を含む露光・画像処
理を、図19のフローチャートを参照して説明する。図
19による処理は、半押しスイッチで起動される図14
に示すプログラムのフローチャートにおいて、ステップ
S16で撮影レンズ1がレンズ駆動回路430により合
焦位置へ駆動された後行われる。図19において、全押
し操作信号が入力されたと判定される(ステップS10
1のY)と、図1のクイックリターンミラー3が跳ね上
げられ、ステップS102に続く撮影シーケンスが実行
される。一方、全押し操作信号が入力されないと判定さ
れたとき(ステップS101のN)は、全押し操作信号の
入力が待たれる。
The exposure / image processing including the above-described exposure time determination will be described with reference to the flowchart of FIG. The process shown in FIG. 19 is started by a half-press switch.
In the flowchart of the program shown in FIG. 7, the processing is performed after the photographing lens 1 is driven to the in-focus position by the lens driving circuit 430 in step S16. In FIG. 19, it is determined that the full-press operation signal has been input (step S10).
1), the quick return mirror 3 of FIG. 1 is flipped up, and a shooting sequence subsequent to step S102 is executed. On the other hand, when it is determined that the full-press operation signal is not input (N in step S101), the input of the full-press operation signal is waited.

【0066】ステップS102では、図2のシャッター
板208の全光束を通過させる開口部208bが光路上
にセットされ、撮像素子214aおよび撮像素子214
bからの出力に基づいて、被写体の輝度が測られる。ス
テップS103において、測定された被写体輝度に基づ
いて、適正な露出が得られるように基準露光時間t0お
よび絞り値が計算される。基準露光時間t0を1/2倍
した撮像素子214aの露光時間t1がステップS10
4で算出され、上式(41)により基準露光時間t0を
1.67倍した撮像素子214bの露光時間t2がステ
ップS105で算出される。ステップS106におい
て、上記ステップS103で計算された絞り値に基づい
て絞り板215上の開口部215a〜215hのいずれ
かが光路上にセットされ、撮像素子214aおよび21
4bの露光動作が行われる。露光時間の制御は、撮像素
子214a、214bに蓄積された電荷を排出してか
ら、次のステップS107において撮像素子214a、
214bから信号電荷を読出すまでの時間がそれぞれ露
光時間t1、t2となるように制御される。したがって、
先ず撮像素子214bに蓄積された電荷が排出され、続
いて撮像素子214aに蓄積された電荷が排出されるこ
とにより、各々の撮像素子で電荷の蓄積が開始される。
In step S102, the opening 208b of the shutter plate 208 shown in FIG. 2 through which all light beams pass is set on the optical path, and the image pickup device 214a and the image pickup device 214
The brightness of the subject is measured based on the output from b. In step S103, the reference exposure time t0 and the aperture value are calculated based on the measured subject luminance so that an appropriate exposure is obtained. The exposure time t1 of the image sensor 214a obtained by multiplying the reference exposure time t0 by 1/2 is determined in step S10.
4, and the exposure time t2 of the image sensor 214b obtained by multiplying the reference exposure time t0 by 1.67 by the above equation (41) is calculated in step S105. In step S106, one of the openings 215a to 215h on the aperture plate 215 is set on the optical path based on the aperture value calculated in step S103, and the image pickup devices 214a and 214
The exposure operation of 4b is performed. The exposure time is controlled by discharging the charges accumulated in the imaging elements 214a and 214b, and then controlling the exposure time in the next step S107.
Control is performed so that the time until the signal charge is read out from 214b becomes the exposure time t1, t2, respectively. Therefore,
First, the charge stored in the image sensor 214b is discharged, and then the charge stored in the image sensor 214a is discharged, so that charge storage is started in each image sensor.

【0067】露光終了後、ステップS107でシャッタ
ー板208上の完全遮光部208aが光路上にセットさ
れ、撮像素子214aから画像信号が読み出されてDS
P433aで所定の画像処理が行われる。ステップS1
08で撮像素子214bから画像信号が読み出されてD
SP433bで所定の画像処理が行われる。ステップS
109において、それぞれ画像処理が行われた画像デー
タに対して上述した単板補間と合成処理が行われる。合
成された画像データが所定のフォーマットにより圧縮さ
れ、圧縮された画像データがメモリカード424に記録
されて(ステップS110)図19による処理が終了す
る。
After the exposure is completed, in step S107, the complete light-shielding portion 208a on the shutter plate 208 is set on the optical path, and an image signal is read out from the image pickup device 214a to obtain a DS.
Predetermined image processing is performed in P433a. Step S1
08, the image signal is read from the image sensor 214b and D
Predetermined image processing is performed in SP433b. Step S
In 109, the above-described single-chip interpolation and synthesis processing are performed on the image data on which the image processing has been performed. The synthesized image data is compressed according to a predetermined format, and the compressed image data is recorded on the memory card 424 (step S110), and the processing in FIG. 19 ends.

【0068】以上説明した第二の実施の形態では次のよ
うな作用効果が得られる。 (1)図15(c)に示されるように、2つの撮像素子2
14aおよび214bによる出力データを重ねて、重ね
られた1/2画素ピッチで囲まれた重なり部分を構成す
る2つの撮像素子によるデータを加算して平均するよう
にした。したがって、2つの撮像素子間に露光条件や出
力値に差が生じている場合でも、合成された画像データ
に2つの撮像素子214aおよび214b間の出力値差
に起因したのこぎり状のギザギザが現れることがなく、
高品位な画像データが得られる。また、加算することに
より、各撮像素子で撮像された画像データに含まれるシ
ョットノイズ成分を1/√2にできるから画像データの
S/N比を向上できる。 (2)単板補間後の2つの撮像素子214aおよび21
4bによる画像データの合成時に、類似の方向性を考慮
して位相の異なる単板4画素データを重み付け平均する
ことにより1画素データを合成するようにした。したが
って、撮像される絵柄が撮像素子単板のナイキスト周波
数以上の高い周波数成分をもつ場合でも、単板補間され
た2つの撮像素子214aおよび214bによる画像デ
ータの一方に正しく解像したデータが含まれていれば、
類似の方向性を判定することができる。この結果、単板
補間後の一方の撮像素子による画像データにおいて、ナ
イキスト周波数以上の周波数成分をもつ絵柄に関して不
正確な部分が生じても、この影響を修正する効果が得ら
れる。すなわち、方向判定された方向に沿ってローパス
フィルタ処理が行われることにより、偽色の生じていた
データが修正され、高品位な画像が得られる。
In the second embodiment described above, the following operation and effect can be obtained. (1) As shown in FIG.
The output data of 14a and 214b are superimposed, and the data of the two image sensors constituting the overlapped portion surrounded by the superimposed 1/2 pixel pitch are added and averaged. Therefore, even when there is a difference between the exposure conditions and the output value between the two image sensors, a saw-toothed jagged appearance due to the output value difference between the two image sensors 214a and 214b appears in the combined image data. Without
High quality image data can be obtained. Also, by adding, the shot noise component included in the image data captured by each image sensor can be reduced to 1 / √2, so that the S / N ratio of the image data can be improved. (2) Two image sensors 214a and 21 after single-plate interpolation
At the time of combining the image data by 4b, one pixel data is combined by weighting and averaging single-plate four-pixel data having different phases in consideration of similar directionality. Therefore, even when the image to be imaged has a high frequency component equal to or higher than the Nyquist frequency of the single image sensor, the correctly resolved data is included in one of the image data of the two image sensors 214a and 214b interpolated by the single image. If you have
A similar directionality can be determined. As a result, even if an inaccurate portion of a picture having a frequency component equal to or higher than the Nyquist frequency occurs in the image data obtained by one of the image sensors after the single-chip interpolation, an effect of correcting this effect can be obtained. That is, by performing the low-pass filter processing along the determined direction, the data in which the false color has occurred is corrected, and a high-quality image is obtained.

【0069】(3)撮像素子214aを標準露光時間t
0の1/2倍の露光時間t1で露光し、撮像素子214b
を標準露光時間t0の1.67倍の露光時間t2で露光し
て、これら2つの撮像素子による画像データを合成する
ようにした。したがって、低輝度の被写体を撮影した場
合は標準露光時間t0の場合と同等の画像データの出力
値を得ることができ、高輝度の被写体を撮影した場合は
画像データの出力値が抑えられ、標準露光時間t0で露
光した場合に比べてより高い輝度の被写体を撮影するこ
とが可能になり、ダイナミックレンジを広げることがで
きる。
(3) The standard exposure time t
Exposure is performed for an exposure time t1 that is 1/2 of 0, and the image sensor 214b is exposed.
Is exposed for an exposure time t2 that is 1.67 times the standard exposure time t0, so that image data from these two imaging elements is synthesized. Therefore, when a low-luminance subject is photographed, an output value of image data equivalent to the case of the standard exposure time t0 can be obtained, and when a high-luminance subject is photographed, the output value of the image data is suppressed. As compared with the case where the exposure is performed at the exposure time t0, it is possible to photograph a subject having a higher luminance, and the dynamic range can be expanded.

【0070】上述した説明では、上式(26)〜(29)を
用いて4方向の類似度Dv[i,j]、Dh[i,j]、D45[i,
j]およびD135[i,j]を算出するようにしたが、次式
(45)により各画素位置について輝度Y[i,j]を算出し
て、この輝度を用いて次式(46)〜(49)により各方向
の類似度Dv[i,j]、Dh[i,j]、D45[i,j]およびD135
[i,j]を算出するようにしてもよい。
In the above description, the four directions of similarity Dv [i, j], Dh [i, j], D45 [i,
j] and D135 [i, j] are calculated,
The luminance Y [i, j] is calculated for each pixel position according to (45), and the similarities Dv [i, j] and Dh [i in each direction are calculated using the luminance according to the following equations (46) to (49). , j], D45 [i, j] and D135
[I, j] may be calculated.

【数14】 [Equation 14]

【0071】また、Dmax[i,j]とDmin[i,j]との差が
所定値T3以下の場合は、全ての方向に類似すると判定
する(case5)ようにしたが、簡単に判定処理を行うため
に、Dmax[i,j]を算出しないで、|Dv[i,j]-Dh[i,
j]|≦T3かつ|D45[i,j]-D135[i,j]|≦T3と
なる場合に全ての方向に類似すると判定するようにして
もよい。
When the difference between Dmax [i, j] and Dmin [i, j] is equal to or smaller than a predetermined value T3, it is determined that the directions are similar in all directions (case 5). To calculate | Dv [i, j] -Dh [i,
j] | ≦ T3 and | D45 [i, j] −D135 [i, j] | ≦ T3, it may be determined to be similar in all directions.

【0072】−第三の実施の形態− 上述したデジタルスチルカメラ100の表示LCD22
0への表示動作について説明する。デジタルスチルカメ
ラ100で最終的にメモリカード424に記録される画
像データは、2つの撮像素子214aおよび214bで
それぞれ撮像された画像データを合成したものである。
しかし、デジタルスチルカメラ100にファインダー表
示やモニタ表示を行うために表示LCD220が備えら
れている場合には、撮影前の画像および撮影後の画像を
上記LCD220上に表示させることができる。
Third Embodiment Display LCD 22 of digital still camera 100 described above.
The display operation to 0 will be described. The image data finally recorded on the memory card 424 by the digital still camera 100 is obtained by synthesizing the image data captured by the two image sensors 214a and 214b.
However, when the digital still camera 100 is provided with the display LCD 220 for performing viewfinder display and monitor display, an image before shooting and an image after shooting can be displayed on the LCD 220.

【0073】−画像データの表示− 図20は、本実施の形態におけるデジタルスチルカメラ
100で、表示LCD220上に画像データ表示を行う
処理を説明するフローチャートである。ステップS40
1において、デジタルスチルカメラ100が記録モード
/再生モードのいずれに設定されているかが判定され
る。デジタルスチルカメラ100がモード切換えスイッ
チにより記録モードに設定されていると判定される(ス
テップS401の記録モード側)と、ステップS402
で半押し操作信号が入力されたか否かが判定される。一
方、デジタルスチルカメラ100が再生モードに設定さ
れていると判定される(ステップS401の再生モード
側)とステップS411に進む。ステップS402で半
押し操作信号が入力されたと判定される(ステップS4
02のY)とステップS403へ進み、入力されていな
いと判定されるとき(ステップS402のN)は半押し操
作信号が入力されるのを待つ。
-Display of Image Data- FIG. 20 is a flowchart illustrating a process of displaying image data on the display LCD 220 in the digital still camera 100 according to the present embodiment. Step S40
At 1, it is determined whether the digital still camera 100 is set to a recording mode or a reproduction mode. When it is determined that the digital still camera 100 has been set to the recording mode by the mode changeover switch (the recording mode side in step S401), step S402 is performed.
It is determined whether or not a half-press operation signal has been input. On the other hand, when it is determined that the digital still camera 100 is set to the playback mode (the playback mode side of step S401), the process proceeds to step S411. It is determined in step S402 that the half-press operation signal has been input (step S4
The process proceeds to step S403 and the process proceeds to step S403. When it is determined that no input has been made (N in step S402), the process waits for the input of a half-press operation signal.

【0074】ステップS403では撮像素子214aの
出力に基づいた画像データがDSP433aに取り込ま
れる。DSP433aに取り込まれた画像データは、撮
像素子214a上の各画素位置におけるR色、G色、B
色のデータを算出する画素補間処理を含む所定の画像処
理が施されると一旦バッファメモリ436aに記憶され
たのち、フレームメモリ435に記憶されて表示LCD
220に表示される(ステップS404)。このとき表示
される画像は、スルー画像と呼ばれる撮影前のモニター
用の被写体画像である。ステップS405では、撮像素
子214a、214bからの出力に基づいて、適正な露
出が得られるように撮像素子214a、214bの露光
時間および絞り値が計算される。撮像素子214aおよ
び214bが所定時間露光され、撮像素子214aおよ
び214bからの出力に基づいた2つの画像データが比
較演算され、前述したような瞳分割による焦点検出が行
われる(ステップS406)。そして、得られた焦点検出
データに基づいて撮影レンズ1のフォーカシングレンズ
がレンズ駆動回路430により合焦位置へ駆動される。
In step S403, image data based on the output of the image sensor 214a is taken into the DSP 433a. The image data captured by the DSP 433a includes R, G, and B colors at each pixel position on the image sensor 214a.
When predetermined image processing including pixel interpolation processing for calculating color data is performed, the predetermined image processing is temporarily stored in the buffer memory 436a, and then stored in the frame memory 435 to be displayed on the display LCD.
Displayed at 220 (step S404). The image displayed at this time is a monitor subject image before shooting called a through image. In step S405, the exposure times and the aperture values of the image sensors 214a and 214b are calculated based on the outputs from the image sensors 214a and 214b so that appropriate exposure is obtained. The image sensors 214a and 214b are exposed for a predetermined time, two image data based on the outputs from the image sensors 214a and 214b are compared, and focus detection by pupil division is performed as described above (step S406). Then, based on the obtained focus detection data, the focusing lens of the photographing lens 1 is driven to the in-focus position by the lens driving circuit 430.

【0075】全押し操作信号が入力されたと判定される
(ステップS407のY)と、クイックリターンミラー3
が跳ね上がり、ステップS408の撮影処理が実行され
る。一方、全押し操作信号が入力されないと判定された
とき(ステップS407のN)は、ステップS402に戻
る。ステップS408では、シャッター板208の全光
束を通過させる開口部208bが光路上にセットされ、
ステップS405で計算された値に基づいて絞り板21
5上の開口部215a〜215hのいずれかが光路上に
セットされると、撮像素子214aおよび214bが所
定時間露光される。
It is determined that the full-press operation signal has been input.
(Y in step S407) and the quick return mirror 3
Jumps up, and the photographing process in step S408 is executed. On the other hand, when it is determined that the full-press operation signal is not input (N in step S407), the process returns to step S402. In step S408, an opening 208b of the shutter plate 208 through which all light beams pass is set on the optical path,
Aperture plate 21 based on the value calculated in step S405
When any of the openings 215a to 215h on the optical path 5 is set on the optical path, the image sensors 214a and 214b are exposed for a predetermined time.

【0076】ステップS409において、撮像素子21
4aおよび214bから読み出された画像信号に対する
所定の画像処理がDSP433a,433bでそれぞれ
同時に行われ、2つの撮像素子による画像処理後の画像
データが1つの画像データに合成される。画像処理およ
び合成処理後の被写体画像が表示LCD220に表示さ
れる。この表示画像は、フリーズ画像と呼ばれる撮影さ
れた被写体画像である。そして、画像処理後の画像デー
タは、たとえば、JPEGなどの所定のフォーマットに
より圧縮されたデータがメモリカード424に記録され
る。
In step S409, the image sensor 21
The DSP 433a and 433b simultaneously perform predetermined image processing on the image signals read from the 4a and 214b, respectively, and combine the image data after the image processing by the two imaging elements into one image data. The subject image after the image processing and the synthesis processing is displayed on display LCD 220. This display image is a photographed subject image called a freeze image. As the image data after the image processing, for example, data compressed in a predetermined format such as JPEG is recorded on the memory card 424.

【0077】ステップS410では記録/再生モードが
変更されたか否かが判定され、再生モードに変更された
と判定されたとき(ステップS410のY)は、ステップ
S411に進む。記録モードのままであると判定された
とき(ステップS410のN)はステップS402に戻
る。ステップS411で最後にメモリカード424に記
録された合成画像データが表示LCD220上に表示さ
れると、他のコマの表示を行うためにキー操作が行われ
たか否かが判定される(ステップS412)。キー操作が
行われていないと判定される(ステップS412のN)と
ステップS411で行われた表示が続けられ、キー操作
が行われたと判定される(ステップS412のY)とキー
操作に従ったコマの画像、たとえば、最初に記録された
コマの画像が表示LCD220上に表示される(ステッ
プS413)。ステップS414で再び記録/再生モー
ドが変更されたか否かが判定され、記録モードに変更さ
れたと判定されたとき(ステップS414のY)はステッ
プS402に戻り、再生モードのままであると判定され
たとき(ステップS414のN)はステップS412に戻
る。
In step S410, it is determined whether or not the recording / reproducing mode has been changed. If it is determined that the mode has been changed to the reproducing mode (Y in step S410), the process proceeds to step S411. When it is determined that the recording mode is maintained (N in step S410), the process returns to step S402. When the composite image data finally recorded on the memory card 424 is displayed on the display LCD 220 in step S411, it is determined whether or not a key operation has been performed to display another frame (step S412). . When it is determined that no key operation is performed (N in step S412), the display performed in step S411 is continued, and when it is determined that the key operation is performed (Y in step S412), the key operation is performed. The image of the frame, for example, the image of the first recorded frame is displayed on display LCD 220 (step S413). In step S414, it is determined whether the recording / playback mode has been changed again. When it is determined that the mode has been changed to the recording mode (Y in step S414), the process returns to step S402, and it is determined that the playback mode is maintained. At this time (N in step S414), the process returns to step S412.

【0078】以上説明した第三の実施の形態では次のよ
うな作用効果が得られる。 (1)撮影前のスルー画像を表示するときは、2つの撮像
素子のうちいずれか一方の撮像素子から出力される画像
信号に基づいて表示LCD220上に表示し、撮影後の
フリーズ画像を表示するときは、2つの撮像素子からの
画像信号を合成して表示するようにしたので、スルー画
表示時は2つの撮像素子からの画像信号を合成する合成
処理が不要になり、迅速な表示を行うことができる。 (2)撮影後のフリーズ画像を表示するときは、2つの撮
像素子による画像データを合成して表示LCD220上
に表示するようにしたので、LCD220が十分な表示
解像度を有する場合は、解像度が高い高品位なフリーズ
画像を表示することが可能になる。
In the third embodiment described above, the following operation and effect can be obtained. (1) When displaying a through-the-lens image before shooting, the live view is displayed on the display LCD 220 based on an image signal output from one of the two image sensors, and a frozen image after the image is displayed. In this case, since the image signals from the two image sensors are combined and displayed, the combining process of combining the image signals from the two image sensors is not required during live view display, and quick display is performed. be able to. (2) When displaying a frozen image after shooting, image data from the two image sensors is combined and displayed on the display LCD 220. Therefore, if the LCD 220 has a sufficient display resolution, the resolution is high. A high-quality freeze image can be displayed.

【0079】以上の説明では、ステップS403におい
て撮像素子214aの出力に基づいた画像データをDS
P433aに取り込むことにより、撮影前の画像を表示
LCD220に表示する(ステップS404)ようにした
が、撮像素子214aの代わりに撮像素子214bの出
力に基づいて行うようにしてもよい。
In the above description, in step S403, the image data based on the output of the
Although the image before photographing is displayed on the display LCD 220 by taking it into the P433a (step S404), the image may be performed based on the output of the image sensor 214b instead of the image sensor 214a.

【0080】また、上記の説明では、ステップS409
において、撮像素子214aおよび214bから読み出
された画像信号に対する所定の画像処理をDSP433
a,433bでそれぞれ同時に行い、2つの撮像素子に
よる画像処理後の画像データを1つの画像データに合成
して表示LCD220に表示するようにしたが、撮像素
子214aおよび214bによる画像データのうちいず
れか一方を表示するようにしてもよい。この場合には、
1つの画像に合成してからLCD220に表示するより
速く画像を表示することが可能になる。
In the above description, step S409
Performs predetermined image processing on image signals read out from the imaging elements 214a and 214b in the DSP 433.
a and 433b are performed simultaneously, and the image data after image processing by the two image sensors is combined into one image data and displayed on the display LCD 220. One of the image data by the image sensors 214a and 214b is used. One of them may be displayed. In this case,
It is possible to display an image faster than displaying it on the LCD 220 after combining it into one image.

【0081】さらにまた、ステップS409で合成後の
画像データがメモリカード424に記録されるようにし
たが、撮像素子214aおよび214bから読み出さ
れ、DSP433a,433bでそれぞれ画像処理が行
われた2つの画像データを別々にメモリカード424に
記録するようにしてもよい。この場合には、合成時の補
間によりデータ数が増加した画像データを記録する場合
よりメモリの使用量が少なくてよいので、より多くの画
像データをメモリカード424に記録することが可能に
なる。ただし、ステップS411において最後に記録さ
れた画像を表示するとき、両方の撮像素子214aおよ
び214bから出力され、それぞれ画像処理が行われて
別々にメモリカード424に記録された画像データをそ
れぞれ読出して合成してから表示が行われる。
Further, the combined image data is recorded on the memory card 424 in step S409. The image data may be separately recorded on the memory card 424. In this case, the amount of memory used may be smaller than in the case of recording image data whose data number has been increased by interpolation at the time of synthesis, so that more image data can be recorded on the memory card 424. However, when displaying the last recorded image in step S411, the image data output from both of the imaging elements 214a and 214b, each of which is subjected to image processing and separately recorded on the memory card 424 is read and combined. Then, the display is performed.

【0082】−第四の実施の形態− 上述した第一および第二の実施の形態では、単板補間に
より各画素位置に対応して全ての色のデータを補間し、
単板補間後の2つの画像データを合成する場合に、倍密
度画素面の各画素位置において全ての色データを合成し
て算出するようにした。しかし、第四の実施の形態で
は、単板補間により各画素位置に対応して輝度信号を表
す1つの色成分データのみを補間し、単板補間後の2つ
の画像データを合成する場合に、倍密度画素面の各位置
において上記1つの色成分データのみを合成して算出
し、他の色成分データは輝度信号を表す色成分データと
の色差データから線形補間により算出する。
-Fourth Embodiment- In the first and second embodiments described above, data of all colors is interpolated corresponding to each pixel position by single-chip interpolation.
When two image data after single-chip interpolation are combined, all the color data are combined at each pixel position on the double-density pixel surface and calculated. However, in the fourth embodiment, when only one color component data representing a luminance signal corresponding to each pixel position is interpolated by single-chip interpolation and two image data after single-chip interpolation are combined, At each position on the double-density pixel surface, only the one color component data is synthesized and calculated, and other color component data is calculated by linear interpolation from color difference data with color component data representing a luminance signal.

【0083】この実施の形態による合成手順は、第一
の実施の形態における単板補間処理をG色に関して行
い、単板補間後の2組のG色の画像データを用いて、第
一の実施の形態における合成処理をG色に関して行い、
倍密度画素面の全画素位置に対応する合成データgを算
出する。R色、B色データを倍密度画素面上に配置す
る。合成データgとR色、B色データとの色差データ
(Cr=R−g,Cb=B−g)をそれぞれ算出する。
算出された色差データを線形補間し、補間結果を用いて
R色およびB色データを算出することにより行われる。
The synthesizing procedure according to this embodiment performs the single-chip interpolation processing in the first embodiment on the G color, and uses the two sets of G-color image data after the single-chip interpolation to perform the first implementation. Is performed on the G color in the form of
The composite data g corresponding to all pixel positions on the double-density pixel surface is calculated. The R and B color data are arranged on the double density pixel surface. Color difference data between the synthesized data g and the R and B color data
(Cr = R-g, Cb = B-g) are calculated respectively.
This is performed by linearly interpolating the calculated color difference data and calculating the R and B color data using the interpolation result.

【0084】図21は、たとえば、第一の実施の形態に
より倍密度画素面上に合成されたG色の合成データgを
表す図である。図21において、画素位置に記載されて
いる数字は、図10に記載されていた撮像素子214a
および214bの画素位置を表す数字と同じである。R
色およびB色データの配置は、倍密度画素面上で数字が
記載された画素位置、すなわち、撮像素子214aおよ
び214bの画素位置に対応して配置される。図22は
R色データが倍密度画素面上に配置された図であり、図
23はB色データが倍密度画素面上に配置された図であ
る。
FIG. 21 is a diagram showing, for example, the combined data g of G color combined on the double-density pixel surface according to the first embodiment. In FIG. 21, the numbers described in the pixel positions are the image pickup devices 214a described in FIG.
And the numbers representing the pixel positions of 214b. R
The arrangement of the color and B color data is arranged corresponding to the pixel position where the number is written on the double-density pixel surface, that is, the pixel position of the image sensors 214a and 214b. FIG. 22 is a diagram in which R color data is arranged on a double density pixel surface, and FIG. 23 is a diagram in which B color data is arranged on a double density pixel surface.

【0085】図22のR色データが配置された画素位置
において、G色の合成データgとR色データの色差デー
タCr=R−gが算出される。そして、色差データの空
白部分について、存在する色差データを用いて線形補間
を行う。たとえば、図22において、1行目の121と
141の画素位置の間に存在する131の画素位置の色
差データは、121と141の画素位置における色差デ
ータの平均(中間)値とし、121と131の間に存在す
る画素位置における色差データは、121と131の画
素位置における色差データの平均(中間)値とする。同様
にして、2,5,6行目についても横方向に存在する色
差データを用いて線形補間により色差データを補間す
る。また、図22において、3,4,7,8行目につい
ては横方向に色差データがないので、上記で補間された
色差データを用いて縦方向に線形補間して色差データを
補間すると、倍密度画素面の各画素位置に色差データC
rが生成される(図24)。
At the pixel position where the R color data is arranged in FIG. 22, the color difference data Cr = R−g of the G color combined data g and the R color data is calculated. Then, linear interpolation is performed on the blank portion of the color difference data using the existing color difference data. For example, in FIG. 22, the chrominance data at 131 pixel positions existing between the 121 and 141 pixel positions in the first row is the average (intermediate) value of the chrominance data at the 121 and 141 pixel positions. The chrominance data at the pixel positions existing between are assumed to be the average (intermediate) value of the chrominance data at the pixel positions 121 and 131. Similarly, for the second, fifth, and sixth rows, color difference data is interpolated by linear interpolation using color difference data existing in the horizontal direction. Further, in FIG. 22, there is no color difference data in the horizontal direction for the third, fourth, seventh and eighth rows, so if the color difference data is interpolated by performing linear interpolation in the vertical direction using the color difference data interpolated as described above, Color difference data C at each pixel position on the density pixel surface
r is generated (FIG. 24).

【0086】倍密度画素面上の全ての画素位置に対して
色差データCrが得られると、各画素位置に関して合成
後のR色データをr=Cr+gにより算出する。以上の
処理と同様の処理をB色について行えば、色差データC
b=B−gを用いて合成後のB色データがb=Cb+g
により算出される。以上により、倍密度画素面上の全て
の画素位置に対応してg、r、b色データを算出するこ
とができる。
When the color difference data Cr is obtained for all the pixel positions on the double-density pixel surface, the combined R color data for each pixel position is calculated by r = Cr + g. If the same processing as the above processing is performed for the B color, the color difference data C
Using b = B−g, the B color data after synthesis is b = Cb + g
Is calculated by As described above, g, r, and b color data can be calculated for all pixel positions on the double-density pixel surface.

【0087】上記の説明では、第一の実施の形態におけ
る合成方法により合成倍密度画素面上にG色の合成デー
タgを生成するようにしたが、第二の実施の形態により
生成することもできる。
In the above description, the combined data g of G is generated on the combined double-density pixel surface by the combining method in the first embodiment. However, the combined data g may be generated in the second embodiment. it can.

【0088】このような第四の実施の形態では次のよう
な作用効果がある。単板補間により各画素位置に対応し
て輝度信号を表すG色成分データのみを補間し、単板補
間後の2つの画像データの合成は、倍密度画素面の各画
素位置においてG色成分データのみを合成して算出す
る。R色およびB色成分の色データは、G色の合成デー
タgとの色差データを線形補間して算出するようにした
ので、各画素位置に対応して全ての色成分データに関し
て単板補間し、倍密度画素面上の各画素位置に対応して
全ての色成分データを合成する場合に比べて、単板補間
および合成時の処理を少なくすることができる。この結
果、合成処理時間を短縮する効果が得られる。
The fourth embodiment has the following operation and effect. Only the G color component data representing the luminance signal corresponding to each pixel position is interpolated by single-chip interpolation, and the combination of the two image data after the single-chip interpolation is performed at each pixel position on the double-density pixel surface. Only these are combined and calculated. Since the color data of the R and B color components is calculated by linearly interpolating the color difference data with the synthesized data g of the G color, single-chip interpolation is performed for all the color component data corresponding to each pixel position. In addition, compared with the case where all the color component data are synthesized corresponding to each pixel position on the double-density pixel plane, the processing at the time of single-chip interpolation and synthesis can be reduced. As a result, the effect of shortening the synthesis processing time can be obtained.

【0089】上述した説明では、R、G、B原色系のカ
ラーフィルタの場合について説明したが、Cy、Mg、
G、Yeなどの補色系のカラーフィルタを用いる場合に
も適用できるものである。
In the above description, the case of the color filters of the R, G, and B primary colors has been described.
The present invention is also applicable to a case where a complementary color filter such as G or Ye is used.

【0090】また、以上の第一〜第四の実施の形態では
デジタルスチルカメラについて説明したが、上述した単
板補間および単板補間後の合成処理をソフトウエアの形
態でCD−ROMやフロッピデイスクなどの記録媒体に
画像処理プログラムとして格納し、パソコンで画像処理
する際に使用することもできる。この場合、撮像素子2
14aおよび214bから出力された画像信号に基づい
て、デジタル化された両画像データを大容量の画像デー
タ用記録媒体にそれぞれ記録し、この記録媒体をパソコ
ンにセットして両画像データを取込んだ上で、上記画像
処理プログラムにより上述のような単板補間および単板
補間後の合成処理を行うようにする。
Although the digital still camera has been described in the first to fourth embodiments, the above-described single-chip interpolation and the synthesizing process after the single-chip interpolation are performed in the form of software on a CD-ROM or a floppy disk. It can also be stored as an image processing program on a recording medium such as a personal computer and used when performing image processing on a personal computer. In this case, the image sensor 2
Based on the image signals output from 14a and 214b, both digitized image data were recorded on a large-capacity recording medium for image data, respectively, and the recording medium was set on a personal computer to capture both image data. Above, the above-described single-chip interpolation and the synthesis processing after the single-chip interpolation are performed by the image processing program.

【0091】上述した画像処理プログラムが記録された
記録媒体から画像処理プログラムをパソコンで読み込む
代わりに、インターネットなどの伝送媒体を利用して上
述した画像処理プログラムを伝送してもよい。この場合
には、伝送された画像処理プログラムをパソコンで読み
込んだ上で上述のような単板補間および単板補間後の合
成処理をパソコンで行うようにする。
Instead of reading the image processing program from a recording medium having the image processing program recorded thereon by a personal computer, the image processing program may be transmitted using a transmission medium such as the Internet. In this case, the transmitted image processing program is read by a personal computer, and the above-described single-chip interpolation and the synthesis processing after the single-chip interpolation are performed by the personal computer.

【0092】以上の説明では、一眼レフデジタルスチル
カメラについて説明したが、レンズ交換ができないデジ
タルスチルカメラ、動画像も取込めるデジタルビデオカ
メラにも本発明を適用できる。
In the above description, a single-lens reflex digital still camera has been described. However, the present invention can be applied to a digital still camera in which a lens cannot be replaced and a digital video camera which can also capture a moving image.

【0093】特許請求の範囲における各構成要素と、発
明の実施の形態における各構成要素との対応について説
明すると、撮像素子214aおよび214bが撮像装置に、バッ
ファメモリ436a,436b、DSP433a,433bおよびCPU43
9が単板補間手段、合成手段、データ配列手段、補間手
段およびデータ配置手段に、CPU439が類似度算出手
段、方向性分類手段、第1の算出手段および第2の算出
手段にそれぞれ対応する。
The correspondence between each component in the claims and each component in the embodiment of the present invention will be described.
9 corresponds to a single-plate interpolation unit, a combination unit, a data arrangement unit, an interpolation unit, and a data arrangement unit, and the CPU 439 corresponds to a similarity calculation unit, a direction classification unit, a first calculation unit, and a second calculation unit.

【0094】[0094]

【発明の効果】以上詳細に説明したように本発明では、
次のような効果を奏する。 (1)請求項1〜14の発明では、同一の被写体像を撮
像した2つの撮像装置から出力された撮像データをそれ
ぞれ単板補間し、全画素に対応して全色成分データを持
たせてから合成するようにした。単板補間は、少なくと
も画像データの方向性を用いた補間と複数の色成分の撮
像データを用いた補間のいずれか一方を行うので、全画
素に対応して解像度を高めることができる。また、単板
補間後の画像データを合成することで、合成後の画像デ
ータの解像度がさらに向上する効果が得られる。とく
に、請求項2,9の発明では、単板補間後のデータの方
向性を用いて合成するようにしたので、被写体像のエッ
ジが滑らかに合成される。 (2)請求項3,5〜7,13の発明では、上記(1)に
加えて、単板補間後の2組の画像データを市松模様状に
配置し、市松模様状に配置されたデータの類似の方向性
に応じて空白画素位置のデータを各色成分ごとに補間し
て合成するようにした。したがって、合成前の単板補間
後の画像データの画素配置に対して縦横各2倍のデータ
から構成される倍密度で全ての色成分をもつ画像データ
が合成され、高解像度の画像データを得ることができ
る。 (3)請求項4,5,7,8,14の発明では、上記
(1)に加えて、単板補間後の2組の画像データを撮像装
置の画素配列の方向に対応して縦横各1/2画素ピッチ
ずらして重ね、重ねられた1/2画素ピッチで囲まれた
重なり部分を構成する各撮像装置によるデータを平均す
るようにした。したがって、たとえば、2つの撮像装置
間で露光条件が異なる場合でも、合成された画像データ
に2つの撮像装置の露光条件の違いに起因したのこぎり
状のギザギザが現れることがなく、高品位な画像データ
が得られる。さらに、上記の平均値データについて、類
似の方向に存在する平均値データを用いて合成するよう
にしたので、高解像度化が図れるとともに、画像データ
に含まれている撮像装置のショットノイズのようにラン
ダムなノイズ成分が平均されることにより小さくなり、
S/N比のよい高品位な画像データを得ることができ
る。 (4)請求項7の発明では、請求項3,4の構成に加え
て、データの類似の方向性を分類する際に方向の類似度
が所定値未満である場合に各方向は同等の類似度と分類
するようにしたので、たとえば、ノイズが多い場合に誤
った分類をすることが防止される。 (5)請求項2,9の発明では、複数の全色成分データ
に関して方向性を調べるようにしたので、全ての色につ
いてデータの類似の方向を正確につかむことができる。 (6)請求項11の発明では、同一の被写体像を撮像し
た2つの撮像装置から出力された撮像データをそれぞれ
単板補間し、全画素に対応して少なくとも輝度成分デー
タを持たせてから合成するようにした。単板補間は、少
なくとも撮像データの方向性を用いた補間と色差補間の
いずれか一方を行うので、全画素に対応して輝度成分の
解像度を高めることができる。また、単板補間後の画像
データを合成することで、合成後の画像データの輝度成
分の解像度がさらに向上する効果が得られる。
As described in detail above, in the present invention,
The following effects are obtained. (1) According to the first to fourteenth aspects of the present invention, single-chip interpolation is performed on image data output from two imaging devices that have captured the same subject image, and all color component data are provided corresponding to all pixels. It was made to synthesize from. Since the single-chip interpolation performs at least one of interpolation using the directionality of image data and interpolation using imaging data of a plurality of color components, the resolution can be increased for all pixels. Further, by synthesizing the image data after the single-plate interpolation, an effect of further improving the resolution of the image data after the synthesis can be obtained. In particular, according to the second and ninth aspects of the present invention, since the composition is performed using the directionality of the data after the single-plate interpolation, the edges of the subject image are composed smoothly. (2) In addition to the above (1), two sets of image data after single-plate interpolation are arranged in a checkerboard pattern, and the data arranged in a checkerboard pattern is added to the above (1). The data at the blank pixel position is interpolated and synthesized for each color component in accordance with the similar directionality of. Therefore, image data having all the color components at double density composed of data twice as high in the vertical and horizontal directions with respect to the pixel arrangement of the image data after the single-plate interpolation before the synthesis is synthesized, and high-resolution image data is obtained. be able to. (3) In the invention of claims 4, 5, 7, 8, and 14,
In addition to (1), two sets of image data after single-chip interpolation are overlapped with each other shifted by 1/2 pixel pitch in the vertical and horizontal directions corresponding to the direction of the pixel arrangement of the imaging device, and surrounded by the overlapped 1/2 pixel pitch. The data from the respective imaging devices constituting the overlapped portion are averaged. Therefore, for example, even when the exposure conditions are different between the two imaging devices, the sawtooth-like jaggedness due to the difference in the exposure conditions of the two imaging devices does not appear in the synthesized image data, and high-quality image data is obtained. Is obtained. Furthermore, since the average value data is synthesized using the average value data existing in similar directions, high resolution can be achieved, and the average value data can be combined with the shot noise of the imaging device included in the image data. It becomes small by the random noise component being averaged,
High-quality image data with a good S / N ratio can be obtained. (4) According to the seventh aspect of the present invention, in addition to the configuration of the third and fourth aspects, when the similarity of data is classified, when the similarity of the directions is less than a predetermined value, each direction has the same similarity. Since the classification is made as the degree, for example, when there is much noise, incorrect classification is prevented. (5) According to the second and ninth aspects of the present invention, since the directionality is checked for a plurality of all color component data, similar directions of data can be accurately grasped for all colors. (6) According to the eleventh aspect of the present invention, the image pickup data output from the two image pickup devices that picked up the same subject image are each subjected to single-chip interpolation, and at least luminance component data is provided for all pixels, and then combined. I did it. Since the single-chip interpolation performs at least one of the interpolation using the directionality of the imaging data and the color difference interpolation, it is possible to increase the resolution of the luminance component corresponding to all pixels. Further, by synthesizing the image data after the single-chip interpolation, an effect of further improving the resolution of the luminance component of the image data after the synthesis can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第一の実施の形態による一眼レフデジタルスチ
ルカメラの構成を示す図である。
FIG. 1 is a diagram illustrating a configuration of a single-lens reflex digital still camera according to a first embodiment.

【図2】図1の一眼レフデジタルスチルカメラを背面か
ら見た図である。
FIG. 2 is a view of the single-lens reflex digital still camera of FIG. 1 as viewed from the back.

【図3】図1の一眼レフデジタルスチルカメラの結像光
学系を示す図である。
FIG. 3 is a diagram illustrating an imaging optical system of the single-lens reflex digital still camera in FIG. 1;

【図4】図1の一眼レフデジタルスチルカメラの回路を
示すブロック図である。
FIG. 4 is a block diagram showing a circuit of the single-lens reflex digital still camera in FIG. 1;

【図5】(a)撮像素子214aの画素のならび、(b)撮像
素子214bの画素のならびをならべ替えたものを表す
図である。
FIGS. 5A and 5B are diagrams illustrating (a) the arrangement of the pixels of the imaging element 214a and (b) the arrangement of the pixels of the imaging element 214b.

【図6】図5(a),(b)の画素位置を表す図である。FIG. 6 is a diagram showing pixel positions in FIGS. 5 (a) and 5 (b).

【図7】類似度を算出する重み付けを表す図である。FIG. 7 is a diagram illustrating weighting for calculating a similarity.

【図8】縦類似度Cv[i,j]および横類似度Ch[i,j]か
ら類似方向を分類する図である。
FIG. 8 is a diagram for classifying similar directions from vertical similarities Cv [i, j] and horizontal similarities Ch [i, j].

【図9】G色補間を説明する図である。FIG. 9 is a diagram illustrating G color interpolation.

【図10】(a)撮像素子214aによる画像データの単
板補間後の画素ならび、(b)撮像素子214bによる画
像データの単板補間後の画素ならび、(c)は(a)を縦横一
列おきに配列したもの、(d)は(b)を縦横一列おきに配列
したもの、(e)は(c)および(d)を市松模様状に組み合わ
せた図である。
10A shows pixels after single-chip interpolation of image data by the image sensor 214a, FIG. 10B shows pixels after single-chip interpolation of image data by the image sensor 214b, and FIG. (D) is a diagram in which (b) is arranged in every other row and column, and (e) is a diagram in which (c) and (d) are combined in a checkered pattern.

【図11】市松模様状の配置データの位置を表す図であ
る。
FIG. 11 is a diagram illustrating positions of checkerboard-shaped arrangement data.

【図12】縦類似度Dv[i,j]および横類似度Dh[i,j]
から類似方向を分類する図である。
FIG. 12 shows a vertical similarity Dv [i, j] and a horizontal similarity Dh [i, j].
It is a figure which classifies a similar direction from.

【図13】半押しスイッチで起動されるプログラムの前
半のフローチャートである。
FIG. 13 is a flowchart of a first half of a program started by a half-press switch.

【図14】半押しスイッチで起動されるプログラムの後
半のフローチャートである。
FIG. 14 is a flowchart of the latter half of the program started by the half-press switch.

【図15】(a)撮像素子214aによる画像データの画
素ならび、(b)撮像素子214bによる画像データの画
素ならび、(c)は(a),(b)の画像データを縦および横方向
にそれぞれ1/2画素ピッチずらして重ねた図である。
FIG. 15A shows pixels of image data by the image sensor 214a, (b) pixels of image data by the image sensor 214b, and FIG. 15C shows image data of (a) and (b) in the vertical and horizontal directions. It is the figure which shifted by 1/2 pixel pitch, respectively, and overlapped.

【図16】図15(c)により配置されたデータの位置を
表す図である。
FIG. 16 is a diagram showing the position of data arranged according to FIG. 15 (c).

【図17】類似方向を分類する図である。FIG. 17 is a diagram for classifying similar directions.

【図18】撮像装置の入力値と出力値との関係を示す図
である。
FIG. 18 is a diagram illustrating a relationship between an input value and an output value of the imaging device.

【図19】露光時間決定を含む露光・画像処理のフロー
チャートである。
FIG. 19 is a flowchart of exposure / image processing including exposure time determination.

【図20】第三の実施の形態によるデジタルスチルカメ
ラの画像データ表示処理のフローチャートである。
FIG. 20 is a flowchart of image data display processing of the digital still camera according to the third embodiment.

【図21】倍密度画素面上に合成されたG色の合成デー
タgを表す図である。
FIG. 21 is a diagram illustrating combined data g of G colors combined on a double-density pixel surface.

【図22】R色データが倍密度画素面上に配置された図
である。
FIG. 22 is a diagram in which R color data is arranged on a double density pixel surface.

【図23】B色データが倍密度画素面上に配置された図
である。
FIG. 23 is a diagram in which B-color data is arranged on a double-density pixel surface.

【図24】倍密度画素面上に生成された色差データCr
を表す図である。
FIG. 24 shows color difference data Cr generated on a double-density pixel surface.
FIG.

【符号の説明】[Explanation of symbols]

1…撮影レンズ、 3…クイックリタ
ーンミラー、4…焦点板、 16…
一次結像面、50…ファインダー装置、 200
…カメラ本体、208…シャッター板、 2
08a…完全遮光部、208b〜208j…開口部、
209…フィールドレンズ、210、211…ミラ
ー、 212…縮小光学系、212a、212
b…リレーレンズ、213a、213b…保護ガラス、
214a、214b…撮像素子、 215…絞り板、
215a〜215g…開口部、 219…偏光ビー
ムスプリッタ、220…表示LCD、 2
23a、223b…オプティカル・ローパス・フィルタ
ー、 308c〜308j…偏光板、4
07…操作部材、 424…メモリカー
ド、433a,433b…DSP、 435…フレ
ームメモリ、436a,436b…バッファメモリ、4
39…CPU
1. Photographic lens, 3. Quick return mirror, 4. Focusing plate, 16.
Primary imaging plane, 50: finder device, 200
... Camera body, 208 ... Shutter plate, 2
08a: complete light shielding portion, 208b to 208j: opening portion,
209: field lens, 210, 211 ... mirror, 212: reduction optical system, 212a, 212
b: relay lens, 213a, 213b: protective glass,
214a, 214b: image sensor, 215: aperture plate,
215a to 215g: opening, 219: polarizing beam splitter, 220: display LCD, 2
23a, 223b: Optical low-pass filter, 308c to 308j: Polarizing plate, 4
07 ... operating member, 424 ... memory card, 433a, 433b ... DSP, 435 ... frame memory, 436a, 436b ... buffer memory, 4
39 ... CPU

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C065 AA03 BB26 CC02 CC03 CC08 CC09 DD02 DD18 EE06 GG02 GG13 GG18 GG21 GG29 GG30 GG32  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C065 AA03 BB26 CC02 CC03 CC08 CC09 DD02 DD18 EE06 GG02 GG13 GG18 GG21 GG29 GG30 GG32

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】画素配列の方向に関して縦横両方向の少な
くとも一方に1/2画素ずらした複数のカラー撮像装置
で同一の被写体像を撮像し、少なくとも2つの前記カラ
ー撮像装置から出力された撮像データを合成して被写体
像を得る多板式撮像装置において、 前記2つのカラー撮像装置から出力されたそれぞれの撮
像データに対し、少なくとも画像データの方向性を用い
た補間および複数の色成分の撮像データを用いた補間の
いずれか一方を用いて前記カラー撮像装置の全画素に対
応して全色成分データを生成する単板補間手段と、 前記単板補間手段により生成された2つの前記全色成分
データを合成する合成手段とを備えることを特徴とする
多板式撮像装置。
1. A plurality of color image pickup devices which are shifted by 1/2 pixel in at least one of the vertical and horizontal directions with respect to the direction of pixel arrangement, pick up the same subject image, and obtain image data output from at least two color image pickup devices. In a multi-panel imaging apparatus for obtaining a subject image by combining images, at least interpolation using the directionality of the image data and imaging data of a plurality of color components are used for each of the imaging data output from the two color imaging apparatuses. Single-chip interpolation means for generating all-color-component data corresponding to all pixels of the color image pickup device using one of the interpolations, and the two full-color-component data generated by the single-chip interpolation means. A multi-panel imaging apparatus, comprising: a synthesizing unit for synthesizing.
【請求項2】請求項1に記載の多板式撮像装置におい
て、 前記合成手段は、前記2つの全色成分データによる方向
性を用いて合成を行うことを特徴とする多板式撮像装
置。
2. The multi-panel imaging apparatus according to claim 1, wherein said synthesizing means performs synthesizing using a directionality based on said two all-color component data.
【請求項3】請求項1または2に記載の多板式撮像装置
において、 前記2つのカラー撮像装置が画素配列の方向に関して縦
横両方向に1/2画素ずつずらして配置されている場
合、前記合成手段は、前記2つの全色成分データについ
て、それぞれ各色成分ごとに前記画素配列の方向に対応
して縦横両方向に一列おきに色成分データを配置し、一
列おきに配置された一方の色成分データの間に一列おき
に配置された他方の色成分データを配置して各色成分ご
との市松模様状の色成分データ配列とするデータ配列手
段と、 前記データ配列手段による前記市松模様状の色成分デー
タ配列において、少なくとも縦横2方向の類似度を算出
する類似度算出手段と、 前記類似度算出手段により算出された類似度からこの類
似度の方向性を分類する方向性分類手段と、 各色成分ごとの前記市松模様状の色成分データ配列にお
いて、前記方向性分類手段により分類された方向に配置
された色成分データを用いて空白画素位置の補間データ
を各色成分ごとに生成する補間手段とを備えることを特
徴とする多板式撮像装置。
3. The multi-chip imaging device according to claim 1, wherein the two color imaging devices are arranged so as to be shifted by a half pixel in both the vertical and horizontal directions with respect to the pixel arrangement direction. With respect to the two all-color component data, color component data is arranged every other row in both the vertical and horizontal directions corresponding to the direction of the pixel arrangement for each color component, and one color component data arranged every other row is A data arrangement means for arranging the other color component data arranged in every other row to form a checkerboard pattern color component data array for each color component; and the checkerboard pattern color component data array by the data arrangement means A similarity calculating means for calculating at least two similarities in the vertical and horizontal directions; and a directionality for classifying the directionality of the similarity from the similarity calculated by the similarity calculating means. In the checkerboard-like color component data array for each color component, interpolation data of a blank pixel position is used for each color component using color component data arranged in the direction classified by the directionality classifier. A multi-chip imaging device comprising: an interpolation unit that generates the image data.
【請求項4】請求項1または2に記載の多板式撮像装置
において、 前記2つのカラー撮像装置が画素配列の方向に関して縦
横両方向に1/2画素ずつずらして配置されている場
合、前記合成手段は、前記2つの全色成分データについ
て、それぞれ各色成分ごとに前記画素配列の方向に対応
して縦横両方向に1/2画素ピッチずらして重ねて配置
するデータ配置手段と、 前記データ配置手段により各色成分ごとに重ねて配置さ
れた色成分データに対し、縦横各1/2画素ピッチで囲
まれる全ての重なり部分について、この重なり部分を構
成する2つの色成分データの平均値を算出する第1の算
出手段と、 前記第1の算出手段により算出された前記色成分データ
の平均値において、少なくとも2方向の類似度を算出す
る類似度算出手段と、 前記類似度算出手段により算出された類似度からこの類
似度の方向性を分類する方向性分類手段と、 各色成分ごとに前記第1の算出手段で算出された前記色
成分データの平均値に対し、前記方向性分類手段により
分類された方向に配置された所定数の前記色成分データ
を用いて再び重み付け平均して注目画素位置の合成デー
タを各色成分ごとに算出する第2の算出手段とを備える
ことを特徴とする多板式撮像装置。
4. The multi-chip imaging device according to claim 1, wherein the two color imaging devices are arranged so as to be displaced by 1/2 pixel in both the vertical and horizontal directions with respect to the pixel arrangement direction. Means for arranging the two all-color component data so as to overlap each other for each color component by a half pixel pitch in both the vertical and horizontal directions corresponding to the pixel arrangement direction; With respect to the color component data superimposed for each component, for all the overlapped portions surrounded by the vertical and horizontal 1/2 pixel pitch, a first value for calculating the average value of the two color component data constituting the overlapped portion is calculated. A calculating unit; a similarity calculating unit configured to calculate a similarity in at least two directions in an average value of the color component data calculated by the first calculating unit; A direction classifying unit that classifies the directionality of the similarity from the similarity calculated by the similarity calculating unit; and an average value of the color component data calculated by the first calculating unit for each color component, Second calculating means for calculating weighted average again by using a predetermined number of the color component data arranged in the direction classified by the directionality classifying means and calculating composite data at a target pixel position for each color component. A multi-panel imaging device characterized by the above-mentioned.
【請求項5】請求項3または4に記載の多板式撮像装置
において、 前記類似度算出手段は、前記単板補間手段により生成さ
れた全色成分データを用いて類似度を算出することを特
徴とする多板式撮像装置。
5. The multi-chip imaging device according to claim 3, wherein said similarity calculating means calculates the similarity using all color component data generated by said single-chip interpolation means. Multi-plate type imaging device.
【請求項6】請求項3または5に記載の多板式撮像装置
において、 前記類似度算出手段は、前記空白画素位置に対する類似
度とこの空白画素の周辺の画素位置に対する類似度とを
用いて前記類似度を算出することを特徴とする多板式撮
像装置。
6. The multi-chip imaging device according to claim 3, wherein the similarity calculating means uses the similarity to the blank pixel position and the similarity to pixel positions around the blank pixel. A multi-panel imaging apparatus, wherein a similarity is calculated.
【請求項7】請求項3または4に記載の多板式撮像装置
において、 前記方向性分類手段は、前記類似度算出手段により算出
された各方向の類似度の差が所定値未満であるとき、前
記各方向の類似度は同等と分類することを特徴とする多
板式撮像装置。
7. The multi-panel imaging device according to claim 3, wherein the directionality classifying unit is configured to determine whether a difference between similarities in each direction calculated by the similarity calculating unit is smaller than a predetermined value. The multi-panel imaging device is characterized in that the similarities in the respective directions are classified as being equal.
【請求項8】請求項4に記載の多板式撮像装置におい
て、 前記2つのカラー撮像装置は露光量を変えて前記被写体
像を撮像することを特徴とする多板式撮像装置。
8. The multi-chip imaging device according to claim 4, wherein the two color imaging devices pick up the subject image by changing an exposure amount.
【請求項9】画素配列の方向に関して縦横両方向の少な
くとも一方に1/2画素ずらした複数のカラー撮像装置
で同一の被写体像を撮像し、少なくとも2つの前記カラ
ー撮像装置から出力された撮像データを合成して被写体
像を得る多板式撮像装置において、 前記2つのカラー撮像装置から出力されたそれぞれの撮
像データの全画素に対応して全色成分データを生成する
単板補間手段と、 前記単板補間手段により生成された前記2つの全色成分
データによる方向性を用いて合成を行う合成手段とを備
えることを特徴とする多板式撮像装置。
9. A plurality of color imaging devices which are shifted by 1/2 pixel in at least one of the vertical and horizontal directions with respect to the direction of the pixel array, and image the same subject image, and obtain image data output from at least two color imaging devices. A multi-chip imaging apparatus that obtains a subject image by combining; a single-chip interpolation unit configured to generate all color component data corresponding to all pixels of respective imaging data output from the two color imaging apparatuses; A multi-chip imaging device, comprising: synthesizing means for synthesizing using the directionality of the two all-color component data generated by the interpolating means.
【請求項10】請求項9に記載の多板式撮像装置におい
て、 前記単板補間手段は、前記2つのカラー撮像装置から出
力されたそれぞれの撮像データに対し、少なくとも画像
データの方向性を用いた補間および複数の色成分の撮像
データを用いた補間のいずれか一方を用いて前記2つの
カラー撮像装置の全画素に対応して全色成分データを生
成することを特徴とする多板式撮像装置。
10. The multi-chip imaging device according to claim 9, wherein said single-chip interpolation means uses at least the directionality of the image data for each of the imaging data output from said two color imaging devices. A multi-panel imaging apparatus, wherein all color component data is generated corresponding to all pixels of the two color imaging apparatuses by using one of interpolation and interpolation using imaging data of a plurality of color components.
【請求項11】画素配列の方向に関して縦横両方向の少
なくとも一方に1/2画素ずらした複数のカラー撮像装
置で同一の被写体像を撮像し、少なくとも2つの前記カ
ラー撮像装置から出力された撮像データを合成して被写
体像を得る多板式撮像装置において、 前記2つのカラー撮像装置から出力されたそれぞれの撮
像データに対し、少なくとも画像データの方向性を用い
た補間および複数の色成分の撮像データを用いた補間の
いずれか一方を用いて前記カラー撮像装置の全画素に対
応して少なくとも輝度成分に対応するデータを生成する
単板補間手段と、 前記単板補間手段により生成された前記輝度成分に対応
する2つのデータを合成する合成手段とを備えることを
特徴とする多板式撮像装置。
11. A plurality of color image pickup devices which are shifted by 1/2 pixel in at least one of the vertical and horizontal directions with respect to the direction of the pixel array, and pick up the same subject image, and obtain image data output from at least two color image pickup devices. In a multi-panel imaging apparatus for obtaining a subject image by combining images, at least interpolation using the directionality of the image data and imaging data of a plurality of color components are used for each of the imaging data output from the two color imaging apparatuses. Single-chip interpolation means for generating data corresponding to at least a luminance component corresponding to all pixels of the color imaging apparatus using one of the interpolations, and corresponding to the luminance component generated by the single-chip interpolation means And a synthesizing means for synthesizing two pieces of data.
【請求項12】画素配列の方向に関して縦横両方向の少
なくとも一方に1/2画素ずらした複数のカラー撮像装
置で同一の被写体像を撮像した2つの画像データに対
し、少なくとも画像データの方向性を用いた補間および
複数の色成分の画像データを用いた補間のいずれか一方
を用いて全画素に対応して全色成分データを生成する単
板補間処理と、 前記単板補間処理により生成された2つの前記全色成分
データを合成する合成処理とを行うプログラムが格納さ
れていることを特徴とする画像データ処理用記録媒体。
12. At least the directionality of the image data is used for two image data obtained by capturing the same subject image by a plurality of color imaging devices shifted in at least one of the vertical and horizontal directions with respect to the direction of the pixel array. A single-chip interpolation process for generating all-color-component data corresponding to all pixels by using either one of interpolation using image data of a plurality of color components and interpolation performed by using the single-chip interpolation process. And a program for performing a synthesizing process for synthesizing the two color component data.
【請求項13】請求項12に記載の画像データ処理用記
録媒体において、 前記複数のカラー撮像装置が画素配列の方向に関して縦
横両方向に1/2画素ずつずらして配置されている場
合、前記合成処理は、前記2つの全色成分データについ
て、それぞれ各色成分ごとに前記画像データの画素配列
の方向に対応して縦横両方向に一列おきに色成分データ
配置し、一列おきに配置された一方の色成分データの間
に一列おきに配置された他方の色成分データを配置して
各色成分ごとの市松模様状の色成分データ配列とするデ
ータ配列処理と、 前記データ配列処理による前記市松模様状の色成分デー
タ配列において、少なくとも縦横2方向の類似度を算出
する類似度算出処理と、 前記類似度算出処理により算出された類似度からこの類
似度の方向性を分類する方向性分類処理と、 各色成分ごとの前記市松模様状の色成分データ配列にお
いて、前記方向性分類処理により分類された方向に配置
された色成分データを用いて空白画素位置の補間データ
を各色成分ごとに生成する補間処理とを備えることを特
徴とする画像データ処理用記録媒体。
13. The image data processing recording medium according to claim 12, wherein the plurality of color image pickup devices are arranged so as to be shifted by a half pixel in both the vertical and horizontal directions with respect to the pixel arrangement direction. Is for the two color component data, color component data is arranged in every other row in both the vertical and horizontal directions corresponding to the direction of the pixel arrangement of the image data for each color component, and one color component is arranged in every other row A data arrangement process for arranging the other color component data arranged in every other row between data to form a checkered pattern color component data array for each color component; and the checkerboard pattern color component by the data arrangement process In the data array, a similarity calculation process for calculating at least two similarities in the vertical and horizontal directions, and a directionality of the similarity calculated from the similarities calculated by the similarity calculation process. In the directional classification process for classifying, in the checkered pattern color component data array for each color component, the interpolation data of the blank pixel position is calculated using the color component data arranged in the direction classified by the directional classification process. A recording medium for image data processing, comprising: an interpolation process for each color component.
【請求項14】請求項12に記載の画像データ処理用記
録媒体において、 前記複数のカラー撮像装置が画素配列の方向に関して縦
横両方向に1/2画素ずつずらして配置されている場
合、前記合成処理は、前記2つの全色成分データについ
て、それぞれ各色成分ごとに前記画像データの画素配列
の方向に対応して縦横両方向に1/2画素ピッチずらし
て重ねて配置するデータ配置処理と、 前記データ配置処理により各色成分ごとに重ねて配置さ
れた色成分データに対し、縦横各1/2画素ピッチで囲
まれる全ての重なり部分について、この重なり部分を構
成する2つの色成分データの平均値を算出する第1の算
出処理と、 前記第1の算出処理により算出された前記色成分データ
の平均値において、少なくとも2方向の類似度を算出す
る類似度算出処理と、 前記類似度算出処理により算出された類似度からこの類
似度の方向性を分類する方向性分類処理と、 各色成分ごとに前記第1の算出処理で算出された前記色
成分データの平均値に対し、前記方向性分類処理により
分類された方向に配置された所定数の前記色成分データ
を用いて再び重み付け平均して注目画素位置の合成デー
タを各色成分ごとに算出する第2の算出処理とを備える
ことを特徴とする画像データ処理用記録媒体。
14. The image data processing recording medium according to claim 12, wherein the plurality of color image pickup devices are arranged so as to be shifted by 1/2 pixel in both the vertical and horizontal directions with respect to the pixel arrangement direction. Is a data arrangement process in which, for each of the two color component data, a data arrangement process is performed for each color component so as to be superimposed and shifted by a half pixel pitch in both the vertical and horizontal directions corresponding to the pixel arrangement direction of the image data; With respect to the color component data superimposed and arranged for each color component by the processing, the average value of the two color component data constituting the overlapping portion is calculated for all the overlapping portions surrounded by the vertical and horizontal 1/2 pixel pitch. A first calculating process, and a similarity calculating a similarity in at least two directions in an average value of the color component data calculated by the first calculating process. Calculation processing; directionality classification processing for classifying the directionality of the similarity from the similarity calculated by the similarity calculation processing; and calculation of the color component data calculated in the first calculation processing for each color component. A second method of weighting and averaging the average value again using a predetermined number of the color component data arranged in the direction classified by the directionality classification process and calculating composite data at the target pixel position for each color component A recording medium for image data processing, comprising: a calculating process.
JP34531299A 1999-12-03 1999-12-03 Multi-board type image pickup device and recording medium for processing image data Pending JP2001169301A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34531299A JP2001169301A (en) 1999-12-03 1999-12-03 Multi-board type image pickup device and recording medium for processing image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34531299A JP2001169301A (en) 1999-12-03 1999-12-03 Multi-board type image pickup device and recording medium for processing image data

Publications (1)

Publication Number Publication Date
JP2001169301A true JP2001169301A (en) 2001-06-22

Family

ID=18375754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34531299A Pending JP2001169301A (en) 1999-12-03 1999-12-03 Multi-board type image pickup device and recording medium for processing image data

Country Status (1)

Country Link
JP (1) JP2001169301A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101886A (en) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd Image pickup device
KR100627706B1 (en) 2003-06-18 2006-09-25 샤프 가부시키가이샤 Data processing apparatus, image processing apparatus, camera, and data processing method
WO2013008517A1 (en) * 2011-07-08 2013-01-17 オリンパス株式会社 Image pickup apparatus and image generating method
JP2015027038A (en) * 2013-07-29 2015-02-05 日本放送協会 Color information complementing device, and program for the same
US10306192B2 (en) 2015-12-21 2019-05-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method and image capture apparatus for demosaicing

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101886A (en) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd Image pickup device
KR100627706B1 (en) 2003-06-18 2006-09-25 샤프 가부시키가이샤 Data processing apparatus, image processing apparatus, camera, and data processing method
WO2013008517A1 (en) * 2011-07-08 2013-01-17 オリンパス株式会社 Image pickup apparatus and image generating method
JP5306563B2 (en) * 2011-07-08 2013-10-02 オリンパス株式会社 Imaging apparatus and image generation method
US9338364B2 (en) 2011-07-08 2016-05-10 Olympus Corporation Imaging device and image generation method
JP2015027038A (en) * 2013-07-29 2015-02-05 日本放送協会 Color information complementing device, and program for the same
US10306192B2 (en) 2015-12-21 2019-05-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method and image capture apparatus for demosaicing

Similar Documents

Publication Publication Date Title
US7148925B2 (en) Solid-state honeycomb type image pickup apparatus using a complementary color filter and signal processing method therefor
JP5108172B2 (en) Image data size conversion processing apparatus, electronic still camera, and image data size conversion processing recording medium
JP5066851B2 (en) Imaging device
US7808533B2 (en) Electronic camera having signal processing units that perform signal processing on image data
US20060197843A1 (en) Digital camera for correcting tilted image
US20090207264A1 (en) Image processing device, imaging device, and medium storing image processing program
JP2008124625A (en) Imaging apparatus
JP2002218298A (en) Image pickup device, shading correcting method and storage medium
JP4253634B2 (en) Digital camera
JP2007243334A (en) Imaging apparatus
JP5348258B2 (en) Imaging device
JP3546853B2 (en) Imaging device and image reproduction system
JP2001169301A (en) Multi-board type image pickup device and recording medium for processing image data
JP5359553B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2004266323A (en) Image pickup system and image processing program
JPH07123421A (en) Image pickup device
JP4243412B2 (en) Solid-state imaging device and signal processing method
JP2000333060A (en) Digital camera and storage medium for image signal processing
JP4133179B2 (en) Image signal processing device
JP2000330012A (en) Digital camera
JP2002209100A (en) Image processor and image processing method
JP5572992B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2009164779A (en) Imaging apparatus
JP2003179783A (en) Imaging apparatus, imaging system, detecting device and program
JP2001218099A (en) Multiplate type image pickup device and recording medium for image data processing