JP4544319B2 - Image processing apparatus, method, and program - Google Patents
Image processing apparatus, method, and program Download PDFInfo
- Publication number
- JP4544319B2 JP4544319B2 JP2008061192A JP2008061192A JP4544319B2 JP 4544319 B2 JP4544319 B2 JP 4544319B2 JP 2008061192 A JP2008061192 A JP 2008061192A JP 2008061192 A JP2008061192 A JP 2008061192A JP 4544319 B2 JP4544319 B2 JP 4544319B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image information
- information file
- sensitivity
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 98
- 238000000034 method Methods 0.000 title claims description 44
- 230000035945 sensitivity Effects 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 23
- 230000006835 compression Effects 0.000 claims description 20
- 238000007906 compression Methods 0.000 claims description 20
- 238000003672 processing method Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 description 34
- 238000012937 correction Methods 0.000 description 30
- 238000006243 chemical reaction Methods 0.000 description 28
- 238000003384 imaging method Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 20
- 230000000875 corresponding effect Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 13
- 239000010410 layer Substances 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 240000007320 Pinus strobus Species 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000005375 photometry Methods 0.000 description 5
- 230000006837 decompression Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 4
- 229920005591 polysilicon Polymers 0.000 description 4
- 229920006395 saturated elastomer Polymers 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 229910052814 silicon oxide Inorganic materials 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001637516 Polygonia c-album Species 0.000 description 1
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007687 exposure technique Methods 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000005360 phosphosilicate glass Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
- 239000010937 tungsten Substances 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Description
本発明は画像処理装置及び方法に係り、特にデジタル入力デバイスにおける画像の保存、再生に関する装置、方法並びにこれを実現するコンピュータプログラムに関する。 The present invention relates to an image processing apparatus and method, and more particularly to an apparatus and method relating to image storage and reproduction in a digital input device, and a computer program for realizing the apparatus and method.
特許文献1に開示された画像処理装置は、同じ被写体を異なる露光量で複数回撮像して得られた複数の画像データから標準画像と非標準画像を作り、非標準画像からダイナミックレンジ拡大に必要な領域を判別し、その部分を圧縮して保存することを特徴としている。
The image processing apparatus disclosed in
特許文献2乃至4には、sRGBに代表される標準的な色空間よりも更に色再現域の広い色空間での画像再現を実現するために、拡張色再現域の情報を記録する方法が提案されている。すなわち、制限された色域を有する色空間の色値を有する制限色域デジタル画像データと、その制限色域の外側の色値を有する拡張色域デジタル画像との差分情報を制限色域デジタル画像データに関連付けて記録している。
一般的なデジタルスチルカメラにおいては、CCIR Rec709 で定められた光電変換特性を基本にして階調設計がなされている。こうすることで、パソコン(PC)用ディスプレイの実質上の標準色空間であるsRGB色空間で再現された場合に良好な画像を提供することを目標にして画像設計がなされている。 In a general digital still camera, gradation design is made based on photoelectric conversion characteristics defined in CCIR Rec709. By doing so, the image design is made with the goal of providing a good image when reproduced in the sRGB color space, which is a substantially standard color space of a display for a personal computer (PC).
一方、実シーンにおいては、晴天の日、曇りの日、夜間などのように、輝度域は 1:100 のときもあれば、 1:10000 を越す場合もある。従来用いられている通常のCCD撮像素子は、このような広い輝度レンジから情報を一度に取得することができない。そのため、自動露出(AE)制御によって、最適な輝度の切り出し範囲を決め、先に定めた光電変換特性に応じた電気信号に変換し、CRTのようなディスプレイに画像を再現させるように構成されている。あるいは特許文献1に開示されているように、露光を変えて複数枚撮影することで広いダイナミックレンジを確保している。しかし、この複数露光の技術は静止している物体の撮影にしか適用できない。
On the other hand, in a real scene, the brightness range may be 1: 100 or may exceed 1: 10000, such as sunny days, cloudy days, and nights. Conventional CCD image sensors used in the past cannot acquire information from such a wide luminance range at a time. Therefore, automatic exposure (AE) control is used to determine the optimum luminance cutout range, convert it to an electrical signal according to the previously defined photoelectric conversion characteristics, and reproduce the image on a display such as a CRT. Yes. Alternatively, as disclosed in
ところで、ブライダル衣裳(白のウエディングドレス)の撮影、自動車のような金属光沢のある被写体の撮影、近接ストロボでの撮影、更には逆光撮影のような特殊な被写体又は撮影状況においては、露出を主要被写体に適切に合わせることが困難であり、広い輝度レンジをカバーした高画質の画像を得ることができない。このようなシーンについては、撮影した画像を後で(プリント工程で)補正するシステムを用い、より広いダイナミックレンジで画像を記録し、その情報をもとにプリント時に最適な画像を作成する方が好都合な画像が得られることが多い。 By the way, exposure is mainly used for special subjects or shooting situations such as shooting bridal gowns (white wedding dresses), shooting objects with metallic luster such as automobiles, shooting with close-up strobes, and even backlighting. It is difficult to appropriately match the subject, and a high-quality image that covers a wide luminance range cannot be obtained. For such scenes, it is better to use a system that corrects the captured image later (in the printing process), records the image with a wider dynamic range, and creates an optimal image during printing based on that information. Often a convenient image is obtained.
しかしながら、このような場合でも現状のような限られたダイナミックレンジの画像情報からでは十分な画質が得られないという問題がある。 However, even in such a case, there is a problem that sufficient image quality cannot be obtained from image information with a limited dynamic range as in the present situation.
本発明はこのような事情に鑑みてなされたもので、通常のPC出力などについては定められたダイナミックレンジの画像で表示を行い、デスクトップパブリッシングのプリント用途など特別な用途に対して、必要に応じて更に広ダイナミックレンジ撮像で得られた情報から画像処理により最適な画像を作成できるような画像処理装置、方法及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances. For normal PC output or the like, an image with a predetermined dynamic range is displayed, and for special applications such as desktop publishing printing applications, as necessary. Another object of the present invention is to provide an image processing apparatus, method, and program capable of creating an optimal image by image processing from information obtained by imaging with a wider dynamic range.
前記目的を達成するために本発明に係る画像処理装置は、相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルが記録されている記録手段と、画像を表示出力するための画像表示手段と、前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記画像表示手段に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御手段と、を備えたことを特徴とする。 The image processing apparatus according to the present invention in order to achieve the object, a recording unit in which the first image information file consisting of the high-sensitivity image information formed by the pixel of the relatively high sensitivity is recorded, images And a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels associated with the first image information file and the image display means for displaying and outputting the image When recorded on the means, the first image created from the first image information file is displayed on the image display means, and the first image is displayed by the second image information file . And display control means for highlighting an image portion whose reproduction area is expanded on the display screen of the first image.
第1の画像情報ファイルから作成された第1の画像を画像表示手段に表示し、当該第1の画像について第2の画像情報ファイルと第1の画像情報ファイルの差分があるか否かを判断し、差分がある場合に該当する部分について点滅、枠線による囲い込み表示、明るさ(濃淡)の変更、色調の変更などの強調表示を行う。 A first image created from the first image information file displayed on the image display unit, whether the information on the first images there is a difference of the second image information file and the first image information file If there is a difference, the corresponding part is highlighted, such as blinking, framed framed display, brightness (shading) change, and color tone change.
本発明の他の態様によれば、前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とはそれぞれ異なるビットの深さで記録されていることを特徴とする。 According to another aspect of the present invention, the high-sensitivity image information in the first image information file and the low-sensitivity image information in the second image information file are recorded with different bit depths. It is characterized by that.
本発明の他の態様によれば、前記第2の画像情報ファイルは、前記第1の画像情報ファイルと異なる圧縮方式で圧縮されて記録されていることを特徴とする。
また、本発明の画像処理方法は、相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルを記録手段から読み出す読み出し工程と、画像を表示装置に出力する画像表示工程と、前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御工程と、を含むことを特徴とする。
本発明の他の態様によれば、前記読み出し工程は、それぞれ異なるビットの深さで記録されている前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とを読み出すことを特徴とする。
更に本発明の他の態様によれば、前記読み出し工程は、それぞれ異なる圧縮方式で圧縮されて記録されている前記第1の画像情報ファイルと前記第2の画像情報ファイルとを読み出すことを特徴とする。
また、本発明の画像処理プログラムは、相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルを記録手段から読み出す読み出し機能と、画像を表示装置に出力する画像表示機能と、前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御機能と、をコンピュータに実現させることを特徴とする。
本発明の他の態様によれば、前記読み出し機能は、それぞれ異なるビットの深さで記録されている前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とを読み出すことを特徴とする。
更に本発明の他の態様によれば、前記読み出し機能は、それぞれ異なる圧縮方式で圧縮されて記録されている前記第1の画像情報ファイルと前記第2の画像情報ファイルとを読み出すことを特徴とする。 According to another aspect of the present invention, the second image information file is characterized in that it is compressed is recorded in the first image information file and different compression scheme.
The image processing method of the present invention also includes a reading step of reading from the recording means a first image information file comprising high-sensitivity image information formed by relatively high-sensitivity pixels, and an image for outputting the image to a display device. When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels correlated with the first image information file is recorded in the recording means. Is an image portion in which a first image created from the first image information file is displayed on the display device, and a reproduction area is expanded by the second image information file with respect to the first image. And a display control step of highlighting on the display screen of the first image.
According to another aspect of the present invention, the reading step includes high-sensitivity image information in the first image information file and low in the second image information file recorded at different bit depths. Sensitivity image information is read out.
Furthermore, according to another aspect of the present invention, the reading step reads the first image information file and the second image information file that are compressed and recorded by different compression methods. To do.
In addition, the image processing program of the present invention includes a read function for reading out a first image information file composed of high-sensitivity image information formed by relatively high-sensitivity pixels from a recording unit, and an image for outputting an image to a display device. When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels correlated with the display function and the first image information file is recorded in the recording unit Is an image portion in which a first image created from the first image information file is displayed on the display device, and a reproduction area is expanded by the second image information file with respect to the first image. And a display control function for emphasizing the image on the display screen of the first image.
According to another aspect of the present invention, the read function has high sensitivity image information in the first image information file and low in the second image information file, which are recorded at different bit depths. Sensitivity image information is read out.
Furthermore, according to another aspect of the present invention, the reading function reads the first image information file and the second image information file that are compressed and recorded by different compression methods. To do.
本発明の画像処理装置は、デジタルカメラやビデオカメラなどの電子カメラに搭載することも可能であるし、コンピュータによって実現することも可能である。上述した画像処理装置を構成する各手段をコンピュータによって実現させるためのプログラムをCD−ROMや磁気ディスクその他の記録媒体に記録し、記録媒体を通じて当該プログラムを第三者に提供したり、インターネットなどの通信回線を通じて当該プログラムのダウンロードサービスを提供したりすることも可能である。 The image processing apparatus of the present invention can be mounted on an electronic camera such as a digital camera or a video camera, or can be realized by a computer. A program for realizing each means constituting the above-described image processing apparatus by a computer is recorded on a CD-ROM, a magnetic disk or other recording medium, and the program is provided to a third party through the recording medium, or the Internet It is also possible to provide a download service for the program through a communication line.
本発明によれば、関連付けされている拡張情報を用いて、より詳細な再現が可能な領域部分を可視化することにより、ユーザは画像再現の拡張性を把握することができる。 According to the present invention, the user can grasp the extensibility of image reproduction by visualizing a region portion that can be reproduced in more detail using the associated extended information.
以下添付図面に従って本発明の好ましい実施の形態について詳説する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
〔撮像素子の構造〕
まず、本発明が適用される電子カメラに用いられる広ダイナミックレンジ撮像用の撮像素子の構造について説明する。図1はCCD20の受光面の構造例を示す平面図である。図1では2つの受光セル(画素PIX)が横に並んでいる様子を示すが、実際には多数の画素PIXが水平方向(行方向)及び垂直方向(列方向)に一定の配列周期で配列されている。
[Image sensor structure]
First, the structure of an image sensor for wide dynamic range imaging used in an electronic camera to which the present invention is applied will be described. FIG. 1 is a plan view showing an example of the structure of the light receiving surface of the
各画素PIXは、感度の異なる2つのフォトダイオード領域21、22を含む。第1のフォトダイオード領域21は、相対的に広い面積を有し、主たる感光部(以下、主感光画素という)を構成する。第2のフォトダイオード領域22は、相対的に狭い面積を有し、従たる感光部(以下、従感光画素という。)を構成する。画素PIXの右側には垂直転送路(VCCD)23が形成されている。
Each pixel PIX includes two
図1に示した構成はハニカム構造の画素配列であり、図示した2つの画素PIX上側及び下側には不図示の画素が横方向に半ピッチずれた位置に配置される。図1上に示した各画素PIXの左側に示されている垂直転送路23は、これら画像PIXの上側及び下側に配置される不図示の画素からの電荷を読み出し、転送するためのものである。
The configuration shown in FIG. 1 is a pixel arrangement having a honeycomb structure, and pixels (not shown) are arranged at positions shifted by a half pitch in the horizontal direction above and below the two illustrated pixels PIX. A
図1中点線で示すように、四相駆動(φ1,φ2,φ3,φ4)に必要な転送電極24、25、26、27(まとめてELで示す。)が垂直転送路23の上方に配置される。例えば、2層ポリシリコンで転送電極を形成する場合、φ1 のパルス電圧が印加される第1の転送電極24と、φ3 のパルス電圧が印加される第3の転送電極26とは第1層ポリシリコン層で形成され、φ2 のパルス電圧が印加される第2の転送電極25と、φ4 のパルス電圧が印加される第4の転送電極27とは第2層ポリシリコン層で形成される。なお、転送電極24は従感光画素22から垂直転送路23への電荷読み出しも制御する。転送電極25は主感光画素21から垂直転送路23への電荷読み出しも制御する。
As shown by the dotted lines in FIG. 1,
図2は図1の2−2線に沿う断面図であり、図3は図1の3−3線に沿う断面図である。図2に示したように、n型半導体基板30の一表面にp型ウエル31が形成されている。p型ウエル31の表面領域に2つのn型領域33、34が形成され、フォトダイオードを構成している。符号33で示したn型領域のフォトダイオードが主感光画素21に相当し、符号34で示したn型領域のフォトダイオードが従感光画素22に相当している。p+ 型領域36は、画素PIX、垂直転送路23等の電気的な分離を行うチャネルストップ領域である。
2 is a cross-sectional view taken along line 2-2 in FIG. 1, and FIG. 3 is a cross-sectional view taken along line 3-3 in FIG. As shown in FIG. 2, a p-
図3に示すように、フォトダイオードを構成するn型領域33の近傍に垂直転送路23を構成するn型領域37が配置されている。n型領域33、37の間のp型ウエル31が読み出しトランジスタを構成する。
As shown in FIG. 3, an n-
半導体基板表面上には酸化シリコン膜等の絶縁層が形成され、その上にポリシリコンで形成された転送電極ELが形成される。転送電極ELは、垂直転送路23の上方を覆うように配置されている。転送電極ELの上に、更に酸化シリコン等の絶縁層が形成され、その上に垂直転送路23等の構成要素を覆い、フォトダイオード上方に開口を有する遮光膜38がタングステン等により形成されている。
An insulating layer such as a silicon oxide film is formed on the surface of the semiconductor substrate, and a transfer electrode EL made of polysilicon is formed thereon. The transfer electrode EL is disposed so as to cover the
遮光膜38を覆うようにホスホシリケートガラス等で形成された層間絶縁膜39が形成され、その表面が平坦化されている。層間絶縁膜39の上にカラーフィルタ層(オンチップカラーフィルタ)40が形成されている。カラーフィルタ層40は、例えば赤色領域、緑色領域、及び青色領域等の3色以上の色領域を含み、各画素PIXについて一色の色領域が割り当てられている。
An interlayer insulating
カラーフィルタ層40の上に各画素PIXに対応してマイクロレンズ(オンチップマイクロレンズ)41がレジスト材料等により形成されている。マイクロレンズ41は、各画素PIXの上に1つ形成されており、上方より入射する光を遮光膜38が画定する開口内に集光させる機能を有する。
A microlens (on-chip microlens) 41 corresponding to each pixel PIX is formed on the
マイクロレンズ41を介して入射した光は、カラーフィルタ層40によって色分解され、主感光画素21及び従感光画素22の各フォトダイオード領域にそれぞれ入射する。各フォトダイオード領域に入射した光は、その光量に応じた信号電荷に変換され、それぞれ別々に垂直転送路23に読み出される。
Light incident through the
こうして、1つの画素PIXから感度の異なる2種類の画像信号(高感度画像信号と低感度画像信号)と別々に取り出すことが可能であり、光学的に同位相の画像信号を得る。 In this way, two types of image signals (high-sensitivity image signal and low-sensitivity image signal) having different sensitivities can be separately extracted from one pixel PIX, and an optically in-phase image signal is obtained.
図4は、CCD20の受光領域PS内の画素PIX及び垂直転送路23の配置を示す。画素PIXは、セルの幾何学的な形状の中心点を行方向及び列方向に1つおきに画素ピッチの半分(1/2ピッチ)ずらして配列させたハニカム構造となっている。すなわち、互いに隣接する画素PIXの行どうし(又は列どうし)において、一方の行(又は列)のセル配列が、他方の行(又は列)のセル配列に対して行方向(又は列方向)の配列間隔の略1/2だけ相対的にずれて配置された構造となっている。
FIG. 4 shows the arrangement of the pixels PIX and the
図4において画素PIXが配列された受光領域PSの右側には、転送電極ELにパルス電圧を印加するVCCD駆動回路44が配置される。各画素PIXは上述のように主感光画素21と従感光画素22とを含む。垂直転送路23は各列に近接して蛇行して配置されている。
In FIG. 4, a
また、受光領域PSの下側(垂直転送路23の下端側)には、垂直転送路23から移された信号電荷を水平方向に転送する水平転送路(HCCD)45が設けられている。
Further, a horizontal transfer path (HCCD) 45 that transfers the signal charges transferred from the
水平転送路45は、2相駆動の転送CCDで構成されており、水平転送路45の最終段(図4上で最左段)は出力部46に接続されている。出力部46は出力アンプを含み、入力された信号電荷の電荷検出を行い、信号電圧として出力端子に出力する。こうして、各画素PIXで光電変換した信号が点順次の信号列として出力される。
The
図5にCCD20の他の構造例を示す。図5は平面図、図6は図5の6−6線に沿う断面図である。これらの図面中図1及び図2に示した例と同一又は類似の部材には同一の符号を付し、その説明は省略する。
FIG. 5 shows another structural example of the
図5及び図6に示したように、主感光画素21と従感光画素22の間にp+ 型分離領域48が形成されている。この分離領域48はチャネルストップ領域(チャネルストッパ)として機能し、フォトダイオード領域の電気的な分離を行う。また、分離領域48の上方には分離領域48に対応した位置に遮光膜49が形成されている。
As shown in FIGS. 5 and 6, and p + -
遮光膜49と分離領域48とを用いることにより、入射する光を効率的に分離するとともに、主感光画素21及び従感光画素22に蓄積された電荷がその後混合することを防止する。その他の構成は図1及び図2に示した例と同様である。
By using the
また、画素PIXのセル形状や開口形状は図1や図5に示した例に限定されず、多角形、円形など多様な形態をとり得る。更に、各受光セルの分離形状(分割形態)についても、図1や図5に示した形状に限定されない。 Further, the cell shape and the opening shape of the pixel PIX are not limited to the examples shown in FIGS. 1 and 5 and can take various forms such as a polygon and a circle. Further, the separation shape (divided form) of each light receiving cell is not limited to the shape shown in FIG. 1 or FIG.
図7にCCD20の更に他の構造例を示す。図7中図1及び図5に示した例と同一又は類似の部材には同一の符号を付し、その説明は省略する。図7は、二つの感光部(21、22)が斜め方向に分離されている構成を示す。
FIG. 7 shows still another structural example of the
このように、それぞれの分割感光エリアで蓄積された電荷を別々に垂直転送路に読み出すことができればよく、分割形状や分割数、面積の大小関係などは適宜設計される。ただし、従感光画素の面積を主感光画素の面積に比べて小さい値とする。また、主感光部の面積減少を抑制し、感度低下を最小限に抑えることが好ましい。 In this way, it is sufficient if the charges accumulated in each divided photosensitive area can be read out separately to the vertical transfer path, and the division shape, the number of divisions, the size relationship of the areas, etc. are appropriately designed. However, the area of the secondary photosensitive pixel is set to a smaller value than the area of the main photosensitive pixel. In addition, it is preferable to suppress a decrease in the area of the main photosensitive portion and minimize a decrease in sensitivity.
図8は、主感光画素21と従感光画素22の光電変換特性を示すグラフである。横軸は入射光量、縦軸はA/D変換後の画像データ値(QL値)を示す。本例では12ビットデータを例示するが、ビット数はこれに限定されない。
FIG. 8 is a graph showing the photoelectric conversion characteristics of the main
同図に示すように、主感光画素21と従感光画素22の感度比は1:1/aとなっている(ただし、a>1、本例ではa=16)。主感光画素21の出力は、入射光量に比例して次第に増加し、入射光量が「c」のときに出力が飽和値(QL値=4095)に達する。以後、入射光量が増加しても主感光画素21の出力は一定となる。この「c」を主感光画素21の飽和光量と呼ぶことにする。
As shown in the figure, the sensitivity ratio between the main
一方、従感光画素22の感度は、主感光画素21の感度の1/aであり、入射光量がα×cのときにQL値=4095/bで飽和する(ただし、b>1,α=a/b、本例ではb=4,α=4)。このときの「α×c」を従感光画素22の飽和光量と呼ぶ。
On the other hand, the sensitivity of the secondary
このように、異なる感度と飽和を持つ主感光画素21と従感光画素22とを組み合わせることにより、主感光画素のみの構成よりもCCD20のダイナミックレンジをα倍に拡大できる。本例では感度比1/16、飽和比1/4でダイナミックレンジを約4倍に拡大している。主感光画素のみを使用する場合の最大ダイナミックレンジを100%とするとき、本例では従感光画素を活用することによって最大で約400%までダイナミックレンジが拡大される。
In this way, by combining the main
上述したように、CCD等の撮像素子ではRGB又はC(シアン)、M(マゼンタ)、Y(イエロー)等のカラーフィルタを通してフォトダイオードで受けた光を前記信号に変える。このうち、どれだけの光の情報に対して信号が得られるかはレンズを含めた光学系、CCD感度及び飽和に依存する。相対的に感度は高いが蓄積可能な電荷量が少ない素子と、相対的に感度は低いが蓄積可能な電荷量が大きい素子とでは、後者の方が入射される光の強弱が強い場合に対しても適切な信号を供することが可能であり、ダイナミックレンジが広い。 As described above, in an image sensor such as a CCD, light received by a photodiode through a color filter such as RGB or C (cyan), M (magenta), and Y (yellow) is converted into the signal. Of this, how much light information is obtained depends on the optical system including the lens, CCD sensitivity, and saturation. For elements with relatively high sensitivity but a small amount of charge that can be stored, and elements with relatively low sensitivity but a large amount of charge that can be stored, the latter is more intense than the incident light. However, an appropriate signal can be provided, and the dynamic range is wide.
光の強弱に対してどのように応答可能かを設定する手段としては、(1)フォトダイオードに入る光の量を調整する、(2)光を受けて電圧に変えるソースフォロアのアンプゲインを変える−などの態様がある。(1)の場合は、フォトダイオードに対し、上層部にあるマイクロレンズの光透過特性や相対位置関係によって調整できる。その一方、蓄積できる電荷量としては、フォトダイオードの大きさ等で決定される。図1乃至図7で説明したように、大きさの異なる二つのフォトダイオード(21、22)を並べることにより、異なる光のコントラスト比に対して応答可能な信号を得ることができ、更にこれらの二つのフォトダイオード(21、22)の感度を調整することで、最終的に広いダイナミックレンジを有する撮像デバイス(CCD20)を実現できる。 As means for setting how to respond to the intensity of light, (1) adjust the amount of light entering the photodiode, (2) change the amplifier gain of the source follower that receives light and changes it to voltage -There exist aspects, such as. In the case of (1), it can be adjusted with respect to the photodiode by the light transmission characteristics and relative positional relationship of the microlens in the upper layer portion. On the other hand, the amount of charge that can be accumulated is determined by the size of the photodiode and the like. As described with reference to FIGS. 1 to 7, by arranging two photodiodes (21, 22) having different sizes, it is possible to obtain a signal that can respond to a contrast ratio of different light. By adjusting the sensitivity of the two photodiodes (21, 22), it is possible to finally realize an imaging device (CCD 20) having a wide dynamic range.
〔広ダイナミックレンジ撮像可能なカメラの例〕
次に、上述した広ダイナミックレンジ撮像用のCCDを搭載した電子カメラについて説明する。
[Example of camera capable of wide dynamic range imaging]
Next, an electronic camera equipped with the above-described CCD for wide dynamic range imaging will be described.
図9は本発明の実施形態に係る電子カメラの構成を示すブロック図である。このカメラ50は、CCD20を介して撮像した被写体の光学像をデジタル画像データに変換して記録メディア52に記録するデジタルカメラである。カメラ50は表示部54を備えており、撮像中の映像や記録した画像データの再生画像を表示部54に表示させることができる。
FIG. 9 is a block diagram showing the configuration of the electronic camera according to the embodiment of the present invention. The
カメラ50全体の動作は、カメラ内蔵の中央処理装置(CPU)56によって統括制御される。 CPU56は、所定のプログラムに従って本カメラシステムを制御する制御手段として機能するとともに、自動露出(AE)演算、自動焦点調節(AF)演算、及びオートホワイトバランス(AWB)制御など各種演算を実施する演算手段として機能する。
The overall operation of the
CPU56は不図示のバスを介してROM60及びメモリ(RAM)62と接続されている。ROM60にはCPU56が実行するプログラム及び制御に必要な各種データなどが格納されている。メモリ62はプログラムの展開領域及びCPU56の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。
The
画像データの一時記憶領域として、メモリ62は主に主感光画素21から得られる画像データを記憶する第1領域(以下、第1画像メモリという。)62Aと、主に従感光画素22から得られる画像データを記憶する第2領域(以下、第2画像メモリという。)62Bとを備えている。
As a temporary storage area for image data, the
また、CPU56にはEEPROM64が接続されている。EEPROM64は、CCD20の欠陥画素情報、AE、AF及びAWB等の制御に必要なデータ或いはユーザが設定したカスタマイズ情報などが格納される不揮発性の記憶手段であり、必要に応じてデータの書き換えが可能であるとともに、電源OFF時においても情報内容が保持される。CPU56は必要に応じてEEPROM64のデータを参照して演算等を行う。
In addition, an
カメラ50にはユーザが各種の指令を入力するための操作部66が設けられている。操作部66は、シャッターボタン、ズームスイッチ、モード切換スイッチなど各種操作部を含む。シャッターボタンは、撮影開始の指示を入力する操作手段であり、半押し時にONするS1 スイッチと、全押し時にONするS2 スイッチとを有する二段ストローク式のスイッチで構成されている。S1 オンにより、AE及びAF処理が行われ、S2 オンによって記録用の露光が行われる。ズームスイッチは、撮影倍率や再生倍率を変更するための操作手段である。モード切換スイッチは、撮影モードと再生モードとを切り替えるための操作手段である。
The
また、操作部66には、上記の他、撮影目的に応じて最適な動作モード(連写モード、オート撮影モード、マニュアル撮影モード、人物モード、風景モード、夜景モードなど)を設定する撮影モード設定手段、表示部54にメニュー画面を表示させるメニューボタン、メニュー画面から所望の項目を選択する十字ボタン(カーソル移動操作手段)、選択項目の確定や処理の実行を指令するOKボタン、選択項目など所望の対象の消去や指示内容の取消し、或いは1つ前の操作状態に戻らせる指令を入力するキャンセルボタン、表示部54のON/OFFや表示方法の切り替え、或いはオンスクリーンディスプレイ(OSD)の表示/非表示切り替えなどを行うための表示ボタン、ダイナミックレンジ拡大処理(画像合成) を実施するか否かの選択を行うDレンジ拡大モードスイッチなどの操作手段も含まれる。
In addition to the above, the
なお、操作部66の中には、プッシュ式のスイッチ部材、ダイヤル部材、レバースイッチなどの構成によるものに限らず、メニュー画面から所望の項目を選択するようなユーザインターフェースによって実現されるものも含まれている。
Note that the
操作部66からの信号はCPU56に入力される。CPU56は操作部66からの入力信号に基づいてカメラ50の各回路を制御し、例えば、レンズ駆動制御、撮影動作制御、CCD20からの電荷読出制御、画像処理制御、画像データの記録/再生制御、記録メディア52内のファイル管理、表示部54の表示制御などを行う。
A signal from the
表示部54には、例えば、カラー液晶ディスプレイが用いられている。なお、液晶ディスプレイに代えて、有機ELなど他の方式の表示装置(表示手段)を用いてもよい。表示部54は、撮影時に画角確認用の電子ファインダーとして使用できるとともに、記録済み画像を再生表示する手段として利用される。また、表示部54は、ユーザインターフェース用表示画面としても利用され、必要に応じてメニュー情報や選択項目、設定内容などの情報が表示される。
For the
次に、カメラ50の撮影機能について説明する。
Next, the shooting function of the
カメラ50は、光学系ユニット68とCCD20とを備えている。なお、CCD20に代えて、MOS型固体撮像素子など他の方式の撮像素子を用いることも可能である。光学系ユニット68は、不図示の撮影レンズと、絞り兼用メカシャッター機構を含む。撮影レンズは電動式のズームレンズで構成されており、詳細な光学構成については図示しないが、主として倍率変更(焦点距離可変)作用をもたらす変倍レンズ群及び補正レンズ群と、フォーカス調整に寄与するフォーカスレンズとを含む。
The
撮影者によって操作部66のズームスイッチが操作されると、そのスイッチ操作に応じてCPU56からモータ駆動回路70に対して光学系制御信号が出力される。モータ駆動回路70は、CPU56からの制御信号に基づいてレンズ駆動用の信号を生成し、ズームモータ(不図示)に与える。こうして、モータ駆動回路70から出力されるモータ駆動電圧によってズームモータが作動し、撮影レンズ内の変倍レンズ群及び補正レンズ群が光軸に沿って前後移動することにより、撮影レンズの焦点距離(光学ズーム倍率)が変更される。
When the photographer operates the zoom switch of the
光学系ユニット68を通過した光は、CCD20の受光面に入射する。CCD20の受光面には多数のフォトセンサ(受光素子)が平面的に配列され、各フォトセンサに対応して赤(R)、緑(G)、青(B)の原色カラーフィルタが所定の配列構造で配置されている。なお、RGBカラーフィルタに代えて、CMY等のカラーフィルタを用いることもできる。
The light that has passed through the
CCD20の受光面に結像された被写体像は、各フォトセンサによって入射光量に応じた量の信号電荷に変換される。CCD20は、シャッターゲートパルスのタイミングによって各フォトセンサの電荷蓄積時間(シャッタースピード)を制御する電子シャッター機能を有している。
The subject image formed on the light receiving surface of the
CCD20の各フォトセンサに蓄積された信号電荷は、CCDドライバ72から与えられるパルス(水平駆動パルスφH,垂直駆動パルスφV,オーバーフロードレインパルス)に基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出される。CCD20から出力された画像信号は、アナログ処理部74に送られる。アナログ処理部74は、CDS(相関二重サンプリング)回路及びGCA(ゲインコントロールアンプ)回路を含む処理部であり、このアナログ処理部74において、サンプリング処理並びにR,G,Bの各色信号に色分離処理され、各色信号の信号レベルの調整が行われる。
The signal charge accumulated in each photosensor of the
アナログ処理部74から出力された画像信号はA/D変換器76によってデジタル信号に変換された後、信号処理部80を介してメモリ62に格納される。タイミング発生器(TG)82は、CPU56の指令に従ってCCDドライバ72、アナログ処理部74及びA/D変換器76に対してタイミング信号を与えており、このタイミング信号によって各回路の同期がとられている。
The image signal output from the
信号処理部80は、メモリ62の読み書きを制御するメモリコントローラを兼ねたデジタル信号処理ブロックである。信号処理部80は、AE/AF/AWB処理を行うオート演算部、ホワイトバランス回路、ガンマ変換回路、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して各点の色を計算する処理回路)、輝度・色差信号輝度・色差信号生成回路、輪郭補正回路、コントラスト補正回路、圧縮伸張回路、表示用信号生成回路等を含む画像処理手段であり、CPU56からのコマンドに従ってメモリ62を活用しながら画像信号を処理する。
The
メモリ62に格納されたデータ(CCDRAWデータ)は、バスを介して信号処理部80に送られる。信号処理部80の詳細については後述するが、信号処理部80に送られた画像データは、ホワイトバランス調整処理、ガンマ変換処理、輝度信号(Y信号)及び色差信号(Cr,Cb 信号)への変換処理(YC処理)など、所定の信号処理が施された後、メモリ62に格納される。
The data (CCDRAW data) stored in the
撮影画像を表示部54にモニタ出力する場合、メモリ62から画像データが読み出され、信号処理部80の表示変換回路に送られる。表示変換回路に送られた画像データは表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換された後、表示部54に出力される。CCD20から出力される画像信号によってメモリ62内の画像データが定期的に書き換えられ、その画像データから生成される映像信号が表示部54に供給されることにより、撮像中の映像(スルー画)がリアルタイムに表示部54に表示される。撮影者は表示部54に映し出されるスルー画の映像によって画角(構図)を確認できる。
When the captured image is output to the
撮影者が画角を決めてシャッターボタンを押下すると、CPU56はこれを検知し、シャッターボタンの半押し(S1 =ON)に応動してAE処理及びAF処理などの撮影準備動作を行い、シャッターボタンの全押し(S2 =ON)に応動して記録用の画像を取り込むためのCCD露光及び読み出し制御を開始する。
When the photographer determines the angle of view and presses the shutter button, the
すなわち、CPU56は、S1 =ONに応動して取り込まれた画像データから焦点評価演算やAE演算などの各種演算を行い、その演算結果に基づいてモータ駆動回路70に制御信号を送り、不図示のAFモータを制御して光学系ユニット68内のフォーカスレンズを合焦位置に移動させる。
That is, the
また、オート演算部のAE演算部は撮影画像の1画面を複数のエリア(例えば、8×8)に分割し、分割エリアごとにRGB信号を積算する回路を含み、その積算値をCPU56に提供する。RGBの各色信号について積算値を求めてもよいし、これらのうちの一色(例えば、G信号)のみについて積算値を求めてもよい。
The AE calculation unit of the auto calculation unit includes a circuit that divides one screen of a captured image into a plurality of areas (for example, 8 × 8) and integrates RGB signals for each divided area, and provides the integrated value to the
CPU56は、AE演算部から得た積算値に基づいて重み付け加算を行い、被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。
The
カメラ50のAEは、広い輝度レンジを精度よく測光するために、複数回の測光を行い、被写体の輝度を正しく認識する。例えば、5〜17EVの範囲を測光するのに、1回の測光で3EVの範囲を測定できるものとすると、露出条件を変えながら最大で4回の測光が行われる。
The AE of the
ある露出条件で測光を行い、各分割エリアの積算値を監視する。画像内に飽和しているエリアが存在していれば露出条件を変えて測光を行う。その一方、画像内に飽和しているエリアがなければ、その露出条件で正しく測光できるため、更なる露出条件の変更は行わない。 Metering is performed under certain exposure conditions, and the integrated value of each divided area is monitored. If there is a saturated area in the image, photometry is performed with different exposure conditions. On the other hand, if there is no saturated area in the image, metering can be performed correctly under that exposure condition, and therefore the exposure condition is not changed further.
こうして、複数回に分けて測光を実行することで広いレンジ(5〜17EV)を測光し、最適な露出条件を決定する。なお、1回の測光で測定できる範囲や、測光すべき範囲については、カメラ機種ごとに適宜設計可能である。 In this way, photometry is performed in a plurality of times to measure the wide range (5 to 17 EV), and the optimum exposure condition is determined. Note that the range that can be measured by one photometry and the range that should be measured can be appropriately designed for each camera model.
CPU56は、上述のAE演算結果に基づいて絞りとシャッタースピードを制御し、S2 =ONに応動して記録用の画像を取得する。本例のカメラ50は、スルー画中は主感光画素21のみからデータの読み出しを行い、主感光画素21の画像信号からスルー画用の画像を作成する。また、シャッターボタンのS1 =ONに伴うAE処理及びAF処理は主感光画素21から得られる信号に基づいて行われる。そして、広ダイナミックレンジ撮像を行う撮影モードが選択されている場合、又は、AEの結果(ISO感度や測光値)又はホワイトバランスゲイン値などに基づき自動的に広ダイナミックレンジ撮像モードが選択された場合には、シャッターボタンのS2 =ONに応動してCCD20の露光を行い、露光後にメカシャッターを閉じて光の進入を遮断した状態で垂直駆動信号(VD)に同期して、まず、主感光画素21の電荷を読み出し、その後、従感光画素22の電荷の読み出しを行う。
The
また、このカメラ50はストロボ装置84を有している。ストロボ装置84はは、発光部としての放電管(例えば、キセノン管)、トリガー回路、放電用エネルギーを蓄積するメインコンデンサ及びその充電回路などを含むブロックである。CPU56は必要に応じてストロボ装置84にコマンドを送り、ストロボ装置84の発光を制御する。
The
こうして、シャッターボタンの全押し(S2 =ON)に応動して取り込まれた画像データは、信号処理部80においてYC処理その他の所定の信号処理を経た後、所定の圧縮フォーマット(例えば、JPEG方式) に従って圧縮され、メディアインターフェース部(図9中不図示)を介して記録メディア52に記録される。圧縮形式はJPEGに限定されず、MPEGその他の方式を採用してもよい。
Thus, the image data taken in response to the full press of the shutter button (S2 = ON) is subjected to YC processing and other predetermined signal processing in the
画像データを保存する手段は、スマートメディア(商標)、コンパクトフラッシュ(登録商標)などで代表される半導体メモリカード、磁気ディスク、光ディスク、光磁気ディスクなど、種々の媒体を用いることができる。また、リムーバブルメディアに限らず、カメラ50に内蔵された記録媒体(内部メモリ)であってもよい。
As a means for storing image data, various media such as a semiconductor memory card represented by SmartMedia (trademark), CompactFlash (registered trademark), a magnetic disk, an optical disk, and a magneto-optical disk can be used. Further, the recording medium (internal memory) built in the
操作部66のモード選択スイッチによって再生モードが選択されると、記録メディア52に記録されている最終の画像ファイル(最後に記録したファイル)が読み出される。記録メディア52から読み出された画像ファイルのデータは、信号処理部80の圧縮伸張回路によって伸張処理された後、表示用の信号に変換されて表示部54に出力される。
When the playback mode is selected by the mode selection switch of the
再生モードの一コマ再生時に十字ボタンを操作することにより、順方向又は逆方向にコマ送りすることができ、コマ送りされた次のファイルが記録メディア52から読み出され、表示画像が更新される。
By operating the cross button during single-frame playback in the playback mode, it is possible to move forward or backward in the forward direction, the next file that has been forwarded forward is read from the
図10は図9に示した信号処理部80における信号処理フローを示したブロック図である。
FIG. 10 is a block diagram showing a signal processing flow in the
図10に示すように、A/D変換器76によってデジタル信号に変換された主感光画素データ(高感度画像データという。)は、オフセット処理回路91においてオフセット処理される。オフセット処理回路91は、CCD出力の暗電流成分を補正する処理部であり、CCD20上の遮光画素から得られるオプティカルブラック(OB)信号の値を画素値から減算する演算を行う。オフセット処理回路91から出力されたデータ(高感度RAW データ) は、リニアマトリックス回路92に送られる。
As shown in FIG. 10, main photosensitive pixel data (referred to as high-sensitivity image data) converted into a digital signal by the A /
リニアマトリックス回路92は、CCD20の分光特性を補正する色調補正処理部である。リニアマトリックス回路92において補正されたデータは、ホワイトバランス(WB)ゲイン調整回路93に送られる。WBゲイン調整回路93は、R,G,Bの色信号のレベルを増減するためのゲイン可変アンプを含み、CPU56からの指令に基づいて各色信号のゲイン調整を行う。WBゲイン調整回路93においてホワイトバランス調整処理された信号は、ガンマ補正回路94に送られる。
The
ガンマ補正回路94は、CPU56の指令に従い、所望のガンマ特性となるように入出力特性を変換する。ガンマ補正回路94においてガンマ補正された画像データは同時化処理回路95に送られる。
The
同時化処理回路95は、単板CCD20のカラーフィルタ配列構造に伴う色信号の空間的なズレを補間して各点の色(RGB)を計算する処理部と、RGB信号から輝度(Y)信号及び色差信号(Cr,Cb )を生成するYC変換処理部とを含む。同時化処理回路95で生成された輝度・色差信号(YCr Cb )は、各種補正回路96に送られる。
The
各種補正回路96には、例えば、輪郭強調(アパーチャ補正)回路や色差マトリックスによる色補正回路などが含まれる。各種補正回路96において所要の補正処理が施された画像データはJPEG圧縮回路97に送られる。JPEG圧縮回路97において圧縮処理された画像データは、画像ファイルとして記録メディア52に記録される。
The
同様に、A/D変換器76によってデジタル信号に変換された従感光画素データ(低感度画像データという。)は、オフセット処理回路101においてオフセット処理される。オフセット処理回路101から出力されたデータ(低感度RAW データ) は、リニアマトリックス回路102に送られる。
Similarly, sub-photosensitive pixel data (referred to as low-sensitivity image data) converted into a digital signal by the A /
リニアマトリックス回路102から出力されたデータはホワイトバランス(WB)ゲイン調整回路103に送られ、ホワイトバランス調整が行われる。ホワイトバランス調整処理された信号は、ガンマ補正回路104に送られる。
The data output from the
また、低感度画像データ用のリニアマトリックス回路102から出力された低感度画像データは、積算回路105にも与えられる。積算回路105は、撮像画面を複数のエリア(例えば、16×16)に分割し、それぞれのエリアごとにR,G,Bの画素値を色別に積算する処理を行い、色別の平均値を算出する。
The low-sensitivity image data output from the low-sensitivity image data
積算回路105において算出された平均値のうち、G成分の最大値(Gmax )が検出され、その検出されたGmax を表すデータはDレンジ算出回路106に送られる。Dレンジ算出回路106は、図で説明した従感光画素の光電変換特性に基づき、最大値Gmax の情報から被写体の最大輝度レベルを算出し、当該被写体の記録に必要な最大のダイナミックレンジを算出する。
Among the average values calculated by the
また、本例では、再現ダイナミックレンジを何%までにするかという設定情報を所定のユーザインターフェース(後述)を通して入力することができる。ユーザが指定したDレンジ選択情報107は、CPU56からDレンジ算出回路106に送られる。Dレンジ算出回路106は、撮像データを解析して求めたダイナミックレンジと、ユーザが指定したDレンジ選択情報とに基づき、記録時のダイナミックレンジを決定する。
In this example, setting information indicating how much the reproduction dynamic range is to be set can be input through a predetermined user interface (described later). The D
撮像データから求めた最大のダイナミックレンジがDレンジ選択情報107のDレンジ以下の場合には、撮像データから求めたダイナミックレンジが採用される。撮像データから求めた最大のダイナミックレンジがDレンジ選択情報のDレンジを超える場合には、Dレンジ選択情報が示すDレンジが採用される。
When the maximum dynamic range obtained from the imaging data is equal to or less than the D range of the D
Dレンジ算出回路106で決定されたDレンジに応じて、低感度画像データ用のガンマ補正回路104のガンマ係数が制御される。
In accordance with the D range determined by the D
ガンマ補正回路104から出力された画像データは同時化処理回路108において、同時化処理及びYC変換処理が行われる。同時化処理回路108で生成された輝度・色差信号(YCr Cb )は、各種補正回路109に送られ、輪郭強調、色差マトリックス処理などの補正処理が行われる。各種補正回路109において所要の補正処理が施された低感度画像データはJPEG圧縮回路110において圧縮処理され、高感度画像データとは別の画像ファイルとして記録メディア52に記録される。
The
高感度画像データについては、民生用ディスプレイの代表的特性であるsRGB色規格に対して画像設計がなされている。このsRGB色空間を対象とした光電変換特性を図11に示す。撮像系で図11のような変換特性を持たせておくことにより、通常のディスプレイを用いた画像再現に際して、輝度に関して好ましい画像を再現することが可能となる。 For high-sensitivity image data, an image design is made to the sRGB color standard, which is a typical characteristic of consumer displays. The photoelectric conversion characteristics for this sRGB color space are shown in FIG. By providing the imaging system with the conversion characteristics as shown in FIG. 11, it is possible to reproduce a preferable image with respect to luminance when reproducing an image using a normal display.
その一方で、近時、印刷用途などではsRGBよりも広い色空間を持つ拡張色空間を対象とした色再現設計が行われることがある。 On the other hand, in recent years, color reproduction design for an extended color space having a color space wider than sRGB may be performed in printing applications and the like.
図12には、sRGB空間と拡張色空間の例を示した。同図において、符号120で示した馬蹄形の内側は人間が知覚できる色領域を示す。符号121で示した三角形の内側はsRGB色空間で再現できる色再現域を示し、符号122で示した三角形の内側は拡張色空間で再現できる色再現域を示す。リニアマトリックスの値(図10で説明したリニアマトリックス回路92、102におけるマトリックスの値)を変えることによって再現できる色の領域を変化させることができる。
FIG. 12 shows an example of the sRGB space and the extended color space. In the figure, the inner side of the horseshoe shape indicated by
本実施形態では、sRGB以外の色空間を対象とした用途、例えば、プリント用途などにおいて、高感度画像データのみならず、同時露光で得られた低感度画像データを画像加工で利用することで色再現域や輝度再現域を拡張し、一層好ましい画像を作成する。再現域に応じて異なるガンマを持たせることにより、異なるダイナミックレンジに対応した別々の画像を作ることができる。 In the present embodiment, in applications intended for a color space other than sRGB, for example, printing applications, not only high-sensitivity image data but also low-sensitivity image data obtained by simultaneous exposure is used for image processing. The reproduction area and the luminance reproduction area are expanded to create a more preferable image. Different images corresponding to different dynamic ranges can be created by having different gammas depending on the reproduction range.
sRGB色再現域に対するエンコード式と、拡張色再現域に対するエンコード式とを図13に示す。例えば、同図の下段(Case2)に示すように、エンコード条件を負値や1以上の値にも対応させることによって、再現できる輝度域に応じたファイルを作成することができる。低感度画像データについては、拡張された再現域に対応したエンコード条件に従って信号処理が行われ、ファイルが生成される。 FIG. 13 shows an encoding formula for the sRGB color gamut and an encoding formula for the extended color gamut. For example, as shown in the lower part of the figure (Case 2), a file corresponding to a reproducible luminance range can be created by making the encoding condition also correspond to a negative value or a value of 1 or more. For low-sensitivity image data, signal processing is performed according to the encoding condition corresponding to the expanded reproduction range, and a file is generated.
なお、ハイライト情報は、微妙な情報を持つのでビットの深さが重要である。したがって、sRGBに対応するデータを例えば8ビットで記録し、拡張された再現域に対応したデータについてはそれよりもビット数の大きい例えば16ビットで記録することが好ましい。 Note that the depth of the bit is important because the highlight information has delicate information. Therefore, it is preferable to record data corresponding to sRGB in, for example, 8 bits, and to record data corresponding to the expanded reproduction area in, for example, 16 bits having a larger number of bits.
図14は、記録メディア52のディレクトリ(フォルダ)構造の一例を示す図である。カメラ50はDCF(Design rule for Camera File system: 社団法人日本電子工業振興協会〔JEIDA 〕において規定されたデジタルカメラの統一記録フォーマット) 規格に従って画像ファイルを記録する機能を備えている。
FIG. 14 is a diagram illustrating an example of a directory (folder) structure of the
図14のようにルートディレクトリ直下にディレクトリ名「DCIM」を持つDCF イメージルートディレクトリが形成され、DCF イメージルートディレクトリの直下に少なくとも1つのDCF ディレクトリが存在する。DCF ディレクトリは、DCF オブジェクトである画像ファイルを格納するためのディレクトリである。DCF ディレクトリ名は、DCF 規格に従い3文字のディレクトリ番号とこれに続く5文字の自由文字(合計8文字)で定義される。DCF ディレクトリ名はカメラ50によって自動生成されてもよいし、ユーザが指定又は変更できる構成にしてもよい。
As shown in FIG. 14, a DCF image root directory having a directory name “DCIM” is formed immediately below the root directory, and at least one DCF directory exists immediately below the DCF image root directory. The DCF directory is a directory for storing image files that are DCF objects. A DCF directory name is defined by a 3-character directory number followed by 5 free characters (8 characters in total) according to the DCF standard. The DCF directory name may be automatically generated by the
カメラ50で生成された画像ファイルは、DCFの命名規則等にしたがって自動生成されるファイル名が付与され、指定された又は自動選択されたDCF ディレクトリに格納される。DCF 命名規則に従うDCF ファイル名は、4文字の自由文字とこれに続く4文字のファイル番号で定義される。
The image file generated by the
広ダイナミックレンジ記録モードによって取得された高感度画像データと低感度画像データからそれぞれ作成された二つの画像ファイルは相互に関連付けられて記録される。例えば、高感度画像データから作成された一方のファイル(通常の標準的な再現域に対応したファイル、以下、標準画像ファイルという。)についてはDCF 命名規則に従って「ABCD****.JPG」と命名し(「****」はファイル番号) 、これと同時撮像で得られた低感度画像データから作成された他方のファイル(拡張再現域に対応したファイル、以下、拡張画像ファイルという。)については、標準画像ファイルのファイル名( 「. JPG 」を除いた8 文字列) の末尾に「b 」を付加して「ABCD****b.JPG 」と命名する。このように名前を関連づけて保存しておくことにより、出力時の特性に適したファイルを選択して使うことが可能である。 Two image files respectively created from high-sensitivity image data and low-sensitivity image data acquired in the wide dynamic range recording mode are recorded in association with each other. For example, one file created from high-sensitivity image data (a file corresponding to a normal standard reproduction area, hereinafter referred to as a standard image file) is called “ABCD ****. JPG” according to the DCF naming convention. Naming (“****” is the file number) and the other file created from the low-sensitivity image data obtained by simultaneous imaging (file corresponding to the extended reproduction range, hereinafter referred to as the extended image file) For, add "b" to the end of the standard image file name (8 character strings excluding ".JPG") and name it "ABCD **** b.JPG". By storing the names in association with each other in this way, it is possible to select and use a file suitable for the characteristics at the time of output.
なお、ファイル名の関連付け方法の他の例として、標準画像ファイルのファイル名の末尾にも「a 」などの文字を付加してもよい。ファイル番号の後ろに付加する文字列を変えることによって標準画像ファイルと拡張画像ファイルとを区別することができる。また、ファイル番号に先行する自由文字の部分を変更する態様がある。その他、標準画像ファイルと拡張画像ファイルとで拡張子を変更する態様もある。少なくともファイル番号の部分を共通にしておくことで二つのファイルの関連性を確保できる。 As another example of the file name association method, a character such as “a” may be added to the end of the file name of the standard image file. The standard image file and the extended image file can be distinguished by changing the character string added after the file number. In addition, there is an aspect in which the free character part preceding the file number is changed. In addition, there is a mode in which the extension is changed between the standard image file and the extended image file. By sharing at least the file number, the relationship between the two files can be secured.
拡張画像ファイルの記録形式は、JPEG形式に限定されない。図12に示されているように、sRGB色空間と拡張色空間とでは大部分の色は共通である。したがって、撮像された画像をsRGB色空間用と拡張色空間用とにそれぞれエンコードし、その差をとると画像の殆どのピクセルは「0」値となる。したがって、この差分に対して例えばハフマン圧縮を行い、一方を標準デバイスのsRGB画像ファイル、もう一つのファイルを差分画像とすることで、拡張色空間に対応できると同時に記録容量を減らすことができる。 The recording format of the extended image file is not limited to the JPEG format. As shown in FIG. 12, most of the colors are common in the sRGB color space and the extended color space. Therefore, when the captured image is encoded for the sRGB color space and the extended color space, and the difference between them is taken, most pixels of the image have a value of “0”. Therefore, for example, Huffman compression is performed on this difference, and one is used as the sRGB image file of the standard device and the other file is used as the difference image, so that the extended color space can be handled and the recording capacity can be reduced.
図15には低感度像データを上記のように差分画像として記録する態様のブロック図が示されている。図15中図10と同一又は類似の構成については同一の符号を付し、その説明は省略する。 FIG. 15 is a block diagram showing a mode in which low-sensitivity image data is recorded as a difference image as described above. In FIG. 15, the same or similar components as those in FIG. 10 are denoted by the same reference numerals, and the description thereof is omitted.
高感度画像データから生成された画像と低感度画像データから生成された画像とを差分処理回路132に送り、こられの画像の差分画像を生成する。差分処理回路132で生成された差分画像は圧縮回路133に送られ、ここでJPEGとは異なる所定の圧縮方法に従って圧縮処理される。圧縮回路133で生成された圧縮画像データのファイルは記録メディア52に記録される。
An image generated from the high-sensitivity image data and an image generated from the low-sensitivity image data are sent to the
図16は、再生系の構成を示したブロック図である。記録メディア52に記録されている情報はメディアインターフェース部140を介して読み取られる。メディアインターフェース部140は、バスを介してCPU56と接続されており、CPU56の指令に従い記録メディア52の読み書きに必要な信号の受渡しを行うために所要の信号変換を行う。
FIG. 16 is a block diagram showing the configuration of the reproduction system. Information recorded on the
記録メディア52から読み出された標準画像ファイルの圧縮データは伸張処理部142において伸張処理され、メモリ62上の高感度画像データ復元領域62Cに展開される。伸張された高感度画像データは表示変換回路146に送られる。表示変換回路146は、表示部54の解像度に合わせて画像サイズを変換する縮小処理部と、縮小処理部で生成された表示用画像を表示用の所定の信号形式に変換する表示信号生成部とを含む。
The compressed data of the standard image file read from the
表示変換回路146において表示用の所定の信号形式に変換された信号は表示部54に出力される。こうして、表示部に再生画像が表示される。通常は、標準画像ファイルのみを再生して表示部に表示させる。
The signal converted into a predetermined signal format for display in the
また、標準画像ファイルと関連付けられている拡張画像ファイルを利用して再現域の広い画像を作成する場合には、標準画像ファイルを伸張して得たデータからRGBGの高感度画像データを復元し、これをメモリ62上の高感度画像データ復元領域62Dに記憶する。
In addition, when creating an image with a wide reproduction range using the extended image file associated with the standard image file, the high-sensitivity image data of RGBG is restored from the data obtained by expanding the standard image file, This is stored in the high-sensitivity image
更に、記録メディア52から拡張画像ファイルが読み出され、伸張処理部148において伸張処理された後、RGBの低感度画像データに復元され、メモリ62上の低感度画像データ復元領域62Eに記憶される。こうしてメモリ62上に記憶された高感度画像データと低感度画像データとが読み出され、合成処理部(画像加算部)150に送られる。
Further, the extended image file is read from the
合成処理部150は、高感度画像データに係数を乗算する乗算部と、低感度画像データに係数を乗算する乗算部と、係数乗算後の高感度画像データと低感度画像データとを加算(合成)する加算部と、を含む処理部である。高感度画像データ及び低感度画像データに乗算される各係数(加算割合を示す係数)はCPU56によって可変設定される。
The
合成処理部150で生成された信号はガンマ変換部152に送られる。ガンマ変換部152は、CPU56の制御に従いROM60内のデータを参照して、所望のガンマ特性となるように入出力特性を変換する。CPU56は画像出力時の再現域に合わせてガンマ特性を切り換える制御を行う。ガンマ補正された画像信号はYC変換部153に送られ、RGB信号から輝度(Y)信号及び色差信号(Cr,Cb )に変換される。
The signal generated by the
YC変換部153で生成された輝度・色差信号(YCr Cb )は、各種補正部154に送られる。各種補正部154において輪郭強調(アパーチャ補正)、色差マトリックスによる色補正など所要の補正処理が施されて最終画像が生成される。こうして生成された最終画像のデータは表示変換回路146に送られ、表示用の信号に変換された後、表示部54に出力される。
The luminance / color difference signal (YCrCr) generated by the
図16ではカメラ50に搭載されている表示部54に画像を再生表示する例を述べたが、外部の画像表示装置に画像を再生表示させることも可能である。また、画像閲覧用のアプリケーションプログラムを組み込んだパソコンや専用の画像再生装置、或いはプリンターなどを用いて図16と同様の処理フローを実現することにより、標準画像の再現並びに拡張された再現域に対応した画像の再現が可能である。
Although FIG. 16 illustrates an example in which an image is reproduced and displayed on the
図17は高感度画像データと低感度画像データとを合成して得られる最終画像(合成画像データ)のレベルと相対的被写体輝度との関係を示すグラフである。 FIG. 17 is a graph showing the relationship between the level of the final image (synthesized image data) obtained by synthesizing the high-sensitivity image data and the low-sensitivity image data and the relative subject luminance.
相対的被写体輝度は、高感度画像データが飽和するときのレベルを与える被写体輝度を100 %として、これを基準に被写体輝度を表したものである。図17では、画像データを8ビット(0〜 255)で表現しているが、ビット数はこれに限定されない。 Relative subject brightness represents subject brightness with reference to 100% of subject brightness that gives a level at which high-sensitivity image data is saturated. In FIG. 17, the image data is represented by 8 bits (0 to 255), but the number of bits is not limited to this.
合成画像のダイナミックレンジは、ユーザインターフェースを通じて設定される。本例では、ダイナミックレンジをD0 からD5 までの6段階に設定できるものとする。人間の感覚は略logスケールで効いてくるので、log(対数)の関数をとったときに略リニアになるように、再現ダイナミックレンジを例えば、相対被写体輝度で100%−130%−170%−220%−300%−400%という具合に段階的に切り替えることができるように構成されている。 The dynamic range of the composite image is set through the user interface. In this example, it is assumed that the dynamic range can be set in six stages from D0 to D5. Since human senses are effective on a substantially log scale, the reproduction dynamic range is, for example, 100% −130% −170% in terms of relative subject luminance so that it becomes substantially linear when the log (logarithm) function is taken. It is configured so that it can be switched in stages such as 220% -300% -400%.
もちろん、ダイナミックレンジの設定段数は本例に限定されず、任意の段階数に設計することが可能であるし、連続的な設定(無段階)も可能である。 Of course, the number of setting stages of the dynamic range is not limited to this example, it can be designed to an arbitrary number of stages, and continuous setting (no stage) is also possible.
ダイナミックレンジの設定に応じて、ガンマ回路のガンマ係数や加算時の合成パラメータ、色差信号マトリックス回路のゲイン係数などが制御される。カメラ50内の不揮発性メモリ(ROM60又はEEPROM64)には、設定されるダイナミックレンジに対応した各種パラメータ、係数等を規定したテーブルデータが格納されている。
Depending on the setting of the dynamic range, the gamma coefficient of the gamma circuit, the synthesis parameter at the time of addition, the gain coefficient of the color difference signal matrix circuit, and the like are controlled. A non-volatile memory (
図18及び図19にはダイナミックレンジ選択操作時のユーザインターフェースの例が示されている。図18に示した例では、メニュー画面から遷移したダイナミックレンジ設定画面においてダイナミックレンジを指定する入力ボックス160が表示される。十字ボタンなど所定の操作手段を用いて入力ボックス160横のプルダウンメニューボタン162を選択すると、図示のように選択可能なダイナミックレンジの値(相対的被写体輝度)を示すプルダウンメニュー164が表示される。
18 and 19 show examples of user interfaces at the time of dynamic range selection operation. In the example shown in FIG. 18, an
このプルダウンメニュー164の中から十字ボタンによって所望のダイナミックレンジを選択し、OKボタンを押すことにより、ダイナミックレンジが設定される。
A dynamic range is set by selecting a desired dynamic range from the pull-
図19に示した他の例では、ダイナミックレンジ設定画面上に入力ボックス170とDレンジパラメータ軸172が表示される。十字ボタンなどの操作手段を使用して、Dレンジパラメータ軸172に沿ってスライダ174を移動させることにより、100 %から最大400 %までの範囲でダイナミックレンジを任意に指定することができる。スライダ174の位置に応じて入力ボックス170に示されるダイナミックレンジの設定値が変更される。所望の設定値が得られたら、画面下の操作案内に従ってOKボタンを押し、設定処理を確定(実行)させる。なお、キャンセルボタンを押すと、設定処理が取り消され、元の設定状態に戻る。
In another example shown in FIG. 19, an
図18及び図19では表示部54の画面上でダイナミックレンジの選択操作を行う例を述べたが、ダイヤル式のスイッチやスライドスイッチ、或いはプッシュ式のスイッチなどの操作部材によってダイナミックレンジの選択を行う態様も可能である。
18 and 19, the example of performing the dynamic range selection operation on the screen of the
また、撮影シーンによって必要とされるダイナミックレンジが異なるので、撮像した画像を解析してダイナミックレンジを自動設定する態様もある。更に、ポートレートモード、夜景モードなどの撮影モードに応じて自動的にダイナミックレンジの設定を切り替える態様も可能である。 In addition, since the required dynamic range differs depending on the shooting scene, there is also an aspect in which the dynamic range is automatically set by analyzing the captured image. Furthermore, a mode in which the setting of the dynamic range is automatically switched according to the photographing mode such as the portrait mode and the night view mode is also possible.
何%までの情報を記録したかというダイナミックレンジの情報は画像データとともにファイルのヘッダー等に記録される。ダイナミックレンジ情報は、標準画像ファイル及び拡張画像ファイルの両方に記録してもよいし、何れか一方のファイルに記録してもよい。 The dynamic range information indicating how much information is recorded is recorded together with the image data in a file header or the like. The dynamic range information may be recorded in both the standard image file and the extended image file, or may be recorded in either one of the files.
画像ファイル内にダイナミックレンジ情報を付加しておくことにより、プリンター等の画像出力装置においてその情報を読み込み、合成処理、ガンマ変換、色補正などの処理内容を変えて最適な画像を作成することが可能になる。 By adding dynamic range information in the image file, the information can be read by an image output device such as a printer, and the processing content such as composition processing, gamma conversion, and color correction can be changed to create an optimal image. It becomes possible.
プリント用途であっても、ポートレート用には階調の柔らかい、好ましい肌色を再現する画像が好まれるので、写真の用途別に、例えば、商業コマーシャル用写真と、ポートレート、或いは、屋内撮影用と屋外撮影用というように用途に応じて拡張画像を作成することが有用である。これを実現するために、図18及び図19で説明したように、カメラ50において拡張画像の輝度再現域を指定し得るユーザインターフェースを設け、使用用途や撮影状況に応じてユーザに選択させる構成となっている。
Even for print applications, images with soft gradations and reproduction of desirable skin colors are preferred for portraits. For example, for commercial photography and portrait or indoor photography. It is useful to create an extended image according to the application, such as for outdoor photography. In order to realize this, as described with reference to FIGS. 18 and 19, the
次に、上記の如く構成されたカメラ50の動作について説明する。
Next, the operation of the
図20乃至図22は、カメラ50の制御手順を示したフローチャートである。撮影モードを選択した状態でカメラ電源をONしたとき、又は再生モードから撮影モードに切り替えられたときに、図20の制御フローがスタートする。
20 to 22 are flowcharts showing the control procedure of the
撮影モードの処理がスタートすると(ステップS200)、CPU56はまず、表示部54にスルー画を表示させるモードが選択されているか否かの判定を行う(ステップS202)。セットアップ画面等において撮影モード起動時に表示部54をONするモード(スルー画ONモード)が選択されている場合には、ステップS204に進み、CCD20を含む撮像系に電源が供給され、撮像可能な状態になる。このとき、CCD20はスルー画表示用の連続撮像を行うために一定の撮像周期で駆動される。
When the shooting mode process starts (step S200), the
本例のカメラ50は表示部54においてNTSC方式のビデオ信号を利用しており、フレームレートが30フレーム/秒に設定されている(2フィールドで1フレームを構成するため1フィールド=1/60秒)。当該カメラ50の場合、同じ画像を2フィールド表示させる方式を採用しているため1/30秒ごとに画像内容が更新される。この周期で1画面の画像データを更新するために、スルー画時においてはCCD20の垂直駆動(VD)パルスの周期が1/30秒に設定される。CPU56はタイミング発生器82に対してCCD駆動モードの制御信号を与え、タイミング発生器82によってCCD駆動用の信号が生成される。こうして、CCD20による連続撮像が開始され、表示部54にスルー画が表示される(ステップS206)。
The
スルー画の表示中、CPU56はシャッターボタンからの信号入力を監視し、S1 スイッチがONしたか否かの判定を行う(ステップS208)。S1 スイッチがOFFの状態であれば、ステップS208の処理がループし、スルー画表示状態が維持される。
While the through image is being displayed, the
ステップS202においてスルー画OFF(非表示)の設定になっている場合には、ステップS204〜ステップS206を省略してステップS208に進む。 If the through image is set to OFF (non-display) in step S202, step S204 to step S206 are omitted and the process proceeds to step S208.
その後、撮影者によってシャッターボタンが押され、撮影準備の指示が入力されると(CPU56がS1 =ONを検出すると)、ステップS210に進み、AE及びAF処理を行う。なお、このときCPU56は、CCD駆動モードを1/60秒に変更する。CCD20からの画像取り込み周期が短くなり、高速にAE・AF処理を実施することができる。ここで設定されるCCD駆動周期は、1/60秒に限らず、1/120秒など適宜の値に設定可能である。AE処理によって撮影条件が決定され、AF処理によってフォーカス調整が行われる。
Thereafter, when the photographer presses the shutter button and inputs a shooting preparation instruction (when the
その後、CPU56はシャッターボタンのS2 スイッチからの信号入力を判定する(ステップS212)。ステップS212でS2 スイッチがONしていない場合は、S1 が解除されたか否かを判定する(ステップS214)。ステップS214でS1 が解除されていれば、ステップS208に戻り、撮影指示の入力待ち状態になる。
Thereafter, the
一方、ステップS214でS1 が解除されていなければステップS212に戻り、S2 =ONの入力を待機する。ステップS212においてS2 =ONの入力が検出されると、図21に示すステップS216に進み、記録用画像を取得するための撮影動作(CCD露光)が実行される。 On the other hand, if S1 is not canceled in step S214, the process returns to step S212 and waits for the input of S2 = ON. When the input of S2 = ON is detected in step S212, the process proceeds to step S216 shown in FIG. 21, and a photographing operation (CCD exposure) for acquiring a recording image is executed.
次いで、広ダイナミックレンジ記録を行うモードであるか否かを判定し、設定モードに応じて処理が制御される。Dレンジ拡大モードスイッチなど所定の操作手段によって広ダイナミックレンジ記録モードが選択されている場合には、まず、主感光画素21から信号の読み出しが行われ(ステップS220)、その画像データ(主感光部データ)は第1画像メモリ62Aに書き込まれる(ステップS222)。
Next, it is determined whether or not it is a mode for performing wide dynamic range recording, and the processing is controlled according to the setting mode. When the wide dynamic range recording mode is selected by a predetermined operation means such as a D range expansion mode switch, first, a signal is read from the main photosensitive pixel 21 (step S220), and the image data (main photosensitive portion) is read. Data) is written to the
次に、従感光画素22から信号の読み出しが行われ(ステップS224)、その画像データ(従感光部データ)は第2画像メモリ62Bに書き込まれる(ステップS226)。
Next, a signal is read from the secondary photosensitive pixel 22 (step S224), and the image data (secondary photosensitive portion data) is written in the
その後、主感光部データと従感光部データとのそれぞれについて図10又は図15で説明したとおり、所要の信号処理が施される(ステップS228、S230)。主感光部データから生成された標準再現用の画像ファイルと従感光部データから生成された拡張再現用の画像ファイルとがそれぞれ関連付けられて記録メディア52に記録される(ステップS232、S234)。 Thereafter, as described with reference to FIG. 10 or FIG. 15, required signal processing is performed on each of the main photosensitive portion data and the secondary photosensitive portion data (steps S228 and S230). The standard reproduction image file generated from the main photosensitive portion data and the extended reproduction image file generated from the secondary photosensitive portion data are associated with each other and recorded on the recording medium 52 (steps S232 and S234).
その一方、ステップS218において広ダイナミックレンジ記録を行わない通常の記録モードの場合には、主感光画素21のみから信号の読み出しが行われる(ステップS240)。主感光部データは第1画像メモリ62Aに書き込まれ(ステップS242)、その後、主感光部データの処理が行われる(ステップS248)。ここでは、図10で説明した所要の信号処理を経て、主感光部データのみから画像を作成する通常の処理が行われる。ステップS248で生成された画像データは、所定のファイルフォーマットに従って記録メディア52に記録される(ステップS252)。
On the other hand, in the normal recording mode in which the wide dynamic range recording is not performed in step S218, the signal is read from only the main photosensitive pixel 21 (step S240). The main photosensitive portion data is written in the
ステップS234又はステップS252において画像の記録処理が完了したら、ステップS256に進み、撮影モードの解除操作が行われたか否かの判定を行う。撮影モードの解除操作が行われた場合には、撮影モードを終了する(ステップS260)。また、撮影モードの解除操作が行われていなければ撮影モードの状態が維持され、図20のステップS202に戻ることになる。 When the image recording process is completed in step S234 or step S252, the process proceeds to step S256, and it is determined whether or not an operation for canceling the photographing mode has been performed. If a shooting mode release operation has been performed, the shooting mode is terminated (step S260). If the shooting mode release operation is not performed, the shooting mode state is maintained, and the process returns to step S202 in FIG.
図22は、図21のステップS230に示した従感光画素データの処理手順に関するサブルーチンのフローチャートである。図22に示したように、従感光画素データの処理がスタートすると(ステップS300)、まず、画面内を複数の積算エリアに分割する設定処理を行い(ステップS302)、各エリアについてG(緑)成分の平均値を算出し、G成分の最大値(Gmax )を求める(ステップS304)。 FIG. 22 is a flowchart of a subroutine regarding the processing procedure of the secondary photosensitive pixel data shown in step S230 of FIG. As shown in FIG. 22, when the processing of the secondary photosensitive pixel data starts (step S300), first, a setting process for dividing the screen into a plurality of integrated areas is performed (step S302), and G (green) for each area is performed. The average value of the components is calculated, and the maximum value (Gmax) of the G component is obtained (step S304).
こうして得られたエリアの積算情報から被写体の輝度レンジを検出する(ステップS306)。その一方、所定のユーザインターフェースから設定されたダイナミックレンジ設定情報(何%までダイナミックレンジを広げるかという設定情報)が読み込まれる(ステップS308)。ステップS306で検出した被写体の輝度レンジと、ステップS308で読み込んだダイナミックレンジ設定情報とに基づいて、最終的なダイナミックレンジが決定される(ステップS310)。例えば、ダイナミックレンジ設定情報が示す設定Dレンジを上限として、被写体の輝度レンジに応じてダイナミックレンジが自動決定される。 The luminance range of the subject is detected from the integrated information of the area thus obtained (step S306). On the other hand, dynamic range setting information (setting information on how much the dynamic range is expanded) set from a predetermined user interface is read (step S308). A final dynamic range is determined based on the luminance range of the subject detected in step S306 and the dynamic range setting information read in step S308 (step S310). For example, the dynamic range is automatically determined according to the luminance range of the subject, with the upper limit being the set D range indicated by the dynamic range setting information.
その後、ホワイトバランス処理によって各色チャンネルの信号レベルが調整される(ステップS312)。また、決定されたダイナミックレンジに対応して、ガンマ補正係数や色補正係数などの各種パラメータがテーブルデータに基づいて決定される(ステップS314)。 Thereafter, the signal level of each color channel is adjusted by white balance processing (step S312). Also, various parameters such as a gamma correction coefficient and a color correction coefficient are determined based on the table data in accordance with the determined dynamic range (step S314).
決定されたパラメータに従ってガンマ変換その他の処理が行われ(ステップS316)、拡張再現用の画像データが生成される(ステップS318)。ステップS318の後は図21のフローチャートに復帰する。 Gamma conversion and other processes are performed according to the determined parameters (step S316), and image data for extended reproduction is generated (step S318). After step S318, the process returns to the flowchart of FIG.
このようにして記録メディア52に記録した画像の再生に際しては、再現範囲を切り替え可能な構成とし、必要に応じて標準再現用画像と拡張画像とを切り替えて出力することができるようにすることが好ましい。この場合、拡張画像の再現に際しては、主要被写体の明るさが標準再現用の画像のそれと略同じになるようにガンマを調整し、高輝度部について階調を与える。これにより、主要被写体部分の印象を変えることなく、高輝度部分について標準再現用画像と拡張画像との差異を確認することができる。
Thus, when reproducing the image recorded on the
また、標準再現用画像を表示部54に表示するときに、拡張再現用の情報が記録されているか否かを判断し、拡張情報が記録されている(関連付けのファイルが存在する)場合には、両者の差分に相当する部分について図23のように、強調表示180を行う。
Further, when displaying the standard reproduction image on the
例えば、高感度画像データと低感度画像データとの差分をとり、差分が正の値の部分(再現域を拡張する拡張情報が含まれている部分)について、その部分だけ特殊な表示(強調表示)を行う。強調表示の態様は、該当部分の点滅、囲い込み表示、明るさの変更、色調の変更、或いはこれらの組み合わせなど、対象領域を他の領域と識別できるようなものであればよく、具体的な表示形態については特に限定されない。 For example, the difference between high-sensitivity image data and low-sensitivity image data is taken, and the part where the difference is a positive value (the part that includes the extended information that extends the reproduction range) is specially displayed (highlighted). )I do. The highlight display mode may be any display that can distinguish the target region from other regions, such as blinking of the corresponding part, enclosed display, brightness change, color change, or a combination thereof. The form is not particularly limited.
このように、関連付けされている拡張情報を用いて、より詳細な再現が可能な領域部分を可視化することにより、ユーザは画像再現の拡張性を把握することができる。 In this way, by visualizing a region portion that can be reproduced in more detail using the associated extended information, the user can grasp the extensibility of image reproduction.
上述の実施形態では、デジタルカメラを例示したが、本発明の適用範囲はこれに限定されず、ビデオカメラ、DVDカメラ、カメラ付き携帯電話機、カメラ付きPDA、カメラ付きモバイルパソコンなど、電子撮像機能を備えた他の撮影装置についても本発明を適用できる。 In the above-described embodiment, a digital camera has been exemplified, but the scope of application of the present invention is not limited to this, and an electronic imaging function such as a video camera, a DVD camera, a mobile phone with a camera, a PDA with a camera, a mobile personal computer with a camera, etc. The present invention can also be applied to other imaging apparatuses provided.
また、図16で説明した画像再生の手段については、プリンターや画像閲覧装置などの出力装置に応用することができる。すなわち、図16の表示変換回路146及び表示部54に代えて、プリント用画像生成部及びプリント部とするなど、出力用画像を生成する画像生成部と、そこで生成された画像を最終的に出力する出力部とを備えることにより、拡張情報を活用した良好な画像を得ることができる。
Further, the image reproduction means described with reference to FIG. 16 can be applied to an output device such as a printer or an image browsing device. That is, in place of the
20…CCD、21…フォトダイオード領域(主感光画素)、22…フォトダイオード領域(従感光画素)、23…垂直転送路、40…カラーフィルタ層、41…マイクロレンズ、52…記録メディア、54…表示部、56…CPU、62…メモリ、97…JPEG圧縮回路、105…積算回路、106…Dレンジ算出回路、110…JPEG圧縮回路、132…差分処理回路、133…圧縮回路、180…強調表示
DESCRIPTION OF
Claims (9)
画像を表示出力するための画像表示手段と、
前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記画像表示手段に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置。 Recording means in which a first image information file composed of high-sensitivity image information formed by relatively high-sensitivity pixels is recorded;
Image display means for displaying output images,
When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels and associated with the first image information file is recorded in the recording means, A first image created from one image information file is displayed on the image display means, and an image portion whose reproduction area is expanded by the second image information file with respect to the first image is displayed in the first image file . Display control means for highlighting on the display screen of one image;
An image processing apparatus comprising:
画像を表示装置に出力する画像表示工程と、
前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御工程と、
を含むことを特徴とする画像処理方法。 A reading step of reading from the recording means a first image information file comprising high-sensitivity image information formed by relatively high-sensitivity pixels;
An image display step of outputting the images to the display device,
When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels and associated with the first image information file is recorded in the recording means, A first image created from one image information file is displayed on the display device, and an image portion whose reproduction area is expanded by the second image information file with respect to the first image is displayed in the first image file . A display control process for highlighting on the image display screen,
An image processing method comprising:
画像を表示装置に出力する画像表示機能と、
前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御機能と、
をコンピュータに実現させることを特徴とする画像処理プログラム。 A reading function for reading out from the recording means a first image information file comprising high-sensitivity image information formed by relatively high-sensitivity pixels;
And an image display function of outputting the images to the display device,
When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels and associated with the first image information file is recorded in the recording means, A first image created from one image information file is displayed on the display device, and an image portion whose reproduction area is expanded by the second image information file with respect to the first image is displayed in the first image file . Display control function to highlight on the image display screen,
An image processing program for causing a computer to realize the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008061192A JP4544319B2 (en) | 2008-03-11 | 2008-03-11 | Image processing apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008061192A JP4544319B2 (en) | 2008-03-11 | 2008-03-11 | Image processing apparatus, method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003036959A Division JP2004248061A (en) | 2003-02-14 | 2003-02-14 | Apparatus, method and program for image processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008206168A JP2008206168A (en) | 2008-09-04 |
JP4544319B2 true JP4544319B2 (en) | 2010-09-15 |
Family
ID=39783100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008061192A Expired - Fee Related JP4544319B2 (en) | 2008-03-11 | 2008-03-11 | Image processing apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4544319B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5158363B2 (en) * | 2008-11-07 | 2013-03-06 | 株式会社リコー | Image processing apparatus, image processing method, program, and recording medium |
JP5182054B2 (en) * | 2008-12-10 | 2013-04-10 | 株式会社ニコン | Image processing apparatus and image processing program |
US11640656B2 (en) | 2011-09-27 | 2023-05-02 | Koninklijke Philips N.V. | Apparatus and method for dynamic range transforming of images |
CN110460744B (en) * | 2014-06-10 | 2022-03-08 | 松下知识产权经营株式会社 | Luminance conversion device and luminance conversion method |
JP6739257B2 (en) * | 2016-07-06 | 2020-08-12 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
JP6873688B2 (en) * | 2016-12-27 | 2021-05-19 | キヤノン株式会社 | Image processing equipment and image processing methods, imaging equipment, programs |
US10861405B2 (en) * | 2018-07-09 | 2020-12-08 | Samsung Display Co., Ltd. | Color transform for RGBG subpixel format |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06153089A (en) * | 1992-10-30 | 1994-05-31 | Olympus Optical Co Ltd | Solid state image pickup device |
JP2002218326A (en) * | 2001-01-19 | 2002-08-02 | Olympus Optical Co Ltd | Imaging device |
JP2002271686A (en) * | 2001-03-12 | 2002-09-20 | Olympus Optical Co Ltd | Imaging device |
-
2008
- 2008-03-11 JP JP2008061192A patent/JP4544319B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06153089A (en) * | 1992-10-30 | 1994-05-31 | Olympus Optical Co Ltd | Solid state image pickup device |
JP2002218326A (en) * | 2001-01-19 | 2002-08-02 | Olympus Optical Co Ltd | Imaging device |
JP2002271686A (en) * | 2001-03-12 | 2002-09-20 | Olympus Optical Co Ltd | Imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP2008206168A (en) | 2008-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100611607B1 (en) | Image processing apparatus, method and computer readable recording medium for recording program | |
JP4051674B2 (en) | Imaging device | |
US7301571B2 (en) | Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information | |
US7525579B2 (en) | Image sensing apparatus and image processing method for use therein | |
JP4544319B2 (en) | Image processing apparatus, method, and program | |
JP2008028960A (en) | Photographing apparatus and exposure control method | |
JP4544318B2 (en) | Image processing apparatus, method, and program | |
JP2004048445A (en) | Method and apparatus for compositing image | |
JP4306306B2 (en) | White balance control method and imaging apparatus | |
JP2004320119A (en) | Image recorder | |
JP4114707B2 (en) | Imaging device | |
JP2004328460A (en) | White balance adjustment method and electronic camera | |
JP4239218B2 (en) | White balance adjustment method and electronic camera | |
JPWO2006103880A1 (en) | Imaging device | |
JP4051701B2 (en) | Defective pixel correction method and imaging apparatus for solid-state imaging device | |
JP4178548B2 (en) | Imaging device | |
JP2004222134A (en) | Image pickup device | |
JP2004336264A (en) | Image recording device | |
JP4276847B2 (en) | Imaging device | |
JP2006303755A (en) | Imaging apparatus and imaging method | |
JP2006279714A (en) | Imaging apparatus and imaging method | |
JP2006345301A (en) | Imaging apparatus | |
JP2009010998A (en) | Imaging apparatus | |
JP2004221740A (en) | Imaging apparatus and white balance control method | |
JP2004242015A (en) | Histogram calculation method, histogram calculation circuit, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100608 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130709 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100621 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |