JP4544319B2 - Image processing apparatus, method, and program - Google Patents

Image processing apparatus, method, and program Download PDF

Info

Publication number
JP4544319B2
JP4544319B2 JP2008061192A JP2008061192A JP4544319B2 JP 4544319 B2 JP4544319 B2 JP 4544319B2 JP 2008061192 A JP2008061192 A JP 2008061192A JP 2008061192 A JP2008061192 A JP 2008061192A JP 4544319 B2 JP4544319 B2 JP 4544319B2
Authority
JP
Japan
Prior art keywords
image
image information
information file
sensitivity
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008061192A
Other languages
Japanese (ja)
Other versions
JP2008206168A (en
Inventor
和彦 竹村
淳彦 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008061192A priority Critical patent/JP4544319B2/en
Publication of JP2008206168A publication Critical patent/JP2008206168A/en
Application granted granted Critical
Publication of JP4544319B2 publication Critical patent/JP4544319B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は画像処理装置及び方法に係り、特にデジタル入力デバイスにおける画像の保存、再生に関する装置、方法並びにこれを実現するコンピュータプログラムに関する。   The present invention relates to an image processing apparatus and method, and more particularly to an apparatus and method relating to image storage and reproduction in a digital input device, and a computer program for realizing the apparatus and method.

特許文献1に開示された画像処理装置は、同じ被写体を異なる露光量で複数回撮像して得られた複数の画像データから標準画像と非標準画像を作り、非標準画像からダイナミックレンジ拡大に必要な領域を判別し、その部分を圧縮して保存することを特徴としている。   The image processing apparatus disclosed in Patent Document 1 creates a standard image and a non-standard image from a plurality of image data obtained by imaging the same subject multiple times with different exposure amounts, and is necessary for expanding the dynamic range from the non-standard image It is characterized by distinguishing a region and compressing and storing the portion.

特許文献2乃至4には、sRGBに代表される標準的な色空間よりも更に色再現域の広い色空間での画像再現を実現するために、拡張色再現域の情報を記録する方法が提案されている。すなわち、制限された色域を有する色空間の色値を有する制限色域デジタル画像データと、その制限色域の外側の色値を有する拡張色域デジタル画像との差分情報を制限色域デジタル画像データに関連付けて記録している。
特開平8−256303号公報 米国特許第6282311号明細書 米国特許第6282312号明細書 米国特許第6282313号明細書
Patent Documents 2 to 4 propose a method for recording extended color gamut information in order to realize image reproduction in a color space having a wider color gamut than the standard color space represented by sRGB. Has been. That is, difference information between a restricted color gamut digital image data having a color value in a color space having a restricted color gamut and an extended color gamut digital image having a color value outside the restricted color gamut is used as a restricted color gamut digital image. Recorded in association with data.
JP-A-8-256303 US Pat. No. 6,282,311 US Pat. No. 6,823,312 US Pat. No. 6,282,313

一般的なデジタルスチルカメラにおいては、CCIR Rec709 で定められた光電変換特性を基本にして階調設計がなされている。こうすることで、パソコン(PC)用ディスプレイの実質上の標準色空間であるsRGB色空間で再現された場合に良好な画像を提供することを目標にして画像設計がなされている。   In a general digital still camera, gradation design is made based on photoelectric conversion characteristics defined in CCIR Rec709. By doing so, the image design is made with the goal of providing a good image when reproduced in the sRGB color space, which is a substantially standard color space of a display for a personal computer (PC).

一方、実シーンにおいては、晴天の日、曇りの日、夜間などのように、輝度域は 1:100 のときもあれば、 1:10000 を越す場合もある。従来用いられている通常のCCD撮像素子は、このような広い輝度レンジから情報を一度に取得することができない。そのため、自動露出(AE)制御によって、最適な輝度の切り出し範囲を決め、先に定めた光電変換特性に応じた電気信号に変換し、CRTのようなディスプレイに画像を再現させるように構成されている。あるいは特許文献1に開示されているように、露光を変えて複数枚撮影することで広いダイナミックレンジを確保している。しかし、この複数露光の技術は静止している物体の撮影にしか適用できない。   On the other hand, in a real scene, the brightness range may be 1: 100 or may exceed 1: 10000, such as sunny days, cloudy days, and nights. Conventional CCD image sensors used in the past cannot acquire information from such a wide luminance range at a time. Therefore, automatic exposure (AE) control is used to determine the optimum luminance cutout range, convert it to an electrical signal according to the previously defined photoelectric conversion characteristics, and reproduce the image on a display such as a CRT. Yes. Alternatively, as disclosed in Patent Document 1, a wide dynamic range is secured by photographing a plurality of images while changing the exposure. However, this multiple exposure technique can only be applied to photographing a stationary object.

ところで、ブライダル衣裳(白のウエディングドレス)の撮影、自動車のような金属光沢のある被写体の撮影、近接ストロボでの撮影、更には逆光撮影のような特殊な被写体又は撮影状況においては、露出を主要被写体に適切に合わせることが困難であり、広い輝度レンジをカバーした高画質の画像を得ることができない。このようなシーンについては、撮影した画像を後で(プリント工程で)補正するシステムを用い、より広いダイナミックレンジで画像を記録し、その情報をもとにプリント時に最適な画像を作成する方が好都合な画像が得られることが多い。   By the way, exposure is mainly used for special subjects or shooting situations such as shooting bridal gowns (white wedding dresses), shooting objects with metallic luster such as automobiles, shooting with close-up strobes, and even backlighting. It is difficult to appropriately match the subject, and a high-quality image that covers a wide luminance range cannot be obtained. For such scenes, it is better to use a system that corrects the captured image later (in the printing process), records the image with a wider dynamic range, and creates an optimal image during printing based on that information. Often a convenient image is obtained.

しかしながら、このような場合でも現状のような限られたダイナミックレンジの画像情報からでは十分な画質が得られないという問題がある。   However, even in such a case, there is a problem that sufficient image quality cannot be obtained from image information with a limited dynamic range as in the present situation.

本発明はこのような事情に鑑みてなされたもので、通常のPC出力などについては定められたダイナミックレンジの画像で表示を行い、デスクトップパブリッシングのプリント用途など特別な用途に対して、必要に応じて更に広ダイナミックレンジ撮像で得られた情報から画像処理により最適な画像を作成できるような画像処理装置、方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances. For normal PC output or the like, an image with a predetermined dynamic range is displayed, and for special applications such as desktop publishing printing applications, as necessary. Another object of the present invention is to provide an image processing apparatus, method, and program capable of creating an optimal image by image processing from information obtained by imaging with a wider dynamic range.

前記目的を達成するために本発明に係る画像処理装置は、相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルが記録されている記録手段と、画像を表示出力するための画像表示手段と、前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記画像表示手段に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御手段と、を備えたことを特徴とする。 The image processing apparatus according to the present invention in order to achieve the object, a recording unit in which the first image information file consisting of the high-sensitivity image information formed by the pixel of the relatively high sensitivity is recorded, images And a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels associated with the first image information file and the image display means for displaying and outputting the image When recorded on the means, the first image created from the first image information file is displayed on the image display means, and the first image is displayed by the second image information file . And display control means for highlighting an image portion whose reproduction area is expanded on the display screen of the first image.

第1の画像情報ファイルから作成された第1の画像を画像表示手段に表示し、当該第1の画像について第2の画像情報ファイルと第1の画像情報ファイルの差分があるか否かを判断し、差分がある場合に該当する部分について点滅、枠線による囲い込み表示、明るさ(濃淡)の変更、色調の変更などの強調表示を行う。 A first image created from the first image information file displayed on the image display unit, whether the information on the first images there is a difference of the second image information file and the first image information file If there is a difference, the corresponding part is highlighted, such as blinking, framed framed display, brightness (shading) change, and color tone change.

本発明の他の態様によれば、前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とはそれぞれ異なるビットの深さで記録されていることを特徴とする。 According to another aspect of the present invention, the high-sensitivity image information in the first image information file and the low-sensitivity image information in the second image information file are recorded with different bit depths. It is characterized by that.

本発明の他の態様によれば、前記第2の画像情報ファイルは、前記第1の画像情報ファイルと異なる圧縮方式で圧縮されて記録されていることを特徴とする。
また、本発明の画像処理方法は、相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルを記録手段から読み出す読み出し工程と、画像を表示装置に出力する画像表示工程と、前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御工程と、を含むことを特徴とする。
本発明の他の態様によれば、前記読み出し工程は、それぞれ異なるビットの深さで記録されている前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とを読み出すことを特徴とする。
更に本発明の他の態様によれば、前記読み出し工程は、それぞれ異なる圧縮方式で圧縮されて記録されている前記第1の画像情報ファイルと前記第2の画像情報ファイルとを読み出すことを特徴とする。
また、本発明の画像処理プログラムは、相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルを記録手段から読み出す読み出し機能と、画像を表示装置に出力する画像表示機能と、前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御機能と、をコンピュータに実現させることを特徴とする。
本発明の他の態様によれば、前記読み出し機能は、それぞれ異なるビットの深さで記録されている前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とを読み出すことを特徴とする。
更に本発明の他の態様によれば、前記読み出し機能は、それぞれ異なる圧縮方式で圧縮されて記録されている前記第1の画像情報ファイルと前記第2の画像情報ファイルとを読み出すことを特徴とする。
According to another aspect of the present invention, the second image information file is characterized in that it is compressed is recorded in the first image information file and different compression scheme.
The image processing method of the present invention also includes a reading step of reading from the recording means a first image information file comprising high-sensitivity image information formed by relatively high-sensitivity pixels, and an image for outputting the image to a display device. When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels correlated with the first image information file is recorded in the recording means. Is an image portion in which a first image created from the first image information file is displayed on the display device, and a reproduction area is expanded by the second image information file with respect to the first image. And a display control step of highlighting on the display screen of the first image.
According to another aspect of the present invention, the reading step includes high-sensitivity image information in the first image information file and low in the second image information file recorded at different bit depths. Sensitivity image information is read out.
Furthermore, according to another aspect of the present invention, the reading step reads the first image information file and the second image information file that are compressed and recorded by different compression methods. To do.
In addition, the image processing program of the present invention includes a read function for reading out a first image information file composed of high-sensitivity image information formed by relatively high-sensitivity pixels from a recording unit, and an image for outputting an image to a display device. When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels correlated with the display function and the first image information file is recorded in the recording unit Is an image portion in which a first image created from the first image information file is displayed on the display device, and a reproduction area is expanded by the second image information file with respect to the first image. And a display control function for emphasizing the image on the display screen of the first image.
According to another aspect of the present invention, the read function has high sensitivity image information in the first image information file and low in the second image information file, which are recorded at different bit depths. Sensitivity image information is read out.
Furthermore, according to another aspect of the present invention, the reading function reads the first image information file and the second image information file that are compressed and recorded by different compression methods. To do.

本発明の画像処理装置は、デジタルカメラやビデオカメラなどの電子カメラに搭載することも可能であるし、コンピュータによって実現することも可能である。上述した画像処理装置を構成する各手段をコンピュータによって実現させるためのプログラムをCD−ROMや磁気ディスクその他の記録媒体に記録し、記録媒体を通じて当該プログラムを第三者に提供したり、インターネットなどの通信回線を通じて当該プログラムのダウンロードサービスを提供したりすることも可能である。   The image processing apparatus of the present invention can be mounted on an electronic camera such as a digital camera or a video camera, or can be realized by a computer. A program for realizing each means constituting the above-described image processing apparatus by a computer is recorded on a CD-ROM, a magnetic disk or other recording medium, and the program is provided to a third party through the recording medium, or the Internet It is also possible to provide a download service for the program through a communication line.

本発明によれば、関連付けされている拡張情報を用いて、より詳細な再現が可能な領域部分を可視化することにより、ユーザは画像再現の拡張性を把握することができる。   According to the present invention, the user can grasp the extensibility of image reproduction by visualizing a region portion that can be reproduced in more detail using the associated extended information.

以下添付図面に従って本発明の好ましい実施の形態について詳説する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

〔撮像素子の構造〕
まず、本発明が適用される電子カメラに用いられる広ダイナミックレンジ撮像用の撮像素子の構造について説明する。図1はCCD20の受光面の構造例を示す平面図である。図1では2つの受光セル(画素PIX)が横に並んでいる様子を示すが、実際には多数の画素PIXが水平方向(行方向)及び垂直方向(列方向)に一定の配列周期で配列されている。
[Image sensor structure]
First, the structure of an image sensor for wide dynamic range imaging used in an electronic camera to which the present invention is applied will be described. FIG. 1 is a plan view showing an example of the structure of the light receiving surface of the CCD 20. FIG. 1 shows a state in which two light receiving cells (pixels PIX) are arranged side by side, but in actuality, a large number of pixels PIX are arranged at a constant arrangement period in the horizontal direction (row direction) and the vertical direction (column direction). Has been.

各画素PIXは、感度の異なる2つのフォトダイオード領域21、22を含む。第1のフォトダイオード領域21は、相対的に広い面積を有し、主たる感光部(以下、主感光画素という)を構成する。第2のフォトダイオード領域22は、相対的に狭い面積を有し、従たる感光部(以下、従感光画素という。)を構成する。画素PIXの右側には垂直転送路(VCCD)23が形成されている。   Each pixel PIX includes two photodiode regions 21 and 22 having different sensitivities. The first photodiode region 21 has a relatively large area, and constitutes a main photosensitive portion (hereinafter referred to as a main photosensitive pixel). The second photodiode region 22 has a relatively small area and forms a secondary photosensitive portion (hereinafter referred to as a secondary photosensitive pixel). A vertical transfer path (VCCD) 23 is formed on the right side of the pixel PIX.

図1に示した構成はハニカム構造の画素配列であり、図示した2つの画素PIX上側及び下側には不図示の画素が横方向に半ピッチずれた位置に配置される。図1上に示した各画素PIXの左側に示されている垂直転送路23は、これら画像PIXの上側及び下側に配置される不図示の画素からの電荷を読み出し、転送するためのものである。   The configuration shown in FIG. 1 is a pixel arrangement having a honeycomb structure, and pixels (not shown) are arranged at positions shifted by a half pitch in the horizontal direction above and below the two illustrated pixels PIX. A vertical transfer path 23 shown on the left side of each pixel PIX shown in FIG. 1 is for reading out and transferring charges from pixels (not shown) arranged above and below the image PIX. is there.

図1中点線で示すように、四相駆動(φ1,φ2,φ3,φ4)に必要な転送電極24、25、26、27(まとめてELで示す。)が垂直転送路23の上方に配置される。例えば、2層ポリシリコンで転送電極を形成する場合、φ1 のパルス電圧が印加される第1の転送電極24と、φ3 のパルス電圧が印加される第3の転送電極26とは第1層ポリシリコン層で形成され、φ2 のパルス電圧が印加される第2の転送電極25と、φ4 のパルス電圧が印加される第4の転送電極27とは第2層ポリシリコン層で形成される。なお、転送電極24は従感光画素22から垂直転送路23への電荷読み出しも制御する。転送電極25は主感光画素21から垂直転送路23への電荷読み出しも制御する。   As shown by the dotted lines in FIG. 1, transfer electrodes 24, 25, 26 and 27 (collectively indicated by EL) necessary for four-phase driving (φ1, φ2, φ3, φ4) are arranged above the vertical transfer path 23. Is done. For example, when the transfer electrode is formed of two-layer polysilicon, the first transfer electrode 24 to which the pulse voltage of φ1 is applied and the third transfer electrode 26 to which the pulse voltage of φ3 is applied are the first layer polysilicon. A second transfer electrode 25 formed of a silicon layer, to which a pulse voltage of φ2 is applied, and a fourth transfer electrode 27 to which a pulse voltage of φ4 is applied are formed of a second polysilicon layer. The transfer electrode 24 also controls charge reading from the secondary photosensitive pixel 22 to the vertical transfer path 23. The transfer electrode 25 also controls charge reading from the main photosensitive pixel 21 to the vertical transfer path 23.

図2は図1の2−2線に沿う断面図であり、図3は図1の3−3線に沿う断面図である。図2に示したように、n型半導体基板30の一表面にp型ウエル31が形成されている。p型ウエル31の表面領域に2つのn型領域33、34が形成され、フォトダイオードを構成している。符号33で示したn型領域のフォトダイオードが主感光画素21に相当し、符号34で示したn型領域のフォトダイオードが従感光画素22に相当している。p+ 型領域36は、画素PIX、垂直転送路23等の電気的な分離を行うチャネルストップ領域である。 2 is a cross-sectional view taken along line 2-2 in FIG. 1, and FIG. 3 is a cross-sectional view taken along line 3-3 in FIG. As shown in FIG. 2, a p-type well 31 is formed on one surface of the n-type semiconductor substrate 30. Two n-type regions 33 and 34 are formed in the surface region of the p-type well 31 to constitute a photodiode. A photodiode in the n-type region indicated by reference numeral 33 corresponds to the main photosensitive pixel 21, and a photodiode in the n-type region indicated by reference numeral 34 corresponds to the secondary photosensitive pixel 22. The p + -type region 36 is a channel stop region that performs electrical separation of the pixel PIX, the vertical transfer path 23, and the like.

図3に示すように、フォトダイオードを構成するn型領域33の近傍に垂直転送路23を構成するn型領域37が配置されている。n型領域33、37の間のp型ウエル31が読み出しトランジスタを構成する。   As shown in FIG. 3, an n-type region 37 constituting the vertical transfer path 23 is arranged in the vicinity of the n-type region 33 constituting the photodiode. The p-type well 31 between the n-type regions 33 and 37 constitutes a read transistor.

半導体基板表面上には酸化シリコン膜等の絶縁層が形成され、その上にポリシリコンで形成された転送電極ELが形成される。転送電極ELは、垂直転送路23の上方を覆うように配置されている。転送電極ELの上に、更に酸化シリコン等の絶縁層が形成され、その上に垂直転送路23等の構成要素を覆い、フォトダイオード上方に開口を有する遮光膜38がタングステン等により形成されている。   An insulating layer such as a silicon oxide film is formed on the surface of the semiconductor substrate, and a transfer electrode EL made of polysilicon is formed thereon. The transfer electrode EL is disposed so as to cover the vertical transfer path 23. An insulating layer such as silicon oxide is further formed on the transfer electrode EL, and a light shielding film 38 that covers the components such as the vertical transfer path 23 and has an opening above the photodiode is formed of tungsten or the like. .

遮光膜38を覆うようにホスホシリケートガラス等で形成された層間絶縁膜39が形成され、その表面が平坦化されている。層間絶縁膜39の上にカラーフィルタ層(オンチップカラーフィルタ)40が形成されている。カラーフィルタ層40は、例えば赤色領域、緑色領域、及び青色領域等の3色以上の色領域を含み、各画素PIXについて一色の色領域が割り当てられている。   An interlayer insulating film 39 made of phosphosilicate glass or the like is formed so as to cover the light shielding film 38, and the surface thereof is flattened. A color filter layer (on-chip color filter) 40 is formed on the interlayer insulating film 39. The color filter layer 40 includes, for example, three or more color areas such as a red area, a green area, and a blue area, and one color area is assigned to each pixel PIX.

カラーフィルタ層40の上に各画素PIXに対応してマイクロレンズ(オンチップマイクロレンズ)41がレジスト材料等により形成されている。マイクロレンズ41は、各画素PIXの上に1つ形成されており、上方より入射する光を遮光膜38が画定する開口内に集光させる機能を有する。   A microlens (on-chip microlens) 41 corresponding to each pixel PIX is formed on the color filter layer 40 using a resist material or the like. One microlens 41 is formed on each pixel PIX and has a function of converging light incident from above into an opening defined by the light shielding film 38.

マイクロレンズ41を介して入射した光は、カラーフィルタ層40によって色分解され、主感光画素21及び従感光画素22の各フォトダイオード領域にそれぞれ入射する。各フォトダイオード領域に入射した光は、その光量に応じた信号電荷に変換され、それぞれ別々に垂直転送路23に読み出される。   Light incident through the microlens 41 is color-separated by the color filter layer 40 and is incident on each photodiode region of the main photosensitive pixel 21 and the secondary photosensitive pixel 22. The light incident on each photodiode region is converted into signal charges corresponding to the amount of light, and read out separately to the vertical transfer path 23.

こうして、1つの画素PIXから感度の異なる2種類の画像信号(高感度画像信号と低感度画像信号)と別々に取り出すことが可能であり、光学的に同位相の画像信号を得る。   In this way, two types of image signals (high-sensitivity image signal and low-sensitivity image signal) having different sensitivities can be separately extracted from one pixel PIX, and an optically in-phase image signal is obtained.

図4は、CCD20の受光領域PS内の画素PIX及び垂直転送路23の配置を示す。画素PIXは、セルの幾何学的な形状の中心点を行方向及び列方向に1つおきに画素ピッチの半分(1/2ピッチ)ずらして配列させたハニカム構造となっている。すなわち、互いに隣接する画素PIXの行どうし(又は列どうし)において、一方の行(又は列)のセル配列が、他方の行(又は列)のセル配列に対して行方向(又は列方向)の配列間隔の略1/2だけ相対的にずれて配置された構造となっている。   FIG. 4 shows the arrangement of the pixels PIX and the vertical transfer paths 23 in the light receiving area PS of the CCD 20. The pixel PIX has a honeycomb structure in which the center points of the geometrical shape of the cells are arranged so as to be shifted by half the pixel pitch (1/2 pitch) every other row direction and column direction. That is, in the rows (or columns) of pixels PIX adjacent to each other, the cell arrangement in one row (or column) is in the row direction (or column direction) with respect to the cell arrangement in the other row (or column). The structure is arranged so as to be relatively shifted by approximately ½ of the arrangement interval.

図4において画素PIXが配列された受光領域PSの右側には、転送電極ELにパルス電圧を印加するVCCD駆動回路44が配置される。各画素PIXは上述のように主感光画素21と従感光画素22とを含む。垂直転送路23は各列に近接して蛇行して配置されている。   In FIG. 4, a VCCD driving circuit 44 for applying a pulse voltage to the transfer electrode EL is disposed on the right side of the light receiving region PS in which the pixels PIX are arranged. Each pixel PIX includes the main photosensitive pixel 21 and the secondary photosensitive pixel 22 as described above. The vertical transfer path 23 is arranged meandering close to each column.

また、受光領域PSの下側(垂直転送路23の下端側)には、垂直転送路23から移された信号電荷を水平方向に転送する水平転送路(HCCD)45が設けられている。   Further, a horizontal transfer path (HCCD) 45 that transfers the signal charges transferred from the vertical transfer path 23 in the horizontal direction is provided below the light receiving area PS (the lower end side of the vertical transfer path 23).

水平転送路45は、2相駆動の転送CCDで構成されており、水平転送路45の最終段(図4上で最左段)は出力部46に接続されている。出力部46は出力アンプを含み、入力された信号電荷の電荷検出を行い、信号電圧として出力端子に出力する。こうして、各画素PIXで光電変換した信号が点順次の信号列として出力される。   The horizontal transfer path 45 is constituted by a transfer CCD driven by two phases, and the final stage (the leftmost stage in FIG. 4) of the horizontal transfer path 45 is connected to the output unit 46. The output unit 46 includes an output amplifier, performs charge detection of the input signal charge, and outputs it as a signal voltage to the output terminal. In this way, a signal photoelectrically converted by each pixel PIX is output as a dot-sequential signal sequence.

図5にCCD20の他の構造例を示す。図5は平面図、図6は図5の6−6線に沿う断面図である。これらの図面中図1及び図2に示した例と同一又は類似の部材には同一の符号を付し、その説明は省略する。   FIG. 5 shows another structural example of the CCD 20. 5 is a plan view, and FIG. 6 is a cross-sectional view taken along line 6-6 of FIG. In these drawings, members that are the same as or similar to those shown in FIGS. 1 and 2 are given the same reference numerals, and descriptions thereof are omitted.

図5及び図6に示したように、主感光画素21と従感光画素22の間にp+ 型分離領域48が形成されている。この分離領域48はチャネルストップ領域(チャネルストッパ)として機能し、フォトダイオード領域の電気的な分離を行う。また、分離領域48の上方には分離領域48に対応した位置に遮光膜49が形成されている。 As shown in FIGS. 5 and 6, and p + -type isolation region 48 between the main photosensitive pixel 21 and従感light pixels 22 is formed. The isolation region 48 functions as a channel stop region (channel stopper), and electrically isolates the photodiode region. A light shielding film 49 is formed above the separation region 48 at a position corresponding to the separation region 48.

遮光膜49と分離領域48とを用いることにより、入射する光を効率的に分離するとともに、主感光画素21及び従感光画素22に蓄積された電荷がその後混合することを防止する。その他の構成は図1及び図2に示した例と同様である。   By using the light shielding film 49 and the separation region 48, the incident light is efficiently separated and the charges accumulated in the main photosensitive pixel 21 and the secondary photosensitive pixel 22 are prevented from being mixed thereafter. Other configurations are the same as those of the example shown in FIGS.

また、画素PIXのセル形状や開口形状は図1や図5に示した例に限定されず、多角形、円形など多様な形態をとり得る。更に、各受光セルの分離形状(分割形態)についても、図1や図5に示した形状に限定されない。   Further, the cell shape and the opening shape of the pixel PIX are not limited to the examples shown in FIGS. 1 and 5 and can take various forms such as a polygon and a circle. Further, the separation shape (divided form) of each light receiving cell is not limited to the shape shown in FIG. 1 or FIG.

図7にCCD20の更に他の構造例を示す。図7中図1及び図5に示した例と同一又は類似の部材には同一の符号を付し、その説明は省略する。図7は、二つの感光部(21、22)が斜め方向に分離されている構成を示す。   FIG. 7 shows still another structural example of the CCD 20. In FIG. 7, the same or similar members as those in the example shown in FIG. 1 and FIG. FIG. 7 shows a configuration in which the two photosensitive portions (21, 22) are separated in an oblique direction.

このように、それぞれの分割感光エリアで蓄積された電荷を別々に垂直転送路に読み出すことができればよく、分割形状や分割数、面積の大小関係などは適宜設計される。ただし、従感光画素の面積を主感光画素の面積に比べて小さい値とする。また、主感光部の面積減少を抑制し、感度低下を最小限に抑えることが好ましい。   In this way, it is sufficient if the charges accumulated in each divided photosensitive area can be read out separately to the vertical transfer path, and the division shape, the number of divisions, the size relationship of the areas, etc. are appropriately designed. However, the area of the secondary photosensitive pixel is set to a smaller value than the area of the main photosensitive pixel. In addition, it is preferable to suppress a decrease in the area of the main photosensitive portion and minimize a decrease in sensitivity.

図8は、主感光画素21と従感光画素22の光電変換特性を示すグラフである。横軸は入射光量、縦軸はA/D変換後の画像データ値(QL値)を示す。本例では12ビットデータを例示するが、ビット数はこれに限定されない。   FIG. 8 is a graph showing the photoelectric conversion characteristics of the main photosensitive pixel 21 and the secondary photosensitive pixel 22. The horizontal axis represents the amount of incident light, and the vertical axis represents the image data value (QL value) after A / D conversion. In this example, 12-bit data is illustrated, but the number of bits is not limited to this.

同図に示すように、主感光画素21と従感光画素22の感度比は1:1/aとなっている(ただし、a>1、本例ではa=16)。主感光画素21の出力は、入射光量に比例して次第に増加し、入射光量が「c」のときに出力が飽和値(QL値=4095)に達する。以後、入射光量が増加しても主感光画素21の出力は一定となる。この「c」を主感光画素21の飽和光量と呼ぶことにする。   As shown in the figure, the sensitivity ratio between the main photosensitive pixel 21 and the secondary photosensitive pixel 22 is 1: 1 / a (where a> 1, a = 16 in this example). The output of the main photosensitive pixel 21 gradually increases in proportion to the amount of incident light. When the amount of incident light is “c”, the output reaches a saturation value (QL value = 4095). Thereafter, even if the amount of incident light increases, the output of the main photosensitive pixel 21 becomes constant. This “c” will be referred to as the saturation light amount of the main photosensitive pixel 21.

一方、従感光画素22の感度は、主感光画素21の感度の1/aであり、入射光量がα×cのときにQL値=4095/bで飽和する(ただし、b>1,α=a/b、本例ではb=4,α=4)。このときの「α×c」を従感光画素22の飽和光量と呼ぶ。   On the other hand, the sensitivity of the secondary photosensitive pixel 22 is 1 / a of the sensitivity of the main photosensitive pixel 21 and is saturated at a QL value = 4095 / b when the incident light quantity is α × c (where b> 1, α = a / b, in this example b = 4, α = 4). “Α × c” at this time is referred to as the saturation light amount of the secondary photosensitive pixel 22.

このように、異なる感度と飽和を持つ主感光画素21と従感光画素22とを組み合わせることにより、主感光画素のみの構成よりもCCD20のダイナミックレンジをα倍に拡大できる。本例では感度比1/16、飽和比1/4でダイナミックレンジを約4倍に拡大している。主感光画素のみを使用する場合の最大ダイナミックレンジを100%とするとき、本例では従感光画素を活用することによって最大で約400%までダイナミックレンジが拡大される。   In this way, by combining the main photosensitive pixel 21 and the secondary photosensitive pixel 22 having different sensitivities and saturations, the dynamic range of the CCD 20 can be expanded by a factor of α compared to the configuration of only the main photosensitive pixel. In this example, the dynamic range is expanded about four times with a sensitivity ratio of 1/16 and a saturation ratio of 1/4. When the maximum dynamic range when only the main photosensitive pixels are used is 100%, in this example, the dynamic range is expanded up to about 400% by utilizing the secondary photosensitive pixels.

上述したように、CCD等の撮像素子ではRGB又はC(シアン)、M(マゼンタ)、Y(イエロー)等のカラーフィルタを通してフォトダイオードで受けた光を前記信号に変える。このうち、どれだけの光の情報に対して信号が得られるかはレンズを含めた光学系、CCD感度及び飽和に依存する。相対的に感度は高いが蓄積可能な電荷量が少ない素子と、相対的に感度は低いが蓄積可能な電荷量が大きい素子とでは、後者の方が入射される光の強弱が強い場合に対しても適切な信号を供することが可能であり、ダイナミックレンジが広い。   As described above, in an image sensor such as a CCD, light received by a photodiode through a color filter such as RGB or C (cyan), M (magenta), and Y (yellow) is converted into the signal. Of this, how much light information is obtained depends on the optical system including the lens, CCD sensitivity, and saturation. For elements with relatively high sensitivity but a small amount of charge that can be stored, and elements with relatively low sensitivity but a large amount of charge that can be stored, the latter is more intense than the incident light. However, an appropriate signal can be provided, and the dynamic range is wide.

光の強弱に対してどのように応答可能かを設定する手段としては、(1)フォトダイオードに入る光の量を調整する、(2)光を受けて電圧に変えるソースフォロアのアンプゲインを変える−などの態様がある。(1)の場合は、フォトダイオードに対し、上層部にあるマイクロレンズの光透過特性や相対位置関係によって調整できる。その一方、蓄積できる電荷量としては、フォトダイオードの大きさ等で決定される。図1乃至図7で説明したように、大きさの異なる二つのフォトダイオード(21、22)を並べることにより、異なる光のコントラスト比に対して応答可能な信号を得ることができ、更にこれらの二つのフォトダイオード(21、22)の感度を調整することで、最終的に広いダイナミックレンジを有する撮像デバイス(CCD20)を実現できる。   As means for setting how to respond to the intensity of light, (1) adjust the amount of light entering the photodiode, (2) change the amplifier gain of the source follower that receives light and changes it to voltage -There exist aspects, such as. In the case of (1), it can be adjusted with respect to the photodiode by the light transmission characteristics and relative positional relationship of the microlens in the upper layer portion. On the other hand, the amount of charge that can be accumulated is determined by the size of the photodiode and the like. As described with reference to FIGS. 1 to 7, by arranging two photodiodes (21, 22) having different sizes, it is possible to obtain a signal that can respond to a contrast ratio of different light. By adjusting the sensitivity of the two photodiodes (21, 22), it is possible to finally realize an imaging device (CCD 20) having a wide dynamic range.

〔広ダイナミックレンジ撮像可能なカメラの例〕
次に、上述した広ダイナミックレンジ撮像用のCCDを搭載した電子カメラについて説明する。
[Example of camera capable of wide dynamic range imaging]
Next, an electronic camera equipped with the above-described CCD for wide dynamic range imaging will be described.

図9は本発明の実施形態に係る電子カメラの構成を示すブロック図である。このカメラ50は、CCD20を介して撮像した被写体の光学像をデジタル画像データに変換して記録メディア52に記録するデジタルカメラである。カメラ50は表示部54を備えており、撮像中の映像や記録した画像データの再生画像を表示部54に表示させることができる。   FIG. 9 is a block diagram showing the configuration of the electronic camera according to the embodiment of the present invention. The camera 50 is a digital camera that converts an optical image of a subject imaged through the CCD 20 into digital image data and records it on a recording medium 52. The camera 50 includes a display unit 54, and can display a video being captured and a reproduced image of recorded image data on the display unit 54.

カメラ50全体の動作は、カメラ内蔵の中央処理装置(CPU)56によって統括制御される。 CPU56は、所定のプログラムに従って本カメラシステムを制御する制御手段として機能するとともに、自動露出(AE)演算、自動焦点調節(AF)演算、及びオートホワイトバランス(AWB)制御など各種演算を実施する演算手段として機能する。   The overall operation of the camera 50 is centrally controlled by a central processing unit (CPU) 56 built in the camera. The CPU 56 functions as a control means for controlling the camera system according to a predetermined program, and performs various calculations such as automatic exposure (AE) calculation, automatic focus adjustment (AF) calculation, and auto white balance (AWB) control. Functions as a means.

CPU56は不図示のバスを介してROM60及びメモリ(RAM)62と接続されている。ROM60にはCPU56が実行するプログラム及び制御に必要な各種データなどが格納されている。メモリ62はプログラムの展開領域及びCPU56の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。   The CPU 56 is connected to a ROM 60 and a memory (RAM) 62 via a bus (not shown). The ROM 60 stores programs executed by the CPU 56 and various data necessary for control. The memory 62 is used as a program development area and a calculation work area for the CPU 56, and is also used as a temporary storage area for image data.

画像データの一時記憶領域として、メモリ62は主に主感光画素21から得られる画像データを記憶する第1領域(以下、第1画像メモリという。)62Aと、主に従感光画素22から得られる画像データを記憶する第2領域(以下、第2画像メモリという。)62Bとを備えている。   As a temporary storage area for image data, the memory 62 is obtained from a first area (hereinafter referred to as a first image memory) 62A that mainly stores image data obtained from the main photosensitive pixel 21, and is obtained mainly from the subordinate photosensitive pixel 22. And a second area (hereinafter referred to as a second image memory) 62B for storing image data.

また、CPU56にはEEPROM64が接続されている。EEPROM64は、CCD20の欠陥画素情報、AE、AF及びAWB等の制御に必要なデータ或いはユーザが設定したカスタマイズ情報などが格納される不揮発性の記憶手段であり、必要に応じてデータの書き換えが可能であるとともに、電源OFF時においても情報内容が保持される。CPU56は必要に応じてEEPROM64のデータを参照して演算等を行う。   In addition, an EEPROM 64 is connected to the CPU 56. The EEPROM 64 is a nonvolatile storage means for storing defective pixel information of the CCD 20, data necessary for control of AE, AF, AWB, etc., or customization information set by the user, and data can be rewritten as necessary. In addition, the information content is retained even when the power is turned off. The CPU 56 performs calculations and the like with reference to the data in the EEPROM 64 as necessary.

カメラ50にはユーザが各種の指令を入力するための操作部66が設けられている。操作部66は、シャッターボタン、ズームスイッチ、モード切換スイッチなど各種操作部を含む。シャッターボタンは、撮影開始の指示を入力する操作手段であり、半押し時にONするS1 スイッチと、全押し時にONするS2 スイッチとを有する二段ストローク式のスイッチで構成されている。S1 オンにより、AE及びAF処理が行われ、S2 オンによって記録用の露光が行われる。ズームスイッチは、撮影倍率や再生倍率を変更するための操作手段である。モード切換スイッチは、撮影モードと再生モードとを切り替えるための操作手段である。   The camera 50 is provided with an operation unit 66 for a user to input various commands. The operation unit 66 includes various operation units such as a shutter button, a zoom switch, and a mode switch. The shutter button is an operation means for inputting an instruction to start photographing, and is composed of a two-stroke switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed. When S1 is on, AE and AF processing are performed, and when S2 is on, recording exposure is performed. The zoom switch is an operation means for changing the photographing magnification and the reproduction magnification. The mode switch is an operation means for switching between the shooting mode and the playback mode.

また、操作部66には、上記の他、撮影目的に応じて最適な動作モード(連写モード、オート撮影モード、マニュアル撮影モード、人物モード、風景モード、夜景モードなど)を設定する撮影モード設定手段、表示部54にメニュー画面を表示させるメニューボタン、メニュー画面から所望の項目を選択する十字ボタン(カーソル移動操作手段)、選択項目の確定や処理の実行を指令するOKボタン、選択項目など所望の対象の消去や指示内容の取消し、或いは1つ前の操作状態に戻らせる指令を入力するキャンセルボタン、表示部54のON/OFFや表示方法の切り替え、或いはオンスクリーンディスプレイ(OSD)の表示/非表示切り替えなどを行うための表示ボタン、ダイナミックレンジ拡大処理(画像合成) を実施するか否かの選択を行うDレンジ拡大モードスイッチなどの操作手段も含まれる。   In addition to the above, the operation unit 66 has a shooting mode setting for setting an optimum operation mode (continuous shooting mode, auto shooting mode, manual shooting mode, portrait mode, landscape mode, night view mode, etc.) according to the shooting purpose. Means, a menu button for displaying a menu screen on the display unit 54, a cross button (cursor moving operation means) for selecting a desired item from the menu screen, an OK button for instructing selection confirmation and execution of processing, a selection item, etc. Cancel button, cancel instruction contents, cancel button for inputting command to return to previous operation state, ON / OFF of display unit 54, switching of display method, display / display of on-screen display (OSD) Display button for performing non-display switching, etc., whether to implement dynamic range expansion processing (image composition) Operation means such as a D-range extension mode switch for-option also included.

なお、操作部66の中には、プッシュ式のスイッチ部材、ダイヤル部材、レバースイッチなどの構成によるものに限らず、メニュー画面から所望の項目を選択するようなユーザインターフェースによって実現されるものも含まれている。   Note that the operation unit 66 is not limited to a push-type switch member, dial member, lever switch, or the like, and includes those realized by a user interface for selecting a desired item from a menu screen. It is.

操作部66からの信号はCPU56に入力される。CPU56は操作部66からの入力信号に基づいてカメラ50の各回路を制御し、例えば、レンズ駆動制御、撮影動作制御、CCD20からの電荷読出制御、画像処理制御、画像データの記録/再生制御、記録メディア52内のファイル管理、表示部54の表示制御などを行う。   A signal from the operation unit 66 is input to the CPU 56. The CPU 56 controls each circuit of the camera 50 based on an input signal from the operation unit 66. For example, lens driving control, photographing operation control, charge readout control from the CCD 20, image processing control, image data recording / reproduction control, File management in the recording medium 52, display control of the display unit 54, and the like are performed.

表示部54には、例えば、カラー液晶ディスプレイが用いられている。なお、液晶ディスプレイに代えて、有機ELなど他の方式の表示装置(表示手段)を用いてもよい。表示部54は、撮影時に画角確認用の電子ファインダーとして使用できるとともに、記録済み画像を再生表示する手段として利用される。また、表示部54は、ユーザインターフェース用表示画面としても利用され、必要に応じてメニュー情報や選択項目、設定内容などの情報が表示される。   For the display unit 54, for example, a color liquid crystal display is used. Instead of the liquid crystal display, other types of display devices (display means) such as an organic EL may be used. The display unit 54 can be used as an electronic viewfinder for checking the angle of view at the time of shooting, and is used as a means for reproducing and displaying a recorded image. The display unit 54 is also used as a user interface display screen, and displays information such as menu information, selection items, and setting contents as necessary.

次に、カメラ50の撮影機能について説明する。   Next, the shooting function of the camera 50 will be described.

カメラ50は、光学系ユニット68とCCD20とを備えている。なお、CCD20に代えて、MOS型固体撮像素子など他の方式の撮像素子を用いることも可能である。光学系ユニット68は、不図示の撮影レンズと、絞り兼用メカシャッター機構を含む。撮影レンズは電動式のズームレンズで構成されており、詳細な光学構成については図示しないが、主として倍率変更(焦点距離可変)作用をもたらす変倍レンズ群及び補正レンズ群と、フォーカス調整に寄与するフォーカスレンズとを含む。   The camera 50 includes an optical system unit 68 and a CCD 20. Instead of the CCD 20, it is also possible to use another type of image sensor such as a MOS type solid-state image sensor. The optical system unit 68 includes a photographing lens (not shown) and a mechanical shutter mechanism that also serves as an aperture. The photographic lens is composed of an electric zoom lens, and a detailed optical configuration is not shown, but it mainly contributes to focus adjustment and a variable power lens group and a correction lens group that cause a magnification change (focal length variable) action. Including a focus lens.

撮影者によって操作部66のズームスイッチが操作されると、そのスイッチ操作に応じてCPU56からモータ駆動回路70に対して光学系制御信号が出力される。モータ駆動回路70は、CPU56からの制御信号に基づいてレンズ駆動用の信号を生成し、ズームモータ(不図示)に与える。こうして、モータ駆動回路70から出力されるモータ駆動電圧によってズームモータが作動し、撮影レンズ内の変倍レンズ群及び補正レンズ群が光軸に沿って前後移動することにより、撮影レンズの焦点距離(光学ズーム倍率)が変更される。   When the photographer operates the zoom switch of the operation unit 66, an optical system control signal is output from the CPU 56 to the motor drive circuit 70 in accordance with the switch operation. The motor driving circuit 70 generates a lens driving signal based on a control signal from the CPU 56 and supplies it to a zoom motor (not shown). Thus, the zoom motor is operated by the motor drive voltage output from the motor drive circuit 70, and the variable power lens group and the correction lens group in the photographic lens move back and forth along the optical axis, so that the focal length ( The optical zoom magnification is changed.

光学系ユニット68を通過した光は、CCD20の受光面に入射する。CCD20の受光面には多数のフォトセンサ(受光素子)が平面的に配列され、各フォトセンサに対応して赤(R)、緑(G)、青(B)の原色カラーフィルタが所定の配列構造で配置されている。なお、RGBカラーフィルタに代えて、CMY等のカラーフィルタを用いることもできる。   The light that has passed through the optical system unit 68 enters the light receiving surface of the CCD 20. A large number of photo sensors (light receiving elements) are arranged in a plane on the light receiving surface of the CCD 20, and primary color filters of red (R), green (G), and blue (B) are arranged in a predetermined arrangement corresponding to each photo sensor. Arranged in structure. A color filter such as CMY can be used instead of the RGB color filter.

CCD20の受光面に結像された被写体像は、各フォトセンサによって入射光量に応じた量の信号電荷に変換される。CCD20は、シャッターゲートパルスのタイミングによって各フォトセンサの電荷蓄積時間(シャッタースピード)を制御する電子シャッター機能を有している。   The subject image formed on the light receiving surface of the CCD 20 is converted into a signal charge of an amount corresponding to the amount of incident light by each photosensor. The CCD 20 has an electronic shutter function for controlling the charge accumulation time (shutter speed) of each photosensor according to the timing of the shutter gate pulse.

CCD20の各フォトセンサに蓄積された信号電荷は、CCDドライバ72から与えられるパルス(水平駆動パルスφH,垂直駆動パルスφV,オーバーフロードレインパルス)に基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出される。CCD20から出力された画像信号は、アナログ処理部74に送られる。アナログ処理部74は、CDS(相関二重サンプリング)回路及びGCA(ゲインコントロールアンプ)回路を含む処理部であり、このアナログ処理部74において、サンプリング処理並びにR,G,Bの各色信号に色分離処理され、各色信号の信号レベルの調整が行われる。   The signal charge accumulated in each photosensor of the CCD 20 is a voltage signal (image signal) corresponding to the signal charge based on pulses (horizontal drive pulse φH, vertical drive pulse φV, overflow drain pulse) given from the CCD driver 72. Read sequentially. The image signal output from the CCD 20 is sent to the analog processing unit 74. The analog processing unit 74 is a processing unit including a CDS (correlated double sampling) circuit and a GCA (gain control amplifier) circuit. The analog processing unit 74 performs color separation into sampling processing and R, G, and B color signals. Then, the signal level of each color signal is adjusted.

アナログ処理部74から出力された画像信号はA/D変換器76によってデジタル信号に変換された後、信号処理部80を介してメモリ62に格納される。タイミング発生器(TG)82は、CPU56の指令に従ってCCDドライバ72、アナログ処理部74及びA/D変換器76に対してタイミング信号を与えており、このタイミング信号によって各回路の同期がとられている。   The image signal output from the analog processing unit 74 is converted into a digital signal by the A / D converter 76 and then stored in the memory 62 via the signal processing unit 80. The timing generator (TG) 82 gives timing signals to the CCD driver 72, the analog processing unit 74 and the A / D converter 76 in accordance with instructions from the CPU 56, and the circuits are synchronized by this timing signal. Yes.

信号処理部80は、メモリ62の読み書きを制御するメモリコントローラを兼ねたデジタル信号処理ブロックである。信号処理部80は、AE/AF/AWB処理を行うオート演算部、ホワイトバランス回路、ガンマ変換回路、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して各点の色を計算する処理回路)、輝度・色差信号輝度・色差信号生成回路、輪郭補正回路、コントラスト補正回路、圧縮伸張回路、表示用信号生成回路等を含む画像処理手段であり、CPU56からのコマンドに従ってメモリ62を活用しながら画像信号を処理する。   The signal processing unit 80 is a digital signal processing block that also serves as a memory controller that controls reading and writing of the memory 62. The signal processing unit 80 interpolates the spatial shift of the color signal associated with the color filter array of the single-chip CCD, an auto calculation unit that performs AE / AF / AWB processing, a white balance circuit, a gamma conversion circuit, and a synchronization circuit. Processing circuit for calculating the color of each point), luminance / color difference signal luminance / color difference signal generation circuit, contour correction circuit, contrast correction circuit, compression / decompression circuit, display signal generation circuit, etc. The image signal is processed using the memory 62 in accordance with the command.

メモリ62に格納されたデータ(CCDRAWデータ)は、バスを介して信号処理部80に送られる。信号処理部80の詳細については後述するが、信号処理部80に送られた画像データは、ホワイトバランス調整処理、ガンマ変換処理、輝度信号(Y信号)及び色差信号(Cr,Cb 信号)への変換処理(YC処理)など、所定の信号処理が施された後、メモリ62に格納される。   The data (CCDRAW data) stored in the memory 62 is sent to the signal processing unit 80 via the bus. Although details of the signal processing unit 80 will be described later, the image data sent to the signal processing unit 80 is subjected to white balance adjustment processing, gamma conversion processing, luminance signal (Y signal), and color difference signals (Cr, Cb signals). After predetermined signal processing such as conversion processing (YC processing) is performed, the data is stored in the memory 62.

撮影画像を表示部54にモニタ出力する場合、メモリ62から画像データが読み出され、信号処理部80の表示変換回路に送られる。表示変換回路に送られた画像データは表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換された後、表示部54に出力される。CCD20から出力される画像信号によってメモリ62内の画像データが定期的に書き換えられ、その画像データから生成される映像信号が表示部54に供給されることにより、撮像中の映像(スルー画)がリアルタイムに表示部54に表示される。撮影者は表示部54に映し出されるスルー画の映像によって画角(構図)を確認できる。   When the captured image is output to the display unit 54 on the monitor, the image data is read from the memory 62 and sent to the display conversion circuit of the signal processing unit 80. The image data sent to the display conversion circuit is converted into a predetermined display signal (for example, an NTSC color composite video signal) and then output to the display unit 54. The image data in the memory 62 is periodically rewritten by the image signal output from the CCD 20, and the video signal generated from the image data is supplied to the display unit 54, so that the video being captured (through image) can be obtained. It is displayed on the display unit 54 in real time. The photographer can confirm the angle of view (composition) by the through image displayed on the display unit 54.

撮影者が画角を決めてシャッターボタンを押下すると、CPU56はこれを検知し、シャッターボタンの半押し(S1 =ON)に応動してAE処理及びAF処理などの撮影準備動作を行い、シャッターボタンの全押し(S2 =ON)に応動して記録用の画像を取り込むためのCCD露光及び読み出し制御を開始する。   When the photographer determines the angle of view and presses the shutter button, the CPU 56 detects this and performs shooting preparation operations such as AE processing and AF processing in response to half-pressing of the shutter button (S1 = ON). In response to full depression of (S2 = ON), CCD exposure and readout control for capturing a recording image is started.

すなわち、CPU56は、S1 =ONに応動して取り込まれた画像データから焦点評価演算やAE演算などの各種演算を行い、その演算結果に基づいてモータ駆動回路70に制御信号を送り、不図示のAFモータを制御して光学系ユニット68内のフォーカスレンズを合焦位置に移動させる。   That is, the CPU 56 performs various calculations such as a focus evaluation calculation and an AE calculation from the image data fetched in response to S1 = ON, and sends a control signal to the motor drive circuit 70 based on the calculation result. The AF motor is controlled to move the focus lens in the optical system unit 68 to the in-focus position.

また、オート演算部のAE演算部は撮影画像の1画面を複数のエリア(例えば、8×8)に分割し、分割エリアごとにRGB信号を積算する回路を含み、その積算値をCPU56に提供する。RGBの各色信号について積算値を求めてもよいし、これらのうちの一色(例えば、G信号)のみについて積算値を求めてもよい。   The AE calculation unit of the auto calculation unit includes a circuit that divides one screen of a captured image into a plurality of areas (for example, 8 × 8) and integrates RGB signals for each divided area, and provides the integrated value to the CPU 56. To do. The integrated value may be obtained for each of the RGB color signals, or the integrated value may be obtained for only one of these colors (for example, the G signal).

CPU56は、AE演算部から得た積算値に基づいて重み付け加算を行い、被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。   The CPU 56 performs weighted addition based on the integrated value obtained from the AE calculation unit, detects the brightness of the subject (subject brightness), and calculates an exposure value (shooting EV value) suitable for shooting.

カメラ50のAEは、広い輝度レンジを精度よく測光するために、複数回の測光を行い、被写体の輝度を正しく認識する。例えば、5〜17EVの範囲を測光するのに、1回の測光で3EVの範囲を測定できるものとすると、露出条件を変えながら最大で4回の測光が行われる。   The AE of the camera 50 performs light measurement a plurality of times in order to accurately measure a wide luminance range and correctly recognizes the luminance of the subject. For example, when the range of 5 to 17 EV is measured, and the range of 3 EV can be measured by one photometry, the photometry is performed four times at maximum while changing the exposure condition.

ある露出条件で測光を行い、各分割エリアの積算値を監視する。画像内に飽和しているエリアが存在していれば露出条件を変えて測光を行う。その一方、画像内に飽和しているエリアがなければ、その露出条件で正しく測光できるため、更なる露出条件の変更は行わない。   Metering is performed under certain exposure conditions, and the integrated value of each divided area is monitored. If there is a saturated area in the image, photometry is performed with different exposure conditions. On the other hand, if there is no saturated area in the image, metering can be performed correctly under that exposure condition, and therefore the exposure condition is not changed further.

こうして、複数回に分けて測光を実行することで広いレンジ(5〜17EV)を測光し、最適な露出条件を決定する。なお、1回の測光で測定できる範囲や、測光すべき範囲については、カメラ機種ごとに適宜設計可能である。   In this way, photometry is performed in a plurality of times to measure the wide range (5 to 17 EV), and the optimum exposure condition is determined. Note that the range that can be measured by one photometry and the range that should be measured can be appropriately designed for each camera model.

CPU56は、上述のAE演算結果に基づいて絞りとシャッタースピードを制御し、S2 =ONに応動して記録用の画像を取得する。本例のカメラ50は、スルー画中は主感光画素21のみからデータの読み出しを行い、主感光画素21の画像信号からスルー画用の画像を作成する。また、シャッターボタンのS1 =ONに伴うAE処理及びAF処理は主感光画素21から得られる信号に基づいて行われる。そして、広ダイナミックレンジ撮像を行う撮影モードが選択されている場合、又は、AEの結果(ISO感度や測光値)又はホワイトバランスゲイン値などに基づき自動的に広ダイナミックレンジ撮像モードが選択された場合には、シャッターボタンのS2 =ONに応動してCCD20の露光を行い、露光後にメカシャッターを閉じて光の進入を遮断した状態で垂直駆動信号(VD)に同期して、まず、主感光画素21の電荷を読み出し、その後、従感光画素22の電荷の読み出しを行う。   The CPU 56 controls the aperture and the shutter speed based on the above AE calculation result, and acquires a recording image in response to S2 = ON. The camera 50 of this example reads data from only the main photosensitive pixel 21 during the through image, and creates an image for the through image from the image signal of the main photosensitive pixel 21. Further, the AE process and the AF process associated with S1 = ON of the shutter button are performed based on a signal obtained from the main photosensitive pixel 21. When a shooting mode for performing wide dynamic range imaging is selected, or when a wide dynamic range imaging mode is automatically selected based on an AE result (ISO sensitivity or photometric value) or a white balance gain value The exposure of the CCD 20 is performed in response to S2 = ON of the shutter button. After exposure, the main photosensitive pixel is first synchronized with the vertical drive signal (VD) in a state in which the mechanical shutter is closed to block the entrance of light. Then, the charge of the sub-photosensitive pixel 22 is read out.

また、このカメラ50はストロボ装置84を有している。ストロボ装置84はは、発光部としての放電管(例えば、キセノン管)、トリガー回路、放電用エネルギーを蓄積するメインコンデンサ及びその充電回路などを含むブロックである。CPU56は必要に応じてストロボ装置84にコマンドを送り、ストロボ装置84の発光を制御する。   The camera 50 has a strobe device 84. The strobe device 84 is a block including a discharge tube (for example, a xenon tube) as a light emitting unit, a trigger circuit, a main capacitor for storing discharge energy, and a charging circuit thereof. The CPU 56 sends a command to the strobe device 84 as necessary to control the light emission of the strobe device 84.

こうして、シャッターボタンの全押し(S2 =ON)に応動して取り込まれた画像データは、信号処理部80においてYC処理その他の所定の信号処理を経た後、所定の圧縮フォーマット(例えば、JPEG方式) に従って圧縮され、メディアインターフェース部(図9中不図示)を介して記録メディア52に記録される。圧縮形式はJPEGに限定されず、MPEGその他の方式を採用してもよい。   Thus, the image data taken in response to the full press of the shutter button (S2 = ON) is subjected to YC processing and other predetermined signal processing in the signal processing unit 80, and then, a predetermined compression format (for example, JPEG format). And is recorded on the recording medium 52 via a media interface unit (not shown in FIG. 9). The compression format is not limited to JPEG, and MPEG or other methods may be adopted.

画像データを保存する手段は、スマートメディア(商標)、コンパクトフラッシュ(登録商標)などで代表される半導体メモリカード、磁気ディスク、光ディスク、光磁気ディスクなど、種々の媒体を用いることができる。また、リムーバブルメディアに限らず、カメラ50に内蔵された記録媒体(内部メモリ)であってもよい。   As a means for storing image data, various media such as a semiconductor memory card represented by SmartMedia (trademark), CompactFlash (registered trademark), a magnetic disk, an optical disk, and a magneto-optical disk can be used. Further, the recording medium (internal memory) built in the camera 50 is not limited to the removable medium.

操作部66のモード選択スイッチによって再生モードが選択されると、記録メディア52に記録されている最終の画像ファイル(最後に記録したファイル)が読み出される。記録メディア52から読み出された画像ファイルのデータは、信号処理部80の圧縮伸張回路によって伸張処理された後、表示用の信号に変換されて表示部54に出力される。   When the playback mode is selected by the mode selection switch of the operation unit 66, the last image file (last recorded file) recorded on the recording medium 52 is read. The image file data read from the recording medium 52 is decompressed by the compression / decompression circuit of the signal processing unit 80, converted into a display signal, and output to the display unit 54.

再生モードの一コマ再生時に十字ボタンを操作することにより、順方向又は逆方向にコマ送りすることができ、コマ送りされた次のファイルが記録メディア52から読み出され、表示画像が更新される。   By operating the cross button during single-frame playback in the playback mode, it is possible to move forward or backward in the forward direction, the next file that has been forwarded forward is read from the recording medium 52, and the display image is updated. .

図10は図9に示した信号処理部80における信号処理フローを示したブロック図である。   FIG. 10 is a block diagram showing a signal processing flow in the signal processing unit 80 shown in FIG.

図10に示すように、A/D変換器76によってデジタル信号に変換された主感光画素データ(高感度画像データという。)は、オフセット処理回路91においてオフセット処理される。オフセット処理回路91は、CCD出力の暗電流成分を補正する処理部であり、CCD20上の遮光画素から得られるオプティカルブラック(OB)信号の値を画素値から減算する演算を行う。オフセット処理回路91から出力されたデータ(高感度RAW データ) は、リニアマトリックス回路92に送られる。   As shown in FIG. 10, main photosensitive pixel data (referred to as high-sensitivity image data) converted into a digital signal by the A / D converter 76 is subjected to an offset process in an offset processing circuit 91. The offset processing circuit 91 is a processing unit that corrects the dark current component of the CCD output, and performs an operation of subtracting the value of the optical black (OB) signal obtained from the light-shielded pixel on the CCD 20 from the pixel value. Data (high sensitivity RAW data) output from the offset processing circuit 91 is sent to the linear matrix circuit 92.

リニアマトリックス回路92は、CCD20の分光特性を補正する色調補正処理部である。リニアマトリックス回路92において補正されたデータは、ホワイトバランス(WB)ゲイン調整回路93に送られる。WBゲイン調整回路93は、R,G,Bの色信号のレベルを増減するためのゲイン可変アンプを含み、CPU56からの指令に基づいて各色信号のゲイン調整を行う。WBゲイン調整回路93においてホワイトバランス調整処理された信号は、ガンマ補正回路94に送られる。   The linear matrix circuit 92 is a color tone correction processing unit that corrects the spectral characteristics of the CCD 20. The data corrected in the linear matrix circuit 92 is sent to a white balance (WB) gain adjustment circuit 93. The WB gain adjustment circuit 93 includes a gain variable amplifier for increasing / decreasing the levels of the R, G, and B color signals, and adjusts the gain of each color signal based on a command from the CPU 56. The signal subjected to the white balance adjustment processing in the WB gain adjustment circuit 93 is sent to the gamma correction circuit 94.

ガンマ補正回路94は、CPU56の指令に従い、所望のガンマ特性となるように入出力特性を変換する。ガンマ補正回路94においてガンマ補正された画像データは同時化処理回路95に送られる。   The gamma correction circuit 94 converts the input / output characteristics so as to obtain a desired gamma characteristic in accordance with a command from the CPU 56. The image data subjected to gamma correction in the gamma correction circuit 94 is sent to the synchronization processing circuit 95.

同時化処理回路95は、単板CCD20のカラーフィルタ配列構造に伴う色信号の空間的なズレを補間して各点の色(RGB)を計算する処理部と、RGB信号から輝度(Y)信号及び色差信号(Cr,Cb )を生成するYC変換処理部とを含む。同時化処理回路95で生成された輝度・色差信号(YCr Cb )は、各種補正回路96に送られる。   The synchronization processing circuit 95 interpolates the spatial shift of the color signal associated with the color filter array structure of the single CCD 20 and calculates the color (RGB) of each point, and the luminance (Y) signal from the RGB signal. And a YC conversion processing unit for generating color difference signals (Cr, Cb). The luminance / color difference signal (YCr Cb) generated by the synchronization processing circuit 95 is sent to various correction circuits 96.

各種補正回路96には、例えば、輪郭強調(アパーチャ補正)回路や色差マトリックスによる色補正回路などが含まれる。各種補正回路96において所要の補正処理が施された画像データはJPEG圧縮回路97に送られる。JPEG圧縮回路97において圧縮処理された画像データは、画像ファイルとして記録メディア52に記録される。   The various correction circuits 96 include, for example, a contour enhancement (aperture correction) circuit, a color correction circuit using a color difference matrix, and the like. The image data that has undergone the required correction processing in the various correction circuits 96 is sent to the JPEG compression circuit 97. The image data compressed by the JPEG compression circuit 97 is recorded on the recording medium 52 as an image file.

同様に、A/D変換器76によってデジタル信号に変換された従感光画素データ(低感度画像データという。)は、オフセット処理回路101においてオフセット処理される。オフセット処理回路101から出力されたデータ(低感度RAW データ) は、リニアマトリックス回路102に送られる。   Similarly, sub-photosensitive pixel data (referred to as low-sensitivity image data) converted into a digital signal by the A / D converter 76 is subjected to offset processing in the offset processing circuit 101. Data (low sensitivity RAW data) output from the offset processing circuit 101 is sent to the linear matrix circuit 102.

リニアマトリックス回路102から出力されたデータはホワイトバランス(WB)ゲイン調整回路103に送られ、ホワイトバランス調整が行われる。ホワイトバランス調整処理された信号は、ガンマ補正回路104に送られる。   The data output from the linear matrix circuit 102 is sent to the white balance (WB) gain adjustment circuit 103, and white balance adjustment is performed. The signal subjected to the white balance adjustment processing is sent to the gamma correction circuit 104.

また、低感度画像データ用のリニアマトリックス回路102から出力された低感度画像データは、積算回路105にも与えられる。積算回路105は、撮像画面を複数のエリア(例えば、16×16)に分割し、それぞれのエリアごとにR,G,Bの画素値を色別に積算する処理を行い、色別の平均値を算出する。   The low-sensitivity image data output from the low-sensitivity image data linear matrix circuit 102 is also supplied to the integration circuit 105. The integration circuit 105 divides the imaging screen into a plurality of areas (for example, 16 × 16), performs a process of integrating the R, G, and B pixel values for each area, and calculates an average value for each color. calculate.

積算回路105において算出された平均値のうち、G成分の最大値(Gmax )が検出され、その検出されたGmax を表すデータはDレンジ算出回路106に送られる。Dレンジ算出回路106は、図で説明した従感光画素の光電変換特性に基づき、最大値Gmax の情報から被写体の最大輝度レベルを算出し、当該被写体の記録に必要な最大のダイナミックレンジを算出する。   Among the average values calculated by the integration circuit 105, the maximum value (Gmax) of the G component is detected, and data representing the detected Gmax is sent to the D range calculation circuit 106. The D range calculation circuit 106 calculates the maximum luminance level of the subject from the information of the maximum value Gmax based on the photoelectric conversion characteristics of the sub-photosensitive pixels described in the figure, and calculates the maximum dynamic range necessary for recording the subject. .

また、本例では、再現ダイナミックレンジを何%までにするかという設定情報を所定のユーザインターフェース(後述)を通して入力することができる。ユーザが指定したDレンジ選択情報107は、CPU56からDレンジ算出回路106に送られる。Dレンジ算出回路106は、撮像データを解析して求めたダイナミックレンジと、ユーザが指定したDレンジ選択情報とに基づき、記録時のダイナミックレンジを決定する。   In this example, setting information indicating how much the reproduction dynamic range is to be set can be input through a predetermined user interface (described later). The D range selection information 107 designated by the user is sent from the CPU 56 to the D range calculation circuit 106. The D range calculation circuit 106 determines the dynamic range at the time of recording based on the dynamic range obtained by analyzing the imaging data and the D range selection information specified by the user.

撮像データから求めた最大のダイナミックレンジがDレンジ選択情報107のDレンジ以下の場合には、撮像データから求めたダイナミックレンジが採用される。撮像データから求めた最大のダイナミックレンジがDレンジ選択情報のDレンジを超える場合には、Dレンジ選択情報が示すDレンジが採用される。   When the maximum dynamic range obtained from the imaging data is equal to or less than the D range of the D range selection information 107, the dynamic range obtained from the imaging data is adopted. When the maximum dynamic range obtained from the imaging data exceeds the D range of the D range selection information, the D range indicated by the D range selection information is employed.

Dレンジ算出回路106で決定されたDレンジに応じて、低感度画像データ用のガンマ補正回路104のガンマ係数が制御される。   In accordance with the D range determined by the D range calculation circuit 106, the gamma coefficient of the gamma correction circuit 104 for low-sensitivity image data is controlled.

ガンマ補正回路104から出力された画像データは同時化処理回路108において、同時化処理及びYC変換処理が行われる。同時化処理回路108で生成された輝度・色差信号(YCr Cb )は、各種補正回路109に送られ、輪郭強調、色差マトリックス処理などの補正処理が行われる。各種補正回路109において所要の補正処理が施された低感度画像データはJPEG圧縮回路110において圧縮処理され、高感度画像データとは別の画像ファイルとして記録メディア52に記録される。   The synchronization processing circuit 108 performs synchronization processing and YC conversion processing on the image data output from the gamma correction circuit 104. The luminance / color difference signal (YCrCr) generated by the synchronization processing circuit 108 is sent to various correction circuits 109, where correction processing such as edge enhancement and color difference matrix processing is performed. The low-sensitivity image data that has undergone the required correction processing in the various correction circuits 109 is compressed in the JPEG compression circuit 110 and recorded on the recording medium 52 as an image file different from the high-sensitivity image data.

高感度画像データについては、民生用ディスプレイの代表的特性であるsRGB色規格に対して画像設計がなされている。このsRGB色空間を対象とした光電変換特性を図11に示す。撮像系で図11のような変換特性を持たせておくことにより、通常のディスプレイを用いた画像再現に際して、輝度に関して好ましい画像を再現することが可能となる。   For high-sensitivity image data, an image design is made to the sRGB color standard, which is a typical characteristic of consumer displays. The photoelectric conversion characteristics for this sRGB color space are shown in FIG. By providing the imaging system with the conversion characteristics as shown in FIG. 11, it is possible to reproduce a preferable image with respect to luminance when reproducing an image using a normal display.

その一方で、近時、印刷用途などではsRGBよりも広い色空間を持つ拡張色空間を対象とした色再現設計が行われることがある。   On the other hand, in recent years, color reproduction design for an extended color space having a color space wider than sRGB may be performed in printing applications and the like.

図12には、sRGB空間と拡張色空間の例を示した。同図において、符号120で示した馬蹄形の内側は人間が知覚できる色領域を示す。符号121で示した三角形の内側はsRGB色空間で再現できる色再現域を示し、符号122で示した三角形の内側は拡張色空間で再現できる色再現域を示す。リニアマトリックスの値(図10で説明したリニアマトリックス回路92、102におけるマトリックスの値)を変えることによって再現できる色の領域を変化させることができる。   FIG. 12 shows an example of the sRGB space and the extended color space. In the figure, the inner side of the horseshoe shape indicated by reference numeral 120 indicates a color region that can be perceived by humans. The inside of the triangle indicated by reference numeral 121 indicates a color gamut that can be reproduced in the sRGB color space, and the inside of the triangle indicated by reference numeral 122 indicates a color gamut that can be reproduced in the extended color space. By changing the value of the linear matrix (the value of the matrix in the linear matrix circuits 92 and 102 described with reference to FIG. 10), the color region that can be reproduced can be changed.

本実施形態では、sRGB以外の色空間を対象とした用途、例えば、プリント用途などにおいて、高感度画像データのみならず、同時露光で得られた低感度画像データを画像加工で利用することで色再現域や輝度再現域を拡張し、一層好ましい画像を作成する。再現域に応じて異なるガンマを持たせることにより、異なるダイナミックレンジに対応した別々の画像を作ることができる。   In the present embodiment, in applications intended for a color space other than sRGB, for example, printing applications, not only high-sensitivity image data but also low-sensitivity image data obtained by simultaneous exposure is used for image processing. The reproduction area and the luminance reproduction area are expanded to create a more preferable image. Different images corresponding to different dynamic ranges can be created by having different gammas depending on the reproduction range.

sRGB色再現域に対するエンコード式と、拡張色再現域に対するエンコード式とを図13に示す。例えば、同図の下段(Case2)に示すように、エンコード条件を負値や1以上の値にも対応させることによって、再現できる輝度域に応じたファイルを作成することができる。低感度画像データについては、拡張された再現域に対応したエンコード条件に従って信号処理が行われ、ファイルが生成される。   FIG. 13 shows an encoding formula for the sRGB color gamut and an encoding formula for the extended color gamut. For example, as shown in the lower part of the figure (Case 2), a file corresponding to a reproducible luminance range can be created by making the encoding condition also correspond to a negative value or a value of 1 or more. For low-sensitivity image data, signal processing is performed according to the encoding condition corresponding to the expanded reproduction range, and a file is generated.

なお、ハイライト情報は、微妙な情報を持つのでビットの深さが重要である。したがって、sRGBに対応するデータを例えば8ビットで記録し、拡張された再現域に対応したデータについてはそれよりもビット数の大きい例えば16ビットで記録することが好ましい。   Note that the depth of the bit is important because the highlight information has delicate information. Therefore, it is preferable to record data corresponding to sRGB in, for example, 8 bits, and to record data corresponding to the expanded reproduction area in, for example, 16 bits having a larger number of bits.

図14は、記録メディア52のディレクトリ(フォルダ)構造の一例を示す図である。カメラ50はDCF(Design rule for Camera File system: 社団法人日本電子工業振興協会〔JEIDA 〕において規定されたデジタルカメラの統一記録フォーマット) 規格に従って画像ファイルを記録する機能を備えている。   FIG. 14 is a diagram illustrating an example of a directory (folder) structure of the recording medium 52. The camera 50 has a function of recording an image file in accordance with a DCF (Design rule for Camera File system: unified recording format of a digital camera defined by the Japan Electronic Industry Development Association [JEIDA]) standard.

図14のようにルートディレクトリ直下にディレクトリ名「DCIM」を持つDCF イメージルートディレクトリが形成され、DCF イメージルートディレクトリの直下に少なくとも1つのDCF ディレクトリが存在する。DCF ディレクトリは、DCF オブジェクトである画像ファイルを格納するためのディレクトリである。DCF ディレクトリ名は、DCF 規格に従い3文字のディレクトリ番号とこれに続く5文字の自由文字(合計8文字)で定義される。DCF ディレクトリ名はカメラ50によって自動生成されてもよいし、ユーザが指定又は変更できる構成にしてもよい。   As shown in FIG. 14, a DCF image root directory having a directory name “DCIM” is formed immediately below the root directory, and at least one DCF directory exists immediately below the DCF image root directory. The DCF directory is a directory for storing image files that are DCF objects. A DCF directory name is defined by a 3-character directory number followed by 5 free characters (8 characters in total) according to the DCF standard. The DCF directory name may be automatically generated by the camera 50, or may be configured to be specified or changed by the user.

カメラ50で生成された画像ファイルは、DCFの命名規則等にしたがって自動生成されるファイル名が付与され、指定された又は自動選択されたDCF ディレクトリに格納される。DCF 命名規則に従うDCF ファイル名は、4文字の自由文字とこれに続く4文字のファイル番号で定義される。   The image file generated by the camera 50 is given a file name that is automatically generated according to a DCF naming rule or the like, and is stored in a designated or automatically selected DCF directory. A DCF file name that follows the DCF naming convention is defined by 4 free characters followed by a 4 character file number.

広ダイナミックレンジ記録モードによって取得された高感度画像データと低感度画像データからそれぞれ作成された二つの画像ファイルは相互に関連付けられて記録される。例えば、高感度画像データから作成された一方のファイル(通常の標準的な再現域に対応したファイル、以下、標準画像ファイルという。)についてはDCF 命名規則に従って「ABCD****.JPG」と命名し(「****」はファイル番号) 、これと同時撮像で得られた低感度画像データから作成された他方のファイル(拡張再現域に対応したファイル、以下、拡張画像ファイルという。)については、標準画像ファイルのファイル名( 「. JPG 」を除いた8 文字列) の末尾に「b 」を付加して「ABCD****b.JPG 」と命名する。このように名前を関連づけて保存しておくことにより、出力時の特性に適したファイルを選択して使うことが可能である。   Two image files respectively created from high-sensitivity image data and low-sensitivity image data acquired in the wide dynamic range recording mode are recorded in association with each other. For example, one file created from high-sensitivity image data (a file corresponding to a normal standard reproduction area, hereinafter referred to as a standard image file) is called “ABCD ****. JPG” according to the DCF naming convention. Naming (“****” is the file number) and the other file created from the low-sensitivity image data obtained by simultaneous imaging (file corresponding to the extended reproduction range, hereinafter referred to as the extended image file) For, add "b" to the end of the standard image file name (8 character strings excluding ".JPG") and name it "ABCD **** b.JPG". By storing the names in association with each other in this way, it is possible to select and use a file suitable for the characteristics at the time of output.

なお、ファイル名の関連付け方法の他の例として、標準画像ファイルのファイル名の末尾にも「a 」などの文字を付加してもよい。ファイル番号の後ろに付加する文字列を変えることによって標準画像ファイルと拡張画像ファイルとを区別することができる。また、ファイル番号に先行する自由文字の部分を変更する態様がある。その他、標準画像ファイルと拡張画像ファイルとで拡張子を変更する態様もある。少なくともファイル番号の部分を共通にしておくことで二つのファイルの関連性を確保できる。   As another example of the file name association method, a character such as “a” may be added to the end of the file name of the standard image file. The standard image file and the extended image file can be distinguished by changing the character string added after the file number. In addition, there is an aspect in which the free character part preceding the file number is changed. In addition, there is a mode in which the extension is changed between the standard image file and the extended image file. By sharing at least the file number, the relationship between the two files can be secured.

拡張画像ファイルの記録形式は、JPEG形式に限定されない。図12に示されているように、sRGB色空間と拡張色空間とでは大部分の色は共通である。したがって、撮像された画像をsRGB色空間用と拡張色空間用とにそれぞれエンコードし、その差をとると画像の殆どのピクセルは「0」値となる。したがって、この差分に対して例えばハフマン圧縮を行い、一方を標準デバイスのsRGB画像ファイル、もう一つのファイルを差分画像とすることで、拡張色空間に対応できると同時に記録容量を減らすことができる。   The recording format of the extended image file is not limited to the JPEG format. As shown in FIG. 12, most of the colors are common in the sRGB color space and the extended color space. Therefore, when the captured image is encoded for the sRGB color space and the extended color space, and the difference between them is taken, most pixels of the image have a value of “0”. Therefore, for example, Huffman compression is performed on this difference, and one is used as the sRGB image file of the standard device and the other file is used as the difference image, so that the extended color space can be handled and the recording capacity can be reduced.

図15には低感度像データを上記のように差分画像として記録する態様のブロック図が示されている。図15中図10と同一又は類似の構成については同一の符号を付し、その説明は省略する。   FIG. 15 is a block diagram showing a mode in which low-sensitivity image data is recorded as a difference image as described above. In FIG. 15, the same or similar components as those in FIG. 10 are denoted by the same reference numerals, and the description thereof is omitted.

高感度画像データから生成された画像と低感度画像データから生成された画像とを差分処理回路132に送り、こられの画像の差分画像を生成する。差分処理回路132で生成された差分画像は圧縮回路133に送られ、ここでJPEGとは異なる所定の圧縮方法に従って圧縮処理される。圧縮回路133で生成された圧縮画像データのファイルは記録メディア52に記録される。   An image generated from the high-sensitivity image data and an image generated from the low-sensitivity image data are sent to the difference processing circuit 132, and a difference image of these images is generated. The difference image generated by the difference processing circuit 132 is sent to the compression circuit 133, where it is compressed according to a predetermined compression method different from JPEG. The compressed image data file generated by the compression circuit 133 is recorded on the recording medium 52.

図16は、再生系の構成を示したブロック図である。記録メディア52に記録されている情報はメディアインターフェース部140を介して読み取られる。メディアインターフェース部140は、バスを介してCPU56と接続されており、CPU56の指令に従い記録メディア52の読み書きに必要な信号の受渡しを行うために所要の信号変換を行う。   FIG. 16 is a block diagram showing the configuration of the reproduction system. Information recorded on the recording medium 52 is read via the media interface unit 140. The media interface unit 140 is connected to the CPU 56 via a bus, and performs necessary signal conversion in order to transfer signals necessary for reading and writing of the recording medium 52 in accordance with instructions from the CPU 56.

記録メディア52から読み出された標準画像ファイルの圧縮データは伸張処理部142において伸張処理され、メモリ62上の高感度画像データ復元領域62Cに展開される。伸張された高感度画像データは表示変換回路146に送られる。表示変換回路146は、表示部54の解像度に合わせて画像サイズを変換する縮小処理部と、縮小処理部で生成された表示用画像を表示用の所定の信号形式に変換する表示信号生成部とを含む。   The compressed data of the standard image file read from the recording medium 52 is decompressed by the decompression processing unit 142, and decompressed in the high sensitivity image data restoration area 62C on the memory 62. The expanded high-sensitivity image data is sent to the display conversion circuit 146. The display conversion circuit 146 includes a reduction processing unit that converts the image size in accordance with the resolution of the display unit 54, a display signal generation unit that converts the display image generated by the reduction processing unit into a predetermined signal format for display, and including.

表示変換回路146において表示用の所定の信号形式に変換された信号は表示部54に出力される。こうして、表示部に再生画像が表示される。通常は、標準画像ファイルのみを再生して表示部に表示させる。   The signal converted into a predetermined signal format for display in the display conversion circuit 146 is output to the display unit 54. Thus, the reproduced image is displayed on the display unit. Normally, only the standard image file is reproduced and displayed on the display unit.

また、標準画像ファイルと関連付けられている拡張画像ファイルを利用して再現域の広い画像を作成する場合には、標準画像ファイルを伸張して得たデータからRGBGの高感度画像データを復元し、これをメモリ62上の高感度画像データ復元領域62Dに記憶する。   In addition, when creating an image with a wide reproduction range using the extended image file associated with the standard image file, the high-sensitivity image data of RGBG is restored from the data obtained by expanding the standard image file, This is stored in the high-sensitivity image data restoration area 62D on the memory 62.

更に、記録メディア52から拡張画像ファイルが読み出され、伸張処理部148において伸張処理された後、RGBの低感度画像データに復元され、メモリ62上の低感度画像データ復元領域62Eに記憶される。こうしてメモリ62上に記憶された高感度画像データと低感度画像データとが読み出され、合成処理部(画像加算部)150に送られる。   Further, the extended image file is read from the recording medium 52, decompressed by the decompression processing unit 148, restored to RGB low sensitivity image data, and stored in the low sensitivity image data restoration area 62 E on the memory 62. . The high-sensitivity image data and the low-sensitivity image data stored on the memory 62 are read out and sent to the synthesis processing unit (image adding unit) 150.

合成処理部150は、高感度画像データに係数を乗算する乗算部と、低感度画像データに係数を乗算する乗算部と、係数乗算後の高感度画像データと低感度画像データとを加算(合成)する加算部と、を含む処理部である。高感度画像データ及び低感度画像データに乗算される各係数(加算割合を示す係数)はCPU56によって可変設定される。   The composition processing unit 150 multiplies the high-sensitivity image data by a coefficient, a multiplication unit that multiplies the low-sensitivity image data by a coefficient, and adds (synthesizes) the high-sensitivity image data and the low-sensitivity image data after the coefficient multiplication. ) Adding processing unit. Each coefficient (coefficient indicating the addition ratio) multiplied by the high sensitivity image data and the low sensitivity image data is variably set by the CPU 56.

合成処理部150で生成された信号はガンマ変換部152に送られる。ガンマ変換部152は、CPU56の制御に従いROM60内のデータを参照して、所望のガンマ特性となるように入出力特性を変換する。CPU56は画像出力時の再現域に合わせてガンマ特性を切り換える制御を行う。ガンマ補正された画像信号はYC変換部153に送られ、RGB信号から輝度(Y)信号及び色差信号(Cr,Cb )に変換される。   The signal generated by the synthesis processing unit 150 is sent to the gamma conversion unit 152. The gamma conversion unit 152 refers to the data in the ROM 60 under the control of the CPU 56 and converts the input / output characteristics so as to obtain a desired gamma characteristic. The CPU 56 performs control to switch the gamma characteristic in accordance with the reproduction range at the time of image output. The gamma-corrected image signal is sent to the YC conversion unit 153, and the RGB signal is converted into a luminance (Y) signal and a color difference signal (Cr, Cb).

YC変換部153で生成された輝度・色差信号(YCr Cb )は、各種補正部154に送られる。各種補正部154において輪郭強調(アパーチャ補正)、色差マトリックスによる色補正など所要の補正処理が施されて最終画像が生成される。こうして生成された最終画像のデータは表示変換回路146に送られ、表示用の信号に変換された後、表示部54に出力される。   The luminance / color difference signal (YCrCr) generated by the YC conversion unit 153 is sent to various correction units 154. Various correction units 154 perform necessary correction processing such as edge enhancement (aperture correction) and color correction using a color difference matrix to generate a final image. The final image data generated in this way is sent to the display conversion circuit 146, converted into a display signal, and then output to the display unit 54.

図16ではカメラ50に搭載されている表示部54に画像を再生表示する例を述べたが、外部の画像表示装置に画像を再生表示させることも可能である。また、画像閲覧用のアプリケーションプログラムを組み込んだパソコンや専用の画像再生装置、或いはプリンターなどを用いて図16と同様の処理フローを実現することにより、標準画像の再現並びに拡張された再現域に対応した画像の再現が可能である。   Although FIG. 16 illustrates an example in which an image is reproduced and displayed on the display unit 54 mounted on the camera 50, it is also possible to reproduce and display an image on an external image display device. In addition, by realizing a processing flow similar to that shown in FIG. 16 using a personal computer with a built-in image viewing application program, a dedicated image playback device, or a printer, it supports standard image reproduction and an expanded reproduction range. The reproduced image can be reproduced.

図17は高感度画像データと低感度画像データとを合成して得られる最終画像(合成画像データ)のレベルと相対的被写体輝度との関係を示すグラフである。   FIG. 17 is a graph showing the relationship between the level of the final image (synthesized image data) obtained by synthesizing the high-sensitivity image data and the low-sensitivity image data and the relative subject luminance.

相対的被写体輝度は、高感度画像データが飽和するときのレベルを与える被写体輝度を100 %として、これを基準に被写体輝度を表したものである。図17では、画像データを8ビット(0〜 255)で表現しているが、ビット数はこれに限定されない。   Relative subject brightness represents subject brightness with reference to 100% of subject brightness that gives a level at which high-sensitivity image data is saturated. In FIG. 17, the image data is represented by 8 bits (0 to 255), but the number of bits is not limited to this.

合成画像のダイナミックレンジは、ユーザインターフェースを通じて設定される。本例では、ダイナミックレンジをD0 からD5 までの6段階に設定できるものとする。人間の感覚は略logスケールで効いてくるので、log(対数)の関数をとったときに略リニアになるように、再現ダイナミックレンジを例えば、相対被写体輝度で100%−130%−170%−220%−300%−400%という具合に段階的に切り替えることができるように構成されている。   The dynamic range of the composite image is set through the user interface. In this example, it is assumed that the dynamic range can be set in six stages from D0 to D5. Since human senses are effective on a substantially log scale, the reproduction dynamic range is, for example, 100% −130% −170% in terms of relative subject luminance so that it becomes substantially linear when the log (logarithm) function is taken. It is configured so that it can be switched in stages such as 220% -300% -400%.

もちろん、ダイナミックレンジの設定段数は本例に限定されず、任意の段階数に設計することが可能であるし、連続的な設定(無段階)も可能である。   Of course, the number of setting stages of the dynamic range is not limited to this example, it can be designed to an arbitrary number of stages, and continuous setting (no stage) is also possible.

ダイナミックレンジの設定に応じて、ガンマ回路のガンマ係数や加算時の合成パラメータ、色差信号マトリックス回路のゲイン係数などが制御される。カメラ50内の不揮発性メモリ(ROM60又はEEPROM64)には、設定されるダイナミックレンジに対応した各種パラメータ、係数等を規定したテーブルデータが格納されている。   Depending on the setting of the dynamic range, the gamma coefficient of the gamma circuit, the synthesis parameter at the time of addition, the gain coefficient of the color difference signal matrix circuit, and the like are controlled. A non-volatile memory (ROM 60 or EEPROM 64) in the camera 50 stores table data defining various parameters, coefficients, etc. corresponding to the set dynamic range.

図18及び図19にはダイナミックレンジ選択操作時のユーザインターフェースの例が示されている。図18に示した例では、メニュー画面から遷移したダイナミックレンジ設定画面においてダイナミックレンジを指定する入力ボックス160が表示される。十字ボタンなど所定の操作手段を用いて入力ボックス160横のプルダウンメニューボタン162を選択すると、図示のように選択可能なダイナミックレンジの値(相対的被写体輝度)を示すプルダウンメニュー164が表示される。   18 and 19 show examples of user interfaces at the time of dynamic range selection operation. In the example shown in FIG. 18, an input box 160 for designating a dynamic range is displayed on the dynamic range setting screen transitioned from the menu screen. When a pull-down menu button 162 beside the input box 160 is selected using a predetermined operation means such as a cross button, a pull-down menu 164 showing a selectable dynamic range value (relative subject brightness) is displayed as shown in the figure.

このプルダウンメニュー164の中から十字ボタンによって所望のダイナミックレンジを選択し、OKボタンを押すことにより、ダイナミックレンジが設定される。   A dynamic range is set by selecting a desired dynamic range from the pull-down menu 164 using the cross button and pressing the OK button.

図19に示した他の例では、ダイナミックレンジ設定画面上に入力ボックス170とDレンジパラメータ軸172が表示される。十字ボタンなどの操作手段を使用して、Dレンジパラメータ軸172に沿ってスライダ174を移動させることにより、100 %から最大400 %までの範囲でダイナミックレンジを任意に指定することができる。スライダ174の位置に応じて入力ボックス170に示されるダイナミックレンジの設定値が変更される。所望の設定値が得られたら、画面下の操作案内に従ってOKボタンを押し、設定処理を確定(実行)させる。なお、キャンセルボタンを押すと、設定処理が取り消され、元の設定状態に戻る。   In another example shown in FIG. 19, an input box 170 and a D range parameter axis 172 are displayed on the dynamic range setting screen. By using the operation means such as a cross button and moving the slider 174 along the D range parameter axis 172, the dynamic range can be arbitrarily specified in a range from 100% to a maximum of 400%. The setting value of the dynamic range shown in the input box 170 is changed according to the position of the slider 174. When the desired set value is obtained, the OK button is pressed according to the operation guide at the bottom of the screen to confirm (execute) the setting process. If the cancel button is pressed, the setting process is canceled and the original setting state is restored.

図18及び図19では表示部54の画面上でダイナミックレンジの選択操作を行う例を述べたが、ダイヤル式のスイッチやスライドスイッチ、或いはプッシュ式のスイッチなどの操作部材によってダイナミックレンジの選択を行う態様も可能である。   18 and 19, the example of performing the dynamic range selection operation on the screen of the display unit 54 has been described. However, the dynamic range is selected by an operation member such as a dial type switch, a slide switch, or a push type switch. Embodiments are possible.

また、撮影シーンによって必要とされるダイナミックレンジが異なるので、撮像した画像を解析してダイナミックレンジを自動設定する態様もある。更に、ポートレートモード、夜景モードなどの撮影モードに応じて自動的にダイナミックレンジの設定を切り替える態様も可能である。   In addition, since the required dynamic range differs depending on the shooting scene, there is also an aspect in which the dynamic range is automatically set by analyzing the captured image. Furthermore, a mode in which the setting of the dynamic range is automatically switched according to the photographing mode such as the portrait mode and the night view mode is also possible.

何%までの情報を記録したかというダイナミックレンジの情報は画像データとともにファイルのヘッダー等に記録される。ダイナミックレンジ情報は、標準画像ファイル及び拡張画像ファイルの両方に記録してもよいし、何れか一方のファイルに記録してもよい。   The dynamic range information indicating how much information is recorded is recorded together with the image data in a file header or the like. The dynamic range information may be recorded in both the standard image file and the extended image file, or may be recorded in either one of the files.

画像ファイル内にダイナミックレンジ情報を付加しておくことにより、プリンター等の画像出力装置においてその情報を読み込み、合成処理、ガンマ変換、色補正などの処理内容を変えて最適な画像を作成することが可能になる。   By adding dynamic range information in the image file, the information can be read by an image output device such as a printer, and the processing content such as composition processing, gamma conversion, and color correction can be changed to create an optimal image. It becomes possible.

プリント用途であっても、ポートレート用には階調の柔らかい、好ましい肌色を再現する画像が好まれるので、写真の用途別に、例えば、商業コマーシャル用写真と、ポートレート、或いは、屋内撮影用と屋外撮影用というように用途に応じて拡張画像を作成することが有用である。これを実現するために、図18及び図19で説明したように、カメラ50において拡張画像の輝度再現域を指定し得るユーザインターフェースを設け、使用用途や撮影状況に応じてユーザに選択させる構成となっている。   Even for print applications, images with soft gradations and reproduction of desirable skin colors are preferred for portraits. For example, for commercial photography and portrait or indoor photography. It is useful to create an extended image according to the application, such as for outdoor photography. In order to realize this, as described with reference to FIGS. 18 and 19, the camera 50 is provided with a user interface that can specify the luminance reproduction range of the extended image, and the user can select according to the usage and the shooting situation. It has become.

次に、上記の如く構成されたカメラ50の動作について説明する。   Next, the operation of the camera 50 configured as described above will be described.

図20乃至図22は、カメラ50の制御手順を示したフローチャートである。撮影モードを選択した状態でカメラ電源をONしたとき、又は再生モードから撮影モードに切り替えられたときに、図20の制御フローがスタートする。   20 to 22 are flowcharts showing the control procedure of the camera 50. When the camera power is turned on with the shooting mode selected, or when the playback mode is switched to the shooting mode, the control flow in FIG. 20 starts.

撮影モードの処理がスタートすると(ステップS200)、CPU56はまず、表示部54にスルー画を表示させるモードが選択されているか否かの判定を行う(ステップS202)。セットアップ画面等において撮影モード起動時に表示部54をONするモード(スルー画ONモード)が選択されている場合には、ステップS204に進み、CCD20を含む撮像系に電源が供給され、撮像可能な状態になる。このとき、CCD20はスルー画表示用の連続撮像を行うために一定の撮像周期で駆動される。   When the shooting mode process starts (step S200), the CPU 56 first determines whether or not a mode for displaying a through image on the display unit 54 is selected (step S202). When the mode for turning on the display unit 54 at the start of the shooting mode (through image ON mode) is selected on the setup screen or the like, the process proceeds to step S204, where power is supplied to the imaging system including the CCD 20 and imaging is possible. become. At this time, the CCD 20 is driven at a constant imaging cycle in order to perform continuous imaging for live view display.

本例のカメラ50は表示部54においてNTSC方式のビデオ信号を利用しており、フレームレートが30フレーム/秒に設定されている(2フィールドで1フレームを構成するため1フィールド=1/60秒)。当該カメラ50の場合、同じ画像を2フィールド表示させる方式を採用しているため1/30秒ごとに画像内容が更新される。この周期で1画面の画像データを更新するために、スルー画時においてはCCD20の垂直駆動(VD)パルスの周期が1/30秒に設定される。CPU56はタイミング発生器82に対してCCD駆動モードの制御信号を与え、タイミング発生器82によってCCD駆動用の信号が生成される。こうして、CCD20による連続撮像が開始され、表示部54にスルー画が表示される(ステップS206)。   The camera 50 of this example uses an NTSC video signal in the display unit 54, and the frame rate is set to 30 frames / second (1 field = 1/60 seconds to form one frame by two fields). ). In the case of the camera 50, since the same image is displayed in two fields, the image content is updated every 1/30 seconds. In order to update the image data of one screen at this period, the period of the vertical drive (VD) pulse of the CCD 20 is set to 1/30 second at the time of the through image. The CPU 56 gives a control signal for the CCD driving mode to the timing generator 82, and the timing generator 82 generates a CCD driving signal. Thus, continuous imaging by the CCD 20 is started, and a through image is displayed on the display unit 54 (step S206).

スルー画の表示中、CPU56はシャッターボタンからの信号入力を監視し、S1 スイッチがONしたか否かの判定を行う(ステップS208)。S1 スイッチがOFFの状態であれば、ステップS208の処理がループし、スルー画表示状態が維持される。   While the through image is being displayed, the CPU 56 monitors the signal input from the shutter button and determines whether or not the S1 switch is turned on (step S208). If the S1 switch is in the OFF state, the process in step S208 loops and the through image display state is maintained.

ステップS202においてスルー画OFF(非表示)の設定になっている場合には、ステップS204〜ステップS206を省略してステップS208に進む。   If the through image is set to OFF (non-display) in step S202, step S204 to step S206 are omitted and the process proceeds to step S208.

その後、撮影者によってシャッターボタンが押され、撮影準備の指示が入力されると(CPU56がS1 =ONを検出すると)、ステップS210に進み、AE及びAF処理を行う。なお、このときCPU56は、CCD駆動モードを1/60秒に変更する。CCD20からの画像取り込み周期が短くなり、高速にAE・AF処理を実施することができる。ここで設定されるCCD駆動周期は、1/60秒に限らず、1/120秒など適宜の値に設定可能である。AE処理によって撮影条件が決定され、AF処理によってフォーカス調整が行われる。   Thereafter, when the photographer presses the shutter button and inputs a shooting preparation instruction (when the CPU 56 detects S1 = ON), the process proceeds to step S210, and AE and AF processes are performed. At this time, the CPU 56 changes the CCD drive mode to 1/60 seconds. The period of image capture from the CCD 20 is shortened, and AE / AF processing can be performed at high speed. The CCD driving period set here is not limited to 1/60 seconds, but can be set to an appropriate value such as 1/120 seconds. Shooting conditions are determined by AE processing, and focus adjustment is performed by AF processing.

その後、CPU56はシャッターボタンのS2 スイッチからの信号入力を判定する(ステップS212)。ステップS212でS2 スイッチがONしていない場合は、S1 が解除されたか否かを判定する(ステップS214)。ステップS214でS1 が解除されていれば、ステップS208に戻り、撮影指示の入力待ち状態になる。   Thereafter, the CPU 56 determines signal input from the S2 switch of the shutter button (step S212). If the S2 switch is not turned on in step S212, it is determined whether or not S1 is released (step S214). If S1 is canceled in step S214, the process returns to step S208 to wait for input of a shooting instruction.

一方、ステップS214でS1 が解除されていなければステップS212に戻り、S2 =ONの入力を待機する。ステップS212においてS2 =ONの入力が検出されると、図21に示すステップS216に進み、記録用画像を取得するための撮影動作(CCD露光)が実行される。   On the other hand, if S1 is not canceled in step S214, the process returns to step S212 and waits for the input of S2 = ON. When the input of S2 = ON is detected in step S212, the process proceeds to step S216 shown in FIG. 21, and a photographing operation (CCD exposure) for acquiring a recording image is executed.

次いで、広ダイナミックレンジ記録を行うモードであるか否かを判定し、設定モードに応じて処理が制御される。Dレンジ拡大モードスイッチなど所定の操作手段によって広ダイナミックレンジ記録モードが選択されている場合には、まず、主感光画素21から信号の読み出しが行われ(ステップS220)、その画像データ(主感光部データ)は第1画像メモリ62Aに書き込まれる(ステップS222)。   Next, it is determined whether or not it is a mode for performing wide dynamic range recording, and the processing is controlled according to the setting mode. When the wide dynamic range recording mode is selected by a predetermined operation means such as a D range expansion mode switch, first, a signal is read from the main photosensitive pixel 21 (step S220), and the image data (main photosensitive portion) is read. Data) is written to the first image memory 62A (step S222).

次に、従感光画素22から信号の読み出しが行われ(ステップS224)、その画像データ(従感光部データ)は第2画像メモリ62Bに書き込まれる(ステップS226)。   Next, a signal is read from the secondary photosensitive pixel 22 (step S224), and the image data (secondary photosensitive portion data) is written in the second image memory 62B (step S226).

その後、主感光部データと従感光部データとのそれぞれについて図10又は図15で説明したとおり、所要の信号処理が施される(ステップS228、S230)。主感光部データから生成された標準再現用の画像ファイルと従感光部データから生成された拡張再現用の画像ファイルとがそれぞれ関連付けられて記録メディア52に記録される(ステップS232、S234)。   Thereafter, as described with reference to FIG. 10 or FIG. 15, required signal processing is performed on each of the main photosensitive portion data and the secondary photosensitive portion data (steps S228 and S230). The standard reproduction image file generated from the main photosensitive portion data and the extended reproduction image file generated from the secondary photosensitive portion data are associated with each other and recorded on the recording medium 52 (steps S232 and S234).

その一方、ステップS218において広ダイナミックレンジ記録を行わない通常の記録モードの場合には、主感光画素21のみから信号の読み出しが行われる(ステップS240)。主感光部データは第1画像メモリ62Aに書き込まれ(ステップS242)、その後、主感光部データの処理が行われる(ステップS248)。ここでは、図10で説明した所要の信号処理を経て、主感光部データのみから画像を作成する通常の処理が行われる。ステップS248で生成された画像データは、所定のファイルフォーマットに従って記録メディア52に記録される(ステップS252)。   On the other hand, in the normal recording mode in which the wide dynamic range recording is not performed in step S218, the signal is read from only the main photosensitive pixel 21 (step S240). The main photosensitive portion data is written in the first image memory 62A (step S242), and then the main photosensitive portion data is processed (step S248). Here, normal processing for creating an image from only the main photosensitive portion data is performed through the required signal processing described with reference to FIG. The image data generated in step S248 is recorded on the recording medium 52 according to a predetermined file format (step S252).

ステップS234又はステップS252において画像の記録処理が完了したら、ステップS256に進み、撮影モードの解除操作が行われたか否かの判定を行う。撮影モードの解除操作が行われた場合には、撮影モードを終了する(ステップS260)。また、撮影モードの解除操作が行われていなければ撮影モードの状態が維持され、図20のステップS202に戻ることになる。   When the image recording process is completed in step S234 or step S252, the process proceeds to step S256, and it is determined whether or not an operation for canceling the photographing mode has been performed. If a shooting mode release operation has been performed, the shooting mode is terminated (step S260). If the shooting mode release operation is not performed, the shooting mode state is maintained, and the process returns to step S202 in FIG.

図22は、図21のステップS230に示した従感光画素データの処理手順に関するサブルーチンのフローチャートである。図22に示したように、従感光画素データの処理がスタートすると(ステップS300)、まず、画面内を複数の積算エリアに分割する設定処理を行い(ステップS302)、各エリアについてG(緑)成分の平均値を算出し、G成分の最大値(Gmax )を求める(ステップS304)。   FIG. 22 is a flowchart of a subroutine regarding the processing procedure of the secondary photosensitive pixel data shown in step S230 of FIG. As shown in FIG. 22, when the processing of the secondary photosensitive pixel data starts (step S300), first, a setting process for dividing the screen into a plurality of integrated areas is performed (step S302), and G (green) for each area is performed. The average value of the components is calculated, and the maximum value (Gmax) of the G component is obtained (step S304).

こうして得られたエリアの積算情報から被写体の輝度レンジを検出する(ステップS306)。その一方、所定のユーザインターフェースから設定されたダイナミックレンジ設定情報(何%までダイナミックレンジを広げるかという設定情報)が読み込まれる(ステップS308)。ステップS306で検出した被写体の輝度レンジと、ステップS308で読み込んだダイナミックレンジ設定情報とに基づいて、最終的なダイナミックレンジが決定される(ステップS310)。例えば、ダイナミックレンジ設定情報が示す設定Dレンジを上限として、被写体の輝度レンジに応じてダイナミックレンジが自動決定される。   The luminance range of the subject is detected from the integrated information of the area thus obtained (step S306). On the other hand, dynamic range setting information (setting information on how much the dynamic range is expanded) set from a predetermined user interface is read (step S308). A final dynamic range is determined based on the luminance range of the subject detected in step S306 and the dynamic range setting information read in step S308 (step S310). For example, the dynamic range is automatically determined according to the luminance range of the subject, with the upper limit being the set D range indicated by the dynamic range setting information.

その後、ホワイトバランス処理によって各色チャンネルの信号レベルが調整される(ステップS312)。また、決定されたダイナミックレンジに対応して、ガンマ補正係数や色補正係数などの各種パラメータがテーブルデータに基づいて決定される(ステップS314)。   Thereafter, the signal level of each color channel is adjusted by white balance processing (step S312). Also, various parameters such as a gamma correction coefficient and a color correction coefficient are determined based on the table data in accordance with the determined dynamic range (step S314).

決定されたパラメータに従ってガンマ変換その他の処理が行われ(ステップS316)、拡張再現用の画像データが生成される(ステップS318)。ステップS318の後は図21のフローチャートに復帰する。   Gamma conversion and other processes are performed according to the determined parameters (step S316), and image data for extended reproduction is generated (step S318). After step S318, the process returns to the flowchart of FIG.

このようにして記録メディア52に記録した画像の再生に際しては、再現範囲を切り替え可能な構成とし、必要に応じて標準再現用画像と拡張画像とを切り替えて出力することができるようにすることが好ましい。この場合、拡張画像の再現に際しては、主要被写体の明るさが標準再現用の画像のそれと略同じになるようにガンマを調整し、高輝度部について階調を与える。これにより、主要被写体部分の印象を変えることなく、高輝度部分について標準再現用画像と拡張画像との差異を確認することができる。   Thus, when reproducing the image recorded on the recording medium 52, the reproduction range can be switched, and the standard reproduction image and the extended image can be switched and output as necessary. preferable. In this case, when reproducing the extended image, the gamma is adjusted so that the brightness of the main subject is substantially the same as that of the image for standard reproduction, and gradation is given to the high luminance part. Thus, the difference between the standard reproduction image and the extended image can be confirmed for the high luminance portion without changing the impression of the main subject portion.

また、標準再現用画像を表示部54に表示するときに、拡張再現用の情報が記録されているか否かを判断し、拡張情報が記録されている(関連付けのファイルが存在する)場合には、両者の差分に相当する部分について図23のように、強調表示180を行う。   Further, when displaying the standard reproduction image on the display unit 54, it is determined whether or not the information for extended reproduction is recorded, and when the extended information is recorded (an associated file exists). As shown in FIG. 23, highlighting 180 is performed on the part corresponding to the difference between the two.

例えば、高感度画像データと低感度画像データとの差分をとり、差分が正の値の部分(再現域を拡張する拡張情報が含まれている部分)について、その部分だけ特殊な表示(強調表示)を行う。強調表示の態様は、該当部分の点滅、囲い込み表示、明るさの変更、色調の変更、或いはこれらの組み合わせなど、対象領域を他の領域と識別できるようなものであればよく、具体的な表示形態については特に限定されない。   For example, the difference between high-sensitivity image data and low-sensitivity image data is taken, and the part where the difference is a positive value (the part that includes the extended information that extends the reproduction range) is specially displayed (highlighted). )I do. The highlight display mode may be any display that can distinguish the target region from other regions, such as blinking of the corresponding part, enclosed display, brightness change, color change, or a combination thereof. The form is not particularly limited.

このように、関連付けされている拡張情報を用いて、より詳細な再現が可能な領域部分を可視化することにより、ユーザは画像再現の拡張性を把握することができる。   In this way, by visualizing a region portion that can be reproduced in more detail using the associated extended information, the user can grasp the extensibility of image reproduction.

上述の実施形態では、デジタルカメラを例示したが、本発明の適用範囲はこれに限定されず、ビデオカメラ、DVDカメラ、カメラ付き携帯電話機、カメラ付きPDA、カメラ付きモバイルパソコンなど、電子撮像機能を備えた他の撮影装置についても本発明を適用できる。   In the above-described embodiment, a digital camera has been exemplified, but the scope of application of the present invention is not limited to this, and an electronic imaging function such as a video camera, a DVD camera, a mobile phone with a camera, a PDA with a camera, a mobile personal computer with a camera, etc. The present invention can also be applied to other imaging apparatuses provided.

また、図16で説明した画像再生の手段については、プリンターや画像閲覧装置などの出力装置に応用することができる。すなわち、図16の表示変換回路146及び表示部54に代えて、プリント用画像生成部及びプリント部とするなど、出力用画像を生成する画像生成部と、そこで生成された画像を最終的に出力する出力部とを備えることにより、拡張情報を活用した良好な画像を得ることができる。   Further, the image reproduction means described with reference to FIG. 16 can be applied to an output device such as a printer or an image browsing device. That is, in place of the display conversion circuit 146 and the display unit 54 in FIG. 16, an image generation unit that generates an output image, such as a print image generation unit and a print unit, and finally the generated image is output. By providing the output unit, a good image utilizing the extended information can be obtained.

本発明が適用される電子カメラに用いられるCCD撮像素子の受光面の構造例を示す平面図The top view which shows the structural example of the light-receiving surface of the CCD image pick-up element used for the electronic camera to which this invention is applied 図1の2−2線に沿う断面図Sectional view along line 2-2 in FIG. 図1の3−3線に沿う断面図Sectional drawing which follows the 3-3 line of FIG. 図1に示すCCDの全体構成を示す平面模式図1 is a schematic plan view showing the overall configuration of the CCD shown in FIG. CCDの他の構造例を示す平面図Plan view showing another structure example of CCD 図5の6−6線に沿う断面図Sectional drawing which follows the 6-6 line of FIG. CCDの更に他の構造例を示す平面図Plan view showing still another structural example of CCD 主感光画素と従感光画素の光電変換特性を示すグラフGraph showing photoelectric conversion characteristics of main photosensitive pixel and secondary photosensitive pixel 本発明の実施形態に係る電子カメラの構成を示すブロック図1 is a block diagram showing a configuration of an electronic camera according to an embodiment of the present invention. 図9に示した信号処理部の詳細構成を示すブロック図The block diagram which shows the detailed structure of the signal processing part shown in FIG. sRGB色空間を対象とした光電変換特性を示すグラフGraph showing photoelectric conversion characteristics for sRGB color space sRGB色空間と拡張色空間の例を示した図The figure which showed the example of sRGB color space and extended color space sRGB色再現域に対するエンコード式と拡張色再現域に対するエンコード式とを示す図表Chart showing the encoding formula for the sRGB color gamut and the encoding formula for the extended color gamut 記録メディアのディレクトリ(フォルダ)構造の一例を示す図The figure which shows an example of the directory (folder) structure of a recording medium 低感度像データを差分画像として記録する態様例を示すブロック図The block diagram which shows the example of an aspect which records low sensitivity image data as a difference image 再生系の構成を示したブロック図Block diagram showing the configuration of the playback system 高感度画像データと低感度画像データとを合成して得られる最終画像(合成画像データ)のレベルと相対的被写体輝度との関係を示すグラフA graph showing the relationship between the level of the final image (synthesized image data) obtained by combining high-sensitivity image data and low-sensitivity image data and the relative subject brightness ダイナミックレンジ選択操作時のユーザインターフェースの例を示す図The figure which shows the example of the user interface at the time of dynamic range selection operation ダイナミックレンジ選択操作時のユーザインターフェースの例を示す図The figure which shows the example of the user interface at the time of dynamic range selection operation 本例のカメラの制御手順を示したフローチャートFlow chart showing the control procedure of the camera of this example 本例のカメラの制御手順を示したフローチャートFlow chart showing the control procedure of the camera of this example 本例のカメラの制御手順を示したフローチャートFlow chart showing the control procedure of the camera of this example 広ダイナミックレンジ撮像により得られた画像の表示例を示す図The figure which shows the example of a display of the image obtained by wide dynamic range imaging

符号の説明Explanation of symbols

20…CCD、21…フォトダイオード領域(主感光画素)、22…フォトダイオード領域(従感光画素)、23…垂直転送路、40…カラーフィルタ層、41…マイクロレンズ、52…記録メディア、54…表示部、56…CPU、62…メモリ、97…JPEG圧縮回路、105…積算回路、106…Dレンジ算出回路、110…JPEG圧縮回路、132…差分処理回路、133…圧縮回路、180…強調表示   DESCRIPTION OF SYMBOLS 20 ... CCD, 21 ... Photodiode area | region (main photosensitive pixel), 22 ... Photodiode area | region (secondary photosensitive pixel), 23 ... Vertical transfer path, 40 ... Color filter layer, 41 ... Micro lens, 52 ... Recording medium, 54 ... Display unit 56 ... CPU 62 ... Memory 97 ... JPEG compression circuit 105 ... Integration circuit 106 ... D range calculation circuit 110 ... JPEG compression circuit 132 ... Differential processing circuit 133 ... Compression circuit 180 ... Highlight display

Claims (9)

相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルが記録されている記録手段と、
像を表示出力するための画像表示手段と、
前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記画像表示手段に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置。
Recording means in which a first image information file composed of high-sensitivity image information formed by relatively high-sensitivity pixels is recorded;
Image display means for displaying output images,
When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels and associated with the first image information file is recorded in the recording means, A first image created from one image information file is displayed on the image display means, and an image portion whose reproduction area is expanded by the second image information file with respect to the first image is displayed in the first image file . Display control means for highlighting on the display screen of one image;
An image processing apparatus comprising:
前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とはそれぞれ異なるビットの深さで記録されていることを特徴とする請求項1記載の画像処理装置。 Claim 1 Symbol mounting, characterized in Tei Rukoto recorded with high sensitivity image information respectively from the low-sensitivity image data different bit depths in said second image information file in said first image information file Image processing apparatus. 前記第2の画像情報ファイルは、前記第1の画像情報ファイルと異なる圧縮方式で圧縮されて記録されていることを特徴とする請求項1又は2に記載の画像処理装置。 The second image information file, an image processing apparatus according to claim 1 or 2, characterized in Tei Rukoto recorded is compressed by different compression method and the first image information file. 相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルを記録手段から読み出す読み出し工程と、
像を表示装置に出力する画像表示工程と、
前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御工程と、
を含むことを特徴とする画像処理方法。
A reading step of reading from the recording means a first image information file comprising high-sensitivity image information formed by relatively high-sensitivity pixels;
An image display step of outputting the images to the display device,
When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels and associated with the first image information file is recorded in the recording means, A first image created from one image information file is displayed on the display device, and an image portion whose reproduction area is expanded by the second image information file with respect to the first image is displayed in the first image file . A display control process for highlighting on the image display screen,
An image processing method comprising:
前記読み出し工程は、それぞれ異なるビットの深さで記録されている前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とを読み出すことを特徴とする請求項4記載の画像処理方法。The reading step reads high-sensitivity image information in the first image information file and low-sensitivity image information in the second image information file recorded at different bit depths, respectively. The image processing method according to claim 4. 前記読み出し工程は、それぞれ異なる圧縮方式で圧縮されて記録されている前記第1の画像情報ファイルと前記第2の画像情報ファイルとを読み出すことを特徴とする請求項4又は5に記載の画像処理方法。6. The image processing according to claim 4, wherein the reading step reads the first image information file and the second image information file that are compressed and recorded by different compression methods. Method. 相対的に高感度の画素によって形成される高感度画像情報からなる第1の画像情報ファイルを記録手段から読み出す読み出し機能と、
像を表示装置に出力する画像表示機能と、
前記第1の画像情報ファイルと互いに関連付けされた、相対的に低感度の画素によって形成される低感度画像情報からなる第2の画像情報ファイルが前記記録手段に記録されているときは、前記第1の画像情報ファイルから作成された第1の画像を前記表示装置に表示させるとともに、前記第1の画像に対して前記第2の画像情報ファイルによって再現域が拡張される画像部分を前記第1の画像の表示画面上で強調表示させる表示制御機能と、
をコンピュータに実現させることを特徴とする画像処理プログラム。
A reading function for reading out from the recording means a first image information file comprising high-sensitivity image information formed by relatively high-sensitivity pixels;
And an image display function of outputting the images to the display device,
When a second image information file composed of low-sensitivity image information formed by relatively low-sensitivity pixels and associated with the first image information file is recorded in the recording means, A first image created from one image information file is displayed on the display device, and an image portion whose reproduction area is expanded by the second image information file with respect to the first image is displayed in the first image file . Display control function to highlight on the image display screen,
An image processing program for causing a computer to realize the above.
前記読み出し機能は、それぞれ異なるビットの深さで記録されている前記第1の画像情報ファイル中の高感度画像情報と前記第2の画像情報ファイル中の低感度画像情報とを読み出すことを特徴とする請求項7記載の画像処理プログラム。The reading function reads high-sensitivity image information in the first image information file and low-sensitivity image information in the second image information file recorded at different bit depths, respectively. An image processing program according to claim 7. 前記読み出し機能は、それぞれ異なる圧縮方式で圧縮されて記録されている前記第1の画像情報ファイルと前記第2の画像情報ファイルとを読み出すことを特徴とする請求項7又は8に記載の画像処理プログラム。9. The image processing according to claim 7, wherein the reading function reads the first image information file and the second image information file that are compressed and recorded by different compression methods. program.
JP2008061192A 2008-03-11 2008-03-11 Image processing apparatus, method, and program Expired - Fee Related JP4544319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008061192A JP4544319B2 (en) 2008-03-11 2008-03-11 Image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008061192A JP4544319B2 (en) 2008-03-11 2008-03-11 Image processing apparatus, method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003036959A Division JP2004248061A (en) 2003-02-14 2003-02-14 Apparatus, method and program for image processing

Publications (2)

Publication Number Publication Date
JP2008206168A JP2008206168A (en) 2008-09-04
JP4544319B2 true JP4544319B2 (en) 2010-09-15

Family

ID=39783100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008061192A Expired - Fee Related JP4544319B2 (en) 2008-03-11 2008-03-11 Image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP4544319B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5158363B2 (en) * 2008-11-07 2013-03-06 株式会社リコー Image processing apparatus, image processing method, program, and recording medium
JP5182054B2 (en) * 2008-12-10 2013-04-10 株式会社ニコン Image processing apparatus and image processing program
US11640656B2 (en) 2011-09-27 2023-05-02 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
CN110460744B (en) * 2014-06-10 2022-03-08 松下知识产权经营株式会社 Luminance conversion device and luminance conversion method
JP6739257B2 (en) * 2016-07-06 2020-08-12 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP6873688B2 (en) * 2016-12-27 2021-05-19 キヤノン株式会社 Image processing equipment and image processing methods, imaging equipment, programs
US10861405B2 (en) * 2018-07-09 2020-12-08 Samsung Display Co., Ltd. Color transform for RGBG subpixel format

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153089A (en) * 1992-10-30 1994-05-31 Olympus Optical Co Ltd Solid state image pickup device
JP2002218326A (en) * 2001-01-19 2002-08-02 Olympus Optical Co Ltd Imaging device
JP2002271686A (en) * 2001-03-12 2002-09-20 Olympus Optical Co Ltd Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153089A (en) * 1992-10-30 1994-05-31 Olympus Optical Co Ltd Solid state image pickup device
JP2002218326A (en) * 2001-01-19 2002-08-02 Olympus Optical Co Ltd Imaging device
JP2002271686A (en) * 2001-03-12 2002-09-20 Olympus Optical Co Ltd Imaging device

Also Published As

Publication number Publication date
JP2008206168A (en) 2008-09-04

Similar Documents

Publication Publication Date Title
KR100611607B1 (en) Image processing apparatus, method and computer readable recording medium for recording program
JP4051674B2 (en) Imaging device
US7301571B2 (en) Method and imaging apparatus for correcting defective pixel of solid-state image sensor, and method for creating pixel information
US7525579B2 (en) Image sensing apparatus and image processing method for use therein
JP4544319B2 (en) Image processing apparatus, method, and program
JP2008028960A (en) Photographing apparatus and exposure control method
JP4544318B2 (en) Image processing apparatus, method, and program
JP2004048445A (en) Method and apparatus for compositing image
JP4306306B2 (en) White balance control method and imaging apparatus
JP2004320119A (en) Image recorder
JP4114707B2 (en) Imaging device
JP2004328460A (en) White balance adjustment method and electronic camera
JP4239218B2 (en) White balance adjustment method and electronic camera
JPWO2006103880A1 (en) Imaging device
JP4051701B2 (en) Defective pixel correction method and imaging apparatus for solid-state imaging device
JP4178548B2 (en) Imaging device
JP2004222134A (en) Image pickup device
JP2004336264A (en) Image recording device
JP4276847B2 (en) Imaging device
JP2006303755A (en) Imaging apparatus and imaging method
JP2006279714A (en) Imaging apparatus and imaging method
JP2006345301A (en) Imaging apparatus
JP2009010998A (en) Imaging apparatus
JP2004221740A (en) Imaging apparatus and white balance control method
JP2004242015A (en) Histogram calculation method, histogram calculation circuit, and imaging apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees