JP2010193380A - Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor - Google Patents

Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor Download PDF

Info

Publication number
JP2010193380A
JP2010193380A JP2009038132A JP2009038132A JP2010193380A JP 2010193380 A JP2010193380 A JP 2010193380A JP 2009038132 A JP2009038132 A JP 2009038132A JP 2009038132 A JP2009038132 A JP 2009038132A JP 2010193380 A JP2010193380 A JP 2010193380A
Authority
JP
Japan
Prior art keywords
information
divided
image
input profile
spectral sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009038132A
Other languages
Japanese (ja)
Inventor
Hiroyuki Fukuda
弘之 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009038132A priority Critical patent/JP2010193380A/en
Publication of JP2010193380A publication Critical patent/JP2010193380A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce non-uniformity in image caused by an imaging device, an optical element, a shutter and the like without considerably increasing volume of multiband image data. <P>SOLUTION: An input profile information generating section 622 divides an image area into a plurality of divided areas and generates divided area representative characteristic information, that is information on a total spectral sensitivity characteristic representative of each divided area, based on a total spectral sensitivity characteristic corresponding to each of a plurality of pixels included in each of the divided areas. The input profile information generating section 622 generates input profile information by summarizing the divided area representative characteristic information together with other information. A data format processing section 624 adds the input profile information to multiband image data and records the multiband image data on a storage medium. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、色再現性を高度化したマルチバンド画像データの処理に関するものであり、特にマルチバンド画像データの伝送、保存に際してデータサイズが大きくなるのを抑制可能な撮影装置、色変換処理装置、サーバ情報処理装置、クライアント情報処理装置、サーバ情報処理装置における画像データ処理方法、およびクライアント情報処理装置における色変換処理方法に関する。   The present invention relates to processing of multiband image data with advanced color reproducibility, and in particular, an imaging device, a color conversion processing device capable of suppressing an increase in data size when transmitting and storing multiband image data, The present invention relates to a server information processing apparatus, a client information processing apparatus, an image data processing method in a server information processing apparatus, and a color conversion processing method in a client information processing apparatus.

カラーマネージメントを必要とする技術分野で一般的に普及しているICCプロファイルは、プロファイルコネクションスペース(PCS: Profile Connection Space)として定めた測色値空間(例:CIE1931XYZ)と機器の信号値とを関係付けるためのデータを有するものとして規定されている。ここで、ICCはInternational Color Consortiumの略である。   An ICC profile that is generally popular in the technical field that requires color management is related to a colorimetric value space (example: CIE1931XYZ) defined as a profile connection space (PCS) and a signal value of a device. It is defined as having data to attach. Here, ICC is an abbreviation for International Color Consortium.

カラーマネジメントシステムでは、機器プロファイルのデータを用いて、異なる機器の画像間でPCSでの色が一致するように色再現が行われている。近年、上記PCSを従来のXYZ色空間からスペクトルベースの色空間に拡張した方式が提案されている。例えば独立行政法人情報通信研究機構によって推進されたナチュラルビジョン開発プロジェクトでは、スペクトルと多原色に基づく分光画像システム(スペクトル画像システム、スペクトルベース色再現システムなどと称される場合もある)によって、より忠実度の高い、自然な色再現を得るための実証実験が行われた。   In the color management system, color reproduction is performed using the device profile data so that the colors in the PCS match between images of different devices. In recent years, a method has been proposed in which the PCS is extended from a conventional XYZ color space to a spectrum-based color space. For example, in a natural vision development project promoted by the National Institute of Information and Communications Technology, a spectral image system based on spectrum and multiple primary colors (sometimes called a spectral image system or a spectrum-based color reproduction system) is more faithful. A demonstration experiment was conducted to obtain a natural color reproduction with high degree.

非特許文献1には、スペクトル画像システムの例が開示されている。簡単に説明すると、非特許文献1では、ICCプロファイルで規定されているCIE1931XYZのみならず、分光反射率や分光放射輝度(反射スペクトルと表される場合もある)までも利用できるとしている。PCSとして何を用いるかによって、プロファイルとして必要となるデータが異なってくる。例えば、分光反射率をベースとした色空間をPCSとして用いる場合について考える。この場合、カメラ等の画像入力装置から出力される画像データ(以下では、カメラ等の画像入力装置から出力される画像データをオリジナル画像データと称する)に対して、スペクトルベースでの色再現処理がなされ、色変換処理が行われて出力用デバイスインデペンデントデータが生成され、表示装置等へ出力される。   Non-Patent Document 1 discloses an example of a spectral image system. Briefly, in Non-Patent Document 1, it is assumed that not only CIE1931XYZ defined by the ICC profile but also spectral reflectance and spectral radiance (sometimes expressed as a reflection spectrum) can be used. Data required as a profile varies depending on what is used as the PCS. For example, consider a case where a color space based on spectral reflectance is used as a PCS. In this case, spectrum-based color reproduction processing is performed on image data output from an image input device such as a camera (hereinafter, image data output from an image input device such as a camera is referred to as original image data). Then, color conversion processing is performed, output device independent data is generated, and output to a display device or the like.

上記色変換処理において、画素ごとに分光反射率推定が行われて出力用デバイスインデペンデントデータが生成される。この出力用デバイスインデペンデントデータは、分光反射率画像データであり、デバイスインデペンデントの(機器依存性の無い)カラー情報となる。こうして得られた出力用デバイスインデペンデントデータは、PCSとして扱うことの可能な信号(データ)と解釈される。上記分光反射率推定を行うときに、一般的には分光反射率推定行列が用いられる。この分光反射率推定行列そのもの、またはそれを求めるのに必要な情報が入力プロファイルに含まれていて、画像入力装置で用いられる色空間のオリジナル画像データがPCS空間の画像データへと変換される。   In the color conversion process, spectral reflectance estimation is performed for each pixel, and output device-independent data is generated. This output device-independent data is spectral reflectance image data, and is device-independent color information (without device dependency). The output device independent data thus obtained is interpreted as a signal (data) that can be handled as a PCS. When performing the spectral reflectance estimation, a spectral reflectance estimation matrix is generally used. The spectral reflectance estimation matrix itself or information necessary to obtain it is included in the input profile, and the original image data in the color space used in the image input device is converted into image data in the PCS space.

上述のようにして得られたPCS空間の画像データは、出力先の機器の特性を意識することなく、画像データを保存したり、伝送したりすることが行えるようになる。しかし、保存または伝送を考えたとき、画像データを構成する各画素が分光反射率データを保持していると、データ容量が多くなる。例えば、分光反射率画像データを構成する各画素のひとつ一つが401次元のデータ(可視光の波長帯域である380nmから780nm中、1nm刻みの波長に対応するデータ)を有すると、画素数に401およびビット深度を乗じた容量の画像データを保存または伝送する必要がある。   The image data in the PCS space obtained as described above can be stored and transmitted without being aware of the characteristics of the output destination device. However, when storage or transmission is considered, if each pixel constituting the image data holds spectral reflectance data, the data capacity increases. For example, if each of the pixels constituting the spectral reflectance image data has 401-dimensional data (data corresponding to a wavelength of 1 nm in the visible light wavelength band of 380 nm to 780 nm), the number of pixels is 401. In addition, it is necessary to store or transmit image data having a capacity multiplied by the bit depth.

このようにすると、分光反射率画像データの容量は、オリジナル画像データの容量に比して飛躍的に増すので効率的ではない。画像データの容量増加を避けるためには、オリジナル画像データに入力プロファイルの情報を付加して保存または伝送し、そのオリジナル画像データを読み出した、あるいは受信した機器が上記PCS空間の分光反射率画像データを生成することが望ましい。このように、オリジナル画像データに入力プロファイルの情報を付加して保存または伝送することにより、保存、伝送に係るデータ容量の増加を抑制することが可能となる。   In this way, the capacity of the spectral reflectance image data is not efficient because it dramatically increases as compared with the capacity of the original image data. In order to avoid an increase in the volume of image data, the input profile information is added to the original image data, stored or transmitted, and the original image data is read or received by the device that receives the spectral reflectance image data in the PCS space. It is desirable to generate In this way, by adding or saving the input profile information to the original image data, it is possible to suppress an increase in the data capacity related to the storage and transmission.

ナチュラルビジョン(次世代映像表示・伝送システム)の研究開発プロジェクト[動画]の研究開発最終報告書、平成18年3月31日、独立行政法人情報通信研究機構(拠点研究推進部門))Natural Vision (Next Generation Video Display / Transmission System) R & D Project [Movie] R & D Final Report, March 31, 2006, National Institute of Information and Communications Technology (Center Research Promotion Division))

上述した入力プロファイルは、オリジナル画像データを構成する各画素のデータに対して、一画面内で一律に適用される。しかし、カメラ等の画像入力装置では、以下に説明するような「むら」を生じることがある。例えば、均一に照明された基準白色板のような、均一な色、均一な輝度の被写体を画面一杯に撮影した場合、画像入力装置から出力される画像データを構成する全ての画素の画素値は均一となるのが理想である。   The input profile described above is uniformly applied to the data of each pixel constituting the original image data within one screen. However, an image input apparatus such as a camera may cause “unevenness” as described below. For example, when shooting a subject with uniform color and uniform brightness, such as a uniformly illuminated reference white plate, on the entire screen, the pixel values of all the pixels constituting the image data output from the image input device are Ideally it should be uniform.

しかし、現実には必ずしもそうはならず、出力されるオリジナル画像データを構成する画素の画素値はばらつきを生じる。本明細書では、このようなばらつきを生じる原因となるものをむらと称する。このむらが画像の色再現性を低下させる要因となることがある。むらの要因としては、例えば以下に説明するものが挙げられる。   However, this is not always the case in reality, and the pixel values of the pixels constituting the output original image data vary. In this specification, what causes such variation is referred to as unevenness. This unevenness may be a factor that reduces the color reproducibility of the image. Examples of the unevenness include those described below.

1. 撮影レンズの周辺減光特性:
これは、口径食、コサイン4乗則などが原因となって生じる。口径食は、撮影レンズを透過して結像面に到達する被写体光の光束のうち、画面周辺部分(比較的高い像高の部分)に到達する光束が鏡枠等によって部分的に遮られて画面周辺部での光量が減じられる現象である。コサイン4乗則は、撮影レンズの光軸に対し、ある角度αで像面に入射する光による像面照度をIα、画面中心での像面照度をI0としたときに、Iα=cos4α×I0となる現象である。撮影レンズの周辺減光特性は、レンズの設計によって異なる。また、同じ設計のレンズであっても、設定絞り値によって異なる。撮影レンズがズームレンズである場合には、設定焦点距離によっても異なる。また、厳密には同じ設計のレンズであっても製造誤差に起因する個体差があり、さらには撮影距離(撮影レンズの焦点調節位置、すなわち繰り出し量)によっても異なることがある。
1. Peripheral dimming characteristics of taking lens
This is caused by vignetting, cosine fourth law, and the like. In vignetting, among the luminous flux of subject light that passes through the photographic lens and reaches the imaging plane, the luminous flux that reaches the peripheral portion of the screen (the portion with a relatively high image height) is partially blocked by a lens frame or the like. This is a phenomenon in which the amount of light at the periphery of the screen is reduced. Cosine fourth law is the optical axis of the taking lens, the image plane illuminance by the light incident on the image plane at an angle alpha I.alpha, the image plane illuminance on the screen center upon the I 0, Iα = cos 4 This is a phenomenon of α × I 0 . The peripheral dimming characteristics of the taking lens differ depending on the lens design. Also, even lenses with the same design vary depending on the set aperture value. When the photographing lens is a zoom lens, it varies depending on the set focal length. Strictly speaking, even with lenses of the same design, there are individual differences due to manufacturing errors, and there are also cases where the distance varies depending on the shooting distance (the focus adjustment position of the shooting lens, that is, the extension amount).

2. 撮像素子に対して斜めに入射することによる光量減少:
撮像素子に対して斜めに入射する光の光量減少は、撮像素子表面(オンチップマイクロレンズ形成面)に対して光電変換部が深い位置にあるため、光が撮像素子表面に対して斜めに入射すると、オンチップマイクロレンズを透過した光の一部しか光電変換部に到達しなくなる現象である。この現象は、撮像素子の構成やレンズの設計によって異なる。例えば、撮影レンズをいわゆるテレセントリックの構成とすることにより、撮像素子のイメージエリアの周辺部に存在する画素に入射する光の光量減少を抑制することが可能となる。また、同じ撮影レンズであっても、設定絞り値によって上記光量減少の特性は変化する。撮影レンズがズームレンズで、設定焦点距離を変えたときに射出瞳位置が変化すると上記光量減少の特性は変化する。また、撮影レンズがズームレンズであるか単焦点距離レンズであるかによらず、焦点調節に伴って射出瞳位置が変化した場合にも上記光量減少の特性は変化する。
2. Light quantity reduction by obliquely entering the image sensor:
The decrease in the amount of light incident obliquely on the image sensor is due to the light incident obliquely on the image sensor surface because the photoelectric conversion part is located deeper than the image sensor surface (on-chip microlens formation surface). Then, only a part of the light transmitted through the on-chip microlens reaches the photoelectric conversion unit. This phenomenon varies depending on the configuration of the image sensor and the lens design. For example, by using a so-called telecentric configuration for the photographic lens, it is possible to suppress a decrease in the amount of light incident on the pixels present in the peripheral portion of the image area of the image sensor. Even with the same photographic lens, the light quantity reduction characteristic changes depending on the set aperture value. If the photographing lens is a zoom lens and the exit pupil position changes when the set focal length is changed, the light quantity reduction characteristic changes. In addition, regardless of whether the photographic lens is a zoom lens or a single focal length lens, the light quantity reduction characteristic also changes when the exit pupil position changes with focus adjustment.

3. 撮像素子の感度むら:
これは、半導体製造プロセスに起因するむらである。撮像素子の製造過程において、例えば直径8インチ(約200mm)、12インチ(約300mm)、18インチ(約450mm)といったサイズのシリコンウェハ上で成膜、レジスト塗布、露光、現像、エッチング、不純物添加といった半導体プロセスが繰り返し行われる。その結果、シリコンウェハ上に複数の撮像素子が形成される。それらの撮像素子はダイシングされ、切り出された個々のチップがパッケージングされて撮像素子が製造される。上記半導体プロセスの特性上、上記シリコンウェハ内の場所の違いによってPVDやCVD等の成膜工程で形成される膜の厚さの分布にむらを生じたり、レジストの厚みに不均一を生じたり、半導体層を形成するための不純物を添加する際にその添加量にむらを生じたりする。
3. Sensitivity unevenness of image sensor:
This is unevenness caused by the semiconductor manufacturing process. During the manufacturing process of the image sensor, for example, film formation, resist coating, exposure, development, etching, and addition of impurities on a silicon wafer having a size of 8 inches (about 200 mm), 12 inches (about 300 mm), 18 inches (about 450 mm) in diameter Such a semiconductor process is repeatedly performed. As a result, a plurality of image sensors are formed on the silicon wafer. These image pickup devices are diced, and the cut out individual chips are packaged to manufacture the image pickup device. Due to the characteristics of the semiconductor process, the distribution of the thickness of the film formed in the film formation process such as PVD or CVD is uneven due to the difference in the location in the silicon wafer, the thickness of the resist is uneven, When an impurity for forming the semiconductor layer is added, the amount added may be uneven.

上述したようなむらは、撮像素子を構成する画素間で光電変換効率のばらつきを生じる。つまり、同じ入射光量に対する出力信号値にばらつきを生じる。また、CMOSイメージセンサのように画素ごとにアンプを有する構成のものではアンプゲインの変動も生じ得る。例えば1/2.5型といった比較的小型のイメージエリアを有する撮像素子では、チップサイズが小さいため、上記半導体プロセスで生じるむらの影響を受けにくいが、比較的大型のイメージエリアを有する撮像素子ではチップサイズも大きくなり、撮像素子上のイメージエリアの一端および他端から出力される信号のレベルの差が無視できないほどに大きくなる可能性がある。この、半導体素子の感度むらの分布は、個々の撮像素子によって異なる。   The unevenness as described above causes variations in photoelectric conversion efficiency among pixels constituting the image sensor. That is, the output signal value for the same incident light quantity varies. In addition, in a configuration having an amplifier for each pixel such as a CMOS image sensor, fluctuations in amplifier gain may also occur. For example, an image sensor having a relatively small image area such as a 1 / 2.5 type has a small chip size and is not easily affected by unevenness caused by the semiconductor process, but an image sensor having a relatively large image area. The chip size also increases, and there is a possibility that the difference in the level of the signal output from one end and the other end of the image area on the image sensor cannot be ignored. The distribution of the uneven sensitivity of the semiconductor element varies depending on the individual image sensor.

また、オンチップカラーフィルタの層が塗布やフォトリソグラフィによって形成される際のプロセスのばらつきによって、オンチップカラーフィルタの分光透過特性にばらつきを生じることもある。   In addition, the spectral transmission characteristics of the on-chip color filter may vary due to process variations when the on-chip color filter layer is formed by coating or photolithography.

4. フィルタの分光透過特性の入射角依存性:
3よりも多いバンド数、例えば6バンドで色分解して撮像することが可能な、マルチバンドカメラと呼ばれるものがある。このマルチバンドカメラとして、BGR(B=青色、G=緑色、R=赤色)3色のオンチップカラーフィルタを有する撮像素子と、広帯域、狭帯域の分光透過特性を有する干渉フィルタとの組み合わせによって6バンドの色分解を行うものがある。
4). Incident angle dependence of filter's spectral transmission characteristics:
There is a so-called multiband camera capable of performing color separation and imaging with a number of bands larger than 3, for example, 6 bands. As this multiband camera, a combination of an image sensor having three on-chip color filters of BGR (B = blue, G = green, R = red) and an interference filter having broadband and narrowband spectral transmission characteristics is used. Some perform color separation of bands.

例えば、撮影レンズを透過した被写体光を分割して二つの撮像素子に導くビームスプリッタと、BGRの色分解光学系を有する第1、第2の撮像素子であって、ビームスプリッタの第1の光出射部から出射する被写体光を受ける第1の撮像素子と、ビームスプリッタの第2の光出射から出射する被写体光を受ける第2の撮像素子と、第1の光出射部と第1の撮像素子との間の光路上に設けられ、比較的広帯域の分光透過特性を有する第1の干渉フィルタと、第2の光出射部と第2の撮像素子との間の光路上に設けられ、比較的狭帯域の分光透過特性を有する第2の干渉フィルタとを具備するものが知られている。   For example, a beam splitter that divides subject light transmitted through a photographic lens and guides it to two image sensors, and first and second image sensors having a BGR color separation optical system, and the first light of the beam splitter A first image sensor that receives subject light emitted from the emission unit, a second image sensor that receives subject light emitted from the second light emission of the beam splitter, a first light emission unit, and a first image sensor Between the first interference filter having a relatively broadband spectral transmission characteristic, and between the second light emitting unit and the second image sensor, and relatively What comprises a second interference filter having a narrow band spectral transmission characteristic is known.

ビームスプリッタによって分割されたそれぞれの被写体光は、対応する干渉フィルタを透過して対応する撮像素子に入射する。二つの撮像素子は同じ仕様のものでよい。第1の干渉フィルタは比較的広帯域の、第2の干渉フィルタは比較的狭帯域の分光透過特性を有するので、二つの撮像素子から6バンドの画像信号を得ることができる。このときに用いられる干渉フィルタは、透明基板上に形成される薄膜の膜厚を制御することにより任意の分光透過特性のものを得ることができる。しかし、干渉フィルタに光が入射する際の入射角によって分光透過特性が変化しやすいという特性を有する。干渉フィルタに対して光が斜めに入射すると、薄膜の膜厚が増したのと等価になるからである。その結果、同じ干渉フィルタを透過して、画面中央部に入射する被写体光と、画面周辺部に入射する被写体光とで分光特性が変化するので、画像信号も変化する。これがフィルタ分光透過特性の入射角依存性である。   Each subject light divided by the beam splitter passes through a corresponding interference filter and enters a corresponding image sensor. The two image sensors may have the same specifications. Since the first interference filter has a spectral transmission characteristic of a relatively wide band and the second interference filter has a spectral transmission characteristic of a relatively narrow band, a 6-band image signal can be obtained from two image pickup devices. The interference filter used at this time can be obtained with an arbitrary spectral transmission characteristic by controlling the film thickness of the thin film formed on the transparent substrate. However, it has a characteristic that the spectral transmission characteristic is likely to change depending on the incident angle when light enters the interference filter. This is because if light is incident on the interference filter at an angle, it is equivalent to an increase in the thickness of the thin film. As a result, the spectral characteristics change between subject light that is transmitted through the same interference filter and is incident on the center of the screen and subject light that is incident on the periphery of the screen, so that the image signal also changes. This is the incident angle dependency of the filter spectral transmission characteristics.

上述したいくつかの要因によって生じるむらに対応するためには、オリジナル画像データに対して一つの入力プロファイルを一様に適用するのではなく、画素ごとに異なる入力プロファイルを適用することが考えられる。しかし、そのように、画素ごとに適用する入力プロファイルをオリジナル画像データに添付すると、データ容量が大きく増してしまう。   In order to cope with the unevenness caused by some of the above-mentioned factors, it is conceivable to apply a different input profile for each pixel instead of uniformly applying one input profile to the original image data. However, if an input profile to be applied for each pixel is attached to the original image data, the data capacity is greatly increased.

本発明は上述した問題に鑑み、なされたもので、マルチバンド画像データの容量が大きく増すことなく、画像内のむらを減じることの可能な技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide a technique capable of reducing unevenness in an image without greatly increasing the capacity of multiband image data.

本発明の第1の態様は、撮影光学系によってイメージエリア上に形成される被写体像に対応する複数の色数のカラー画像信号を生成可能な撮像素子と、
前記撮影光学系の前側、中、後側のいずれかに配設されて、前記撮影光学系を経て前記撮像素子に入射する被写体光の分光特性を変化させることの可能な光学フィルタと
を有し、前記色数よりも多い数のバンドのマルチバンド画像データを生成可能な撮影装置であって、
前記撮像素子、前記撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して前記イメージエリア上で等価的に生じる分光感度のむらを反映した第1の分光特性分布情報を生成する第1分光特性分布情報生成部と、
前記撮影光学系および前記光学フィルタに起因して前記イメージエリア上に形成される被写体像に生じる分光特性のむらを反映した第2の分光特性分布情報を生成する第2分光特性分布情報生成部と、
前記第1および第2の分光特性分布情報の両方または前記第2の分光分布情報のみに基づいて前記撮像素子の総合分光感度特性を表す情報を生成し、当該の情報を含む入力プロファイル情報を生成する入力プロファイル情報生成部と、
前記入力プロファイル情報を前記マルチバンド画像データに付加してフォーマット処理をするデータフォーマット処理部とを有し、
前記入力プロファイル情報生成部が、
前記イメージエリアを複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する前記総合分光感度特性をもとに、それぞれの分割領域を代表する総合分光感度特性に関する情報である分割領域代表特性情報を生成する代表特性情報生成部と、
前記分割領域代表特性情報を他の情報とともに集約して前記入力プロファイル情報を生成する情報集約処理部と
を有することにより上述した課題を解決する。
According to a first aspect of the present invention, there is provided an imaging device capable of generating color image signals of a plurality of colors corresponding to a subject image formed on an image area by a photographing optical system;
An optical filter disposed on either the front side, the middle side, or the rear side of the photographing optical system and capable of changing a spectral characteristic of subject light incident on the imaging device via the photographing optical system. An imaging device capable of generating multiband image data of a number of bands larger than the number of colors,
A first spectrum reflecting unevenness in spectral sensitivity equivalently occurring on the image area due to at least one of the image sensor, a processing system for processing an image signal output from the image sensor, and a shutter. A first spectral characteristic distribution information generation unit that generates characteristic distribution information;
A second spectral characteristic distribution information generation unit that generates second spectral characteristic distribution information that reflects non-uniformity of spectral characteristics generated in a subject image formed on the image area due to the photographing optical system and the optical filter;
Based on both the first and second spectral characteristic distribution information or only the second spectral distribution information, information representing the total spectral sensitivity characteristic of the image sensor is generated, and input profile information including the information is generated. An input profile information generator to
A data format processing unit that performs format processing by adding the input profile information to the multiband image data;
The input profile information generation unit
The image area is divided into a plurality of divided areas, and based on the total spectral sensitivity characteristics corresponding to each of a plurality of pixels included in each divided area, the total spectral sensitivity characteristics representing each divided area A representative characteristic information generating unit that generates divided area representative characteristic information that is information;
An information aggregation processing unit that aggregates the divided region representative characteristic information together with other information to generate the input profile information solves the above-described problem.

本発明の第2の態様は、撮影光学系によってイメージエリア上に形成される被写体像に対応する複数の色数のカラー画像信号を生成可能な撮像素子と、
前記撮影光学系の前側、中、後側のいずれかに配設されて、前記撮影光学系を経て前記撮像素子に入射する被写体光の分光特性を変化させることの可能な光学フィルタと
を有し、前記色数よりも多い数のバンドのマルチバンド画像データを生成可能な撮影装置によって生成されたマルチバンド画像データが蓄積されていて、当該のマルチバンド画像データをクライアント情報処理装置に送出可能なサーバ情報処理装置であって、
前記撮像素子、前記撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して前記イメージエリア上で等価的に生じる分光感度のむらを反映した第1の分光特性分布情報を生成する第1分光特性分布情報生成部と、
前記撮影光学系および前記光学フィルタに起因して前記イメージエリア上に形成される被写体像に生じる分光特性のむらを反映した第2の分光特性分布情報を生成する第2分光特性分布情報生成部と、
前記第1および第2の分光特性分布情報の両方または前記第2の分光分布情報のみに基づいて前記撮像素子の総合分光感度特性を表す情報を生成し、当該の情報を含む入力プロファイル情報を生成する入力プロファイル情報生成部と、
前記入力プロファイル情報を前記マルチバンド画像データに付加してフォーマット処理をするデータフォーマット処理部とを有し、
前記入力プロファイル情報生成部が、
前記イメージエリアを複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する前記総合分光感度特性をもとに、それぞれの分割領域を代表する総合分光感度特性に関する情報である分割領域代表特性情報を生成する代表特性情報生成部と、
前記分割領域代表特性情報を他の情報とともに集約して前記入力プロファイル情報を生成する情報集約処理部と
を有するものである。
According to a second aspect of the present invention, there is provided an imaging device capable of generating color image signals of a plurality of colors corresponding to a subject image formed on an image area by a photographing optical system;
An optical filter disposed on either the front side, the middle side, or the rear side of the photographing optical system and capable of changing a spectral characteristic of subject light incident on the imaging device via the photographing optical system. Multi-band image data generated by a photographing device capable of generating multi-band image data of a number of bands larger than the number of colors is accumulated, and the multi-band image data can be transmitted to the client information processing device A server information processing apparatus,
A first spectrum reflecting unevenness in spectral sensitivity equivalently occurring on the image area due to at least one of the image sensor, a processing system for processing an image signal output from the image sensor, and a shutter. A first spectral characteristic distribution information generation unit that generates characteristic distribution information;
A second spectral characteristic distribution information generation unit that generates second spectral characteristic distribution information that reflects non-uniformity of spectral characteristics generated in a subject image formed on the image area due to the photographing optical system and the optical filter;
Based on both the first and second spectral characteristic distribution information or only the second spectral distribution information, information representing the total spectral sensitivity characteristic of the image sensor is generated, and input profile information including the information is generated. An input profile information generator to
A data format processing unit that performs format processing by adding the input profile information to the multiband image data;
The input profile information generation unit
The image area is divided into a plurality of divided areas, and based on the total spectral sensitivity characteristics corresponding to each of a plurality of pixels included in each divided area, the total spectral sensitivity characteristics representing each divided area A representative characteristic information generating unit that generates divided area representative characteristic information that is information;
An information aggregation processing unit that aggregates the divided region representative characteristic information together with other information to generate the input profile information.

本発明の第3の態様は、撮影光学系によってイメージエリア上に形成される被写体像に対応する複数の色数のカラー画像信号を生成可能な撮像素子と、
前記撮影光学系の前側、中、後側のいずれかに配設されて、前記撮影光学系を経て前記撮像素子に入射する被写体光の分光特性を変化させることの可能な光学フィルタと
を有し、前記色数よりも多い数のバンドのマルチバンド画像データを生成可能な撮影装置によって生成されたマルチバンド画像データが蓄積されていて、当該のマルチバンド画像データをクライアント情報処理装置に送出可能なサーバ情報処理装置における画像データ処理方法であって、
前記撮像素子、前記撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して前記イメージエリア上で等価的に生じる分光感度のむらを反映した第1の分光特性分布情報を生成することと、
前記撮影光学系および前記光学フィルタに起因して前記イメージエリア上に形成される被写体像に生じる分光特性のむらを反映した第2の分光特性分布情報を生成することと、
前記第1および第2の分光特性分布情報の両方または前記第2の分光分布情報のみに基づいて前記撮像素子の総合分光感度特性を表す情報を生成し、当該の情報を含む入力プロファイル情報を生成することと、
前記入力プロファイル情報を前記マルチバンド画像データに付加してフォーマット処理をすることとを有し、
前記入力プロファイル情報を生成することが、
前記イメージエリアを複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する前記総合分光感度特性をもとに、それぞれの分割領域を代表する総合分光感度特性に関する情報である分割領域代表特性情報を生成することと、
前記分割領域代表特性情報を他の情報とともに集約して前記入力プロファイル情報を生成することと
を有する。
According to a third aspect of the present invention, there is provided an imaging device capable of generating color image signals of a plurality of colors corresponding to a subject image formed on an image area by a photographing optical system;
An optical filter disposed on either the front side, the middle side, or the rear side of the photographing optical system and capable of changing a spectral characteristic of subject light incident on the imaging device via the photographing optical system. Multi-band image data generated by a photographing device capable of generating multi-band image data of a number of bands larger than the number of colors is accumulated, and the multi-band image data can be transmitted to the client information processing device An image data processing method in a server information processing apparatus,
A first spectrum reflecting unevenness in spectral sensitivity equivalently occurring on the image area due to at least one of the image sensor, a processing system for processing an image signal output from the image sensor, and a shutter. Generating characteristic distribution information;
Generating second spectral characteristic distribution information reflecting unevenness of spectral characteristics generated in a subject image formed on the image area due to the photographing optical system and the optical filter;
Based on both the first and second spectral characteristic distribution information or only the second spectral distribution information, information representing the total spectral sensitivity characteristic of the image sensor is generated, and input profile information including the information is generated. To do
Adding the input profile information to the multiband image data and performing format processing;
Generating the input profile information;
The image area is divided into a plurality of divided areas, and based on the total spectral sensitivity characteristics corresponding to each of a plurality of pixels included in each divided area, the total spectral sensitivity characteristics representing each divided area Generating divided region representative characteristic information that is information;
The divided area representative characteristic information is aggregated together with other information to generate the input profile information.

本発明によれば、画像全体を複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する分光感度特性をもとに、それぞれの分割領域を代表する分割領域代表特性情報が求められ、この分割領域代表特性情報が他の情報とともに集約されて生成された入力プロファイル情報がマルチバンド画像データに付加されることにより、この入力プロファイル情報を用いて色再現される画像のむらを抑制しつつ入力プロファイル情報の容量を効果的に減じることが可能となる。   According to the present invention, the entire image is divided into a plurality of divided areas, and the divided areas representing each divided area based on the spectral sensitivity characteristics corresponding to each of the plurality of pixels included in each divided area. Representative characteristic information is obtained, and input profile information generated by aggregating this divided area representative characteristic information together with other information is added to the multiband image data, and color reproduction is performed using this input profile information. It is possible to effectively reduce the capacity of the input profile information while suppressing image unevenness.

本発明の第1の実施の形態において、撮影装置で生成されたオリジナル画像データが情報処理装置に転送される様子を概念的に説明する図である。FIG. 3 is a diagram conceptually illustrating a state in which original image data generated by a photographing device is transferred to an information processing device in the first embodiment of the present invention. 撮影装置および撮影レンズの内部構成を概略的に説明するブロック図である。FIG. 2 is a block diagram schematically illustrating an internal configuration of a photographing apparatus and a photographing lens. フィルタの分光透過特性と撮像素子の分光感度特性の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the spectral transmission characteristic of a filter, and the spectral sensitivity characteristic of an image pick-up element. フィルタの分光透過特性と撮像素子の分光感度特性の組み合わせのもう一つの例を示す図である。It is a figure which shows another example of the combination of the spectral transmission characteristic of a filter, and the spectral sensitivity characteristic of an image pick-up element. フィルタの分光透過特性と撮像素子の分光感度特性との組み合わせによって得られる分光感度特性の一例を示す図である。It is a figure which shows an example of the spectral sensitivity characteristic obtained by the combination of the spectral transmission characteristic of a filter, and the spectral sensitivity characteristic of an image pick-up element. 付帯情報付加処理部の内部構成を概略的に説明するブロック図である。It is a block diagram which illustrates roughly the internal structure of an incidental information addition process part. 入力プロファイル情報生成部の内部構成を概略的に説明するブロック図である。It is a block diagram which illustrates roughly the internal structure of an input profile information generation part. 入力プロファイル情報の構成例を説明する図である。It is a figure explaining the structural example of input profile information. 分光感度パターンの情報を概念的に説明する図である。It is a figure which illustrates conceptually the information of a spectral sensitivity pattern. 分割領域を説明する図である。It is a figure explaining a division area. 分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数を含む情報のセットが複数生成される様子を概念的に説明する図である。It is a figure which illustrates notionally that a plurality of sets of information including divided area representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each area are generated. 撮影装置で実行される分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数の生成処理手順を説明する概略フローチャートである。It is a schematic flowchart explaining the production | generation process procedure of the division area representative characteristic information, representative characteristic designation | designated information, and spectral sensitivity correction coefficient for every area | region performed with an imaging device. 撮影装置で実行される入力プロファイル情報生成処理手順を説明する概略フローチャートである。It is a schematic flowchart explaining the input profile information generation process procedure performed with an imaging device. 撮影装置から転送されたオリジナル画像データに色変換処理を行う色変換処理部の内部構成を概略的に説明するブロック図である。FIG. 3 is a block diagram schematically illustrating an internal configuration of a color conversion processing unit that performs color conversion processing on original image data transferred from a photographing apparatus. 情報処理装置で実行される色変換処理手順を説明する概略フローチャートである。It is a schematic flowchart explaining the color conversion process procedure performed with an information processing apparatus. 図10Aのフローチャートで示される処理手順に続いて情報処理装置で実行される処理手順を説明する概略フローチャートである。It is a schematic flowchart explaining the process sequence performed with an information processing apparatus following the process procedure shown by the flowchart of FIG. 10A. 本発明の第2の実施の形態において、撮影装置で生成されて一次入力プロファイル情報が付加されたオリジナル画像データが第1の情報処理装置に転送されて蓄積され、そのオリジナル画像データが第1の情報処理装置で処理されて第2の情報処理装置に転送される様子を概念的に説明する図である。In the second embodiment of the present invention, original image data generated by a photographing apparatus and attached with primary input profile information is transferred to and stored in the first information processing apparatus, and the original image data is stored in the first image data. It is a figure which illustrates notionally a mode that it processes with an information processing apparatus, and is transferred to a 2nd information processing apparatus. 付帯情報付加処理部の内部構成を概略的に説明するブロック図である。It is a block diagram which illustrates roughly the internal structure of an incidental information addition process part. 一次入力プロファイル情報の構成例を説明する図である。It is a figure explaining the structural example of primary input profile information. 付帯情報付加処理部の内部構成を概略的に説明するブロック図である。It is a block diagram which illustrates roughly the internal structure of an incidental information addition process part. 付帯情報付加処理部の内部構成を概略的に説明するもう一つのブロック図である。It is another block diagram which illustrates roughly the internal structure of an incidental information addition process part. 第2の情報処理装置(クライアント)によって実行されるマルチバンド画像データ取得処理の手順を説明する概略フローチャートである。It is a schematic flowchart explaining the procedure of the multiband image data acquisition process performed by the 2nd information processing apparatus (client). 第1の情報処理装置(コンテンツサーバ)によって実行されるマルチバンド画像データ送出処理の手順を説明する概略フローチャートである。It is a schematic flowchart explaining the procedure of the multiband image data transmission process performed by the 1st information processing apparatus (content server).

− 第1の実施の形態 −
図1は、本発明が適用される、撮影装置100と、撮影装置100で生成されたオリジナル画像データに色変換処理をして印刷、表示等を行う情報処理装置140とを示す図である。図2は、撮影装置100および撮影レンズ110の内部構成を概略的に示すブロック図である。本実施の形態において、撮影装置100は6バンドのオリジナル画像データを生成可能に構成されるマルチバンド撮影装置であって、撮影レンズが交換可能のものであるとする。また、撮影レンズ110はズーム式のものであるとする。
− First embodiment −
FIG. 1 is a diagram illustrating a photographing apparatus 100 to which the present invention is applied, and an information processing apparatus 140 that performs color conversion processing on original image data generated by the photographing apparatus 100 and performs printing, display, and the like. FIG. 2 is a block diagram schematically showing the internal configuration of the photographing apparatus 100 and the photographing lens 110. In the present embodiment, it is assumed that imaging device 100 is a multiband imaging device configured to be able to generate 6-band original image data, and the imaging lens can be replaced. Further, it is assumed that the photographing lens 110 is a zoom type.

撮影装置100はカメラCPU102を有し、撮影レンズ110はレンズCPU112を有する。撮影装置100に撮影レンズ110を装着し、撮影装置100の電源を投入すると、これらのカメラCPU102とレンズCPU112との間で相互に通信が行われる。レンズCPU112からカメラCPU102には、撮影レンズ110に関連する、後で詳述する様々な情報が出力される。その情報の中には、撮影レンズ110の周辺減光特性に関連する情報も含まれる。また、ユーザが撮影レンズ110の設定焦点距離を変更する操作をすると、設定された焦点距離に関連する情報がレンズCPU112からカメラCPU102に出力される。   The photographing apparatus 100 has a camera CPU 102, and the photographing lens 110 has a lens CPU 112. When the photographing lens 110 is attached to the photographing apparatus 100 and the photographing apparatus 100 is turned on, the camera CPU 102 and the lens CPU 112 communicate with each other. Various information related to the photographing lens 110, which will be described in detail later, is output from the lens CPU 112 to the camera CPU 102. The information includes information related to the peripheral dimming characteristics of the taking lens 110. Further, when the user performs an operation of changing the set focal length of the photographing lens 110, information related to the set focal length is output from the lens CPU 112 to the camera CPU 102.

撮影レンズ110の絞りの設定は、カメラCPU102によって制御される。例えば、撮影装置100の撮影モードがプログラム露光モードに設定されている場合について説明する。カメラCPU102は、測光結果と、撮影装置100で予め設定されている撮像素子の感度(等価ISO感度)とからシャッタ速度と絞り値とを決定する。カメラCPU102は、決定された絞り値に基づいてレンズCPU112に絞り制御信号を発する。レンズCPU112は、撮影レンズ110の絞り値を制御する。つまり、撮影時に設定されていた絞り値はカメラCPU102によって把握可能に構成されている。本明細書中で撮影装置100は撮影レンズ110が交換可能な一眼レフレックス式のデジタルスチルカメラであるものとして説明をするが、撮影レンズ固定式のものであっても、動画を撮像可能なムービーカメラであってもよい。あるいは、撮影装置を内蔵する携帯電話や携帯情報端末(PDA)であってもよい。   The setting of the aperture of the taking lens 110 is controlled by the camera CPU 102. For example, a case where the photographing mode of the photographing apparatus 100 is set to the program exposure mode will be described. The camera CPU 102 determines the shutter speed and the aperture value from the photometric result and the sensitivity (equivalent ISO sensitivity) of the image sensor preset in the photographing apparatus 100. The camera CPU 102 issues an aperture control signal to the lens CPU 112 based on the determined aperture value. The lens CPU 112 controls the aperture value of the taking lens 110. That is, the aperture value set at the time of shooting can be grasped by the camera CPU 102. In this specification, the photographing apparatus 100 is described as a single-lens reflex digital still camera in which the photographing lens 110 can be replaced. However, a movie capable of capturing a moving image even if the photographing lens is fixed. It may be a camera. Alternatively, it may be a mobile phone or a personal digital assistant (PDA) incorporating a photographing device.

情報処理装置140は、パーソナル・コンピュータ(以下PC)等で構成されるものであっても良いし、画像データを処理して保管、表示、および印刷等のうちの少なくともいずれかを行うことが可能な、専用の装置であってもよい。以下では、情報処理装置140は、PC142、表示装置144、キーボード146等を有して構成されるものとする。情報処理装置140には、プリンタ150等を接続することが可能である。PC142は、ローカル・エリア・ネットワーク(LAN)やインターネット等を介して他のPCやサーバ等に接続することも可能に構成することができる。本明細書では、表示装置144やプリンタ150等を画像出力装置と総称する。   The information processing apparatus 140 may be configured by a personal computer (hereinafter referred to as a PC) or the like, and can process and store at least one of image data, storage, display, printing, and the like. In addition, a dedicated device may be used. In the following, it is assumed that the information processing apparatus 140 includes a PC 142, a display device 144, a keyboard 146, and the like. A printer 150 or the like can be connected to the information processing apparatus 140. The PC 142 can be configured to be connectable to another PC, server, or the like via a local area network (LAN), the Internet, or the like. In this specification, the display device 144 and the printer 150 are collectively referred to as an image output device.

撮影装置100から情報処理装置140へは、USBケーブル、LANケーブル、IEEE1394ケーブル、HDMIケーブル等を用いた有線通信、光や電磁波を用いた無線方式通信、メモリカード等を介して画像データを転送可能に構成される。   Image data can be transferred from the photographing apparatus 100 to the information processing apparatus 140 via wired communication using a USB cable, LAN cable, IEEE 1394 cable, HDMI cable, wireless communication using light or electromagnetic waves, a memory card, etc. Configured.

図2を参照し、撮影装置100は、二つの撮像素子218、220と、撮影レンズ110を透過した被写体光を分割して二つの撮像素子218、220に導くビームスプリッタ230と、ビームスプリッタ230と撮像素子218、220それぞれの間に配設されるシャッタ210、212および光学フィルタ(以下、単に「フィルタ」と称する)214、216とを有する。   Referring to FIG. 2, the imaging apparatus 100 includes two imaging elements 218 and 220, a beam splitter 230 that divides subject light transmitted through the imaging lens 110 and guides it to the two imaging elements 218 and 220, and a beam splitter 230. Shutters 210 and 212 and optical filters (hereinafter simply referred to as “filters”) 214 and 216 disposed between the imaging elements 218 and 220, respectively.

撮影装置100はまた、撮像素子218、220から出力される画像データを一時的に記憶する第1バッファ202および第2バッファ204と、第1バッファ202および第2バッファ204に記憶される画像データに処理を施してマルチバンド画像データを生成する画像処理部206と、カメラCPU102から出力されるシャッタ制御信号に基づいてシャッタ210、212などを駆動するドライバ208とを有する。シャッタ210、212は、フォーカルプレンシャッタなどを用いることが可能である。なお、これらのフォーカルプレンシャッタに代えて、撮影レンズ110内にレンズシャッタを内蔵することも可能である。   The imaging apparatus 100 also includes a first buffer 202 and a second buffer 204 that temporarily store image data output from the image sensors 218 and 220, and image data stored in the first buffer 202 and the second buffer 204. An image processing unit 206 that performs processing to generate multiband image data, and a driver 208 that drives shutters 210 and 212 and the like based on a shutter control signal output from the camera CPU 102 are included. As the shutters 210 and 212, a focal plane shutter or the like can be used. Instead of these focal plane shutters, a lens shutter can be incorporated in the photographing lens 110.

撮影装置100はさらに、メモリ205を有する。メモリ205は、アクセス速度に優れるRAMと、記憶保持のために電力を必要としないフラッシュメモリとを含む。上記の第1バッファ202および第2バッファ204はメモリ205に含まれていてもよい。この場合、メモリ205のRAM内に第1バッファ202および第2バッファ204の領域が確保される。フラッシュメモリには、カメラCPU102で実行されるファームウェアや、個々の撮影装置100に固有の情報、さらには撮影装置100の動作ステータス情報等が記憶される。   The photographing apparatus 100 further includes a memory 205. The memory 205 includes a RAM having an excellent access speed and a flash memory that does not require power for storage retention. The first buffer 202 and the second buffer 204 described above may be included in the memory 205. In this case, areas of the first buffer 202 and the second buffer 204 are secured in the RAM of the memory 205. The flash memory stores firmware executed by the camera CPU 102, information unique to each photographing apparatus 100, operation status information of the photographing apparatus 100, and the like.

本実施の形態において、撮像素子218、220のそれぞれはベイヤ配列のBGRオンチップカラーフィルタを有する単板式のものとして説明する。しかし、本発明はこの例に限定されるものではない。例えば、ビームスプリッタ230の光射出部に対向する位置にダイクロイックプリズム等を有して構成される色分解光学系をそれぞれ配置した構成を有するものであってもよい。この場合、ビームスプリッタ230で二分割され、フィルタ214、216を透過した被写体光は、上記色分解光学系によって色分解される。そして、色分解された各色の被写体光を受光する位置に配設される複数の単色の撮像素子に色分解されたそれぞれの被写体光導かれる。   In the present embodiment, each of the image sensors 218 and 220 will be described as a single plate type having a Bayer array BGR on-chip color filter. However, the present invention is not limited to this example. For example, it may have a configuration in which color separation optical systems each including a dichroic prism or the like are disposed at positions facing the light emitting portion of the beam splitter 230. In this case, the subject light divided into two by the beam splitter 230 and transmitted through the filters 214 and 216 is color-separated by the color separation optical system. Each color-separated subject light is emitted to a plurality of single-color image sensors arranged at a position where the color-separated subject light of each color is received.

フィルタ214、216は、干渉フィルタの機能を有する。ビームスプリッタ230の光射出部と撮像素子218、220のそれぞれとの間に光学的ローパスフィルタ(OLPF)等の光学素子が配置される場合、それらの光学素子の表面に干渉フィルタを構成する薄膜層を形成することもできる。なお、フィルタ214、216に関し、必ずしも双方が干渉フィルタの機能を有する必要はない。つまり、フィルタ214、216のうち、一方のみ干渉フィルタの機能を有し、他方は他の光学素子、例えば単なる平行平面ガラスやOLPF等であってもよい。更に、フィルタ214、216については必ずしも光の干渉を利用したフィルタに限るものでなく、斜めに光が入った場合にその特性が変化するようなフィルタであれば、本発明は同様に利用が出来る。以下ではフィルタ214、216の双方が干渉フィルタの機能を有していて、フィルタ214が比較的広帯域の分光透過特性を有し、フィルタ216が比較的狭帯域の分光透過特性を有するものとして説明をする。これらのフィルタ214、216の分光透過特性については後で説明する。   The filters 214 and 216 have an interference filter function. When optical elements such as an optical low-pass filter (OLPF) are disposed between the light emitting portion of the beam splitter 230 and each of the imaging elements 218 and 220, a thin film layer constituting an interference filter on the surface of those optical elements Can also be formed. Note that the filters 214 and 216 do not necessarily have to function as interference filters. That is, only one of the filters 214 and 216 has the function of an interference filter, and the other may be another optical element, for example, a simple plane-parallel glass or an OLPF. Furthermore, the filters 214 and 216 are not necessarily limited to filters using light interference, and the present invention can be used in the same manner as long as the characteristics change when light enters obliquely. . In the following description, it is assumed that both the filters 214 and 216 have an interference filter function, the filter 214 has a relatively broad spectral transmission characteristic, and the filter 216 has a relatively narrow spectral transmission characteristic. To do. The spectral transmission characteristics of these filters 214 and 216 will be described later.

撮影装置100はさらに、付帯情報付加処理部600を有する。付帯情報付加処理部600は、撮影装置100で撮影が行われる際に、後述する入力プロファイル情報を生成する。付帯情報付加処理部600は、これらの入力プロファイル情報を、画像処理部206で生成されたマルチバンド画像データに付加し、記憶媒体240にオリジナル画像データとして記録する。記憶媒体240は、撮影装置100に着脱自在に取り付け可能なメモリカードや小型ハードディスク等のいわゆるリムーバブルメディアを利用可能である。なお、以下では、カメラCPU102がメモリ105中に記憶されているファームウェアを実行することにより付帯情報付加処理部600が実施されるものとして説明をする。   The photographing apparatus 100 further includes an accompanying information addition processing unit 600. The supplementary information addition processing unit 600 generates input profile information to be described later when the photographing apparatus 100 performs photographing. The incidental information addition processing unit 600 adds these input profile information to the multiband image data generated by the image processing unit 206 and records it as original image data in the storage medium 240. As the storage medium 240, a so-called removable medium such as a memory card or a small hard disk that can be detachably attached to the photographing apparatus 100 can be used. In the following description, it is assumed that the supplementary information addition processing unit 600 is implemented when the camera CPU 102 executes the firmware stored in the memory 105.

撮影レンズ110は、レンズCPU112と、絞りドライバ114と、絞りユニット116と、レンズ駆動部118と、メモリ120とを有する。絞りユニット116は、光彩絞りを形成する複数の絞り羽根と、それらの絞り羽根を開閉駆動するアクチュエータとを有する。絞り羽根を開閉駆動するアクチュエータとしては、電磁アクチュエータ、例えばステッピングモータを用いることができる。レンズ駆動部118は、撮影レンズ110内のフォーカシングレンズを撮影レンズ110の光軸方向に沿って移動させるためのアクチュエータ、例えば超音波モータや電磁駆動のモータ等を有する。   The taking lens 110 includes a lens CPU 112, an aperture driver 114, an aperture unit 116, a lens driving unit 118, and a memory 120. The aperture unit 116 includes a plurality of aperture blades that form a bright aperture, and an actuator that drives the aperture blades to open and close. An electromagnetic actuator, for example, a stepping motor, can be used as the actuator that opens and closes the diaphragm blades. The lens driving unit 118 includes an actuator for moving the focusing lens in the photographing lens 110 along the optical axis direction of the photographing lens 110, such as an ultrasonic motor or an electromagnetic drive motor.

レンズ駆動部118はまた、フォーカシングレンズの位置に応じた情報をレンズCPU112に出力可能に構成される。一例として、レンズ駆動部118は、フォーカシングレンズの無限遠撮影位置からの移動量に応じた信号を生成可能なエンコーダから出力される信号を常に監視し、最新のレンズ位置に基づく情報をレンズCPU112に随時出力するように構成される。また、撮影レンズ110が、撮影装置100のユーザによる手動焦点調節が可能に構成される場合も、レンズ駆動部118は最新のフォーカシングレンズの位置に応じた情報をレンズCPU112に随時出力するように構成可能である。なお、以下ではフォーカシングレンズの位置に応じた情報を単に「レンズ位置情報」と称する。   The lens driving unit 118 is also configured to be able to output information corresponding to the position of the focusing lens to the lens CPU 112. As an example, the lens driving unit 118 constantly monitors a signal output from an encoder capable of generating a signal according to the amount of movement of the focusing lens from the infinity shooting position, and sends information based on the latest lens position to the lens CPU 112. It is configured to output at any time. Further, even when the photographing lens 110 is configured so that manual focus adjustment by the user of the photographing apparatus 100 is possible, the lens driving unit 118 is configured to output information according to the latest focusing lens position to the lens CPU 112 as needed. Is possible. Hereinafter, information corresponding to the position of the focusing lens is simply referred to as “lens position information”.

図3および図4に、フィルタ214、216の分光透過特性の例を示す。図3および図4に示されるグラフにおいて、横軸には波長が、縦軸には透過率が示されている。これらのグラフにはまた、フィルタ214、216の分光透過特性とともに、撮像素子218、220中におけるB、G、Rの波長帯域を受け持つ画素の相対分光感度が示されている。図3に示されるように、フィルタ214は、比較的広帯域の分光透過特性を有する。   3 and 4 show examples of spectral transmission characteristics of the filters 214 and 216. FIG. In the graphs shown in FIGS. 3 and 4, the horizontal axis indicates the wavelength, and the vertical axis indicates the transmittance. These graphs also show the relative spectral sensitivity of the pixels having the B, G, and R wavelength bands in the image sensors 218 and 220 as well as the spectral transmission characteristics of the filters 214 and 216. As shown in FIG. 3, the filter 214 has a spectral transmission characteristic with a relatively wide band.

一方、フィルタ216は、図4に示されるように比較的狭帯域の分光透過特性を有する。なお、以下ではフィルタ214、216の分光透過特性について、単に「広帯域の分光透過特性を有する」、「狭帯域の分光透過特性を有する」と表記する。図3に示されるように、フィルタ214は、可視域の長波長側で透過率が急激に低下する特性を有している。可視域の光をほぼ均一に透過可能である、と云う点で、広帯域の分光透過特性を有すると称することができる。図4に示されるように、フィルタ216は、その分光透過特性の立ち下がり部(分光透過率が急激に低下する部分、二カ所)、立ち上がり部(分光透過率が急激に上昇する部分、一カ所)が、撮像素子220中におけるB、G、Rの波長帯域を受け持つ画素が有する分光感度のプロファイル(山型のプロファイル)をそのピーク付近で分断するように特性が定められている。フィルタ214に比してフィルタ216が透過可能な光の波長帯域は狭い、と云う点で、狭帯域の分光透過特性を有すると称することができる。   On the other hand, the filter 216 has a relatively narrow band spectral transmission characteristic as shown in FIG. Hereinafter, the spectral transmission characteristics of the filters 214 and 216 are simply expressed as “having broadband spectral transmission characteristics” and “having narrow band spectral transmission characteristics”. As shown in FIG. 3, the filter 214 has a characteristic that the transmittance sharply decreases on the long wavelength side in the visible range. It can be referred to as having a broadband spectral transmission characteristic in that light in the visible range can be transmitted almost uniformly. As shown in FIG. 4, the filter 216 has a falling part (part where the spectral transmittance sharply decreases, two places) and a rising part (part where the spectral transmittance rises rapidly, one place). ) Is determined so as to divide the spectral sensitivity profile (mountain profile) of the pixels having the B, G, and R wavelength bands in the image sensor 220 in the vicinity of the peak. It can be referred to as having a narrow-band spectral transmission characteristic in that the wavelength band of light that can be transmitted by the filter 216 is narrower than that of the filter 214.

広帯域の分光透過特性を有するフィルタ214については、先にも説明したように省略することも可能である。例えば、図2において、ビームスプリッタ230の射出面と撮像素子218、220のそれぞれとの間に、透明基板上に薄膜の層が形成されたフィルタ214、216が介装されるような構成の場合、フィルタ214を省略する際には、代わりに素通しの透明基板を介装することが二つの撮像素子218、220に至る等価光路長を等しくして撮影レンズ110の収差特性を等しくする上で望ましい。また、ビームスプリッタ230の射出面と撮像素子218、220との間にOLPFや赤外カットフィルタ等が介装されていて、それらの表面に薄膜の層が形成されてフィルタ214、216が構成される場合、フィルタ214に対応する薄膜の層を省略すればよい。   The filter 214 having a broadband spectral transmission characteristic can be omitted as described above. For example, in FIG. 2, a configuration in which filters 214 and 216 in which a thin film layer is formed on a transparent substrate is interposed between the exit surface of the beam splitter 230 and the imaging elements 218 and 220, respectively. When the filter 214 is omitted, it is desirable to use a transparent transparent substrate instead to equalize the equivalent optical path length to the two image sensors 218 and 220 and to equalize the aberration characteristics of the photographing lens 110. . In addition, an OLPF, an infrared cut filter, or the like is interposed between the exit surface of the beam splitter 230 and the imaging elements 218 and 220, and a thin film layer is formed on the surface to form the filters 214 and 216. In this case, the thin film layer corresponding to the filter 214 may be omitted.

図5は、フィルタ214、216の分光透過特性と、B、G、R各色のオンチップカラーフィルタの分光透過特性と、撮像素子を構成する画素の分光感度特性との組み合わせによって決まる、撮像素子218、220中におけるB、G、R各色の画素の分光感度を示す図である。つまり、バンド1、バンド2、バンド3はそれぞれ、撮像素子218のBオンチップカラーフィルタ、Gオンチップカラーフィルタ、Rオンチップカラーフィルタが設けられた各画素の分光感度特性を示す。また、バンド4、バンド5、バンド6はそれぞれ、撮像素子220のBオンチップカラーフィルタ、Gオンチップカラーフィルタ、Rオンチップカラーフィルタが設けられた各画素の分光感度特性を示す。   FIG. 5 illustrates an image sensor 218 that is determined by a combination of the spectral transmission characteristics of the filters 214 and 216, the spectral transmission characteristics of the B, G, and R on-chip color filters, and the spectral sensitivity characteristics of the pixels that form the imaging element. , 220 is a diagram showing the spectral sensitivities of the pixels of each of the B, G, and R colors. That is, band 1, band 2, and band 3 indicate the spectral sensitivity characteristics of each pixel provided with the B on-chip color filter, the G on-chip color filter, and the R on-chip color filter of the image sensor 218, respectively. Band 4, band 5, and band 6 indicate spectral sensitivity characteristics of each pixel provided with the B on-chip color filter, the G on-chip color filter, and the R on-chip color filter of the image sensor 220, respectively.

図6Aは、付帯情報付加処理部600の構成を概略的に示すブロック図である。付帯情報付加処理部600は、画像処理部206で生成されたマルチバンド画像データに入力プロファイル情報を付加してオリジナル画像データを生成する処理を行う。付帯情報付加処理部600で生成されたオリジナル画像データは、記憶媒体240に記録される。   FIG. 6A is a block diagram schematically showing the configuration of the supplementary information addition processing unit 600. The supplementary information addition processing unit 600 performs processing for adding the input profile information to the multiband image data generated by the image processing unit 206 to generate original image data. The original image data generated by the supplementary information addition processing unit 600 is recorded in the storage medium 240.

付帯情報付加処理部600の説明の前に、センサ情報記憶部630とフィルタ情報記憶部632とについて説明する。これらのセンサ情報記憶部630およびフィルタ情報記憶部632は、メモリ205中のフラッシュメモリ内に設けられる。   Before describing the incidental information addition processing unit 600, the sensor information storage unit 630 and the filter information storage unit 632 will be described. These sensor information storage unit 630 and filter information storage unit 632 are provided in a flash memory in the memory 205.

センサ情報記憶部630には、センサ情報が記憶される。センサ情報は、撮像素子218、220のバイアス・トーン特性に関する情報と、分光感度のむらに関連する情報(以下では単に「感度むら情報」と称する)とを含む。感度むら情報は、以下で詳しく説明するように、撮像素子218、220、撮像素子218、220から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して、撮像素子のイメージエリア上で等価的に生じる分光感度のむらを反映した情報である。   Sensor information is stored in the sensor information storage unit 630. The sensor information includes information related to bias / tone characteristics of the image sensors 218 and 220 and information related to unevenness in spectral sensitivity (hereinafter simply referred to as “sensitivity unevenness information”). As described in detail below, the sensitivity unevenness information is obtained due to at least one of the image sensors 218 and 220, the processing system that processes the image signals output from the image sensors 218 and 220, and the shutter. This is information reflecting the unevenness of spectral sensitivity that occurs equivalently on the image area of the element.

撮像素子218、220に起因する感度むらは、従来の技術でも説明したように、撮像素子218、220を製造する過程での成膜やエッチング等のプロセスのばらつきによって生じる分光感度むらである。   Sensitivity unevenness caused by the image sensors 218 and 220 is spectral sensitivity unevenness caused by process variations such as film formation and etching in the process of manufacturing the image sensors 218 and 220 as described in the related art.

撮像素子218、220から出力される画像信号を処理する処理系に起因する感度むらは、例えば撮像素子218、220中に形成されるA/Dコンバータやアンプ等の特性のばらつきによって生じるむらである。例えば、撮像素子218、220内の画素ごと、あるいは列ごとにアンプが設けられる場合、それらのアンプのゲインにばらつきがあると、それは分光感度のむらを生じうる。また、撮像素子218、220内に複数のA/Dコンバータが設けられて複数のチャンネルから同時に画像信号を読み出し可能に構成されるものでは、A/Dコンバータの特性のばらつきによって分光感度のむらを生じうる。その結果、撮像素子218、220から出力される画像信号を処理して得られる画像データは、仮に撮像素子218、220のイメージエリア上に均一な光が入射していたとしても、画像データ中の各画素値にはばらつきを生じる。この画素値のばらつきにより、色むらを生じることとなる。   Sensitivity unevenness due to a processing system that processes image signals output from the image sensors 218 and 220 is uneven due to variations in characteristics of, for example, A / D converters and amplifiers formed in the image sensors 218 and 220. . For example, in the case where an amplifier is provided for each pixel or column in the image sensors 218 and 220, if the gains of these amplifiers vary, it may cause uneven spectral sensitivity. In addition, in the case where a plurality of A / D converters are provided in the image sensors 218 and 220 so that image signals can be read simultaneously from a plurality of channels, unevenness in spectral sensitivity occurs due to variations in the characteristics of the A / D converters. sell. As a result, the image data obtained by processing the image signals output from the image sensors 218 and 220 may be included in the image data even if uniform light is incident on the image areas of the image sensors 218 and 220. Each pixel value varies. Due to this variation in pixel values, color unevenness occurs.

シャッタの露光精度がばらついたときには、像面露光量のばらつきを生じ、結果として画像データにばらつきを生じる。例えば、シャッタ210、212それぞれで得られる露光量に差があれば、撮像素子218、220から得られる画像信号を処理して生成される画像データの分光特性は、ずれを生じることになる。   When the exposure accuracy of the shutter varies, the exposure amount of the image surface varies, and as a result, the image data varies. For example, if there is a difference in the exposure amounts obtained by the shutters 210 and 212, the spectral characteristics of the image data generated by processing the image signals obtained from the image sensors 218 and 220 will be shifted.

上記のような要因によるむらの影響を受けた画像データの画素値のばらつきは、あたかも撮像素子218、220の分光感度のむらが原因であるかのように捉えることができる。つまり、撮像素子218、220から得られる画像に生じるむらの原因が、撮像素子218、220の分光感度のむら、画像信号を処理する処理系、シャッタのいずれであったとしても、それらはすべて画像データの画素値のばらつきとして反映される。そこで、センサ情報記憶部630には、撮像素子218、220、撮像素子218、220から出力される画像信号を処理する処理系、シャッタ210、212に起因する分光感度むらの情報は、撮像素子218、220のイメージエリア上で等価的に生じる分光感度のむらを表すものとして記憶される。   The variation in the pixel value of the image data affected by the unevenness due to the above factors can be understood as if the unevenness of the spectral sensitivity of the image sensors 218 and 220 is the cause. That is, even if the cause of unevenness in the images obtained from the image sensors 218 and 220 is the unevenness of the spectral sensitivity of the image sensors 218 and 220, the processing system for processing the image signal, or the shutter, they are all image data. This is reflected as a variation in the pixel value. Therefore, the sensor information storage unit 630 stores information on the spectral sensitivity unevenness caused by the shutters 210 and 212 and the processing system that processes the image signals output from the image sensors 218 and 220 and the image sensors 218 and 220. , 220 are stored as representing the nonuniformity in spectral sensitivity that occurs equivalently on the 220 image area.

撮像素子218、220、撮像素子218、220から出力される画像信号を処理する処理系に起因する分光感度のむらは、例えば、撮影装置100の製造の過程で較正を行うことにより得ることができる。較正の一例としては、撮影装置100のレンズマウント部に半透明乳白色のキャップを装着し、分光放射輝度が既知の面光源に撮影装置100を向けて撮影して得られた画像データを処理することが可能である。得られた画像データの画素値のばらつきから、撮像素子218、220の各画素に対応する分光感度のばらつきが求められる。この分光感度のばらつきから、撮像素子218、220の受光面上における分光感度の分布に関連する情報を生成することができる。なお、この較正を行う際には、シャッタ秒時を比較的長くすることが較正結果に及ぼすシャッタ精度の影響を減じる上で効果的である。   The unevenness in spectral sensitivity due to the image pickup devices 218 and 220 and the processing system that processes the image signals output from the image pickup devices 218 and 220 can be obtained, for example, by performing calibration during the manufacturing process of the photographing apparatus 100. As an example of calibration, a translucent milky white cap is attached to the lens mount portion of the photographing apparatus 100, and image data obtained by photographing the photographing apparatus 100 toward a surface light source having a known spectral radiance is processed. Is possible. From variations in pixel values of the obtained image data, variations in spectral sensitivity corresponding to the pixels of the image sensors 218 and 220 are obtained. From this variation in spectral sensitivity, it is possible to generate information related to the spectral sensitivity distribution on the light receiving surfaces of the image sensors 218 and 220. When performing this calibration, a relatively long shutter speed is effective in reducing the influence of the shutter accuracy on the calibration result.

シャッタ210、212に起因する分光感度のむらは、撮影装置100の製造過程において較正を行うことにより計測可能である。例えば、較正用の撮影レンズを撮影装置100に装着して均一な輝度面を画面一杯に捉えるようにして撮影する。このとき、露光むらの生じにくいシャッタ秒時(例えば1/32秒)、露光むらの生じやすいシャッタ秒時(例えば1/8192秒)で撮影し、それぞれのシャッタ秒時で撮像素子から得られる画像信号を比較する。そして、画素ごとに画素値を比較することによりシャッタに起因するむらを推定することが可能となる。   The nonuniformity in spectral sensitivity due to the shutters 210 and 212 can be measured by performing calibration in the manufacturing process of the photographing apparatus 100. For example, a photographing lens for calibration is attached to the photographing apparatus 100 and photographing is performed so that a uniform luminance surface is captured on the entire screen. At this time, images are taken at a shutter time (for example, 1/32 seconds) at which exposure unevenness is unlikely to occur, and at a shutter time (for example, 1/8192 seconds) at which exposure unevenness is likely to occur, and an image obtained from the image sensor at each shutter time. Compare signals. Then, by comparing pixel values for each pixel, it is possible to estimate unevenness caused by the shutter.

以上は撮影装置100の製造過程において較正を行う例について説明したが、以下に説明するように撮影装置100の使用過程においても較正をすることができる。シャッタ210、212がフォーカルプレンシャッタであるものとして、先幕、後幕の走行タイミングを検知するセンサをシャッタ内に組み込む。すなわち、シャッタ210、212内にフォトインタラプタ、あるいはフォトリフレクタ等のセンサを組み込む。これらのセンサにより、シャッタ作動時、先幕がセンサの近傍を通過してから後幕が同じセンサの近傍を通過するまでの時間を検出できる。検出された時間と、目標シャッタ秒時との差から、シャッタ210、212に起因する分光感度のむらを得ることができる。すなわち、シャッタ210と212とで露光精度が異なっていると、撮像素子218、220から出力される画像信号間の相対値に誤差を生じることとなり、結果として得られる画像データの色再現性に影響を及ぼすこととなる。本明細書においては、これもむらとして扱うものとする。   The example of performing calibration in the manufacturing process of the photographing apparatus 100 has been described above, but calibration can also be performed in the use process of the photographing apparatus 100 as described below. Assuming that the shutters 210 and 212 are focal plane shutters, sensors for detecting the traveling timing of the front curtain and rear curtain are incorporated in the shutter. That is, a sensor such as a photo interrupter or a photo reflector is incorporated in the shutters 210 and 212. With these sensors, it is possible to detect the time from when the front curtain passes the vicinity of the sensor to when the rear curtain passes the vicinity of the same sensor when the shutter is operated. From the difference between the detected time and the target shutter speed, the spectral sensitivity unevenness caused by the shutters 210 and 212 can be obtained. That is, if the exposure accuracy differs between the shutters 210 and 212, an error occurs in the relative value between the image signals output from the image sensors 218 and 220, and the color reproducibility of the resulting image data is affected. Will be affected. In the present specification, this is also treated as unevenness.

フォーカルプレンシャッタの特性として、先幕と後幕とで形成されるスリットの幅が露光動作中に変動する場合がある。これもむらの原因となる。先幕、後幕の走行タイミングを検知する上記センサを、シャッタ内に例えば3つ組み込み、幕の走行開始地点、中間、走行完了地点において先幕、後幕が走行する際の時間的間隔を計測することにより、スリット幅の変動によるむらも検出することが可能となる。このようにして検出されたむらも、撮像素子218、220の分光感度のむらとして扱うことが可能である。   As a characteristic of the focal plane shutter, the width of the slit formed by the front curtain and the rear curtain may vary during the exposure operation. This also causes unevenness. For example, three sensors for detecting the timing of the leading and trailing curtains are incorporated in the shutter, and the time intervals when the leading and trailing curtains travel at the curtain starting point, middle point, and driving completion point are measured. By doing so, it is possible to detect unevenness due to fluctuations in the slit width. Unevenness detected in this way can also be handled as unevenness in spectral sensitivity of the image sensors 218 and 220.

センサ情報記憶部630には、センサ情報として、上述したようにして得られる感度むら情報とバイアス・トーン特性に関する情報とが記憶される。なお、センサ情報記憶部630に記憶される感度むら情報に関して、撮像素子218、220、撮像素子218、220から出力される画像信号を処理する処理系、およびシャッタに関連するものが必ずしも全て記憶されている必要はなく、少なくともいずれかに起因するものが記憶されていればよい。   The sensor information storage unit 630 stores sensitivity unevenness information and information on bias / tone characteristics obtained as described above as sensor information. Note that the sensitivity unevenness information stored in the sensor information storage unit 630 is not necessarily stored in all of the image sensors 218 and 220, the processing system that processes the image signals output from the image sensors 218 and 220, and the shutter. It is not necessary to store the information that is caused by at least one of them.

フィルタ情報記憶部632には、フィルタ214、216の分光透過特性に関連する情報が記憶される。フィルタ情報記憶部632にはまた、フィルタ214、216に対して光が斜めに入射した場合の分光透過特性の変化に関連する情報、すなわち入射角の変化に対する分光透過特性の変化を導出可能な情報も記憶可能である。   Information related to the spectral transmission characteristics of the filters 214 and 216 is stored in the filter information storage unit 632. The filter information storage unit 632 also includes information related to changes in spectral transmission characteristics when light is incident on the filters 214 and 216 obliquely, that is, information that can derive changes in spectral transmission characteristics with respect to changes in the incident angle. Can also be memorized.

付帯情報付加処理部600について説明する。付帯情報付加処理部600は、レンズ情報取得部602と、撮影情報取得部604と、被写体特性情報入力部606と、撮影照明光情報入力部608と、周辺減光導出部610とを有する。付帯情報付加処理部600はまた、入射角度導出部612と、感度ムラ導出部614と、バイアス・トーン特性抽出部616と、入力プロファイル情報生成部622と、データフォーマット処理部624とを有する。   The supplementary information addition processing unit 600 will be described. The incidental information addition processing unit 600 includes a lens information acquisition unit 602, a shooting information acquisition unit 604, a subject characteristic information input unit 606, a shooting illumination light information input unit 608, and a peripheral light reduction derivation unit 610. The incidental information addition processing unit 600 also includes an incident angle deriving unit 612, a sensitivity unevenness deriving unit 614, a bias / tone characteristic extracting unit 616, an input profile information generating unit 622, and a data format processing unit 624.

レンズ情報取得部602は、撮影装置100に装着されている撮影レンズ110のレンズ情報をレンズCPU112から取得する。このレンズ情報には、一例として、撮影レンズの焦点距離(ズームレンズの場合には広角端から望遠端までの焦点距離レンジ)、開放F値、周辺減光特性、射出瞳位置などを含むことができる。レンズ情報にはまた、分光透過特性に関連する情報や撮影レンズ110の個体を識別可能な情報、例えば撮影レンズ110のメーカ、機種、シリアル番号等を特定可能な情報が含まれていてもよい。   The lens information acquisition unit 602 acquires lens information of the photographing lens 110 attached to the photographing apparatus 100 from the lens CPU 112. This lens information includes, for example, the focal length of the photographing lens (focal length range from the wide-angle end to the telephoto end in the case of a zoom lens), the open F value, the peripheral dimming characteristics, the exit pupil position, and the like. it can. The lens information may also include information related to spectral transmission characteristics and information that can identify the individual photographing lens 110, such as information that can specify the manufacturer, model, serial number, and the like of the photographing lens 110.

射出瞳位置の情報としては、撮影レンズを無限遠の被写体に焦点が合うように焦点調節したときの、結像面から射出瞳位置までの光軸方向に沿う距離、あるいは撮影レンズ110(撮影装置100)のマウント面から射出瞳位置までの光軸方向に沿う距離に関連する情報等とすることができる。レンズ情報取得部602は、上述のようにして取得した情報を、周辺減光導出部610、入射角度導出部612に出力する。   Information on the exit pupil position includes the distance along the optical axis direction from the imaging plane to the exit pupil position when the photographic lens is focused so that an object at infinity is in focus, or the photographic lens 110 (imaging device). 100) information related to the distance along the optical axis direction from the mount surface to the exit pupil position. The lens information acquisition unit 602 outputs the information acquired as described above to the peripheral dimming deriving unit 610 and the incident angle deriving unit 612.

撮影情報取得部604は、撮影装置100で撮影動作が実行されたときの各種撮影情報を取得する。この撮影情報には、一例として、撮影日時、撮像素子218、220で設定された感度(等価ISO感度)、撮影レンズ110がズームレンズである場合には撮影時に設定されていた焦点距離(以下、設定焦点距離と称する)、シャッタ速度、設定絞り値、露出補正量、撮影距離(撮影時の射出瞳位置を求めることができる情報)などを含むことができる。撮影情報取得部604は、上述のようにして取得した情報を、周辺減光導出部610、入射角度導出部612、入力プロファイル情報生成部622に出力する。   The shooting information acquisition unit 604 acquires various types of shooting information when a shooting operation is executed by the shooting apparatus 100. For example, the shooting information includes the shooting date and time, the sensitivity set by the image sensors 218 and 220 (equivalent ISO sensitivity), and the focal length (hereinafter referred to as “photographing distance”) set when the shooting lens 110 is a zoom lens. (Referred to as a set focal length), shutter speed, set aperture value, exposure correction amount, shooting distance (information for obtaining the exit pupil position at the time of shooting), and the like. The imaging information acquisition unit 604 outputs the information acquired as described above to the peripheral dimming deriving unit 610, the incident angle deriving unit 612, and the input profile information generating unit 622.

被写体特性情報入力部606は、後述する色変換処理に際して被写体の分光反射率を推定するために用いられる情報を入力する。例えば、被写体の分光反射率を推定する方法の一例としてウィーナ推定と称される方法がある。被写体の分光反射率の推定に際してウィーナ推定を用いる場合、被写体特性情報入力部606は被写体の統計的な情報を入力する。   The subject characteristic information input unit 606 inputs information used for estimating the spectral reflectance of the subject in the color conversion processing described later. For example, there is a method called Wiener estimation as an example of a method for estimating the spectral reflectance of a subject. When Wiener estimation is used for estimating the spectral reflectance of the subject, the subject characteristic information input unit 606 inputs statistical information of the subject.

例えば、ユーザが撮影装置100のメニュー画面を呼び出して、人の肌、自然風景、建築物等、被写体の種類を特定する設定を行うことができる。ユーザによる上述した設定結果に基づき、被写体特性情報入力部606は分光反射率を推定するのに有効な統計的情報をメモリ205から読み出す。そして被写体特性情報入力部606は、この統計的情報を入力プロファイル情報生成部622に出力する。   For example, the user can call the menu screen of the photographing apparatus 100 and perform settings for specifying the type of subject such as human skin, natural scenery, buildings, and the like. Based on the setting result by the user, the subject characteristic information input unit 606 reads out statistical information effective for estimating the spectral reflectance from the memory 205. Then, the subject characteristic information input unit 606 outputs this statistical information to the input profile information generation unit 622.

なお、ウィーナ推定によって被写体の分光反射率を推定する際に、確率モデルとしてマルコフモデルを適用することもできる。その場合には、被写体特性情報入力部606を省くことが可能となる。被写体特性情報入力部606は、上述のようにして入力された情報を入力プロファイル情報生成部622に出力する。   Note that a Markov model can be applied as a probability model when estimating the spectral reflectance of a subject by Wiener estimation. In that case, the subject characteristic information input unit 606 can be omitted. The subject characteristic information input unit 606 outputs the information input as described above to the input profile information generation unit 622.

撮影照明光情報入力部608は、後述する色変換処理に際して被写体の分光反射率を推定するために利用される情報を入力する。例えば、撮影装置100が分光測光装置を有する場合には、撮影照明光、すなわち撮影時に被写体を照明していた光の分光特性を撮影照明光情報入力部608はこの分光測光装置から入力することができる。   The photographing illumination light information input unit 608 inputs information used for estimating the spectral reflectance of the subject in the color conversion process described later. For example, when the photographing apparatus 100 has a spectrophotometric apparatus, the photographing illumination light information input unit 608 can input from the spectrophotometric apparatus spectral characteristics of photographing illumination light, that is, light illuminating a subject at the time of photographing. it can.

分光測光装置の構成としては、既に知られている様々な構成のものを利用可能である。例えば、受光部から入射した撮影照明光を光ファイバの一端に導き、その他端から出射する光をコリメートした後に回折格子を用いて分光し、分光された各波長の光の位置(分布)および強度を、ラインセンサ等を用いて計測することにより、撮影照明光の分光特性を計測可能である。   As the configuration of the spectrophotometer, various configurations already known can be used. For example, the imaging illumination light incident from the light receiving part is guided to one end of the optical fiber, the light emitted from the other end is collimated and then dispersed using a diffraction grating, and the position (distribution) and intensity of each wavelength of the dispersed light Can be measured using a line sensor or the like to measure the spectral characteristics of the photographic illumination light.

あるいは、上述した構成を用いず、B、G、R各色の光の強度をセンサで計測した結果を撮影照明光情報入力部608が入力することも可能であるが、精度は分光測光装置を用いるものに比して低下する。撮影照明光情報入力部608は、上述のようにして入力した撮影照明光情報を、入力プロファイル情報生成部622に出力する。   Alternatively, the imaging illumination light information input unit 608 can input the result of measuring the intensity of light of each color of B, G, and R with a sensor without using the above-described configuration, but the accuracy is determined using a spectrophotometer. Reduced compared to things. The photographing illumination light information input unit 608 outputs the photographing illumination light information input as described above to the input profile information generation unit 622.

上述した撮影照明光情報についてさらに説明する。例えば、被写体が夕陽に照らされる山肌や、蛍光灯の照明下に載置されている静物のように、被写体が単一の照明光で照明されている場合には、撮影照明光情報は一種類の情報となり、後述する色変換処理に際してはこの撮影照明情報が一律に適用される。   The above-described photographing illumination light information will be further described. For example, if the subject is illuminated with a single illumination light, such as a mountain surface illuminated by the setting sun or a still life placed under the illumination of a fluorescent lamp, there is only one type of shooting illumination light information. This photographic illumination information is uniformly applied in the color conversion processing described later.

一方、背景は蛍光灯で照明されていて、主要被写体はタングステン光のスポットライトで照明されているような状況では、撮影シーンを分割して得られる複数のエリアごとに異なる撮影照明光情報を適用することも可能である。この場合、撮影に際して、比較的狭い計測範囲(視野範囲)を有する分光装置を用いて撮影シーン内に標準反射板(基準白色板)を載置してスキャンし、撮影視野内における撮影照明光の分布を予め計測することもできる。この場合、撮影照明光情報入力部608は、上記ようにして計測された撮影照明光の分光特性に関連する情報を入力し、入力プロファイル情報生成部622に出力する。   On the other hand, in situations where the background is illuminated with a fluorescent light and the main subject is illuminated with a tungsten light spotlight, different illumination light information is applied to each of multiple areas obtained by dividing the scene. It is also possible to do. In this case, at the time of shooting, a spectroscopic device having a relatively narrow measurement range (field range) is used to scan with a standard reflector (reference white plate) placed in the shooting scene, and the shooting illumination light within the field of view is scanned. The distribution can also be measured in advance. In this case, the imaging illumination light information input unit 608 inputs information related to the spectral characteristics of the imaging illumination light measured as described above, and outputs the information to the input profile information generation unit 622.

周辺減光導出部610は、撮影レンズ110の周辺減光特性に関連する情報をレンズ情報取得部602から入力する。周辺減光導出部610はまた、設定焦点距離、絞り値、撮影距離(あるいは撮影時の射出瞳位置を求めることが可能な情報)に関連する情報を撮影情報取得部604から入力する。上記のように入力した情報に基づき、周辺減光導出部610は、撮像素子218、220の受光面上での像面照度の低下量(像面照度の分布)を導出し、入力プロファイル情報生成部622に出力する。   The peripheral dimming deriving unit 610 inputs information related to the peripheral dimming characteristics of the taking lens 110 from the lens information acquisition unit 602. The peripheral dimming deriving unit 610 also inputs information related to the set focal length, aperture value, and imaging distance (or information that can determine the exit pupil position at the time of imaging) from the imaging information acquisition unit 604. Based on the information input as described above, the peripheral light reduction deriving unit 610 derives the amount of decrease in image plane illuminance (image plane illuminance distribution) on the light receiving surfaces of the image sensors 218 and 220, and generates input profile information. Output to the unit 622.

入射角度導出部612は、レンズ情報取得部602から射出瞳位置に関連する情報を、撮影情報取得部604から設定焦点距離、撮影距離(あるいは撮影時の射出瞳位置を求めることが可能な情報)に関連する情報を、それぞれ入力する。これらの情報に基づき、入射角度導出部612は、被写体光がフィルタ214、216に入射する際の入射角度(以下、フィルタ入射角度と称する)を導出し、この入射角度に関連する情報を入力プロファイル情報生成部622に出力する。   The incident angle deriving unit 612 obtains information related to the exit pupil position from the lens information acquisition unit 602, and sets focal length and imaging distance (or information capable of obtaining the exit pupil position at the time of imaging) from the imaging information acquisition unit 604. Enter information related to. Based on such information, the incident angle deriving unit 612 derives an incident angle (hereinafter referred to as a filter incident angle) when subject light is incident on the filters 214 and 216, and inputs information related to the incident angle to the input profile. The information is output to the information generation unit 622.

感度ムラ導出部614は、センサ情報記憶部630からセンサ情報を入力し、感度ムラ、すなわち撮像素子218、220それぞれの受光面上における分光感度の分布を導出する。感度むら導出部614は、この感度むらを含めた各画素の分光感度に関連する情報を入力プロファイル情報生成部622に出力する。   Sensitivity unevenness deriving unit 614 receives sensor information from sensor information storage unit 630 and derives sensitivity unevenness, that is, spectral sensitivity distributions on the light receiving surfaces of imaging elements 218 and 220, respectively. The sensitivity unevenness derivation unit 614 outputs information related to the spectral sensitivity of each pixel including the sensitivity unevenness to the input profile information generation unit 622.

バイアス・トーン特性抽出部616は、センサ情報記憶部630中に記録される情報から撮像素子218、220のバイアス・トーン特性を抽出し、入力プロファイル情報生成部622に出力する。   The bias / tone characteristic extraction unit 616 extracts the bias / tone characteristics of the image sensors 218 and 220 from the information recorded in the sensor information storage unit 630 and outputs them to the input profile information generation unit 622.

図6Bは、入力プロファイル情報生成部622の内部構成を概略的に示すブロック図である。入力プロファイル情報生成部622は、領域分割処理部620と、フィルタ特性変化量導出部618と、総合分光感度特性導出部626と、代表特性情報生成部628Aと、補正係数生成部628Bと、情報集約処理部628Cとを有する。   FIG. 6B is a block diagram schematically showing the internal configuration of the input profile information generation unit 622. The input profile information generation unit 622 includes an area division processing unit 620, a filter characteristic change amount derivation unit 618, an overall spectral sensitivity characteristic derivation unit 626, a representative characteristic information generation unit 628A, a correction coefficient generation unit 628B, and information aggregation. And a processing unit 628C.

入力プロファイル情報生成部622は、撮影情報取得部604、撮影照明光情報入力部608、被写体特性情報入力部606、バイアス・トーン特性抽出部616、入射角度導出部612、フィルタ情報記憶部632、感度むら導出部614、周辺減光導出部610から出力された情報をもとに、後で図7Aを参照して詳述する入力プロファイル情報を生成し、この情報をデータフォーマット処理部624に出力する。   The input profile information generation unit 622 includes a photographing information acquisition unit 604, a photographing illumination light information input unit 608, a subject characteristic information input unit 606, a bias / tone characteristic extraction unit 616, an incident angle derivation unit 612, a filter information storage unit 632, a sensitivity. Based on the information output from the unevenness deriving unit 614 and the peripheral dimming deriving unit 610, input profile information to be described in detail later with reference to FIG. 7A is generated, and this information is output to the data format processing unit 624. .

フィルタ特性変化量導出部618は、フィルタ情報記憶部632からフィルタ214、216の分光透過特性に関連する情報を読み出す。そしてフィルタ特性変化量導出部618は、この分光透過特性に関連する情報と、入射角度導出部612から出力されたフィルタ入射角度に関連する情報とから、フィルタ入射角度に対応するフィルタ特性シフト量を導出し、このフィルタ特性シフト量に関連する情報を、総合分光感度特性導出部626へ出力する。   The filter characteristic change amount deriving unit 618 reads information related to the spectral transmission characteristics of the filters 214 and 216 from the filter information storage unit 632. Then, the filter characteristic change amount deriving unit 618 calculates a filter characteristic shift amount corresponding to the filter incident angle from the information related to the spectral transmission characteristic and the information related to the filter incident angle output from the incident angle deriving unit 612. Information relating to the filter characteristic shift amount is output to the total spectral sensitivity characteristic deriving unit 626.

フィルタ特性変化量導出部618での処理について説明する。撮影レンズ110の射出瞳位置から出射してフィルタ214、216を透過し、撮像素子218、220の受光面で結像する被写体像について考える。撮像素子218、220のイメージエリアの中心(画面中心)、すなわち像高がゼロの位置に入射する被写体光(説明を単純化するため、ここでは主光線のみを考える)は、フィルタ214、216の入射面に対して直交するように入射する(フィルタ入射角度=0度)。   Processing in the filter characteristic change amount deriving unit 618 will be described. Consider a subject image that is emitted from the exit pupil position of the photographic lens 110, passes through the filters 214 and 216, and forms an image on the light receiving surfaces of the image sensors 218 and 220. The center of the image area of the image sensors 218 and 220 (the center of the screen), that is, the subject light incident on the position where the image height is zero (for the sake of simplicity, only the principal ray is considered here) Incident light is incident so as to be orthogonal to the incident surface (filter incident angle = 0 degree).

一方、画面中心から離れた位置(ある像高を有する位置)に入射する被写体光は、フィルタ214、216の入射面に対して斜めに入射する。像高が高い程、フィルタ入射角度は大きくなるので、フィルタ214、216を被写体光が透過する際の薄膜は等価的に厚くなる。したがって、フィルタ214、216の分光透過特性は、撮像素子218、220の受光面上に結ばれる被写体像の像高に応じて変化する。   On the other hand, subject light incident on a position away from the center of the screen (position having a certain image height) is incident on the incident surfaces of the filters 214 and 216 obliquely. The higher the image height, the larger the incident angle of the filter. Therefore, the thin film when subject light passes through the filters 214 and 216 is equivalently thick. Therefore, the spectral transmission characteristics of the filters 214 and 216 change according to the image height of the subject image formed on the light receiving surfaces of the image sensors 218 and 220.

撮像素子218、220上の画素の配列ピッチは既知であるので、イメージエリアの中心に位置する画素(像高=0)を基準として、各画素が位置する場所での像高は計算により求めることができる。故に、射出瞳位置と像高とから、各画素に入射する光線がフィルタ214、216を透過する際のフィルタ入射角度を入射角度導出部612で求めることができる。フィルタ特性変化量導出部618は、入射角度導出部612で求められた上記のフィルタ入射角度から、イメージエリア内の各画素に対応するフィルタ214、216の分光透過特性を求めて総合分光感度特性導出部626に出力する。   Since the arrangement pitch of the pixels on the image sensors 218 and 220 is known, the image height at the position where each pixel is located is obtained by calculation on the basis of the pixel located at the center of the image area (image height = 0). Can do. Therefore, from the exit pupil position and the image height, the incident angle deriving unit 612 can determine the incident angle of the filter when the light ray incident on each pixel passes through the filters 214 and 216. The filter characteristic change amount deriving unit 618 obtains the spectral transmission characteristics of the filters 214 and 216 corresponding to the respective pixels in the image area from the filter incident angle obtained by the incident angle deriving unit 612, and derives the total spectral sensitivity characteristic. Output to the unit 626.

領域分割処理部620は、入射角度導出部612で導出されたフィルタ入射角度をもとに領域分割処理を行う。その一例について説明する。例えば、横長で4:3のアスペクト比を有する長方形の画面で、画面最周辺位置に対応するフィルタ入射角度(以下、これを最大入射角度と称する)が、画面水平方向において30度、画面垂直方向において22.5度(いずれも半角であるものとする)であったとする。領域分割処理部620はこれらの最大入射角度を、例えば5で除する。その結果、水平方向に6、垂直方向に4.5という値を得る。上記最大入射角度は半角であるので、領域分割処理部620は上記演算結果をそれぞれ2倍し、画面水平方向の領域数(X方向領域数)を12、画面垂直方向の領域数(Y方向領域数)を9と決定する。領域分割処理部620は、X方向領域数およびY方向領域数に関する情報を代表特性情報生成部628Aに出力する。   The region division processing unit 620 performs region division processing based on the filter incident angle derived by the incident angle deriving unit 612. One example will be described. For example, in a horizontally long rectangular screen having an aspect ratio of 4: 3, the filter incident angle corresponding to the most peripheral position of the screen (hereinafter referred to as the maximum incident angle) is 30 degrees in the horizontal direction of the screen and the vertical direction of the screen. 22.5 degrees (all shall be half-width). The area division processing unit 620 divides these maximum incident angles by 5, for example. As a result, a value of 6 in the horizontal direction and 4.5 in the vertical direction is obtained. Since the maximum incident angle is a half angle, the region division processing unit 620 doubles each of the calculation results, the number of regions in the horizontal direction of the screen (the number of regions in the X direction) is 12, and the number of regions in the vertical direction of the screen (the region in the Y direction) The number is determined to be 9. The area division processing unit 620 outputs information on the number of X-direction areas and the number of Y-direction areas to the representative characteristic information generation unit 628A.

フィルタの分光透過特性は、先にも説明したように、像高の変化に応じて漸次変化するものである。従って、イメージエリアを分割し、分割された領域(以降、「分割領域」と称する)のそれぞれの中における一端から他端に至るまでのフィルタ分光透過特性の変化は、分割領域の大きさが小さくなるほど小さくなる。分割領域内における一端から他端に至るまでの間におけるフィルタの分光透過特性の変化が十分に小さくなるように分割領域の大きさを定めれば、当該の分割領域内のフィルタ分光透過特性は一定と見なして処理しても、それが画質に及ぼす影響は小さくなる。   As described above, the spectral transmission characteristics of the filter gradually change according to the change in image height. Accordingly, when the image area is divided and the filter spectral transmission characteristics change from one end to the other end in each of the divided areas (hereinafter referred to as “divided areas”), the size of the divided areas is small. It gets smaller. If the size of the divided area is determined so that the change in the spectral transmission characteristic of the filter from one end to the other end in the divided area is sufficiently small, the filter spectral transmission characteristic in the divided area is constant. However, the effect on the image quality is reduced.

例えば、フィルタの分光透過特性が像高の変化に対して緩やかに変化する場合には、分割領域を大きくする(分割数を少なくする)ことが可能となる。領域分割をする際に、不等分割、すなわち分光透過特性変化の小さい領域では分割領域の大きさを増し、分光透過特性変化の大きい領域では分割領域の大きさを減らすことも可能である。以下では、領域分割処理部620が等分割の方式によって領域分割処理をするものとして説明をする。   For example, when the spectral transmission characteristics of the filter change gently with respect to the change in image height, it is possible to increase the divided area (reduce the number of divisions). When dividing an area, it is possible to increase the size of the divided area in an unequal division, that is, an area where the change in spectral transmission characteristics is small, and to reduce the size of the divided area in an area where the change in spectral transmission characteristics is large. In the following description, it is assumed that the area division processing unit 620 performs area division processing by the equal division method.

総合分光感度特性導出部626は、感度むら導出部614から出力された、撮像素子218、220それぞれのイメージエリア上における分光感度の分布(イメージエリア上の画素のそれぞれに対応する分光感度特性)と、フィルタ特性変化量導出部618から出力された、イメージエリア内の各画素に対応するフィルタ214、216の分光透過特性とから、総合分光感度特性を各画素に対応して求め、代表特性情報生成部628Aに出力する。ここで総合分光感度特性とは、イメージエリア内の各画素の分光感度特性に、その画素に対応する上記分光透過特性を乗じて得られたものを意味する。つまり、イメージエリア内の各画素がフィルタ214、216を透過した光を受光する結果、等価的にどのような分光感度特性を有しているかを表すのが総合分光感度特性である。   The total spectral sensitivity characteristic deriving unit 626 outputs the spectral sensitivity distribution (spectral sensitivity characteristic corresponding to each pixel on the image area) on the image areas of the image sensors 218 and 220 output from the sensitivity nonuniformity deriving unit 614. The total spectral sensitivity characteristic corresponding to each pixel is obtained from the spectral transmission characteristics of the filters 214 and 216 corresponding to each pixel in the image area output from the filter characteristic change amount deriving unit 618, and representative characteristic information generation is performed. To the unit 628A. Here, the total spectral sensitivity characteristic means a value obtained by multiplying the spectral sensitivity characteristic of each pixel in the image area by the spectral transmission characteristic corresponding to the pixel. That is, as a result of receiving the light transmitted through the filters 214 and 216 by each pixel in the image area, the total spectral sensitivity characteristic equivalently indicates what spectral sensitivity characteristic has.

図7Aは、入力プロファイル情報生成部622で生成される入力プロファイル情報700の内部構成例を概念的に示す図である。図7Bは、撮影装置100が6バンドの分光感度を有するものである場合の、分光感度特性を特定するデータを概念的に表したものである。図7Cは、領域分割処理部620によってイメージエリアがX方向(画像の長辺に沿う方向)に12、Y方向(画像の短辺に沿う方向)に9の、全部で108の分割領域に分割される様子を概念的に示す図である。   FIG. 7A is a diagram conceptually illustrating an internal configuration example of the input profile information 700 generated by the input profile information generation unit 622. FIG. 7B conceptually shows data for specifying spectral sensitivity characteristics when the imaging apparatus 100 has 6 bands of spectral sensitivity. In FIG. 7C, the image area is divided into 108 divided regions by the region dividing processing unit 620, which is 12 in the X direction (direction along the long side of the image) and 9 in the Y direction (direction along the short side of the image). It is a figure which shows notably a mode that it is performed.

図7Aに示される例では、入力プロファイル情報700は、レンズタイプ、設定焦点距離、バンド数、分光感度パターン数、波長次元数、分光感度パターン、X方向領域数、およびY方向領域数に関する情報と、分光感度パターン指定テーブルと、領域ごとの分光感度補正係数と、バイアス・トーンカーブデータと、被写体特性情報と、撮影照明情報とを含む。   In the example shown in FIG. 7A, the input profile information 700 includes information on the lens type, the set focal length, the number of bands, the number of spectral sensitivity patterns, the number of wavelength dimensions, the spectral sensitivity pattern, the number of X direction regions, and the number of Y direction regions. , A spectral sensitivity pattern designation table, a spectral sensitivity correction coefficient for each region, bias / tone curve data, subject characteristic information, and photographing illumination information.

レンズタイプの情報は、撮影レンズの焦点距離に関する情報を含む、レンズタイプの情報はまた、個々のレンズを一意に特定可能な情報(例えばシリアルナンバー)を含んでいてもよい。撮影レンズがいわゆるズームレンズである場合、上記レンズタイプの情報は広角端、望遠端における焦点距離の情報、あるいは広角端における焦点距離およびズーム比の情報を含むことが望ましい。図7Aに示される例では、レンズタイプの情報は、当該の撮影レンズが12mmから60mmの焦点距離範囲を有するズームレンズで、シリアルナンバーがDDD012345であることを示している。上記レンズタイプの情報は、周辺減光導出部610を経由してレンズ情報取得部602から入力することができる。   The lens type information includes information related to the focal length of the photographing lens. The lens type information may also include information (for example, a serial number) that can uniquely identify each lens. When the photographing lens is a so-called zoom lens, the lens type information preferably includes information on the focal length at the wide-angle end and the telephoto end, or information on the focal length and zoom ratio at the wide-angle end. In the example shown in FIG. 7A, the lens type information indicates that the photographing lens is a zoom lens having a focal length range of 12 mm to 60 mm, and the serial number is DDD012345. The lens type information can be input from the lens information acquisition unit 602 via the peripheral light attenuation deriving unit 610.

設定焦点距離の情報は、入力プロファイル情報700が、撮影レンズの焦点距離が何mmに設定されているときのものであるかを示している。図7Aの例では、設定焦点距離の情報は15であり、これは入力プロファイル情報700が、撮影レンズの設定焦点距離が15mmとなっているときのものに対応することを示している。   The set focal length information indicates how many mm the input profile information 700 is set to the focal length of the photographing lens. In the example of FIG. 7A, the set focal length information is 15, which indicates that the input profile information 700 corresponds to that when the set focal length of the photographing lens is 15 mm.

バンド数の情報は、当該の撮影装置から出力可能な画像のバンド数を示している。図7Aの例では、バンド数の情報は6であり、これは6バンドの画像データが出力可能であることを示している。   The information on the number of bands indicates the number of bands of an image that can be output from the imaging apparatus. In the example of FIG. 7A, the information on the number of bands is 6, which indicates that 6-band image data can be output.

分光感度パターン数、波長次元数、分光感度パターン、X方向領域数、およびY方向領域数の各情報、分光感度パターン指定テーブルについて説明する。本発明において、代表特性情報生成部628Aは、領域分割処理部620で決定されたX方向分割数(この数をnXと称する)、Y方向分割数(この数をnYと称する)で規定される、nX×nY個の分割領域それぞれに対する入力プロファイル作成用の情報を生成する。図7AにおいてX方向領域数には上記nXに対応する値(12)が、Y方向領域数には上記nYに対応する値(9)が記憶される。つまり、分割領域の数は、上記nX、nYの積である108となる。ところで、それぞれの分割領域内には複数の画素が存在し、それぞれの画素ごとに総合分光感度特性は異なる。代表特性情報生成部628Aは、分割領域内に存在する複数の画素のそれぞれに対応する総合分光感度をもとに、当該の分割領域を代表する総合分光感度特性に関する情報を生成する。本明細書では、この情報を「分割領域代表特性情報」と称する。 Each information of the number of spectral sensitivity patterns, the number of wavelength dimensions, the spectral sensitivity pattern, the number of X direction regions, the number of Y direction regions, and the spectral sensitivity pattern designation table will be described. In the present invention, the representative characteristic information generation unit 628A is defined by the number of X direction divisions (this number is referred to as n X ) and the number of Y direction divisions (this number is referred to as n Y ) determined by the region division processing unit 620. Information for creating an input profile for each of the n X × n Y divided regions is generated. In FIG. 7A, the value (12) corresponding to the above n X is stored as the number of X direction regions, and the value (9) corresponding to the above n Y is stored as the number of Y direction regions. That is, the number of the divided regions, the 108 is the product of the n X, n Y. By the way, a plurality of pixels exist in each divided region, and the total spectral sensitivity characteristic is different for each pixel. Based on the total spectral sensitivity corresponding to each of a plurality of pixels existing in the divided area, the representative characteristic information generation unit 628A generates information on the total spectral sensitivity characteristic representing the divided area. In this specification, this information is referred to as “divided region representative characteristic information”.

108個の分割領域それぞれを代表する分光感度特性は、図7Bに概念的に示されるようなデータによって定義することができる。この分光感度特性は、先に説明した総合分光感度特性とすることが望ましい。本実施の形態において、撮影装置100は、B、G、Rのオンチップカラーフィルタと、分光透過特性の異なる2種類のフィルタ214、216との組み合わせによって6バンドの分光感度を有する。6バンドの分光感度は、図7Bに例示されるような6つの分光感度プロファイルで表すことができる。図7Bでは、分光感度プロファイルが380nmから780nmの波長帯域を10nm間隔で、つまり、41個の波長ポイントに対応する感度として定義される(図7Bのグラフ中、黒い丸が分光感度を定義するデータに対応する点を表している)様子が描かれている。   Spectral sensitivity characteristics representing each of the 108 divided regions can be defined by data as conceptually shown in FIG. 7B. This spectral sensitivity characteristic is desirably the total spectral sensitivity characteristic described above. In the present embodiment, the photographing apparatus 100 has a six-band spectral sensitivity by combining a B, G, and R on-chip color filter and two types of filters 214 and 216 having different spectral transmission characteristics. The spectral sensitivity of 6 bands can be represented by 6 spectral sensitivity profiles as illustrated in FIG. 7B. In FIG. 7B, the spectral sensitivity profile is defined as a sensitivity corresponding to 41 wavelength points in a wavelength band of 380 nm to 780 nm (that is, black circles are data defining spectral sensitivity in the graph of FIG. 7B). (Representing a point corresponding to).

図7Aにおける波長次元数とは、可視光帯域(波長380nmから780nmの帯域)内においていくつの波長ポイントに対応するデータによって分光感度が定義されているかを示すものである。例えば1nm間隔の波長ポイントで分光感度が定義される場合、波長次元数は、(780−380)/1+1=401となるし、5nm間隔の波長ポイントで分光感度が定義される場合、波長次元数は、(780−380)/5+1=81となる。図7Bの例では、10nm間隔で分光感度が定義されているので、波長次元数は41となる。   The number of wavelength dimensions in FIG. 7A indicates how many spectral points define the spectral sensitivity in the visible light band (band of wavelengths from 380 nm to 780 nm). For example, when the spectral sensitivity is defined at wavelength points of 1 nm intervals, the number of wavelength dimensions is (780-380) / 1 + 1 = 401, and when the spectral sensitivity is defined at wavelength points of 5 nm intervals, the number of wavelength dimensions Becomes (780-380) / 5 + 1 = 81. In the example of FIG. 7B, since the spectral sensitivity is defined at intervals of 10 nm, the number of wavelength dimensions is 41.

上記では波長帯域が380nmから780nmの範囲にデフォルト設定されている場合について説明した。しかし、分光感度プロファイルはこれよりも広い波長範囲にわたって定義されていてもよいし、狭い波長範囲にわたって定義されていてもよい。その場合には、例えば最短波長、波長間隔、波長次元数の情報を入力プロファイル中に含めることにより、任意の波長帯域(最短波長 〜 最短波長+波長間隔×波長次元数)における分光感度プロファイルを定義することが可能となる。   In the above description, the case where the wavelength band is set by default in the range of 380 nm to 780 nm has been described. However, the spectral sensitivity profile may be defined over a wider wavelength range or may be defined over a narrow wavelength range. In that case, for example, by including information on the shortest wavelength, wavelength interval, and number of wavelength dimensions in the input profile, a spectral sensitivity profile in an arbitrary wavelength band (shortest wavelength-shortest wavelength + wavelength interval x wavelength dimension number) is defined. It becomes possible to do.

図7Aにおける分光感度パターン数の情報について説明する。上記のように、本実施の形態では108個の分割領域それぞれに対して図7Bに概念的に示されるような分光感度の情報が割り当てられる。例えるならば、108個の分割領域それぞれに当てはめる108種類のタイルが必要となる。但し、ある程度の誤差を許容することにより、108個の各分割領域に対応する分光感度の特性として、例えば図7Cにおける分割領域(1、1)、(2、1)、(12、1)、(1、3)、(11、5)、(12、9)における分光感度の特性は実質的に同じ、というような扱いが可能となる。つまり、108個の分割領域中、いくつかの分割領域に対して同じ種類のタイルを当てはめることができる。そのようにすることにより、タイルの種類を少なくすることができる。従って、入力プロファイルの容量を大幅に減じることが可能となる。   Information on the number of spectral sensitivity patterns in FIG. 7A will be described. As described above, in this embodiment, spectral sensitivity information conceptually shown in FIG. 7B is assigned to each of the 108 divided regions. For example, 108 types of tiles to be applied to each of the 108 divided areas are required. However, by allowing a certain amount of error, as the spectral sensitivity characteristics corresponding to the 108 divided areas, for example, the divided areas (1, 1), (2, 1), (12, 1) in FIG. The spectral sensitivity characteristics in (1, 3), (11, 5), (12, 9) can be handled substantially the same. That is, the same type of tile can be applied to several divided areas among the 108 divided areas. By doing so, the types of tiles can be reduced. Accordingly, the capacity of the input profile can be greatly reduced.

以下、撮像素子218、220の分光感度特性にフィルタ214、216の分光透過率特性を加味した総合分光感度特性をどのように扱うかについて説明する。イメージエリア全体の総合分光感度特性の分布(イメージエリア内の各画素に対応する総合分光感度特性)と、求められる画質や入力プロファイルの許容情報容量等とから、予めどのような分光感度パターンを用意すればよいかを決定する処理をカメラCPU102で実行されるプログラムのアルゴリズム中に組み込むことが可能である。   Hereinafter, how to handle the total spectral sensitivity characteristic in which the spectral sensitivity characteristics of the filters 214 and 216 are added to the spectral sensitivity characteristics of the image sensors 218 and 220 will be described. Prepared distribution of the total spectral sensitivity characteristic of the whole image area (the total spectral sensitivity characteristic corresponding to each pixel in the image area), and a permission information capacity of the obtained image quality and input profile, whatever the spectral sensitivity pattern in advance It is possible to incorporate a process for determining whether or not to be performed into an algorithm of a program executed by the camera CPU 102.

このとき、より高画質が求められ、入力プロファイル情報700の情報量の多いことが許容される場合には分光感度パターンの数は分割領域数と等しく(本実施の形態では108個)することができる。逆に、画質の低下は見込まれるものの、入力プロファイル情報700の情報量を減らすことが求められる場合には、分光感度パターンの数を減じれば良い。無論、イメージエリア全体の総合分光感度特性の分布を見渡したときに変化が緩やかであれば、画質の低下を招くことなく、分光感度パターンの数を減じることが可能となる。極端な例では、分光感度パターンの数は最小個数である1つ、ということもある。   At this time, when a higher image quality is required and the amount of information of the input profile information 700 is allowed to be large, the number of spectral sensitivity patterns may be equal to the number of divided regions (108 in this embodiment). it can. On the other hand, when the image quality is expected to be reduced, but it is required to reduce the information amount of the input profile information 700, the number of spectral sensitivity patterns may be reduced. Of course, if the change is slow when looking at the distribution of the overall spectral sensitivity characteristics over the entire image area, the number of spectral sensitivity patterns can be reduced without causing a reduction in image quality. In an extreme example, the number of spectral sensitivity patterns may be one, which is the minimum number.

図7Aにおける分光感度パターン数の情報は、総合分光感度特性のパターンを定義する情報が当該の入力プロファイル情報中に何組含まれるかを示す。図7Aに示される例では、分光感度パターン数は30となっている。つまり、図7Aに示されるように、6バンド感度1、6バンド感度2、…、6バンド感度30と、30種類の分光感度パターン(30種類のタイル)が入力プロファイル情報中に含まれることを意味する。   The information on the number of spectral sensitivity patterns in FIG. 7A indicates how many sets of information defining the pattern of the total spectral sensitivity characteristic are included in the input profile information. In the example shown in FIG. 7A, the number of spectral sensitivity patterns is 30. That is, as shown in FIG. 7A, 6-band sensitivity 1, 6-band sensitivity 2,..., 6-band sensitivity 30 and 30 types of spectral sensitivity patterns (30 types of tiles) are included in the input profile information. means.

上記30種類の分光感度パターンのうち、分割領域(1、1)から分割領域(12、9)までのそれぞれに対していずれかの分光感度パターンを割り当てることになる。つまり、図7Aにおける分光感度パターン指定テーブルは、各分割領域に割り当てるべき分光感度パターン(6バンド感度1、6バンド感度2、…、6バンド感度30のうちのいずれか)を指定するための情報を含んでいる。   Among the 30 types of spectral sensitivity patterns, one of the spectral sensitivity patterns is assigned to each of the divided regions (1, 1) to the divided regions (12, 9). That is, the spectral sensitivity pattern designation table in FIG. 7A is information for designating spectral sensitivity patterns (any of 6-band sensitivity 1, 6-band sensitivity 2,..., 6-band sensitivity 30) to be assigned to each divided region. Is included.

本明細書において、図7Aに示される分光感度パターン数、波長次元数、分光感度パターン、X方向領域数、Y方向領域数を含んで構成される情報を分割領域代表特性情報と称する。また、分光感度パターン指定テーブル、すなわち各分割領域にどの分割領域代表特性情報を適用するテーブルを含んで構成される情報を代表特性指定情報と称する。また、本明細書においては、分割領域の数と同じ数だけ求められた分光感度パターンの数を減じて、複数の分割領域に対して同じ分光感度パターンを割り当てるようにする処理を「分光感度特性情報減数処理」と称する。この分光感度特性情報減数処理の詳細については後で説明する。   In the present specification, information including the number of spectral sensitivity patterns, the number of wavelength dimensions, the spectral sensitivity pattern, the number of X direction regions, and the number of Y direction regions shown in FIG. 7A is referred to as divided region representative characteristic information. In addition, information including a spectral sensitivity pattern designation table, that is, a table that applies which divided area representative characteristic information to each divided area is referred to as representative characteristic designation information. Further, in this specification, a process of assigning the same spectral sensitivity pattern to a plurality of divided regions by reducing the number of spectral sensitivity patterns obtained by the same number as the number of divided regions is referred to as “spectral sensitivity characteristics”. This is referred to as “information reduction processing”. Details of the spectral sensitivity characteristic information reduction processing will be described later.

領域ごとの分光感度補正係数は、横に並ぶ6つの係数で一組の係数セットが形成され、この一組の係数セットが一つの分割領域に適用される。図7Aに示される例では、108個の分割領域のそれぞれに対して30組の6バンド感度のうちのいずれかが適用されることは上述したとおりであるが、適用された分光感度パターン中に含まれる6つの分光感度特性(6バンド感度)のそれぞれに対して上記6つの係数が乗じられる。領域ごとの分光感度補正係数は、周辺減光導出部610から出力される情報に基づいて生成されるものである。従って、6バンド感度に対して1つの係数を一律に乗じるものであってもよい。ただし、上述のように6バンド感度のそれぞれに対して独立した係数を有することにより、以下で説明するように、各分割領域における分光感度特性をよりきめ細かく定義することが可能となる。   As the spectral sensitivity correction coefficient for each area, a set of coefficient sets is formed by six coefficients arranged side by side, and this set of coefficient sets is applied to one divided area. In the example shown in FIG. 7A, as described above, any of the 30 sets of 6-band sensitivities is applied to each of the 108 divided regions, but in the applied spectral sensitivity pattern, Each of the six spectral sensitivity characteristics (6-band sensitivity) included is multiplied by the above six coefficients. The spectral sensitivity correction coefficient for each region is generated based on information output from the peripheral light attenuation deriving unit 610. Accordingly, one coefficient may be uniformly multiplied for the six-band sensitivity. However, by having independent coefficients for each of the 6-band sensitivities as described above, it is possible to define the spectral sensitivity characteristics in each divided region more finely as described below.

今、6バンド感度1から6バンド感度30のいずれかで定義される6つの分光感度特性(図7Bにおける分光感度プロファイル1、2、…、6に相当)を、短波長側から、分光感度特性1、分光感度特性2、…、分光感度特性6と称する。図7Aに例示される領域ごとの分光感度補正係数中、最上段の6つの係数(1.0026、1.0049、0.9971、0.9961、1.0028、1.0084)はそれぞれ、分割領域(1,1)に適用される分光感度パターン(図7Aの例では6バンド感度1が適用される)中の分光感度特性1、分光感度特性2、…、分光感度特性6に乗じられる。   Now, six spectral sensitivity characteristics (corresponding to the spectral sensitivity profiles 1, 2,..., 6 in FIG. 7B) defined by any one of the six-band sensitivity 1 to the six-band sensitivity 30 are displayed from the short wavelength side. 1, spectral sensitivity characteristics 2,..., Spectral sensitivity characteristics 6. Of the spectral sensitivity correction coefficients for each region illustrated in FIG. 7A, the top six coefficients (1.00026, 1.0049, 0.9971, 0.9961, 1.0028, 1.0084) are divided. Multiplied by spectral sensitivity characteristic 1, spectral sensitivity characteristic 2,..., Spectral sensitivity characteristic 6 in the spectral sensitivity pattern (6 band sensitivity 1 is applied in the example of FIG. 7A) applied to region (1, 1).

つまり、これら6つの係数によって、分光感度特性1、分光感度特性2、…、分光感度特性6の成分比を自在に変化させることが可能となる。例えば、これら6つの係数を同じように増減すると可視光領域全域にわたって感度を増減したのと等価となる。特定の係数のみを増減すると、その係数が乗じられる分光感度特性のみ、増減させることが可能となる。   That is, the component ratio of the spectral sensitivity characteristic 1, the spectral sensitivity characteristic 2,..., The spectral sensitivity characteristic 6 can be freely changed by these six coefficients. For example, increasing or decreasing these six coefficients in the same way is equivalent to increasing or decreasing the sensitivity over the entire visible light region. When only a specific coefficient is increased or decreased, only the spectral sensitivity characteristic multiplied by the coefficient can be increased or decreased.

同様に、2段目の6つの係数(0.9973、1.00501.0030、0.9961、1.0029、0.9915)は、分割領域(2,1)に適用される分光感度パターン(図7Aの例では6バンド感度2が適用される)中の分光感度特性1、分光感度特性2、…、分光感度特性6に乗じられる。   Similarly, the six coefficients (0.9973, 1.050501.0030, 0.9961, 1.0029, 0.9915) in the second stage are spectral sensitivity patterns (2 and 1) applied to the divided region (2, 1). In the example of FIG. 7A, 6-band sensitivity 2 is applied), and spectral sensitivity characteristic 1, spectral sensitivity characteristic 2,..., Spectral sensitivity characteristic 6 are multiplied.

以上のように、領域ごとの分光感度補正係数として、分割領域(1,1)、分割領域(2,1)、…、分割領域(12,1)、分割領域(1,2)、分割領域(2,2)、… … 、分割領域(12,9)のそれぞれに対して6つの係数が入力プロファイル情報700中に含まれる。つまり、領域ごとの分光感度補正係数として、6(バンド数)×12(X方向領域数)×9(Y方向領域数)=648個のデータを図7Aの例では含む。   As described above, as the spectral sensitivity correction coefficient for each area, the divided area (1, 1), the divided area (2, 1),..., The divided area (12, 1), the divided area (1, 2), the divided area. Six coefficients are included in the input profile information 700 for each of (2, 2),..., And the divided regions (12, 9). That is, the spectral sensitivity correction coefficient for each region includes 6 (number of bands) × 12 (number of regions in the X direction) × 9 (number of regions in the Y direction) = 648 pieces in the example of FIG. 7A.

以上に説明した内容を総括すると、上述したむらの要因中、撮像素子の感度むら、フィルタの分光透過特性の入射角依存性に対しては分割領域ごとに適用する分光感度パターン(6バンド感度1から6バンド感度30)を変えることにより対応可能である。一方、上述したむらの要因中、撮影レンズの周辺減光特性、撮像素子に対して斜めに入射する光の光量減少に対しては、撮像素子に入射する光の量の変化に対応して領域ごとの分光感度補正係数を変えることにより対応可能である。そして、むらの程度や求められる画像の品質に応じて分光感度パターン数、分光感度パターン、X方向領域数、Y方向領域数が決定される。   Summarizing the contents described above, among the above-mentioned factors of unevenness, the spectral sensitivity pattern (6-band sensitivity 1) applied to each divided region with respect to the sensitivity variation of the image sensor and the incident angle dependence of the spectral transmission characteristics of the filter. 6 band sensitivity 30) can be changed. On the other hand, among the above-mentioned unevenness factors, the peripheral dimming characteristics of the photographing lens and the decrease in the amount of light obliquely incident on the image sensor are areas corresponding to changes in the amount of light incident on the image sensor. This can be dealt with by changing the spectral sensitivity correction coefficient. Then, the number of spectral sensitivity patterns, the spectral sensitivity pattern, the number of X direction regions, and the number of Y direction regions are determined according to the degree of unevenness and the required image quality.

なお、撮影レンズの分光透過特性(CCI)が標準値からずれている場合、あるいは、撮影レンズに色補正フィルタ等が装着されていて、そのフィルタのCCIが標準値からずれているような場合、領域ごとの分光感度補正係数を変えることにより対応することが可能である。すなわち、撮影レンズのCCIが標準値からずれているような場合、画像全体の色味がずれることになる。このような場合、図7Aを参照して説明した領域ごとの分光感度補正係数中、例えば上述した分光感度特性6に乗じられる係数(図7A中、一番右の縦並びの108個のデータ 1.0084、0.9915、0.9914、…、0.9917)を一律に増減させることで画像全体の色味の補正をする、と云ったことも可能となる。   When the spectral transmission characteristic (CCI) of the photographing lens is deviated from the standard value, or when a color correction filter or the like is attached to the photographing lens and the CCI of the filter deviates from the standard value, This can be dealt with by changing the spectral sensitivity correction coefficient for each region. That is, when the CCI of the photographing lens is deviated from the standard value, the color of the entire image is deviated. In such a case, among the spectral sensitivity correction coefficients for each region described with reference to FIG. 7A, for example, the coefficient multiplied by the spectral sensitivity characteristic 6 described above (108 data 1 in the rightmost column in FIG. 7A 1 .0084, 0.9915, 0.9914,..., 0.9917) can be uniformly increased or decreased to correct the color of the entire image.

以上で図7Aを参照して説明した入力プロファイル情報700は、撮影レンズ110が特定の焦点距離に設定されている(図7Aの例では設定焦点距離が15mmとなっている)場合に対応するものである。ところで、撮影レンズ110がズームレンズである場合や、マクロレンズのように焦点調節にともなうレンズ位置の変動量が大きいものである場合、図7Aに例示される入力プロファイル情報中、以下のものが撮影時の撮影レンズ110の状態に応じて変化しうる。すなわち、分光感度パターン、X方向領域数、Y方向領域数、分光感度パターン指定テーブル、領域ごとの分光感度補正係数は、撮影時の撮影レンズ110の状況によって変化する。つまり、入力プロファイル情報700中、分割領域代表特性情報、代表特性指定情報、領域ごとの分光感度補正係数は、撮影レンズ110のタイプによっては、撮影状況によって異なることがある。   The input profile information 700 described above with reference to FIG. 7A corresponds to the case where the photographing lens 110 is set to a specific focal length (the set focal length is 15 mm in the example of FIG. 7A). It is. By the way, when the photographing lens 110 is a zoom lens or when the amount of fluctuation of the lens position due to focus adjustment is large like a macro lens, the following is photographed in the input profile information illustrated in FIG. 7A. It may change according to the state of the photographing lens 110 at the time. That is, the spectral sensitivity pattern, the number of X direction regions, the number of Y direction regions, the spectral sensitivity pattern designation table, and the spectral sensitivity correction coefficient for each region vary depending on the situation of the photographing lens 110 at the time of photographing. That is, in the input profile information 700, the divided region representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each region may vary depending on the photographing situation depending on the type of the photographing lens 110.

上述した入力プロファイル情報700中、分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数は、撮影装置100に撮影レンズ110が装着され、撮影装置100の電源が投入されたときに入力プロファイル情報生成部622で生成することが望ましい。例えば、装着される撮影レンズが12mmから60mmの範囲で焦点距離を変えることの可能なズームレンズである場合、入力プロファイル情報生成部622は図7Dに例示されるような複数セットの分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数702−1、702−2、…、702−nを生成し、メモリ205中に記憶する。なお、これら複数セットの分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数702−1、702−2、…702−nは、撮影レンズ110の設定絞り値が最小(開放絞り)のときのものとすることが可能である。   In the input profile information 700 described above, the divided region representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each region are obtained when the photographing lens 110 is attached to the photographing apparatus 100 and the photographing apparatus 100 is turned on. It is desirable that the input profile information generation unit 622 generates the data. For example, when the photographic lens to be mounted is a zoom lens capable of changing the focal length in the range of 12 mm to 60 mm, the input profile information generation unit 622 has a plurality of sets of divided region representative characteristics as illustrated in FIG. 7D. Information, representative characteristic designation information, and spectral sensitivity correction coefficients 702-1, 702-2, ..., 702-n for each region are generated and stored in the memory 205. The plurality of sets of divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficients 702-1, 702-2,... 702-n for each region have the smallest aperture value for the taking lens 110 (open). (Aperture).

撮影レンズ110の設定絞りが変化した場合、射出瞳の径が変化する。射出瞳径の変化によって比較的大きく影響を受けるのは周辺減光である。従って、図7Aに示される入力プロファイル情報700中、領域ごとの分光感度補正係数(図7Aの例においては6×108のデータ)に変更を加えることにより、撮影レンズ110の設定絞りの影響を減じることが可能となる。   When the setting aperture of the photographic lens 110 changes, the exit pupil diameter changes. Peripheral dimming is relatively greatly affected by changes in the exit pupil diameter. Therefore, by changing the spectral sensitivity correction coefficient for each region (6 × 108 data in the example of FIG. 7A) in the input profile information 700 shown in FIG. 7A, the influence of the setting aperture of the taking lens 110 is reduced. It becomes possible.

情報集約処理部628Cは、撮影レンズの設定焦点距離、設定絞りに関連する情報を撮影情報取得部604から得る。そして情報集約処理部628Cは、撮影時に設定されていた焦点距離に対応する分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数(702−1、702−2、…、702−nのいずれか)を選択し、その情報中に含まれる領域ごとの分光感度補正係数に対して、撮影レンズ110の設定絞り値に応じた変更を加える。   The information aggregation processing unit 628C obtains information related to the set focal length and the set aperture of the shooting lens from the shooting information acquisition unit 604. The information aggregation processing unit 628C then divides the area representative characteristic information corresponding to the focal length set at the time of shooting, representative characteristic designation information, and spectral sensitivity correction coefficients for each area (702-1, 702-2, ..., 702). -N) is selected, and the spectral sensitivity correction coefficient for each region included in the information is changed according to the set aperture value of the photographic lens 110.

情報集約処理部628Cは、上述のようにして生成された情報にバイアス・トーンカーブデータ、被写体特性情報、撮影照明情報を付加して入力プロファイル情報700を生成し、データフォーマット処理部624に出力する。バイアス・トーンカーブデータ、被写体特性情報、撮影照明情報については、図6Aを参照して先に説明したとおりである。なお、本実施の形態において、マルチバンド画像データは6バンドの画像データであるものとして説明をしている。これに対応して、バイアス補正情報は1バンド目から6バンド目の各画像データに適用するバイアス値を含むものとすることが可能である。同様に、トーンカーブ補正情報は、1バンド目から6バンド目の各画像データのトーン特性を補正するルックアップテーブル(LUT)を含むものとすることが可能である。   The information aggregation processing unit 628C generates the input profile information 700 by adding the bias / tone curve data, the subject characteristic information, and the photographing illumination information to the information generated as described above, and outputs the input profile information 700 to the data format processing unit 624. . The bias / tone curve data, subject characteristic information, and photographing illumination information are as described above with reference to FIG. 6A. In the present embodiment, the multiband image data is described as being 6-band image data. Correspondingly, the bias correction information can include a bias value applied to each image data of the first to sixth bands. Similarly, the tone curve correction information can include a look-up table (LUT) for correcting the tone characteristics of the image data of the first to sixth bands.

図6Aを参照し、データフォーマット処理部624は、入力プロファイル情報生成部622から出力された上記の入力プロファイル情報を、画像処理部206から出力されたマルチバンド画像データに付加する。そしてデータフォーマット処理部624は、上記のマルチバンド画像データをオリジナル画像データとして記憶媒体240に所定のファイルフォーマットで記録する処理を行う。   With reference to FIG. 6A, the data format processing unit 624 adds the input profile information output from the input profile information generation unit 622 to the multiband image data output from the image processing unit 206. The data format processing unit 624 performs processing for recording the multiband image data as original image data in the storage medium 240 in a predetermined file format.

図8Aは、撮影装置100に撮影レンズ110が装着されて電源が投入されたときにカメラCPU102で実行される、分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数の生成手順を説明するフローチャートである。   FIG. 8A shows generation of divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each region, which is executed by the camera CPU 102 when the photographing lens 110 is attached to the photographing apparatus 100 and the power is turned on. It is a flowchart explaining a procedure.

S800においてCPU102は、取得したレンズ情報からレンズタイプの情報(例:レンズの焦点距離範囲、シリアル番号等)、射出瞳位置の情報、および周辺減光の情報を抽出する。S802においてCPU102は、撮像素子218、220のバンド数(=b)、波長次元数、フィルタ分光透過特性、撮像素子218、220の分光感度むらに関する情報をメモリ205から読み出す。S804においてCPU102は、フィルタ数(=f)の情報をメモリ205から読み出し、バンド数(=b×f)を決定する。   In S800, the CPU 102 extracts lens type information (eg, focal length range of lens, serial number, etc.), exit pupil position information, and peripheral dimming information from the acquired lens information. In step S <b> 802, the CPU 102 reads from the memory 205 information regarding the number of bands (= b) of the image sensors 218 and 220, the number of wavelength dimensions, the filter spectral transmission characteristics, and the spectral sensitivity unevenness of the image sensors 218 and 220. In step S <b> 804, the CPU 102 reads out information on the number of filters (= f) from the memory 205 and determines the number of bands (= b × f).

CPU102はS806において、イメージエリア内の画素位置から求められた像高とS800で抽出された射出瞳位置情報とからフィルタ入射角特性を算出し、X方向領域数とY方向領域数とを決定する。   In step S806, the CPU calculates a filter incident angle characteristic from the image height obtained from the pixel position in the image area and the exit pupil position information extracted in step S800, and determines the number of X-direction regions and the number of Y-direction regions. .

S808においてCPU102は、イメージエリア内の各画素に対応するフィルタ214、216の分光透過特性を求め、それを撮像素子218、220それぞれのイメージエリア上における分光感度の分布(イメージエリア上の画素のそれぞれに対応する分光感度特性)に乗じて総合分光感度特性を求める。この総合分光感度特性は、二つの撮像素子218、220から出力される画像信号を処理して得られる1つの画像内の各画素に対応するものとしてまとめられる。   In step S808, the CPU 102 obtains the spectral transmission characteristics of the filters 214 and 216 corresponding to the respective pixels in the image area, and calculates the spectral transmission characteristics on the image areas of the image sensors 218 and 220 (each of the pixels on the image area). To obtain the total spectral sensitivity characteristic. This total spectral sensitivity characteristic is summarized as corresponding to each pixel in one image obtained by processing image signals output from the two image sensors 218 and 220.

上記について説明する。フィルタ214の分光透過特性と撮像素子218の分光感度特性の分布との組み合わせから1つの総合分光感度特性(これを総合分光感度特性 Aと称する)が得られ、フィルタ216の分光透過特性と撮像素子220の分光感度特性の分布との組み合わせからもう1つの総合分光感度特性(これを総合分光感度特性 Bと称する)が得られる。しかし、1つの6バンド画像データは二つの撮像素子218、220から得られる画像信号を合成して得られるものである。したがってCPU102は、これらの総合分光感度特性 Aと総合分光感度特性 Bとを合成して1つの総合分光感度特性を生成する。   The above will be described. One total spectral sensitivity characteristic (referred to as total spectral sensitivity characteristic A) is obtained from the combination of the spectral transmission characteristic of the filter 214 and the spectral sensitivity characteristic distribution of the image sensor 218. The spectral transmission characteristic of the filter 216 and the image sensor Another total spectral sensitivity characteristic (referred to as total spectral sensitivity characteristic B) is obtained from the combination with the distribution of 220 spectral sensitivity characteristics. However, one 6-band image data is obtained by synthesizing image signals obtained from the two image sensors 218 and 220. Therefore, the CPU 102 synthesizes the total spectral sensitivity characteristic A and the total spectral sensitivity characteristic B to generate one total spectral sensitivity characteristic.

S808の処理に関する以上の説明では、総合分光感度特性 Aは、イメージエリア内の各画素に対応するフィルタ214の分光透過特性と、撮像素子218の分光感度特性の分布との組み合わせから得られるものと説明した。また、総合分光感度特性 Bは、イメージエリア内の各画素に対応するフィルタ216の分光透過特性と、撮像素子220の分光感度特性の分布との組み合わせから得られるものと説明した。これらに関して、総合感度特性 Aは、イメージエリア内の各画素に対応するフィルタ214の分光透過特性のばらつきのみを反映し、総合分光感度特性 Bは、イメージエリア内の各画素に対応するフィルタ216の分光透過特性のみを反映するようにしてもよい。   In the above description regarding the processing of S808, the total spectral sensitivity characteristic A is obtained from a combination of the spectral transmission characteristic of the filter 214 corresponding to each pixel in the image area and the spectral sensitivity characteristic distribution of the image sensor 218. explained. Further, it has been described that the total spectral sensitivity characteristic B is obtained from a combination of the spectral transmission characteristic of the filter 216 corresponding to each pixel in the image area and the spectral sensitivity characteristic distribution of the image sensor 220. In these respects, the overall sensitivity characteristic A reflects only the variation in spectral transmission characteristics of the filter 214 corresponding to each pixel in the image area, and the overall spectral sensitivity characteristic B represents the filter 216 corresponding to each pixel in the image area. Only the spectral transmission characteristic may be reflected.

つまり、総合分光感度特性 Aは、イメージエリア内の各画素に対応するフィルタ214の分光透過特性と、撮像素子218の代表的な分光感度特性(例えばイメージエリア中心近傍での分光感度特性)との組み合わせから得られたものとしてもよい。そして、総合分光感度特性 Bは、イメージエリア内の各画素に対応するフィルタ216の分光透過特性と、撮像素子218の代表的な分光感度特性との組み合わせから得られたものとしてもよい。理由は、撮像素子の製造プロセスのばらつきによる分光感度特性のむらによる影響は、被写体光がフィルタを透過する際の入射角変化による影響の大きさに比して、一般的に小さいからである。また、製造プロセスの改善によって撮像素子の分光感度特性のむらは無視できるほどに小さくすることが可能であるからである。   That is, the total spectral sensitivity characteristic A is the spectral transmission characteristic of the filter 214 corresponding to each pixel in the image area and the representative spectral sensitivity characteristic of the image sensor 218 (for example, the spectral sensitivity characteristic near the center of the image area). It may be obtained from a combination. The total spectral sensitivity characteristic B may be obtained from a combination of the spectral transmission characteristic of the filter 216 corresponding to each pixel in the image area and the representative spectral sensitivity characteristic of the image sensor 218. The reason is that the influence due to the unevenness of the spectral sensitivity characteristic due to the variation in the manufacturing process of the image sensor is generally smaller than the influence due to the change in the incident angle when the subject light passes through the filter. Further, the unevenness of the spectral sensitivity characteristics of the image sensor can be reduced to a negligible level by improving the manufacturing process.

S810においてCPU102は、S806で決定されたX方向領域数とY方向領域数とから決まる複数(図7Cの例では108個)の分割領域のそれぞれに対する総合分光感度特性の代表特性を決定する。つまり、CPU102は、分割領域内の各画素に対応する総合分光感度特性(総合分光感度特性は6バンドの分光感度プロファイルで表現できる)からその分割領域に対応する代表特性を決める。代表特性を決めるための方法としては、単純平均、最頻値抽出、最小二乗近似、あるいは分割領域の中心に位置する画素の総合分光感度特性を代表特性とする等、任意の方法を利用可能である。   In S810, the CPU 102 determines the representative characteristic of the total spectral sensitivity characteristic for each of a plurality of (108 in the example of FIG. 7C) divided areas determined from the number of X-direction areas and the number of Y-direction areas determined in S806. That is, the CPU 102 determines the representative characteristic corresponding to the divided area from the total spectral sensitivity characteristic corresponding to each pixel in the divided area (the total spectral sensitivity characteristic can be expressed by a 6-band spectral sensitivity profile). As a method for determining the representative characteristics, any method such as simple average, mode extraction, least square approximation, or the total spectral sensitivity characteristics of the pixel located at the center of the divided area can be used. is there.

S812においてCPU102は、各分割領域に対応する総合分光感度の代表特性(図7の例では108組の総合分光感度情報)を分析して、先に説明した分光感度特性情報減数処理を行う。すなわち、CPU102は、分光感度のパターンの数(n)を決定し、分光感度パターン1、2、…、nに対応する分光感度のプロファイルを定義するデータ(図7Aにおける6バンド感度1、6バンド感度2、…、6バンド感度30に相当)を生成する処理を行う。図7Aに示される例ではn=30となっている。分光感度のパターン数nは、1つの画面内における総合分光感度のばらつきや、撮影者が望む画質、入力プロファイル情報のために利用可能なデータ容量等に基づいて決定することができる。   In S812, the CPU 102 analyzes representative characteristics of the total spectral sensitivity corresponding to each divided area (108 sets of total spectral sensitivity information in the example of FIG. 7), and performs the spectral sensitivity characteristic information reduction process described above. That is, the CPU 102 determines the number (n) of spectral sensitivity patterns and defines the spectral sensitivity profile corresponding to the spectral sensitivity patterns 1, 2,..., N (6-band sensitivity 1, 6-band in FIG. 7A). Sensitivity 2,..., Corresponding to 6 band sensitivity 30) is generated. In the example shown in FIG. 7A, n = 30. The number n of spectral sensitivity patterns can be determined based on variations in total spectral sensitivity within one screen, image quality desired by the photographer, data capacity available for input profile information, and the like.

CPU102によりS812で行われる分光感度特性情報減数処理の例について図7Cを参照して説明する。ここで説明する処理例では、色差が用いられる。S810の処理が完了した時点では、108個の分割領域(1,1)、(2,1)、…、(12,9)のそれぞれに対応して総合分光感度特性の代表特性が決定されている。そこで、イメージエリアの中心近傍に位置する分割領域、例えば分割領域(6,5)の総合分光感度特性を基準として、他の分割領域(1,2)、(2,1)、…、(12,9)の総合分光感度特性を、色差によって比較してゆくことができる。   An example of the spectral sensitivity characteristic information reduction process performed by the CPU 102 in S812 will be described with reference to FIG. 7C. In the processing example described here, color difference is used. When the processing of S810 is completed, the representative characteristic of the total spectral sensitivity characteristic is determined corresponding to each of the 108 divided regions (1, 1), (2, 1), ..., (12, 9). Yes. Therefore, other divided areas (1, 2), (2, 1),..., (12) based on the total spectral sensitivity characteristics of the divided areas located near the center of the image area, for example, the divided areas (6, 5). , 9) can be compared by color difference.

具体的には、以下のようにして比較される。すなわち、CPU102は、白色の光がフィルタ214、216を透過して撮像素子218、220のイメージエリアに入射したものと仮定して、各分割領域の総合分光感度特性によって得られる信号値(これを仮想出力信号値と称する)[a1、a2、…、a6]を分割領域ごとに求める。   Specifically, the comparison is performed as follows. That is, the CPU 102 assumes that white light is transmitted through the filters 214 and 216 and is incident on the image areas of the image sensors 218 and 220, and obtains a signal value (which is obtained from the total spectral sensitivity characteristic of each divided region). (Referred to as virtual output signal values) [a1, a2,..., A6] are obtained for each divided region.

次に、CPU102は、イメージエリアの中心近傍に位置する分割領域(ここでは、分割領域(6,5)がイメージエリアの中心近傍に位置する分割領域として選択される)の分割領域の総合分光感度特性を用いて(後述する)分光反射率推定マトリクス[M]を算出する([ ] は、行列を意味する。)。この時[M]は便宜的なものであり、正確な反射率推定行列である必要はなく、例えば撮影照明スペクトルとして全波長帯域でフラットなエネルギーを持った照明を想定して算出することでも構わない。その後、前記中心近傍に位置する分割領域の仮想出力信号値[an1、an2、…、an6]に前記[M]を乗じてもとめた分光反射率を基準として、各分割領域における仮想出力信号値[a1、a2、…、a6]と比較し、各分割領域に対応して色差を求める。   Next, the CPU 102 determines the total spectral sensitivity of the divided areas located near the center of the image area (here, the divided areas (6, 5) are selected as the divided areas located near the center of the image area). A spectral reflectance estimation matrix [M] (described later) is calculated using the characteristics ([] means a matrix). At this time, [M] is convenient and does not need to be an accurate reflectance estimation matrix. For example, the imaging illumination spectrum may be calculated assuming illumination having flat energy in the entire wavelength band. Absent. Thereafter, the virtual output signal values [an1, an2,..., An6] of the divided areas located in the vicinity of the center are used as the reference, and the virtual output signal values [ a1, a2,..., a6], and a color difference corresponding to each divided area is obtained.

色差の算出は分光反射率に照明を乗じて人間の視覚の等色関数を作用させて求めた測色値から算出する方法が知られているが、その計算方法も前述したように正確である必要はなく、分割領域間で相対的に色味が異なっているかどうかが判ればよい。本実施例では、xy色度座標上での距離を色差として求めている。この処理によって、108個の分割領域に対応する108個の色差情報が得られる。当然のことながら、分割領域(6,5)に対応する色差は0である。尚、色差は色度座標上の方向に関する情報を含まないので、同じ色差が必ずしも同じような色とは限らない。この例で示した方法は、フィルタの分光透過特性が総合分光感度特性に支配的に影響していることを想定しており、イメージエリアの中心即ち光軸を中心として同心円的に色変化が広がっている場合の例である。   There is known a method for calculating a color difference from a colorimetric value obtained by multiplying the spectral reflectance by illumination and applying a color matching function of human vision. The calculation method is also accurate as described above. It is not necessary, and it is only necessary to determine whether the colors are relatively different between the divided areas. In this embodiment, the distance on the xy chromaticity coordinates is obtained as a color difference. By this processing, 108 pieces of color difference information corresponding to 108 divided regions are obtained. As a matter of course, the color difference corresponding to the divided area (6, 5) is zero. Since the color difference does not include information regarding the direction on the chromaticity coordinate, the same color difference is not necessarily the same color. The method shown in this example assumes that the spectral transmission characteristic of the filter has a dominant influence on the total spectral sensitivity characteristic, and the color change spreads concentrically around the center of the image area, that is, the optical axis. This is an example.

CPU102は続いて、108個の色差の最大値と最小値との差を求め、この差(色差の分布幅)に基づいて分光感度のパターン数nを決定する。CPU102は、108個の色差をn個の階級に分類し、各階級中に存在する色差の値から各階級を代表する色差を決める。なお、階級幅については必要に応じて等幅としても不等幅としてもよいが、本実施の形態において階級幅は等幅であるものとする。各階級を代表する色差は、各階級の中間値に最も近い色差とすることができる。CPU102による以上の処理により、色差に関してn個の値を選び出すことができる。CPU102は、これらn個の色差に対応する総合分光感度特性をもとに、図7Aに例示される6バンド感度1、6バンド感度2、…の分光感度パターンを決定する。   Subsequently, the CPU 102 obtains a difference between the maximum value and the minimum value of the 108 color differences, and determines the number n of spectral sensitivity patterns based on this difference (color difference distribution width). The CPU 102 classifies the 108 color differences into n classes, and determines the color difference representing each class from the color difference values existing in each class. Note that the class width may be equal width or unequal width as necessary, but in this embodiment, the class width is assumed to be equal. The color difference representing each class can be the color difference closest to the intermediate value of each class. With the above processing by the CPU 102, n values for the color difference can be selected. The CPU 102 determines a spectral sensitivity pattern of 6 band sensitivity 1, 6 band sensitivity 2,... Illustrated in FIG. 7A based on the total spectral sensitivity characteristics corresponding to these n color differences.

S814においてCPU102は、S810で生成された6バンド感度1、6バンド感度2、…、6バンド感度nのうち、各分割領域においてどの分光感度パターンを適用するのかを指定するテーブルを生成する。このテーブルが図7Aに示される分光感度パターン指定テーブルである。   In S814, the CPU 102 generates a table for designating which spectral sensitivity pattern is applied to each divided region among the 6-band sensitivity 1, the 6-band sensitivity 2,..., The 6-band sensitivity n generated in S810. This table is the spectral sensitivity pattern designation table shown in FIG. 7A.

S814での処理の具体例について説明する。S812での処理により、CPU102は各分割領域における色差と、選択されたn個の分光感度パターンに対応する色差を把握することができる。CPU102は、各分割領域の色差に最も近い色差を有する分光感度パターンをn個の分光感度パターン中から選択する。この選択処理を全部の分割領域に対して行うことにより、CPU102は分光感度パターン指定テーブルを生成する。   A specific example of the process in S814 will be described. By the processing in S812, the CPU 102 can grasp the color difference in each divided area and the color difference corresponding to the selected n spectral sensitivity patterns. The CPU 102 selects a spectral sensitivity pattern having a color difference closest to the color difference of each divided area from the n spectral sensitivity patterns. By performing this selection process on all the divided areas, the CPU 102 generates a spectral sensitivity pattern designation table.

S816においてCPU102は、周辺減光特性に基づいて領域ごとの分光感度補正係数を求める処理を行う。S816の処理によって、図7Aに示される領域ごとの分光感度補正係数が求められる。なお、CPU102が領域ごとの分光感度補正係数を求める際に、以下のように係数を求めることが可能である。図7Aに示される例では、もともと108組あった分光感度のパターン数が30組に減じられている。   In S816, the CPU 102 performs processing for obtaining a spectral sensitivity correction coefficient for each region based on the peripheral light attenuation characteristics. The spectral sensitivity correction coefficient for each region shown in FIG. 7A is obtained by the processing of S816. When the CPU 102 obtains the spectral sensitivity correction coefficient for each region, the coefficient can be obtained as follows. In the example shown in FIG. 7A, the number of spectral sensitivity patterns that originally were 108 sets is reduced to 30 sets.

上述した分光感度特性情報減数処理により、所与の分割領域に割り当てられた分光感度パターンは、当該の分割領域が本来有していた分光感度パターンに対して多少異なる場合がある。これはすなわち、当該の分割領域における色再現特性に誤差が生じうるということを意味する。その一方で、分光感度補正係数は、先にも説明したように例えば図7Bに示されるような6つの分光感度プロファイルそれぞれに対して乗じることのできる6つの値を有する。従って、S816で求められる分光感度補正係数によって、周辺減光特性の影響を減じるだけでなく、あたかもオーディオアンプでグラフィックイコライザを操作して音質を変えるかのように、6つの分光感度プロファイルの成分比を調節することが可能となる。これにより、分光感度パターンの数を減じることにより生じうる誤差を減じることが可能となる。S816での処理が、図6Bにおける補正係数生成部628Bで行われる処理に対応する。   The spectral sensitivity pattern assigned to a given divided region by the spectral sensitivity characteristic information reduction process described above may be slightly different from the spectral sensitivity pattern originally possessed by the divided region. This means that an error may occur in the color reproduction characteristics in the divided area. On the other hand, as described above, the spectral sensitivity correction coefficient has six values that can be multiplied with each of the six spectral sensitivity profiles as shown in FIG. 7B, for example. Therefore, the spectral sensitivity correction coefficient obtained in S816 not only reduces the influence of the peripheral light attenuation characteristics, but also the component ratio of the six spectral sensitivity profiles as if the sound quality is changed by operating the graphic equalizer with the audio amplifier. Can be adjusted. As a result, it is possible to reduce errors that may be caused by reducing the number of spectral sensitivity patterns. The process in S816 corresponds to the process performed by the correction coefficient generation unit 628B in FIG. 6B.

S818においてCPU102は、全ての焦点距離に対応するセットの分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数の生成が完了したか否かを判定する。この判定が否定される間、CPU102はS800からS818の処理を繰り返し行う。S818の判定が肯定されると、CPU102は分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数生成の処理を完了する。以上で説明した図8Aの処理により、図7Dに例示されるような複数セットの分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数702−1、702−2、…702−nがメモリ205に記録される。   In step S <b> 818, the CPU 102 determines whether generation of a set of divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each region corresponding to all focal lengths is completed. While this determination is denied, the CPU 102 repeats the processing from S800 to S818. If the determination in S818 is affirmed, the CPU 102 completes the process of generating divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each region. 8A described above, a plurality of sets of divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficients for each region 702-1, 702-2,... 702 as illustrated in FIG. -N is recorded in the memory 205.

図8Bは、上述した分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数の生成手順に続き、撮影装置100で撮影が行われるときにカメラCPU102で実行される入力プロファイル情報生成処理手順を説明するフローチャートである。図8Bに示される処理は、撮影装置100で撮影が行われて第1バッファ202、第2バッファ204にデジタル画像信号が記憶された後に実行が開始される。   FIG. 8B shows the input profile information executed by the camera CPU 102 when shooting is performed by the shooting apparatus 100 following the above-described procedure for generating the divided area representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each area. It is a flowchart explaining a production | generation process procedure. The processing shown in FIG. 8B is executed after the image capturing is performed by the image capturing apparatus 100 and the digital image signals are stored in the first buffer 202 and the second buffer 204.

S830においてCPU102は、撮影時に撮影レンズ110で設定されていた設定焦点距離および設定絞りに関する情報を取得する。S832でCPU102は、画像処理部206へ画像処理を開始するように制御信号を発する。   In step S830, the CPU 102 acquires information related to the set focal length and the set aperture set by the taking lens 110 at the time of shooting. In step S832, the CPU 102 issues a control signal to the image processing unit 206 so as to start image processing.

CPU102はS834において、図7Dに例示されるような複数セットの分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数702−1、702−2、…、702−nの中から設定焦点距離に対応するものを選択する。S836においてCPU102は、設定絞りの情報に基づいて周辺減光特性を導出する処理を行う。   In step S834, the CPU 102 includes a plurality of sets of divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficients 702-1, 702-2,. To select the one corresponding to the set focal length. In step S836, the CPU 102 performs processing for deriving the peripheral dimming characteristics based on the information on the set aperture.

S838においてCPU102は、S834で選択した分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数に含まれる領域ごとの分光感度補正係数を、S836で導出された周辺減光特性をもとに修正する処理を行う。   In S838, the CPU 102 obtains the spectral attenuation correction coefficient for each area included in the divided area representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each area selected in S834, and the peripheral attenuation characteristic derived in S836. Perform the correction process.

S840においてCPU102は、分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数に、レンズタイプ、設定焦点距離、およびバンド数に関する情報や、バイアス・トーンカーブデータ、被写体特性情報、撮影照明情報などを付加して入力プロファイル情報を生成する。   In step S840, the CPU 102 includes information on the lens type, the set focal length, and the number of bands, bias / tone curve data, subject characteristic information, divided area representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each area. Input profile information is generated by adding shooting illumination information and the like.

S842においてCPU102は、以上のようにして生成された入力プロファイル情報を画像データに付加し、「ナチュラルビジョン映像データファイルフォーマット」に準じたフォーマットで記憶媒体240に記録する。なお、上記ナチュラルビジョン映像データファイルフォーマットについては、非特許文献1に詳しく解説されている。   In S842, the CPU 102 adds the input profile information generated as described above to the image data, and records it in the storage medium 240 in a format according to the “natural vision video data file format”. The natural vision video data file format is described in detail in Non-Patent Document 1.

撮影装置100で撮影が行われるたびに、図8Bのフローチャートを参照して説明した処理がCPU102により行われる。その結果、入力プロファイル情報が生成され、この入力プロファイル情報がマルチバンド画像データに付加されてオリジナル画像データとして記憶媒体240に記憶される。また、撮影の途中で撮影レンズ110が別のタイプのものに交換されると図8Aのフローチャートを参照して説明した処理がCPU102により行われて新たな分割領域代表特性情報、代表特性指定情報、および領域ごとの分光感度補正係数が生成される。   Each time shooting is performed by the imaging apparatus 100, the CPU 102 performs the processing described with reference to the flowchart of FIG. 8B. As a result, input profile information is generated, and this input profile information is added to the multiband image data and stored in the storage medium 240 as original image data. When the photographing lens 110 is replaced with another type during photographing, the processing described with reference to the flowchart of FIG. 8A is performed by the CPU 102, and new divided region representative characteristic information, representative characteristic designation information, In addition, a spectral sensitivity correction coefficient for each region is generated.

以下では、記憶媒体240が撮影装置100から取り出されて情報処理装置140に装着され、記憶媒体240内のオリジナル画像データが情報処理装置140により読み出されて入力プロファイル作成処理、色変換処理が行われるものとする。   In the following, the storage medium 240 is taken out from the photographing apparatus 100 and attached to the information processing apparatus 140, and the original image data in the storage medium 240 is read by the information processing apparatus 140 to perform input profile creation processing and color conversion processing. Shall be.

図9は、色変換処理部900の概略的構成を説明するブロック図である。本実施の形態において、色変換処理部900は情報処理装置140で色変換処理用のソフトウェアが解釈・実行されて構成されるものとして説明するが、専用のロジック回路やASIC等により構成されていてもよい。また、本実施の形態において情報処理装置140はコンピュータであるものとして説明をするが、本発明は画像再生装置、ビデオレコーダ、セットトップボックス(STB)、プリンタ、画像表示機能付きの可搬式データストレージ装置、携帯電話等に適用することができる。   FIG. 9 is a block diagram illustrating a schematic configuration of the color conversion processing unit 900. In the present embodiment, the color conversion processing unit 900 is described as configured by interpreting and executing software for color conversion processing by the information processing apparatus 140, but is configured by a dedicated logic circuit, ASIC, or the like. Also good. In this embodiment, the information processing apparatus 140 is described as a computer. However, the present invention is an image reproducing apparatus, a video recorder, a set top box (STB), a printer, and a portable data storage with an image display function. It can be applied to devices, mobile phones and the like.

色変換処理部900は、入力されるオリジナル画像データD中に含まれるマルチバンド画像データ、入力プロファイル情報を分離し、この入力プロファイル情報をもとに入力プロファイルを作成する。色変換処理部900は、作成された入力プロファイルを用いてマルチバンド画像データに対して色変換の処理をし、モニタ表示装置やプリンタなどの画像出力装置950に処理後の画像データを出力する。   The color conversion processing unit 900 separates multiband image data and input profile information included in the input original image data D, and creates an input profile based on the input profile information. The color conversion processing unit 900 performs color conversion processing on the multiband image data using the created input profile, and outputs the processed image data to an image output device 950 such as a monitor display device or a printer.

色変換処理部900は、入力プロファイル作用部910と、出力プロファイル作用部920と、入力プロファイル作成部930とを有する。入力プロファイル作用部910は、トーン補正部912と、領域分割部914と、領域ごとのマトリクス演算部916とを有する。図9において、領域ごとのマトリクス演算部は「領域ごとのMTX演算部」と表記されている。   The color conversion processing unit 900 includes an input profile operation unit 910, an output profile operation unit 920, and an input profile creation unit 930. The input profile application unit 910 includes a tone correction unit 912, a region division unit 914, and a matrix calculation unit 916 for each region. In FIG. 9, the matrix calculation unit for each region is described as “MTX calculation unit for each region”.

入力プロファイル作成部930は、バイアス・トーンカーブ補正情報取得部932と、領域分割情報取得部934と、領域ごとの分光反射率推定マトリクス作成部(図9において、「領域ごとの分光反射率推定MTX作成部」と表記されている)936と、領域ごとのシステム関数算出部938と、領域ごとの分光感度作成部940と、撮影照明情報取得部942とを有する。   The input profile creation unit 930 includes a bias / tone curve correction information acquisition unit 932, a region division information acquisition unit 934, and a spectral reflectance estimation matrix creation unit for each region (in FIG. 9, “spectral reflectance estimation MTX for each region”). 936, a system function calculation unit 938 for each region, a spectral sensitivity creation unit 940 for each region, and a photographing illumination information acquisition unit 942.

バイアス・トーンカーブ補正情報取得部932は、入力プロファイル情報中からバイアス・トーンカーブ補正情報を取得し、それをトーン補正部912に出力する。本実施の形態において、マルチバンド画像データが6バンドの画像データである場合について説明しており、バイアス補正情報は、1バンド目から6バンド目の各画像データに適用するバイアス値を含む。同様に、トーンカーブ補正情報は、1バンド目から6バンド目の各画像データのトーン特性を補正するルックアップテーブル(LUT)を含む。領域分割情報取得部934は、入力プロファイル情報中から領域数の情報(図7A、7Bを参照して説明したX方向領域数およびY方向領域数)を取得し、領域分割部914に出力する。   The bias / tone curve correction information acquisition unit 932 acquires the bias / tone curve correction information from the input profile information and outputs it to the tone correction unit 912. In this embodiment, the case where the multiband image data is 6-band image data is described, and the bias correction information includes a bias value applied to each image data of the first band to the sixth band. Similarly, the tone curve correction information includes a look-up table (LUT) that corrects the tone characteristics of the image data of the first to sixth bands. The area division information acquisition unit 934 acquires information on the number of areas (the number of X-direction areas and the number of Y-direction areas described with reference to FIGS. 7A and 7B) from the input profile information, and outputs the acquired information to the area division unit 914.

領域ごとの分光感度作成部940は、入力プロファイル情報中から、図7Aを参照して説明した分光感度パターン、分光感度指定テーブル、領域ごとの分光感度補正係数の情報を取得し、領域ごとの分光感度を作成する。具体的には、各領域に対応して指定された分光感度パターン(6バンド感度1、6バンド感度2、…)のそれぞれに領域ごとの分光感度補正係数を乗じ、領域ごとの分光感度特性を算出する処理を行う。   The spectral sensitivity creation unit 940 for each region acquires the spectral sensitivity pattern, the spectral sensitivity designation table, and the spectral sensitivity correction coefficient information for each region described with reference to FIG. 7A from the input profile information. Create sensitivity. Specifically, each spectral sensitivity pattern (6-band sensitivity 1, 6-band sensitivity 2,...) Designated corresponding to each region is multiplied by the spectral sensitivity correction coefficient for each region, and the spectral sensitivity characteristic for each region is obtained. Processing to calculate is performed.

撮影照明情報取得部942は、入力プロファイル情報中から撮影照明情報を取得する。領域ごとのシステム関数算出部938は、領域ごとの分光感度作成部940で作成された領域ごとの分光感度に撮影照明情報を乗じて領域ごとのシステム関数を算出する。撮影時に被写体が単一の光源によって照明されていた場合には、領域ごとの分光感度に乗じられる撮影照明情報は一種類となる。撮影時に被写体が複数の光源によって照明されていた場合、入力プロファイル情報中には分割された領域のそれぞれに対応する照明情報が含まれる。その場合、領域ごとのシステム関数算出部は、領域ごとの分光感度作成部940で作成された領域ごとの分光感度に領域ごとの撮影照明情報を乗じ、領域ごとのシステム関数を算出する。   The imaging illumination information acquisition unit 942 acquires imaging illumination information from the input profile information. The system function calculation unit 938 for each region calculates the system function for each region by multiplying the spectral sensitivity for each region created by the spectral sensitivity creation unit 940 for each region by imaging illumination information. When the subject is illuminated by a single light source at the time of shooting, there is one type of shooting illumination information that is multiplied by the spectral sensitivity for each region. When the subject is illuminated by a plurality of light sources at the time of shooting, the input profile information includes illumination information corresponding to each of the divided areas. In this case, the system function calculation unit for each region calculates the system function for each region by multiplying the spectral sensitivity for each region created by the spectral sensitivity creation unit 940 for each region by the imaging illumination information for each region.

領域ごとの分光反射率推定マトリクス作成部936は、領域ごとのシステム関数算出部938で算出された領域ごとのシステム関数と、入力プロファイル情報に含まれる被写体特性情報とを用いて領域ごとの分光反射率推定マトリクスMを作成する。分光反射率推定マトリクスMは、以下の式を用いて作成することが可能である。なお、以下の式において符号に付したカギ括弧 [ ] は、行列を意味する。また、[ ]Tは転置行列を意味し、[ ]-1は逆行列を意味する。

[M] = [R]rr[H]T([H][R]rr[H]T[R]nn-1 … 式(1)

上記式(1)において、[R]nnはノイズの相関行列を意味し、例えば以下の式で表すことができる。
The spectral reflectance estimation matrix creation unit 936 for each region uses the system function for each region calculated by the system function calculation unit 938 for each region, and the subject characteristic information included in the input profile information, and the spectral reflection for each region. A rate estimation matrix M is created. The spectral reflectance estimation matrix M can be created using the following equation. In addition, the brackets [] attached to the reference sign in the following formula means a matrix. [] T means a transposed matrix, and [] -1 means an inverse matrix.

[M] = [R] rr [H] T ([H] [R] rr [H] T [R] nn ) −1 ) Formula (1)

In the above formula (1), [R] nn denotes a correlation matrix of the noise can be represented for example by the following equation.

Figure 2010193380
Figure 2010193380


また、[R]rrは被写体特性情報と呼ばれるものであり、[r]の相関行列のことであり、以下の式で表される。尚[r]iは複数のサンプルの分光反射率特性のことである。 [R] rr is called object characteristic information and is a correlation matrix of [r] and is expressed by the following equation. Note [r] i is that the spectral reflectance characteristics of a plurality of samples.

Figure 2010193380
Figure 2010193380





[H]はシステム関数を意味し、以下の式で表される。

[H]=hk(λ)I(λ)
k(λ):領域ごとの分光感度 (k=1〜N)
I(λ):撮影照明情報 (N×Nの対角行列)
入力プロファイル作用部910は、トーン補正部912と、領域分割部914と、領域ごとのマトリクス演算部(図9中、「領域ごとのMTX演算部」と表記されている)916とを有する。トーン補正部912は、バイアス・トーンカーブ補正情報取得部932から出力されたバイアスおよびトーンカーブ補正情報を用いて、マルチバンド画像データを補正する。領域分割部914は、領域分割情報取得部934から出力されるX方向領域数およびY方向領域数に基づき、マルチバンド画像データを分割する。
[H] means a system function and is represented by the following equation.

[H] = h k (λ ) I (λ)
h k (λ): spectral sensitivity for each region (k = 1 to N)
I (λ): Shooting illumination information (N × N diagonal matrix)
The input profile operation unit 910 includes a tone correction unit 912, a region division unit 914, and a matrix calculation unit for each region (indicated as “MTX calculation unit for each region” in FIG. 9) 916. The tone correction unit 912 corrects the multiband image data using the bias and tone curve correction information output from the bias / tone curve correction information acquisition unit 932. The area dividing unit 914 divides the multiband image data based on the number of X direction areas and the number of Y direction areas output from the area division information acquisition unit 934.

なお、ここで説明する「マルチバンド画像データを分割する」とは、画像データそのものを実際に分割するのではなく、撮影装置100で定められた分割領域に従っていわば区画分けをすることを意味する。領域ごとのマトリクス演算部916は、領域分割部914で分割された領域内の画像データに対して、その領域に対応する分光反射率推定マトリクスを適用し、分割された領域ごとに分光反射率画像データを生成する。   Note that “dividing the multiband image data” described here means that the image data itself is not actually divided, but is divided into sections according to the divided areas defined by the photographing apparatus 100. The matrix calculation unit 916 for each region applies the spectral reflectance estimation matrix corresponding to the region to the image data in the region divided by the region dividing unit 914, and the spectral reflectance image for each divided region. Generate data.

入力プロファイル作用部910で生成された分光反射率画像データに対して、画像出力装置950の出力プロファイルが出力プロファイル作用部920で適用され、画像出力装置950に出力される。本発明の実施の形態において、画像出力装置950は、プリンタやモニタ表示装置とすることができる。   The output profile of the image output device 950 is applied to the spectral reflectance image data generated by the input profile operation unit 910 by the output profile operation unit 920 and output to the image output device 950. In the embodiment of the present invention, the image output device 950 can be a printer or a monitor display device.

図10A、10Bは、情報処理装置140で実行される色変換処理の手順を説明するフローチャートである。この色変換処理は、先にも説明したように、ソフトウェアや専用のロジック回路等で実行可能であるが、情報処理装置140内に記憶されるソフトウェアが情報処理装置140によって実行されるものであってもよい。このソフトウェアは、例えば画像を閲覧、加工可能な画像処理ソフトウェアであってもよいし、処理対象のマルチバンド画像データ(オリジナル画像データ)が動画である場合には動画再生ソフトウェアであってもよい。以下では、画像処理ソフトウェアが情報処理装置140で実行され、記憶媒体240中に記録されるマルチバンドの静止画像データ(オリジナル画像データ)に処理がなされてモニタ表示装置等の画像出力装置950に出力されるものとして説明をする。   10A and 10B are flowcharts for explaining the procedure of the color conversion process executed by the information processing apparatus 140. As described above, the color conversion process can be executed by software, a dedicated logic circuit, or the like, but the software stored in the information processing apparatus 140 is executed by the information processing apparatus 140. May be. This software may be, for example, image processing software capable of browsing and processing images, or may be video playback software when the multiband image data (original image data) to be processed is a video. In the following, image processing software is executed by the information processing device 140, multiband still image data (original image data) recorded in the storage medium 240 is processed, and output to an image output device 950 such as a monitor display device. It will be described as being done.

S1002において情報処理装置140はオリジナル画像データを記憶媒体240からオリジナル画像データを情報処理装置140内の記憶装置に読み込む処理を行う。   In step S <b> 1002, the information processing apparatus 140 performs processing for reading original image data from the storage medium 240 into the storage device in the information processing apparatus 140.

S1004で情報処理装置140は、S1002で読み込んだオリジナル画像データ中から入力プロファイル情報700を取得する処理を行う。情報処理装置140は、S1004で取得した入力プロファイル情報700中から、S1006でバイアス・トーンカーブ補正情報を取得し、S1008で領域分割情報を取得する処理を行う。   In step S1004, the information processing apparatus 140 performs processing for acquiring the input profile information 700 from the original image data read in step S1002. The information processing apparatus 140 performs processing for acquiring bias / tone curve correction information in S1006 from the input profile information 700 acquired in S1004 and acquiring region division information in S1008.

S1010で情報処理装置140は、入力プロファイル情報700中から分光感度パターン、分光感度パターン指定テーブル、および領域ごとの分光感度補正係数を取得する処理を行う。   In step S <b> 1010, the information processing apparatus 140 performs processing for acquiring the spectral sensitivity pattern, the spectral sensitivity pattern designation table, and the spectral sensitivity correction coefficient for each region from the input profile information 700.

情報処理装置140は、S1012において撮影照明情報を、S1014において被写体特性情報を、それぞれ入力プロファイル情報700中から取得する処理を行う。S1016において情報処理装置140は、分光感度パターン指定テーブルで指定される分光感度パターンに、領域ごとの分光感度補正係数を乗じて領域ごとのシステム関数Hnを導出する。   The information processing apparatus 140 performs processing for obtaining shooting illumination information in S1012 and subject characteristic information in S1014 from the input profile information 700, respectively. In S1016, the information processing apparatus 140 derives a system function Hn for each region by multiplying the spectral sensitivity pattern specified in the spectral sensitivity pattern specification table by the spectral sensitivity correction coefficient for each region.

S1018において情報処理装置140は、被写体特性情報[R]rr、領域ごとのシステム関数[H]n、および撮影照明スペクトル(撮影照明情報)I(λ)を用いて、領域ごとの分光反射率推定行列[M]nを導出する。 In step S <b> 1018, the information processing apparatus 140 estimates the spectral reflectance for each area using the subject characteristic information [R] rr , the system function [H] n for each area, and the imaging illumination spectrum (imaging illumination information) I (λ). The matrix [M] n is derived.

以上に説明したS1018までの処理によって、各分割領域に対応した分光反射率推定行列[M]n (n:1、2、…、nX×nY)が求められる。続いて、以下に図10Bを参照して説明するS1020からS1026の処理によって、画像データ内の画素のひとつ一つに対応する画素信号値に対して色変換処理が行われる。 Through the processing up to S1018 described above, the spectral reflectance estimation matrix [M] n (n: 1, 2,..., N X × n Y ) corresponding to each divided region is obtained. Subsequently, color conversion processing is performed on the pixel signal values corresponding to each pixel in the image data by the processing from S1020 to S1026 described below with reference to FIG. 10B.

S1020において情報処理装置140は、バイアス・トーン補正処理を行う。すなわち、全画素の画素信号値のそれぞれからバイアス値を減じる処理を行い、さらにトーン特性情報によって線形信号値に変換する処理を行う。なお、本実施の形態においては、1つの画素に対応して6つの線形信号値が得られる。   In step S1020, the information processing apparatus 140 performs bias / tone correction processing. That is, a process of subtracting the bias value from each of the pixel signal values of all the pixels is performed, and further, a process of converting to a linear signal value by the tone characteristic information is performed. In the present embodiment, six linear signal values are obtained corresponding to one pixel.

S1022において情報処理装置140は、これから処理しようとする画素(以下、「処理対象の画素」と称する)が属する分割領域を特定する。S1024において情報処理装置140は、処理対象の画素が属する分割領域に対応する分光反射率推定行列を、S1020で得られた線形信号値に乗じて分光反射率画像信号を生成する。この分光反射率画像信号は、機器に依存しない(デバイスインデペンデント)の画像信号となる。   In step S1022, the information processing apparatus 140 identifies a divided region to which a pixel to be processed (hereinafter referred to as a “processing target pixel”) belongs. In S1024, the information processing apparatus 140 generates a spectral reflectance image signal by multiplying the spectral reflectance estimation matrix corresponding to the divided region to which the pixel to be processed belongs by the linear signal value obtained in S1020. This spectral reflectance image signal is an image signal that is device independent (device independent).

S1026において情報処理装置140は、処理対象画像データ(オリジナル画像データ)中の全画素に対応する分光反射率画像信号の生成を完了したか否かを判定し、この判定が否定される間はS1020からS1026の処理を繰り返し行う。S1026の判定が肯定されると処理はS1028に進む。情報処理装置140はS1028において、分光反射率画像信号に画像出力装置950の出力プロファイルを作用させて、機器依存の(デバイスデペンデントの)画像信号を生成し、それを画像出力装置950に出力する。なお、S1028の処理において、画像出力装置950が存在する環境を照明する照明光(これを「観察照明光」、あるいは「環境光」と称する)の分光特性を加味することも可能である。   In S1026, the information processing apparatus 140 determines whether or not the generation of the spectral reflectance image signal corresponding to all the pixels in the processing target image data (original image data) has been completed, and while this determination is negative, S1020. To S1026 are repeated. If the determination in S1026 is affirmative, the process proceeds to S1028. In step S <b> 1028, the information processing apparatus 140 causes the output profile of the image output apparatus 950 to act on the spectral reflectance image signal to generate a device-dependent (device dependent) image signal, and outputs it to the image output apparatus 950. To do. In the process of S1028, it is also possible to consider the spectral characteristics of illumination light that illuminates the environment in which the image output device 950 exists (this is referred to as “observation illumination light” or “environment light”).

以上に説明したように、本発明の第1の実施の形態の撮影装置100、情報処理装置140によれば、画像全体に単一の入力プロファイルが一律に適用されることはない。その代わりに、上述したむらに対応して分割領域が定められ、それぞれの分割領域に対応した入力プロファイルが適用される。そして、撮影装置100で生成されるオリジナル画像データには、各画素に対応した入力プロファイルではなく、入力プロファイル情報が付加される。   As described above, according to the photographing apparatus 100 and the information processing apparatus 140 of the first embodiment of the present invention, a single input profile is not uniformly applied to the entire image. Instead, divided areas are determined corresponding to the above-described unevenness, and input profiles corresponding to the respective divided areas are applied. Then, input profile information is added to the original image data generated by the photographing apparatus 100 instead of the input profile corresponding to each pixel.

従って、より忠実な色再現を可能とする一方でオリジナル画像データの容量の増加を抑制することができる。また、撮影装置100内で入力プロファイルを作成する処理を行うことが不要となるので、撮影装置100の処理負荷を減じることも可能となる。オリジナル画像データの容量の増加が抑制されることにより、記憶媒体240内に記録可能なコマ数を増したり、何らかの通信手段を介して他の装置にオリジナル画像データを転送する際に要する時間を短縮したりすることが可能となる。また、撮影装置100の処理負荷が減じられることにより、撮影装置の連写速度を増したり、一駒の撮影をしてから次の撮影操作等が可能となるまでの時間を短縮して操作性を向上させたりすることが可能となる。   Therefore, it is possible to suppress the increase in the capacity of the original image data while enabling more faithful color reproduction. In addition, since it is not necessary to perform processing for creating an input profile in the photographing apparatus 100, the processing load on the photographing apparatus 100 can be reduced. By suppressing the increase in the capacity of the original image data, the number of frames that can be recorded in the storage medium 240 is increased, and the time required for transferring the original image data to another apparatus via some communication means is shortened. It becomes possible to do. In addition, by reducing the processing load on the image capturing apparatus 100, the continuous shooting speed of the image capturing apparatus is increased, and the time from when one frame is captured until the next image capturing operation becomes possible is shortened. It becomes possible to improve.

以上では、撮影装置100が撮影レンズ交換式のものである例について説明したが、撮影レンズが撮影装置本体に固定されたものであってもよい。また、撮影装置100は静止画のみならず、動画を撮影可能なものであってもよい。動画の場合、一連の動画ファイルに1つの入力プロファイル情報を付加することが可能である。また、動画撮影中に撮影レンズの変倍操作、撮影距離等、撮影条件の変化があったときには、動画ファイル中で撮影条件の変更があった箇所に入力プロファイル情報を随時埋め込むことも可能である。あるいは、動画ファイル中には撮影条件を特定可能な情報のみを埋め込み、一連の動画ファイルの先頭または末尾に複数の撮影条件に対応した入力プロファイル情報を付加するようにしてもよい。   In the above, an example in which the photographing apparatus 100 is of the photographing lens exchange type has been described, but the photographing lens may be fixed to the photographing apparatus main body. The photographing apparatus 100 may be capable of photographing not only a still image but also a moving image. In the case of a moving image, it is possible to add one input profile information to a series of moving image files. In addition, when there is a change in shooting conditions, such as zooming operation of the shooting lens, shooting distance, etc. during movie shooting, it is also possible to embed input profile information at any time in the movie file where the shooting conditions have changed. . Alternatively, only information capable of specifying shooting conditions may be embedded in a moving image file, and input profile information corresponding to a plurality of shooting conditions may be added to the beginning or end of a series of moving image files.

図2を参照して説明した撮影装置100は、撮影レンズ110によって形成される被写体像がビームスプリッタ230によって2分割され、分割されたそれぞれの被写体光がフィルタ214、216を透過して撮像素子218、220に導かれる構成のものであった。しかし、本発明はこれに限られるものではない。   In the photographing apparatus 100 described with reference to FIG. 2, the subject image formed by the photographing lens 110 is divided into two by the beam splitter 230, and each of the divided subject light passes through the filters 214 and 216 and the imaging element 218. , 220. However, the present invention is not limited to this.

例えば、撮影装置100がオンチップカラーフィルタを備える撮像素子を1つ有する、いわゆる単板式の構成で、2回の撮影によって1画面分の多バンド画像データを得るものであってもよい。そして、2回の撮影をする際にフィルタを切り替えるようにすることが可能である。その場合、撮影レンズ110の前側(被写体と撮影レンズ110の光入射面との間)、撮影レンズ110の中、および撮影レンズ110の後側(撮影レンズ110の光出射面と撮像素子との間)のうち、いずれかの位置においてフィルタを切り替えるようにすることが可能である。   For example, the photographing apparatus 100 may have a so-called single-plate configuration having one image sensor including an on-chip color filter, and may obtain multiband image data for one screen by two photographings. It is possible to switch the filter when shooting twice. In that case, the front side of the photographing lens 110 (between the subject and the light incident surface of the photographing lens 110), the inside of the photographing lens 110, and the rear side of the photographing lens 110 (between the light exit surface of the photographing lens 110 and the image sensor). ), The filter can be switched at any position.

また、撮像素子がオンチップカラーフィルタを有しておらず、被写体光を三つの分光帯域の光に分光するダイクロイックプリズムと3つのモノクロ撮像素子とを有する、いわゆる三板式の構成を有する撮影装置でも2回の撮影によって1画面分の多バンド画像データを得るようにすることができる。その場合、撮影レンズ110の前側、撮影レンズ110の中、および撮影レンズ110の後側(撮影レンズ110の光出射面とダイクロイックプリズムの入射面との間)のうち、いずれかの位置においてフィルタを切り替えるようにすることが可能である。   In addition, even in an imaging device having a so-called three-plate configuration in which the imaging device does not have an on-chip color filter and has a dichroic prism that splits subject light into light in three spectral bands and three monochrome imaging devices. Multi-band image data for one screen can be obtained by two shootings. In that case, the filter is provided at any position on the front side of the photographic lens 110, in the photographic lens 110, and on the rear side of the photographic lens 110 (between the light exit surface of the photographic lens 110 and the incident surface of the dichroic prism). It is possible to switch.

また、上記のように単板式、三板式の撮影装置を用いて2回の撮影をする際にフィルタを切り替える方式のものにおいて、二つのフィルタを機械的に切り替えるのに代えて、分光透過特性を電気的に切り替え可能な構成のフィルタを用いることも可能である。その場合、2回の撮影に連動して分光透過特性を電気的に切り替えることができる。   In addition, in the method of switching filters when shooting twice using a single-plate or three-plate imaging device as described above, instead of mechanically switching the two filters, the spectral transmission characteristics are changed. It is also possible to use an electrically switchable filter. In that case, the spectral transmission characteristics can be electrically switched in conjunction with the two shootings.

− 第2の実施の形態 −
第1の実施の形態において、マルチバンド画像データに付加される入力プロファイル情報が、撮影をしてマルチバンド画像データを生成する撮影装置100の内部で生成される例について説明した。これに対し、第2の実施の形態においては、撮影に用いられた撮影装置以外の情報処理装置で入力プロファイル情報が生成される。
− Second Embodiment −
In the first embodiment, the example in which the input profile information added to the multiband image data is generated inside the imaging apparatus 100 that performs imaging to generate multiband image data has been described. In contrast, in the second embodiment, the input profile information is generated by an information processing apparatus other than the imaging apparatus used for imaging.

また、第1の実施の形態においては、撮影装置100で生成されるマルチバンド画像データには図7Aを参照して説明した入力プロファイル情報が付加される例について説明した。つまり、入力プロファイル情報700には、バンド数、分光感度パターン数、波長次元数、分光感度パターン、X方向領域数、Y方向領域数、分光感度パターン指定テーブル、領域ごとの分光感度補正係数、バイアス・トーンカーブデータ、被写体特性情報、撮影照明情報が含まれる例について説明した。   In the first embodiment, the example in which the input profile information described with reference to FIG. 7A is added to the multiband image data generated by the imaging apparatus 100 has been described. That is, the input profile information 700 includes the number of bands, the number of spectral sensitivity patterns, the number of wavelength dimensions, the spectral sensitivity pattern, the number of X direction regions, the number of Y direction regions, the spectral sensitivity pattern designation table, the spectral sensitivity correction coefficient for each region, and the bias. An example in which tone curve data, subject characteristic information, and photographing illumination information are included has been described.

これに対して、第2の実施の形態においては、図11に示されるように、撮影装置100Aで生成されるマルチバンド画像データに付加される入力プロファイル情報は、カメラIDやレンズID等の画像入力機器ID情報、撮影設定情報、被写体特性情報、および撮影照明情報を含む。撮影装置100Aを用いて撮影を行うと、一例として、図13に示されるような入力プロファイル情報700Aの付加されたオリジナル画像データが撮影装置100Aによって生成される。   On the other hand, in the second embodiment, as shown in FIG. 11, the input profile information added to the multiband image data generated by the photographing apparatus 100A is an image such as a camera ID or a lens ID. It includes input device ID information, shooting setting information, subject characteristic information, and shooting illumination information. When photographing is performed using the photographing apparatus 100A, as an example, the original image data to which the input profile information 700A as illustrated in FIG. 13 is added is generated by the photographing apparatus 100A.

以下では、撮影装置100Aによってマルチバンド画像データに付加される入力プロファイル情報を一次入力プロファイル情報と称し、撮影装置100Aと異なる他の情報処理装置によってマルチバンド画像データに付加される入力プロファイル情報を二次入力プロファイル情報と称する。第1の実施の形態で図7Aを参照して説明した入力プロファイル情報700が第2の実施の形態における二次入力プロファイル情報に相当する。   Hereinafter, the input profile information added to the multiband image data by the imaging device 100A is referred to as primary input profile information, and the input profile information added to the multiband image data by another information processing device different from the imaging device 100A is two. This is called next input profile information. The input profile information 700 described with reference to FIG. 7A in the first embodiment corresponds to the secondary input profile information in the second embodiment.

一次入力プロファイル情報700Aに含まれるカメラID、レンズIDはそれぞれ、撮影装置100A、撮影レンズ110Aの個体を一意に特定可能な情報を含んでいる。一次入力プロファイル情報700Aを調べることによって、この情報が付加されるマルチバンド画像データがどの機種、どの個体の画像入力機器によって得られたものであるかを特定することが可能となる。   The camera ID and the lens ID included in the primary input profile information 700A include information that can uniquely identify the imaging device 100A and the imaging lens 110A, respectively. By examining the primary input profile information 700A, it is possible to specify which model and which individual image input device has obtained the multiband image data to which this information is added.

撮影装置100Aで生成されたオリジナル画像データは、コンテンツサーバとしての第1の情報処理装置に蓄積される。以下では第1の情報処理装置1110を、サーバ1110と称する。図11では撮影装置100A、サーバ1110がそれぞれ1台づつ図示されているが、それぞれが複数であっても1つであってもよい。   Original image data generated by the photographing apparatus 100A is stored in a first information processing apparatus as a content server. Hereinafter, the first information processing apparatus 1110 is referred to as a server 1110. In FIG. 11, each of the photographing apparatus 100 </ b> A and the server 1110 is illustrated one by one, but each of them may be plural or one.

撮影装置100Aからサーバ1110へのオリジナル画像データの転送は、メモリカード、有線通信、無線通信、ネットワーク等、様々な方法を介して行うことができる。例えば、撮影装置100Aに無線LAN、有線LAN等を介してのネットワーク接続機能が備えられる場合、WAN/LAN1100を介してオリジナル画像データをサーバ1110に転送することが可能となる。また、撮影装置100Aから取り出したメモリカードをコンピュータ等に接続し、そのコンピュータ内に一旦蓄積することも可能である。そして、そのコンピュータがWAN/LAN100を介してサーバ1110と接続され、コンピュータ内に蓄積されたオリジナル画像データをサーバ1110に転送するように構成することも可能である。以下ではWAN/LAN1100を単にネットワーク1100と称する。   The transfer of the original image data from the photographing apparatus 100A to the server 1110 can be performed through various methods such as a memory card, wired communication, wireless communication, and a network. For example, when the photographing apparatus 100A is provided with a network connection function via a wireless LAN, a wired LAN, or the like, the original image data can be transferred to the server 1110 via the WAN / LAN 1100. It is also possible to connect the memory card taken out from the photographing apparatus 100A to a computer or the like and temporarily store it in the computer. The computer can be connected to the server 1110 via the WAN / LAN 100 and the original image data stored in the computer can be transferred to the server 1110. Hereinafter, the WAN / LAN 1100 is simply referred to as a network 1100.

サーバ1110は、例えば撮影装置100Aや撮影レンズ110A等の画像入力機器のメーカによって提供、運営されるものとすることが可能である。サーバ1110にはまた、撮影装置100Aや撮影レンズ110A等の画像入力機器の色再現特性に関連する様々な情報が網羅的に蓄積されている。そして、撮影装置100Aで生成されたオリジナル画像データに付加される入力プロファイル情報中から上記画像入力機器ID情報を読み出し、この画像入力機器ID情報に対応する、上記画像入力機器の色再現特性に関連する様々な情報を取得することが可能に構成されている。   The server 1110 can be provided and operated by a manufacturer of an image input device such as the imaging device 100A or the imaging lens 110A. The server 1110 also accumulates a variety of information related to the color reproduction characteristics of image input devices such as the imaging device 100A and the imaging lens 110A. Then, the image input device ID information is read out from the input profile information added to the original image data generated by the photographing apparatus 100A, and related to the color reproduction characteristics of the image input device corresponding to the image input device ID information. It is possible to acquire various information.

つまり、画像入力機器の色再現特性に関連する様々な情報は、第1の実施の形態においては撮影装置100の内部のメモリ205に記憶されているところ、第2の実施の形態においてはサーバ1110内に蓄積されている。   That is, various pieces of information related to the color reproduction characteristics of the image input device are stored in the memory 205 inside the photographing apparatus 100 in the first embodiment, whereas in the second embodiment, the server 1110 is stored. Is accumulated within.

サーバ1110は、ネットワーク1100を介して、クライアント情報処理装置としての、第2の情報処理装置140Aと接続可能に構成される。以下では第2の情報処理装置140Aをクライアント140Aと称する。クライアント140Aは、1つであっても複数存在していてもよい。   The server 1110 is configured to be connectable to the second information processing apparatus 140A as a client information processing apparatus via the network 1100. Hereinafter, the second information processing apparatus 140A is referred to as a client 140A. There may be one client 140A or a plurality of clients.

以下では、クライアント140Aは表示装置144やプリンタ150等の画像出力装置が接続されるコンピュータであるものとして説明するが、本発明は画像再生装置、ビデオレコーダ、セットトップボックス(STB)、プリンタ、画像表示機能付きの可搬式データストレージ装置、携帯電話等にも適用することができる。   In the following description, the client 140A is assumed to be a computer to which an image output device such as the display device 144 and the printer 150 is connected. However, the present invention is an image reproducing device, a video recorder, a set top box (STB), a printer, an image The present invention can also be applied to a portable data storage device with a display function, a mobile phone, and the like.

第1の実施の形態の撮影装置100と第2の実施の形態の撮影装置100Aとの相違点は、撮影装置100Aで生成されるマルチバンド画像データに付加される入力プロファイル情報が上述した一次入力プロファイル情報である点のみである。それ以外、撮影装置100Aの内部構成は、第1の実施の形態で図2を参照して説明したものと同様であるのでその説明を省略し、撮影装置100との相違点を中心に説明をする。   The difference between the imaging apparatus 100 of the first embodiment and the imaging apparatus 100A of the second embodiment is that the input profile information added to the multiband image data generated by the imaging apparatus 100A is the primary input described above. It is only a point that is profile information. Other than that, the internal configuration of the image capturing apparatus 100A is the same as that described with reference to FIG. 2 in the first embodiment, so that the description thereof will be omitted, and the description will focus on differences from the image capturing apparatus 100. To do.

図12は、撮影装置100Aが有する付帯情報付加処理部600Aの概略的構成を、付帯情報付加処理部600Aに接続される構成要素とともに示すブロック図である。図12において、図6に示される第1の実施の形態の撮影装置100が有するものと同様の構成要素には同じ符号を付してその説明を省略する。   FIG. 12 is a block diagram illustrating a schematic configuration of the supplementary information addition processing unit 600A included in the photographing apparatus 100A together with components connected to the supplementary information addition processing unit 600A. In FIG. 12, the same components as those of the photographing apparatus 100 according to the first embodiment shown in FIG.

撮影装置100Aは、第1の実施の形態の撮影装置100が有していたセンサ情報記憶部630、フィルタ情報記憶部632を有していない代わりにボディID情報記憶部1210を有する。付帯情報付加処理部600Aは、レンズ情報取得部602Aと、撮影情報取得部604と、被写体特性情報入力部606と、撮影照明光情報入力部608と、入力プロファイル情報生成部622Aと、データフォーマット処理部624とを有する。   The imaging apparatus 100A has a body ID information storage unit 1210 instead of the sensor information storage unit 630 and the filter information storage unit 632 that the imaging apparatus 100 of the first embodiment has. The auxiliary information addition processing unit 600A includes a lens information acquisition unit 602A, a shooting information acquisition unit 604, a subject characteristic information input unit 606, a shooting illumination light information input unit 608, an input profile information generation unit 622A, and a data format process. Part 624.

レンズ情報取得部602Aは、撮影装置100Aに装着される撮影レンズ110AからレンズID情報等を含むレンズ情報を取得する。入力プロファイル情報生成部622Aは、ボディID情報記憶部1210、レンズ情報取得部602A、撮影情報取得部604、被写体特性情報入力部606、撮影照明光情報入力部608から以下で説明する情報を入力し、図13に示される一次入力プロファイル情報700Aを生成する。   The lens information acquisition unit 602A acquires lens information including lens ID information and the like from the photographing lens 110A attached to the photographing apparatus 100A. The input profile information generation unit 622A inputs information described below from the body ID information storage unit 1210, the lens information acquisition unit 602A, the imaging information acquisition unit 604, the subject characteristic information input unit 606, and the imaging illumination light information input unit 608. The primary input profile information 700A shown in FIG. 13 is generated.

撮影情報取得部604、被写体特性情報入力部606、撮影照明光情報入力部608から入力プロファイル情報生成部622Aに送られる情報は第1の実施の形態で説明したものと同じであるのでその説明を省略する。ボディID情報記憶部1210からは、ボディID情報が送出される。このボディID情報には、撮影装置100Aの機種を特定可能な情報と、撮影装置100Aの個体を特定可能な情報とが含まれる。撮影装置100Aの個体の機種を特定可能な情報としては、機種名や製品コード等を表すテキストデータとすることが可能である。撮影装置100Aの個体を特定可能な情報としては、製造番号等を含む情報とすることが可能である。   Since the information sent from the imaging information acquisition unit 604, the subject characteristic information input unit 606, and the imaging illumination light information input unit 608 to the input profile information generation unit 622A is the same as that described in the first embodiment, the description thereof will be given. Omitted. Body ID information is sent from body ID information storage section 1210. The body ID information includes information that can identify the model of the photographing apparatus 100A and information that can identify an individual of the photographing apparatus 100A. The information that can identify the individual model of the photographing apparatus 100A can be text data representing the model name, product code, and the like. Information that can identify the individual of the imaging apparatus 100A can be information including a serial number.

レンズ情報取得部602Aからは、レンズID情報が送出される。このレンズID情報には、撮影レンズ110Aの機種を特定可能な情報と、撮影レンズ110Aの個体を特定可能な情報とが含まれる。レンズID情報も、ボディID情報について説明したのと同様の情報を含む。   Lens ID information is sent from the lens information acquisition unit 602A. This lens ID information includes information that can identify the model of the photographing lens 110A and information that can identify the individual photographing lens 110A. The lens ID information also includes information similar to that described for the body ID information.

撮影装置100Aで撮影が行われると、入力プロファイル情報生成部622Aは図13に例示されるような一次入力プロファイル情報700Aを生成し、データフォーマット処理部624に出力する。画像処理部206から出力されるマルチバンド画像データに上記一次入力プロファイル情報700Aを付加し、オリジナル画像データを生成する処理がデータフォーマット処理部624でおこなわれ、このオリジナル画像データは記憶媒体240に記録される。   When photographing is performed by the photographing apparatus 100A, the input profile information generation unit 622A generates primary input profile information 700A as illustrated in FIG. 13 and outputs the primary input profile information 700A to the data format processing unit 624. The primary input profile information 700A is added to the multiband image data output from the image processing unit 206, and processing for generating original image data is performed by the data format processing unit 624. This original image data is recorded in the storage medium 240. Is done.

図13は、入力プロファイル情報生成部622で生成される一次入力プロファイル情報700Aの内容例を概念的に示す図である。一次入力プロファイル情報700Aには、図13に例示されるように、レンズID情報、ボディID情報、撮影時に撮影レンズ110A、撮影装置100Aで設定された、焦点距離、絞り値、撮影距離の逆数、シャッタ速度、設定ISO感度等を含む、撮影設定情報、被写体特性情報、撮影照明情報などを含むことが可能である。被写体特性情報、撮影照明情報については第1の実施の形態で説明したものと同じである。   FIG. 13 is a diagram conceptually illustrating an example of the content of primary input profile information 700A generated by the input profile information generation unit 622. As illustrated in FIG. 13, the primary input profile information 700A includes lens ID information, body ID information, a focal length, an aperture value, and a reciprocal of the shooting distance set by the shooting lens 110A and the shooting apparatus 100A during shooting. It is possible to include shooting setting information, subject characteristic information, shooting illumination information, etc., including shutter speed, set ISO sensitivity, and the like. The subject characteristic information and the photographing illumination information are the same as those described in the first embodiment.

図14A、図14Bは、サーバ1110内の付帯情報付加処理部1470と、この付帯情報付加処理部1470に接続される構成要素(画像データ取得部1402、補助記憶装置1420、色変換処理部1430)を示す概略ブロック図である。この付帯情報付加処理部1470は、サーバ1110内に設けられるものである。撮影装置100A内の付帯情報付加処理部600Aが一次入力プロファイル情報をマルチバンド画像データに付加する処理を行うのに対し、付帯情報付加処理部1470は以下で説明するように二次入力プロファイル情報をマルチバンド画像データに付加する処理を行う。   14A and 14B show the supplementary information addition processing unit 1470 in the server 1110 and the components connected to the supplementary information addition processing unit 1470 (image data acquisition unit 1402, auxiliary storage device 1420, color conversion processing unit 1430). It is a schematic block diagram which shows. This supplementary information addition processing unit 1470 is provided in the server 1110. While the incidental information addition processing unit 600A in the image capturing apparatus 100A performs processing for adding primary input profile information to multiband image data, the incidental information addition processing unit 1470 receives secondary input profile information as described below. Processing to add to multiband image data is performed.

画像データ取得部1402、色変換処理部1430、付帯情報付加処理部1470は、専用のハードウェアロジックによって実施されてもよいし、サーバ1110内にストアされるプログラムが解釈実行されて実施されてもよい。以下では、画像データ取得部1402、色変換処理部1430、付帯情報付加処理部1470は、サーバ1110内にストアされるプログラムが解釈実行されて実施されるものとして説明する。補助記憶装置1420は、サーバ1110に内蔵、あるいは外付けされるハードディスクドライブ等によって構成される。   The image data acquisition unit 1402, the color conversion processing unit 1430, and the incidental information addition processing unit 1470 may be implemented by dedicated hardware logic, or may be implemented by interpreting and executing a program stored in the server 1110. Good. In the following description, it is assumed that the image data acquisition unit 1402, the color conversion processing unit 1430, and the incidental information addition processing unit 1470 are executed by interpreting and executing a program stored in the server 1110. The auxiliary storage device 1420 is configured by a hard disk drive or the like built in or externally attached to the server 1110.

付帯情報付加処理部1470は、入力機器ID情報取得部1404と、撮影設定情報取得部1406と、撮影照明光情報取得部1408と、被写体特性情報取得部1410と、ボディID情報取得部1412と、レンズID情報取得部1414と、入力プロファイル生成用情報取得部1416と、バイアス・トーンカーブ情報取得部1418(以上、図14A)とを有する。付帯情報付加処理部1470はさらに、入射角度導出部612Sと、感度むら導出部614Sと、フィルタ情報取得部1434と、周辺減光導出部610Sと、入力プロファイル情報生成部622Sと、データフォーマット処理部624S(以上、図14B)とを有する。   The incidental information addition processing unit 1470 includes an input device ID information acquisition unit 1404, a shooting setting information acquisition unit 1406, a shooting illumination light information acquisition unit 1408, a subject characteristic information acquisition unit 1410, a body ID information acquisition unit 1412, It has a lens ID information acquisition unit 1414, an input profile generation information acquisition unit 1416, and a bias / tone curve information acquisition unit 1418 (hereinafter, FIG. 14A). The incidental information addition processing unit 1470 further includes an incident angle derivation unit 612S, a sensitivity unevenness derivation unit 614S, a filter information acquisition unit 1434, a peripheral light attenuation derivation unit 610S, an input profile information generation unit 622S, and a data format processing unit. 624S (above, FIG. 14B).

入力プロファイル情報生成部622Sは、フィルタ特性変化量導出部618Sと、領域分割処理部620Sと、総合分光感度特性導出部626Sと、代表特性情報生成部628ASと、補正係数生成部628BSと情報集約処理部628CSとを有する。   The input profile information generation unit 622S includes a filter characteristic change amount derivation unit 618S, a region division processing unit 620S, an overall spectral sensitivity characteristic derivation unit 626S, a representative characteristic information generation unit 628AS, a correction coefficient generation unit 628BS, and an information aggregation process. Part 628CS.

付帯情報付加処理部1470は、撮影装置100Aで生成されたマルチバンド画像データに付加されている一次入力プロファイル情報に基づいて二次入力プロファイル情報を生成する。そして、マルチバンド画像データに付加されていた一次入力プロファイル情報に代えて上記二次入力プロファイル情報を付加する処理を行う。入力プロファイル情報生成部622Sは、第1の実施の形態における撮影装置100が有している入力プロファイル情報生成部622と同様の機能を有していて、上記二次入力プロファイル情報を生成する。   The incidental information addition processing unit 1470 generates secondary input profile information based on the primary input profile information added to the multiband image data generated by the imaging apparatus 100A. Then, the secondary input profile information is added in place of the primary input profile information added to the multiband image data. The input profile information generation unit 622S has the same function as the input profile information generation unit 622 included in the imaging device 100 according to the first embodiment, and generates the secondary input profile information.

以上に説明した構成要素中、第1の実施の形態の撮影装置100が有するものと同じ機能を有する構成要素には、撮影装置100が有する構成要素に付されたものと同じ符号の末尾に文字Sを付してその詳細な説明を省く。例えば、第1の実施の形態中の撮影装置100が有する領域分割処理部620と、第2の実施の形態中のサーバ1110の付帯情報付加処理部1470が有する領域分割処理部620Sとは、基本的に同じ機能を有する。符号の末尾に文字Sを付した理由は、これらの構成要素が撮影装置100Aではなくサーバ1110に備えられるものであることを示すためである。   Among the constituent elements described above, constituent elements having the same functions as those of the photographing apparatus 100 according to the first embodiment have characters at the end of the same reference numerals as those attached to the constituent elements of the photographing apparatus 100. The detailed description is omitted by adding S. For example, the area division processing unit 620 included in the imaging apparatus 100 in the first embodiment and the area division processing unit 620S included in the supplementary information addition processing unit 1470 of the server 1110 in the second embodiment are basically the same. Have the same function. The reason for adding the letter S to the end of the reference sign is to indicate that these components are provided in the server 1110 and not in the photographing apparatus 100A.

画像データ取得部1402は、クライアント140Aから送出要求のあった画像に対応する、一次入力プロファイル情報付きのオリジナル画像データを補助記憶装置1420から読み出して付帯情報付加処理部1470に送出する。   The image data acquisition unit 1402 reads the original image data with primary input profile information corresponding to the image requested to be transmitted from the client 140A from the auxiliary storage device 1420 and transmits it to the additional information addition processing unit 1470.

画像データ取得部1402から付帯情報付加処理部1470に送出されたオリジナル画像データから分離された一次入力プロファイル情報から、入力機器ID情報取得部1404、撮影設定情報取得部1406、撮影照明光情報取得部1408、被写体特性情報取得部1410のそれぞれにおいて後述する情報が取得される。一次入力プロファイル情報が分離されたマルチバンド画像データ(以下の説明では単に「画像データ」と称する)が、色変換処理部1430またはデータフォーマット処理部624Sに出力される。   From the primary input profile information separated from the original image data sent from the image data acquisition unit 1402 to the incidental information addition processing unit 1470, the input device ID information acquisition unit 1404, the imaging setting information acquisition unit 1406, and the imaging illumination light information acquisition unit In 1408, the subject characteristic information acquisition unit 1410 acquires information to be described later. Multiband image data from which primary input profile information is separated (hereinafter simply referred to as “image data”) is output to the color conversion processing unit 1430 or the data format processing unit 624S.

上記画像データが色変換処理部1430およびデータフォーマット処理部624Sのうちのいずれに出力されるかは、クライアント140Aから要求される画像のタイプによって異なる。すなわち、サーバ1110によって色変換処理がなされた画像データを送出することをクライアント140Aから要求されている場合には、色変換処理部1430で色変換処理がなされてクライアント140Aに送出される。この場合、クライアント140Aは、サーバ1110で色変換処理がなされた画像をそのまま表示装置144やプリンタ150等の画像出力機器に出力する。このように、画像データを受け取ったクライアント140Aの側で色変換処理をすることなく画像出力装置に出力可能な画像データを本明細書では「出力用画像データ」と称する。   Whether the image data is output to the color conversion processing unit 1430 or the data format processing unit 624S depends on the type of image requested from the client 140A. That is, when the client 140A requests that the image data that has been subjected to the color conversion processing by the server 1110 be sent, the color conversion processing unit 1430 performs the color conversion processing and sends it to the client 140A. In this case, the client 140A outputs the image that has undergone the color conversion processing by the server 1110 as it is to an image output device such as the display device 144 or the printer 150. In this specification, image data that can be output to the image output apparatus without performing color conversion processing on the client 140A side that has received the image data is referred to as “output image data”.

入力機器ID情報取得部1404は、オリジナル画像データから分離された一次入力プロファイル情報から入力機器ID情報を抽出し、ボディID情報取得部1412、レンズID情報取得部1414に送出する。   The input device ID information acquisition unit 1404 extracts the input device ID information from the primary input profile information separated from the original image data, and sends it to the body ID information acquisition unit 1412 and the lens ID information acquisition unit 1414.

撮影設定情報取得部1406は、一次入力プロファイル情報に含まれる撮影設定情報を抽出し、入力プロファイル生成用情報取得部1416、情報集約処理部628CSに送出する。撮影設定情報は、図13を参照して説明したとおりである。   The shooting setting information acquisition unit 1406 extracts shooting setting information included in the primary input profile information, and sends it to the input profile generation information acquisition unit 1416 and the information aggregation processing unit 628CS. The shooting setting information is as described with reference to FIG.

撮影照明光情報取得部1408は、一次入力プロファイル情報に含まれる撮影照明情報を抽出し、情報集約処理部628CSに送出する。被写体特性情報取得部1410は、一次入力プロファイル情報に含まれる被写体特性情報を抽出し、情報集約処理部628CSに送出する。   The photographic illumination light information acquisition unit 1408 extracts the photographic illumination information included in the primary input profile information and sends it to the information aggregation processing unit 628CS. The subject characteristic information acquisition unit 1410 extracts subject characteristic information included in the primary input profile information, and sends it to the information aggregation processing unit 628CS.

ボディID情報取得部1412は、一次入力プロファイル情報中から抽出したボディID情報を入力プロファイル生成用情報取得部1416に送出する。レンズID情報取得部1414は、一次入力プロファイル情報中から抽出したレンズID情報を入力プロファイル生成用情報取得部1416に送出する。   The body ID information acquisition unit 1412 sends the body ID information extracted from the primary input profile information to the input profile generation information acquisition unit 1416. The lens ID information acquisition unit 1414 sends lens ID information extracted from the primary input profile information to the input profile generation information acquisition unit 1416.

入力プロファイル生成用情報取得部1416は、撮影設定情報取得部1406、ボディID情報取得部1412、レンズID情報取得部1414から送出された情報の組み合わせに対応する入力機器情報を補助記憶装置1420から読み出す。そして、読み出した入力機器情報をバイアス・トーンカーブ情報取得部1418、入射角度導出部612S、フィルタ情報取得部1434、感度むら導出部614S、周辺減光導出部610Sに送出する。   The input profile generation information acquisition unit 1416 reads, from the auxiliary storage device 1420, input device information corresponding to the combination of information transmitted from the shooting setting information acquisition unit 1406, body ID information acquisition unit 1412, and lens ID information acquisition unit 1414. . Then, the read input device information is sent to the bias / tone curve information acquisition unit 1418, the incident angle derivation unit 612S, the filter information acquisition unit 1434, the sensitivity unevenness derivation unit 614S, and the peripheral light attenuation derivation unit 610S.

ところで、補助記憶装置1420には、撮影装置100Aや撮影レンズ110A等を含むさまざまな入力機器を一意に特定可能な入力機器ID情報と、この入力機器ID情報に対応する、センサ情報、レンズ情報、フィルタ情報、バイアス・トーンカーブ情報(これらの情報については第1の実施の形態で説明したものと同様であり、第1の実施の形態においては撮影装置100、撮影レンズ110の内部に記憶されていた情報である)が網羅的に蓄積されている。   By the way, the auxiliary storage device 1420 includes input device ID information that can uniquely identify various input devices including the photographing device 100A, the photographing lens 110A, and the like, and sensor information, lens information corresponding to the input device ID information, Filter information and bias / tone curve information (these information are the same as those described in the first embodiment, and are stored in the photographing apparatus 100 and the photographing lens 110 in the first embodiment. Is comprehensively accumulated).

情報は、撮影装置100A、撮影レンズ110A等の入力機器のメーカによって提供される。なお、撮影装置100Aや撮影レンズ110Aを購入したユーザが、これらの撮影装置100Aや撮影レンズ110Aを使用し始めてからある期間が経過したときに各自で、あるいは修理センター等で較正をしてもよい。その較正結果をサーバ1110に送出することにより、センサ情報、レンズ情報、フィルタ情報、バイアス・トーンカーブ情報等を適宜更新することが可能となる。   Information is provided by manufacturers of input devices such as the photographing apparatus 100A and the photographing lens 110A. It should be noted that the user who purchased the photographing apparatus 100A and the photographing lens 110A may calibrate by himself / herself or at a repair center or the like when a certain period of time has elapsed since the start of using the photographing apparatus 100A or the photographing lens 110A. . By sending the calibration result to the server 1110, sensor information, lens information, filter information, bias / tone curve information, and the like can be updated as appropriate.

バイアス・トーンカーブ情報取得部1418は、補助記憶装置1420から送出された上記情報中からバイアス・トーンカーブ情報を取得し、情報集約処理部628CSに送出する。   The bias / tone curve information acquisition unit 1418 acquires the bias / tone curve information from the information sent from the auxiliary storage device 1420 and sends it to the information aggregation processing unit 628CS.

入射角度導出部612Sは、第1の実施の形態における入射角度導出部612での処理と同様の処理を行ない、その処理結果を入力プロファイル情報生成部622Sに出力する。   The incident angle deriving unit 612S performs processing similar to the processing in the incident angle deriving unit 612 in the first embodiment, and outputs the processing result to the input profile information generating unit 622S.

フィルタ情報取得部1434は、入力プロファイル生成用情報取得部1416から送出された入力機器情報中から撮影装置100Aに内蔵されるフィルタの情報(フィルタ情報)を取得する。そしてフィルタ情報取得部1434は、フィルタ情報を入力プロファイル情報生成部622Sに出力する。このフィルタ情報は、第1の実施の形態において撮影装置100のフィルタ情報記憶部632に記憶されているものと同様のものである。   The filter information acquisition unit 1434 acquires filter information (filter information) built in the imaging apparatus 100A from the input device information sent from the input profile generation information acquisition unit 1416. Then, the filter information acquisition unit 1434 outputs the filter information to the input profile information generation unit 622S. This filter information is the same as that stored in the filter information storage unit 632 of the photographing apparatus 100 in the first embodiment.

感度むら導出部614Sは、入力プロファイル生成用情報取得部1416から送出された入力機器情報中から撮影装置100Aの感度むらに関する情報を抽出し、入力プロファイル情報生成部622Sに出力する。この感度むらに関する情報は、第1の実施の形態で説明したのと同様、撮像素子、撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して、撮像素子のイメージエリア上で等価的に生じる分光感度のむらを反映した情報である。   The sensitivity unevenness deriving unit 614S extracts information related to the sensitivity unevenness of the imaging apparatus 100A from the input device information sent from the input profile generation information acquisition unit 1416, and outputs the information to the input profile information generation unit 622S. As in the case of the first embodiment, this sensitivity unevenness information is caused by at least one of the image sensor, the processing system that processes the image signal output from the image sensor, and the shutter. This is information reflecting the spectral sensitivity unevenness that occurs equivalently on the image area of the image sensor.

周辺減光導出部610Sは、入力プロファイル生成用情報取得部1416から送出された入力機器情報中から撮影レンズ110Aの周辺減光特性に関連する情報を抽出し、入力プロファイル情報生成部622S(入力プロファイル情報生成部622S内の補正係数生成部628BS)に出力する。入力プロファイル情報生成部622Sは、第1の実施の形態で図6Bを参照して説明した入力プロファイル情報生成部622と同様の処理を行って二次入力プロファイル情報を生成し、データフォーマット処理部624Sおよび色変換処理部1430に出力する。   The peripheral dimming derivation unit 610S extracts information related to the peripheral dimming characteristics of the photographing lens 110A from the input device information sent from the input profile generation information acquisition unit 1416, and the input profile information generation unit 622S (input profile) To the correction coefficient generation unit 628BS) in the information generation unit 622S. The input profile information generation unit 622S performs the same processing as the input profile information generation unit 622 described with reference to FIG. 6B in the first embodiment to generate secondary input profile information, and the data format processing unit 624S. And output to the color conversion processing unit 1430.

クライアント140Aから要求される画像データの出力形態が出力用画像データである場合、色変換処理部1430は、画像データに色変換の処理をして出力用画像データを生成する。すなわち、色変換処理部1430は、入力プロファイル情報生成部622S内の情報集約処理部628CSで生成された二次入力プロファイル情報と、クライアント140Aから送出された出力プロファイルの情報とを用いて画像データに色変換の処理を行い、出力用画像データを生成する。   When the output form of the image data requested from the client 140A is output image data, the color conversion processing unit 1430 performs color conversion processing on the image data to generate output image data. That is, the color conversion processing unit 1430 uses the secondary input profile information generated by the information aggregation processing unit 628CS in the input profile information generation unit 622S and the output profile information sent from the client 140A to generate image data. Color conversion processing is performed to generate output image data.

一方、クライアント140Aから、二次入力プロファイル情報付きの画像データ送出が要求された場合には、入力プロファイル情報生成部622Sで二次入力プロファイル情報が生成される。前にも説明したように、二次入力プロファイル情報は、第1の実施の形態で図7Aを参照して説明したものと同様の情報である。入力プロファイル情報生成部622Sは、第1の実施の形態の撮影装置100が有する入力プロファイル情報生成部622での処理と同様の処理を経て二次入力プロファイル情報を生成する。   On the other hand, when image data transmission with secondary input profile information is requested from the client 140A, the input profile information generation unit 622S generates secondary input profile information. As described above, the secondary input profile information is the same information as described with reference to FIG. 7A in the first embodiment. The input profile information generation unit 622S generates secondary input profile information through processing similar to the processing in the input profile information generation unit 622 included in the imaging apparatus 100 according to the first embodiment.

ところで、クライアント140Aは、同じ入力機器で生成された複数の画像の送出をサーバ1110に要求する場合がある。そのとき、撮影レンズ110Aがズームレンズで、上記複数の画像が互いに異なる設定焦点距離に設定されて撮影され、生成されたものである場合がある。そのような場合には、第1の実施の形態で図7A等を参照して説明した、分割領域代表特性情報、代表特性指定情報、領域ごとの分光感度補正係数を含む情報のセットを、撮影レンズ110Aがズームレンズで設定可能な焦点距離に対応して複数用意しておくことができる。   Incidentally, the client 140A may request the server 1110 to transmit a plurality of images generated by the same input device. At that time, the photographing lens 110A may be a zoom lens, and the plurality of images may be captured and generated with different set focal lengths. In such a case, the set of information including the divided region representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each region described with reference to FIG. A plurality of lenses 110A can be prepared corresponding to the focal lengths that can be set by the zoom lens.

つまり、第1の実施の形態で図7Dを参照して説明したような、分割領域代表特性情報、代表特性指定情報、領域ごとの分光感度補正係数を含む情報のセット702−1、702−2、…、702−nを予め生成することができる。ここで、予め生成するとは、クライアント140Aからサーバ1110に対して、同じ撮影装置100Aおよび撮影レンズ110Aの組み合わせで撮影されて生成された複数の画像データの送出の要求があった場合、サーバ1110がクライアント140Aに一連の画像データを送出する前に上記情報のセットを生成する、という意味である。   That is, as described with reference to FIG. 7D in the first embodiment, sets of information 702-1 and 702-2 including divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each region. ,... 702-n can be generated in advance. Here, “pre-generation” means that when there is a request from the client 140A to the server 1110 to send out a plurality of image data generated by the combination of the same photographing device 100A and photographing lens 110A, the server 1110 This means that the set of information is generated before sending a series of image data to the client 140A.

クライアント140Aが、サーバ1110から送出された画像データに付加されている二次入力プロファイル情報に基づいて色変換処理をすることが可能に構成されるものである場合、クライアント140Aは色変換処理部を有する。この色変換処理部は、第1の実施の形態で図9を参照して説明したものと同じものとすることが可能である。   When the client 140A is configured to be able to perform color conversion processing based on the secondary input profile information added to the image data sent from the server 1110, the client 140A includes a color conversion processing unit. Have. This color conversion processing unit can be the same as that described with reference to FIG. 9 in the first embodiment.

図15は、クライアント140Aによって実行されるマルチバンド画像データ取得処理の手順を説明する概略フローチャートである。クライアント140A内の記憶装置内に記憶されるプログラムが読み出され、クライアント140A内の処理装置によってこのプログラムが実行されることによりマルチバンド画像データの取得処理が行われる。   FIG. 15 is a schematic flowchart illustrating a procedure of multiband image data acquisition processing executed by the client 140A. A program stored in the storage device in the client 140A is read out, and the processing device in the client 140A executes the program to perform multiband image data acquisition processing.

S1502においてクライアント140Aは取得する画像の種別の入力を受け付ける。つまり、サーバ1110から送出される画像として出力用画像データを希望するか、あるいは二次入力プロファイル情報付きの画像データを希望するかに応じてクライアント140Aのユーザが行う設定操作を受け付ける。   In S1502, the client 140A receives an input of the type of image to be acquired. That is, a setting operation performed by the user of the client 140A is accepted depending on whether image data for output is desired as an image transmitted from the server 1110 or image data with secondary input profile information is desired.

S1504においてクライアント140Aは、S1502で受け付けたオペレータの設定操作に基づき、出力用画像データの取得をオペレータは希望しているか否かを判定する。S1504での判定が肯定された場合、クライアント140AはS1506において出力用画像データの送出をサーバ1110へ要求する。   In S <b> 1504, the client 140 </ b> A determines whether the operator desires to acquire output image data based on the operator's setting operation received in S <b> 1502. If the determination in step S1504 is affirmed, the client 140A requests the server 1110 to send output image data in step S1506.

S1508においてクライアント140Aは、出力プロファイルをサーバ1110へ出力する。この出力プロファイルには、クライアント140Aに含まれる、あるいは接続される画像出力装置の出力プロファイルや、クライアント140Aの存在する環境を照明する照明光(これを観察照明光と称する)の特性に関する情報等を含めることが可能である。S1510においてクライアント140Aは、サーバ1110から送出された出力用画像データを受信する。   In S1508, the client 140A outputs the output profile to the server 1110. This output profile includes the output profile of the image output apparatus included in or connected to the client 140A, information on the characteristics of illumination light (referred to as observation illumination light) that illuminates the environment where the client 140A exists, and the like. Can be included. In step S1510, the client 140A receives the output image data sent from the server 1110.

S1504での判定が否定された場合、すなわちオペレータは二次入力プロファイル情報付きの画像データの取得を希望していると判定される場合、処理はS1514に進む。S1514においてクライアント140Aは、二次入力プロファイル情報付きの画像データの送出をサーバ1110へ要求する。   If the determination in S1504 is negative, that is, if it is determined that the operator wants to acquire image data with secondary input profile information, the process proceeds to S1514. In S1514, the client 140A requests the server 1110 to transmit image data with secondary input profile information.

S1516においてクライアント140Aは、二次入力プロファイル情報付きの画像データをサーバ1110から受信する。S1518においてクライアント140Aは、サーバ1110から送出された画像データに付加される二次入力プロファイル情報と、クライアント140A内に記憶される出力プロファイルの情報とを用いて色変換処理を行う。S1518における色変換処理に関しては、第1の実施の形態で図10A、図10Bを参照して説明したものと同様の処理を行うことが可能である。   In S1516, the client 140A receives image data with secondary input profile information from the server 1110. In step S1518, the client 140A performs color conversion processing using the secondary input profile information added to the image data transmitted from the server 1110 and the output profile information stored in the client 140A. Regarding the color conversion processing in S1518, it is possible to perform the same processing as that described with reference to FIGS. 10A and 10B in the first embodiment.

S1512でクライアント140Aは、S1510で受信した出力用画像データまたはS1518の色変換処理により生成された画像データを、表示装置144やプリンタ150等の画像出力装置に送信し、マルチバンド画像データ取得処理を完了する。   In step S1512, the client 140A transmits the output image data received in step S1510 or the image data generated by the color conversion processing in step S1518 to an image output device such as the display device 144 or the printer 150, and performs multiband image data acquisition processing. Complete.

図16は、サーバ1110によって実行されるマルチバンド画像データ送出処理の手順を説明する概略フローチャートである。サーバ1110内の記憶装置内に記憶されるプログラムが読み出されてサーバ1110により実行されることによりマルチバンド画像データの送出処理が行われる。   FIG. 16 is a schematic flowchart illustrating a procedure of multiband image data transmission processing executed by the server 1110. A program stored in the storage device in the server 1110 is read out and executed by the server 1110, whereby multiband image data transmission processing is performed.

S1602においてサーバ1110は、クライアント140Aから発せられた画像送出要求を受信する。S1604においてサーバ1110は、クライアント140Aから送出を要求された画像データが二次入力プロファイル情報を有しているか否かを判定する。S1604での判定が肯定された場合、すなわちクライアント140Aから送出を要求された画像データが二次入力プロファイル情報を有していると判定された場合、処理はS1606に進む。   In step S1602, the server 1110 receives the image transmission request issued from the client 140A. In step S1604, the server 1110 determines whether the image data requested to be transmitted from the client 140A has secondary input profile information. If the determination in S1604 is affirmative, that is, if it is determined that the image data requested to be transmitted from the client 140A has secondary input profile information, the process proceeds to S1606.

一方、S1604で、クライアント140Aから送出を要求された画像データが二次入力プロファイル情報を有していないと判定される場合、S1620で二次入力プロファイル情報が生成され、画像データに付加されて、処理はS1606に進む。S1620における処理は、第1の実施の形態で図8A、図8Bを参照して説明した処理と同様のものとすることが可能である。   On the other hand, if it is determined in S1604 that the image data requested to be transmitted from the client 140A does not have the secondary input profile information, the secondary input profile information is generated and added to the image data in S1620. The processing proceeds to S1606. The process in S1620 can be the same as the process described with reference to FIGS. 8A and 8B in the first embodiment.

ここでS1604での処理について説明する。クライアント140Aから送出を要求された画像データは、過去に他のクライアントから二次入力プロファイル情報付きの画像データとして送出を要求された可能性がある。そのような場合には、過去に生成された二次入力プロファイル情報を当該の画像データとともに保存することができる。あるいは、撮影装置100Aが第1の実施の形態の撮影装置100と同様の仕様を有するものである場合、サーバ1110の補助記憶装置1420にオリジナル画像データを蓄積する時点で画像データは二次入力プロファイル情報が付されている。このように、過去に二次入力プロファイル情報が生成された画像データである場合、あるいは図7Aに示されるような入力プロファイル情報を生成可能な撮影装置で生成された画像データである場合、S1604での判定は肯定される。   Here, the processing in S1604 will be described. The image data requested to be transmitted from the client 140A may have been requested to be transmitted as image data with secondary input profile information from another client in the past. In such a case, the secondary input profile information generated in the past can be stored together with the image data. Alternatively, when the photographing apparatus 100A has the same specifications as the photographing apparatus 100 of the first embodiment, the image data is stored in the secondary input profile when the original image data is stored in the auxiliary storage device 1420 of the server 1110. Information is attached. As described above, in the case of image data in which secondary input profile information has been generated in the past, or in the case of image data generated by a photographing apparatus capable of generating input profile information as shown in FIG. 7A, in S1604. This determination is affirmed.

S1606においてサーバ1110は、クライアント140Aから要求されている画像データの種別が出力用画像データであるか否かの判定を行う。S1606での判定が肯定された場合、すなわちクライアント140Aから要求されている画像データの種別が出力用画像データである場合、S1608に進む。サーバ1110はS1608において、出力プロファイルの情報をクライアント140Aから受信する。   In step S1606, the server 1110 determines whether the type of image data requested from the client 140A is output image data. If the determination in S1606 is affirmative, that is, if the type of image data requested from the client 140A is output image data, the process advances to S1608. In step S1608, the server 1110 receives the output profile information from the client 140A.

S1610においてサーバ1110は、色変換処理を行う。この色変換処理は、第1の実施の形態で図10A、図10Bを参照して説明したような方法で行うことができる。この場合、画像データに付加される(あるいはS1620で生成された)二次入力プロファイル情報が色変換処理に際して用いられる。すなわち、領域ごとの分光反射率推定マトリクスを用いて入力プロファイルが作成され、領域ごとのマトリクス演算がなされる。   In step S1610, the server 1110 performs color conversion processing. This color conversion processing can be performed by the method described with reference to FIGS. 10A and 10B in the first embodiment. In this case, the secondary input profile information added to the image data (or generated in S1620) is used in the color conversion process. That is, an input profile is created using the spectral reflectance estimation matrix for each region, and matrix calculation is performed for each region.

S1612でサーバ1110は、クライアント140Aに画像データを送出し、一連のマルチバンド画像データ送出処理を完了する。   In step S1612, the server 1110 transmits image data to the client 140A, and completes a series of multiband image data transmission processing.

以上の図16のフローチャートを参照しての説明では、クライアント140Aから送出を要求された画像データが二次入力プロファイル情報を有していないと判定されたときに二次入力プロファイル情報が生成されるものであった。これに関して、以下のようにすることも可能である。すなわち、画像入力機器で生成されたオリジナル画像データが補助記憶装置1420に蓄積される時点で、当該のオリジナル画像データに二次入力プロファイル情報が付加されているか否かを判定することができる。そして、二次入力プロファイル情報が付加されていないと判定されたときに二次入力プロファイル情報を生成する処理をすることが可能である。   In the above description with reference to the flowchart of FIG. 16, the secondary input profile information is generated when it is determined that the image data requested to be transmitted from the client 140A does not have the secondary input profile information. It was a thing. In this regard, it is also possible to do the following. That is, when the original image data generated by the image input device is accumulated in the auxiliary storage device 1420, it can be determined whether or not secondary input profile information is added to the original image data. Then, when it is determined that the secondary input profile information is not added, it is possible to perform a process of generating the secondary input profile information.

このとき、例えば撮影装置100Aと撮影レンズ110Aとの組み合わせによって撮影され、生成された複数のオリジナル画像データが補助記憶装置1420に蓄積される場合がある。そのような場合には、第1の実施の形態で図7Dを参照して説明したような、分割領域代表特性情報、代表特性指定情報、領域ごとの分光感度補正係数を含む情報のセット702−1、702−2、…、702−nを予め生成しておくことができる。ここで予め生成しておくとは、同じ撮影装置100Aおよび撮影レンズ110Aの組み合わせで撮影され、生成された、一連の複数の画像データそれぞれに対する二次入力プロファイル情報を生成する前に、予め上記情報のセットを生成する、ということである。このようにすることにより、二次入力プロファイル情報生成の処理を効率化することが可能となる。   At this time, for example, there may be a case where a plurality of original image data generated by the combination of the imaging device 100A and the imaging lens 110A is stored in the auxiliary storage device 1420. In such a case, a set of information 702 including divided area representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each area as described with reference to FIG. 7D in the first embodiment. 1, 702-2,..., 702-n can be generated in advance. “Preliminarily generating” means that the above information is generated in advance before generating the secondary input profile information for each of a plurality of series of image data captured and generated by the same combination of the imaging device 100A and the imaging lens 110A. To generate a set of In this way, it is possible to improve the efficiency of the secondary input profile information generation process.

本発明の第2の実施の形態では、以下に説明するような利点を有する。先ず、撮影装置100Aが生成する一次入力プロファイル情報は二次入力プロファイル情報に比して情報量が少なく、一次入力プロファイル情報を生成する際の処理負荷も軽減される。したがって、撮影装置100Aで連続撮影をする際の連続撮影速度(コマ速)を上げることが可能となる。また、記憶媒体240にはより多くのオリジナル画像データを記録することが可能となる。   The second embodiment of the present invention has the following advantages. First, the primary input profile information generated by the imaging apparatus 100A has a smaller amount of information than the secondary input profile information, and the processing load when generating the primary input profile information is reduced. Therefore, it is possible to increase the continuous shooting speed (frame speed) when continuous shooting is performed with the shooting apparatus 100A. Further, more original image data can be recorded on the storage medium 240.

さらに、サーバ1110からクライアント140Aに入力プロファイル付きの画像データが送出される際、画像データに付加される二次入力プロファイル情報の情報量を、画素のひとつ一つに対応する入力プロファイル情報が付加される場合に比して大幅に減じることが可能となる。したがって、画像データの転送に要する時間を短縮することが可能となる。   Furthermore, when image data with an input profile is sent from the server 1110 to the client 140A, the amount of secondary input profile information added to the image data is added to the input profile information corresponding to each pixel. It is possible to greatly reduce as compared with the case of. Accordingly, it is possible to shorten the time required for transferring the image data.

本発明に係るマルチバンド画像の技術は、デジタルスチルカメラ、デジタルムービーカメラ、携帯電話に組み込まれるカメラ等の撮影装置、コンテンツ送出用のサーバ、モニタ表示装置等に接続されて用いられるセットトップボックス、ビデオプレーヤ、ビデオレコーダ等に適用することが可能である。   The technology of multiband images according to the present invention includes a digital still camera, a digital movie camera, a photographing device such as a camera incorporated in a mobile phone, a server for content transmission, a set top box used by being connected to a monitor display device, The present invention can be applied to a video player, a video recorder, and the like.

100、100A 撮影装置
102 カメラCPU
110、110A 撮影レンズ
112 レンズCPU
140 情報処理装置
140A 第2の情報処理装置(クライアント)
142 PC
144 表示装置
150 プリンタ
206 画像処理部
210、212 シャッタ
214、216 光学フィルタ
218、220 撮像素子
240 記憶媒体
600、600A、1470 付帯情報付加処理部
602 レンズ情報取得部
604 撮影情報取得部
606 被写体特性情報入力部
608 撮影照明光情報入力部
610、610S 周辺減光導出部
612、612S 入射角度導出部
614、614S 感度むら導出部
616 バイアス・トーン特性抽出部
618、618S フィルタ特性変化量導出部
620、620S 領域分割処理部
622、622A、622S 入力プロファイル情報生成部
624、624S データフォーマット処理部
626、626S 総合分光特性導出部
628A、628AS 代表特性情報生成部
628B、628BS 補正係数生成部
628C、628CS 情報集約処理部
700 入力プロファイル情報
700A 一次入力プロファイル情報
702−1、702−2 情報のセット
900 色変換処理部
910 入力プロファイル処理部
912 トーン補正部
914 領域分割部
916 領域ごとのマトリクス演算部
920 出力プロファイル作用部
930 入力プロファイル作成部
932 バイアス・トーンカーブ補正情報取得部
934 領域分割情報取得部
936 領域ごとの分光反射率推定マトリクス作成部
938 領域ごとのシステム関数算出部
940 領域ごとの分光感度作成部
942 撮影照明情報取得部
950 画像出力装置
1110 第1の情報処理装置(コンテンツサーバ)
1402 画像データ取得部
1404 入力機器ID情報取得部
1406 撮影設定情報取得部
1408 撮影照明光情報取得部
1410 被写体特性情報取得部
1412 ボディID情報取得部
1414 レンズID情報取得部
1416 入力プロファイル生成用情報取得部
1418 バイアス・トーンカーブ情報取得部
1420 補助記憶装置
1430 色変換処理部
100, 100A Imaging device 102 Camera CPU
110, 110A Photography lens 112 Lens CPU
140 Information processing device 140A Second information processing device (client)
142 PC
144 Display device 150 Printer 206 Image processing unit 210, 212 Shutter 214, 216 Optical filter 218, 220 Image sensor 240 Storage medium 600, 600A, 1470 Attached information addition processing unit 602 Lens information acquisition unit 604 Shooting information acquisition unit 606 Subject characteristic information Input unit 608 Imaging illumination light information input unit 610, 610S Peripheral dimming deriving unit 612, 612S Incident angle deriving unit 614, 614S Sensitivity unevenness deriving unit 616 Bias / tone characteristic extracting unit 618, 618S Filter characteristic change amount deriving unit 620, 620S Region division processing unit 622, 622A, 622S Input profile information generation unit 624, 624S Data format processing unit 626, 626S Total spectral characteristic derivation unit 628A, 628AS Representative characteristic information generation unit 628B, 628BS Correction coefficient Generation unit 628C, 628CS Information aggregation processing unit 700 Input profile information 700A Primary input profile information 702-1, 702-2 Set of information 900 Color conversion processing unit 910 Input profile processing unit 912 Tone correction unit 914 Area division unit 916 For each area Matrix operation unit 920 Output profile operation unit 930 Input profile creation unit 932 Bias / tone curve correction information acquisition unit 934 Region division information acquisition unit 936 Spectral reflectivity estimation matrix creation unit for each region 938 System function calculation unit for each region 940 For each region Spectral Sensitivity Creation Unit 942 Imaging Illumination Information Acquisition Unit 950 Image Output Device 1110 First Information Processing Device (Content Server)
1402 Image data acquisition unit 1404 Input device ID information acquisition unit 1406 Shooting setting information acquisition unit 1408 Shooting illumination light information acquisition unit 1410 Subject characteristic information acquisition unit 1412 Body ID information acquisition unit 1414 Lens ID information acquisition unit 1416 Input profile generation information acquisition Unit 1418 Bias / tone curve information acquisition unit 1420 Auxiliary storage device 1430 Color conversion processing unit

Claims (15)

撮影光学系によってイメージエリア上に形成される被写体像に対応する複数の色数のカラー画像信号を生成可能な撮像素子と、
前記撮影光学系の前側、中、後側のいずれかに配設されて、前記撮影光学系を経て前記撮像素子に入射する被写体光の分光特性を変化させることの可能な光学フィルタと
を有し、前記色数よりも多い数のバンドのマルチバンド画像データを生成可能な撮影装置であって、
前記撮像素子、前記撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して前記イメージエリア上で等価的に生じる分光感度のむらを反映した第1の分光特性分布情報を生成する第1分光特性分布情報生成部と、
前記撮影光学系および前記光学フィルタに起因して前記イメージエリア上に形成される被写体像に生じる分光特性のむらを反映した第2の分光特性分布情報を生成する第2分光特性分布情報生成部と、
前記第1および第2の分光特性分布情報の両方または前記第2の分光分布情報のみに基づいて前記撮像素子の総合分光感度特性を表す情報を生成し、当該の情報を含む入力プロファイル情報を生成する入力プロファイル情報生成部と、
前記入力プロファイル情報を前記マルチバンド画像データに付加してフォーマット処理をするデータフォーマット処理部とを有し、
前記入力プロファイル情報生成部が、
前記イメージエリアを複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する前記総合分光感度特性をもとに、それぞれの分割領域を代表する総合分光感度特性に関する情報である分割領域代表特性情報を生成する代表特性情報生成部と、
前記分割領域代表特性情報を他の情報とともに集約して前記入力プロファイル情報を生成する情報集約処理部と
を有することを特徴とする、撮影装置。
An imaging device capable of generating color image signals of a plurality of colors corresponding to a subject image formed on an image area by a photographing optical system;
An optical filter disposed on either the front side, the middle side, or the rear side of the photographing optical system and capable of changing a spectral characteristic of subject light incident on the imaging device via the photographing optical system. An imaging device capable of generating multiband image data of a number of bands larger than the number of colors,
A first spectrum reflecting unevenness in spectral sensitivity equivalently occurring on the image area due to at least one of the image sensor, a processing system for processing an image signal output from the image sensor, and a shutter. A first spectral characteristic distribution information generation unit that generates characteristic distribution information;
A second spectral characteristic distribution information generation unit that generates second spectral characteristic distribution information that reflects non-uniformity of spectral characteristics generated in a subject image formed on the image area due to the photographing optical system and the optical filter;
Based on both the first and second spectral characteristic distribution information or only the second spectral distribution information, information representing the total spectral sensitivity characteristic of the image sensor is generated, and input profile information including the information is generated. An input profile information generator to
A data format processing unit that performs format processing by adding the input profile information to the multiband image data;
The input profile information generation unit
The image area is divided into a plurality of divided areas, and based on the total spectral sensitivity characteristics corresponding to each of a plurality of pixels included in each divided area, the total spectral sensitivity characteristics representing each divided area A representative characteristic information generating unit that generates divided area representative characteristic information that is information;
An imaging apparatus, comprising: an information aggregation processing unit that aggregates the divided region representative characteristic information together with other information to generate the input profile information.
前記代表特性情報生成部がさらに、
前記複数の分割領域ごとに生成された、前記分割領域の数と同じ数の前記分割領域代表特性情報を、前記分割領域の数よりも少ない数に減じる処理である分割領域代表特性情報減数処理を行い、前記複数の分割領域のそれぞれに対応して、前記分割領域の数よりも少ない数に減じられた前記分割領域代表特性情報のうち、どの分割領域代表特性情報を適用するかを指定する情報である代表特性指定情報を生成するように構成されることを特徴とする請求項1に記載の撮影装置。
The representative characteristic information generation unit further includes:
A divided area representative characteristic information reduction process, which is a process of reducing the number of divided area representative characteristic information equal to the number of divided areas generated for each of the plurality of divided areas to a number smaller than the number of divided areas. Information for designating which divided area representative characteristic information to be applied among the divided area representative characteristic information reduced to a number smaller than the number of divided areas corresponding to each of the plurality of divided areas. The photographing apparatus according to claim 1, wherein the photographing apparatus is configured to generate representative characteristic designation information.
前記入力プロファイル情報生成部がさらに、
前記撮影光学系の周辺光量低下特性と、前記撮像素子のイメージエリア内の各画素に被写体光が入射する際の入射光量の像高依存性とに起因する周辺減光特性を補正するための、領域ごとの分光感度補正係数を前記複数の分割領域に対応して生成する補正係数生成部をさらに有することを特徴とする請求項2に記載の撮影装置。
The input profile information generation unit further includes
In order to correct the peripheral light reduction characteristics due to the peripheral light amount reduction characteristics of the photographing optical system and the image height dependence of the incident light quantity when the subject light is incident on each pixel in the image area of the image sensor, The imaging apparatus according to claim 2, further comprising a correction coefficient generation unit that generates a spectral sensitivity correction coefficient for each area corresponding to the plurality of divided areas.
前記撮影光学系は複数の焦点距離に設定可能な変倍光学系であり、
前記入力プロファイル情報生成部がさらに、
前記撮影光学系で設定可能な前記複数の焦点距離のそれぞれに対応する複数セットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数を撮影に先立って生成し、当該の複数セットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数の中から、撮影時に前記撮影光学系で設定されていた焦点距離に対応するセットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数を選択するように構成されることを特徴とする請求項3に記載の撮影装置。
The photographing optical system is a variable magnification optical system that can be set to a plurality of focal lengths,
The input profile information generation unit further includes
Prior to photographing, a plurality of sets of divided region representative characteristic information, representative characteristic designation information, and spectral sensitivity correction coefficient for each region corresponding to each of the plurality of focal lengths that can be set by the photographing optical system are generated. The set corresponding to the focal length set by the photographing optical system at the time of photographing is selected from the plurality of sets of divided region representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each region. The imaging apparatus according to claim 3, wherein the imaging apparatus is configured to select the divided area representative characteristic information, the representative characteristic designation information, and a spectral sensitivity correction coefficient for each area.
請求項1から4のいずれか1つに記載の撮影装置で生成されたマルチバンド画像データに色変換処理をする色変換処理装置であって、
前記分割領域代表特性情報に基づき、前記複数の分割領域のそれぞれに対応する、分割領域ごとの入力プロファイルを作成する入力プロファイル作成部と、
前記複数の分割領域中のそれぞれの分割領域内の全ての画素データに対し、当該の分割領域に対応して作成された入力プロファイルを一律に作用させる入力プロファイル作用部と
を有することを特徴とする色変換処理装置。
A color conversion processing device for performing color conversion processing on multiband image data generated by the photographing device according to claim 1,
Based on the divided region representative characteristic information, an input profile creating unit that creates an input profile for each divided region corresponding to each of the plurality of divided regions;
An input profile operation unit that uniformly applies an input profile created corresponding to the divided area to all pixel data in each divided area of the plurality of divided areas. Color conversion processing device.
撮影光学系によってイメージエリア上に形成される被写体像に対応する複数の色数のカラー画像信号を生成可能な撮像素子と、
前記撮影光学系の前側、中、後側のいずれかに配設されて、前記撮影光学系を経て前記撮像素子に入射する被写体光の分光特性を変化させることの可能な光学フィルタと
を有し、前記色数よりも多い数のバンドのマルチバンド画像データを生成可能な撮影装置によって生成されたマルチバンド画像データが蓄積されて、当該のマルチバンド画像データをクライアント情報処理装置に送出可能なサーバ情報処理装置であって、
前記撮像素子、前記撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して前記イメージエリア上で等価的に生じる分光感度のむらを反映した第1の分光特性分布情報を生成する第1分光特性分布情報生成部と、
前記撮影光学系および前記光学フィルタに起因して前記イメージエリア上に形成される被写体像に生じる分光特性のむらを反映した第2の分光特性分布情報を生成する第2分光特性分布情報生成部と、
前記第1および第2の分光特性分布情報の両方または前記第2の分光分布情報のみに基づいて前記撮像素子の総合分光感度特性を表す情報を生成し、当該の情報を含む入力プロファイル情報を生成する入力プロファイル情報生成部と、
前記入力プロファイル情報を前記マルチバンド画像データに付加してフォーマット処理をするデータフォーマット処理部とを有し、
前記入力プロファイル情報生成部が、
前記イメージエリアを複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する前記総合分光感度特性をもとに、それぞれの分割領域を代表する総合分光感度特性に関する情報である分割領域代表特性情報を生成する代表特性情報生成部と、
前記分割領域代表特性情報を他の情報とともに集約して前記入力プロファイル情報を生成する情報集約処理部と
を有することを特徴とする、サーバ情報処理装置。
An imaging device capable of generating color image signals of a plurality of colors corresponding to a subject image formed on an image area by a photographing optical system;
An optical filter disposed on either the front side, the middle side, or the rear side of the photographing optical system and capable of changing a spectral characteristic of subject light incident on the imaging device via the photographing optical system. A server capable of storing multiband image data generated by a photographing device capable of generating multiband image data of a number of bands larger than the number of colors and sending the multiband image data to a client information processing device An information processing apparatus,
A first spectrum reflecting unevenness in spectral sensitivity equivalently occurring on the image area due to at least one of the image sensor, a processing system for processing an image signal output from the image sensor, and a shutter. A first spectral characteristic distribution information generation unit that generates characteristic distribution information;
A second spectral characteristic distribution information generation unit that generates second spectral characteristic distribution information that reflects non-uniformity of spectral characteristics generated in a subject image formed on the image area due to the photographing optical system and the optical filter;
Based on both the first and second spectral characteristic distribution information or only the second spectral distribution information, information representing the total spectral sensitivity characteristic of the image sensor is generated, and input profile information including the information is generated. An input profile information generator to
A data format processing unit that performs format processing by adding the input profile information to the multiband image data;
The input profile information generation unit
The image area is divided into a plurality of divided areas, and based on the total spectral sensitivity characteristics corresponding to each of a plurality of pixels included in each divided area, the total spectral sensitivity characteristics representing each divided area A representative characteristic information generating unit that generates divided area representative characteristic information that is information;
A server information processing apparatus comprising: an information aggregation processing unit that aggregates the divided region representative characteristic information together with other information to generate the input profile information.
前記代表特性情報生成部がさらに、
前記複数の分割領域ごとに生成された、前記分割領域の数と同じ数の前記分割領域代表特性情報を、前記分割領域の数よりも少ない数に減じる処理である分割領域代表特性情報減数処理を行い、前記複数の分割領域のそれぞれに対応して、前記分割領域の数よりも少ない数に減じられた前記分割領域代表特性情報のうち、どの分割領域代表特性情報を適用するかを指定する情報である代表特性指定情報を生成するように構成されることを特徴とする請求項6に記載のサーバ情報処理装置。
The representative characteristic information generation unit further includes:
A divided area representative characteristic information reduction process, which is a process of reducing the number of divided area representative characteristic information equal to the number of divided areas generated for each of the plurality of divided areas to a number smaller than the number of divided areas. Information for designating which divided area representative characteristic information to be applied among the divided area representative characteristic information reduced to a number smaller than the number of divided areas corresponding to each of the plurality of divided areas. The server information processing apparatus according to claim 6, wherein the server information processing apparatus is configured to generate representative characteristic designation information.
前記入力プロファイル情報生成部がさらに、
前記撮影光学系の周辺光量低下特性と、前記撮像素子のイメージエリア内の各画素に被写体光が入射する際の入射光量の像高依存性とに起因する周辺減光特性を補正するための、領域ごとの分光感度補正係数を前記複数の分割領域に対応して生成する補正係数生成部を有することを特徴とする請求項7に記載のサーバ情報処理装置。
The input profile information generation unit further includes
In order to correct the peripheral light reduction characteristics due to the peripheral light amount reduction characteristics of the photographing optical system and the image height dependence of the incident light quantity when the subject light is incident on each pixel in the image area of the image sensor, The server information processing apparatus according to claim 7, further comprising a correction coefficient generation unit that generates a spectral sensitivity correction coefficient for each area corresponding to the plurality of divided areas.
前記撮影光学系は複数の焦点距離に設定可能な変倍光学系であり、
前記入力プロファイル情報生成部がさらに、
前記撮影光学系で設定可能な前記複数の焦点距離のそれぞれに対応する複数セットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数を予め生成し、当該の複数セットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数の中から、撮影時に前記撮影光学系で設定されていた焦点距離に対応するセットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数を選択するように構成されることを特徴とする請求項8に記載のサーバ情報処理装置。
The photographing optical system is a variable magnification optical system that can be set to a plurality of focal lengths,
The input profile information generation unit further includes
A plurality of sets of divided region representative characteristic information corresponding to each of the plurality of focal lengths that can be set by the photographing optical system, the representative characteristic designation information, and a spectral sensitivity correction coefficient for each region are generated in advance, The divided region of the set corresponding to the focal length set by the photographing optical system at the time of photographing from among the plural regions of the divided region representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each region. 9. The server information processing apparatus according to claim 8, wherein the server information processing apparatus is configured to select representative characteristic information, the representative characteristic designation information, and a spectral sensitivity correction coefficient for each region.
請求項6から9のいずれか1つに記載のサーバ情報処理装置から送出されたマルチバンド画像データを受信して色変換処理をすることが可能なクライアント情報処理装置であって、
前記分割領域代表特性情報に基づき、前記複数の分割領域のそれぞれに対応する、分割領域ごとの入力プロファイルを作成する入力プロファイル作成部と、
前記複数の分割領域中のそれぞれの分割領域内の全ての画素データに対し、当該の分割領域に対応して作成された入力プロファイルを一律に作用させる入力プロファイル作用部と
を有することを特徴とするクライアント情報処理装置。
A client information processing apparatus capable of receiving the multiband image data transmitted from the server information processing apparatus according to any one of claims 6 to 9 and performing color conversion processing,
Based on the divided region representative characteristic information, an input profile creating unit that creates an input profile for each divided region corresponding to each of the plurality of divided regions;
An input profile operation unit that uniformly applies an input profile created corresponding to the divided area to all pixel data in each divided area of the plurality of divided areas. Client information processing device.
撮影光学系によってイメージエリア上に形成される被写体像に対応する複数の色数のカラー画像信号を生成可能な撮像素子と、
前記撮影光学系の前側、中、後側のいずれかに配設されて、前記撮影光学系を経て前記撮像素子に入射する被写体光の分光特性を変化させることの可能な光学フィルタと
を有し、前記色数よりも多い数のバンドのマルチバンド画像データを生成可能な撮影装置によって生成されたマルチバンド画像データが蓄積されていて、当該のマルチバンド画像データをクライアント情報処理装置に送出可能なサーバ情報処理装置における画像データ処理方法であって、
前記撮像素子、前記撮像素子から出力される画像信号を処理する処理系、およびシャッタのうち、少なくともいずれかに起因して前記イメージエリア上で等価的に生じる分光感度のむらを反映した第1の分光特性分布情報を生成することと、
前記撮影光学系および前記光学フィルタに起因して前記イメージエリア上に形成される被写体像に生じる分光特性のむらを反映した第2の分光特性分布情報を生成することと、
前記第1および第2の分光特性分布情報の両方または前記第2の分光分布情報のみに基づいて前記撮像素子の総合分光感度特性を表す情報を生成し、当該の情報を含む入力プロファイル情報を生成することと、
前記入力プロファイル情報を前記マルチバンド画像データに付加してフォーマット処理をすることとを有し、
前記入力プロファイル情報を生成することが、
前記イメージエリアを複数の分割領域に分割し、それぞれの分割領域内に含まれる複数の画素のそれぞれに対応する前記総合分光感度特性をもとに、それぞれの分割領域を代表する総合分光感度特性に関する情報である分割領域代表特性情報を生成することと、
前記分割領域代表特性情報を他の情報とともに集約して前記入力プロファイル情報を生成することと
を有することを特徴とする、サーバ情報処理装置における画像データ処理方法。
An imaging device capable of generating color image signals of a plurality of colors corresponding to a subject image formed on an image area by a photographing optical system;
An optical filter disposed on either the front side, the middle side, or the rear side of the photographing optical system and capable of changing a spectral characteristic of subject light incident on the imaging device via the photographing optical system. Multi-band image data generated by a photographing device capable of generating multi-band image data of a number of bands larger than the number of colors is accumulated, and the multi-band image data can be transmitted to the client information processing device An image data processing method in a server information processing apparatus,
A first spectrum reflecting unevenness in spectral sensitivity equivalently occurring on the image area due to at least one of the image sensor, a processing system for processing an image signal output from the image sensor, and a shutter. Generating characteristic distribution information;
Generating second spectral characteristic distribution information reflecting unevenness of spectral characteristics generated in a subject image formed on the image area due to the photographing optical system and the optical filter;
Based on both the first and second spectral characteristic distribution information or only the second spectral distribution information, information representing the total spectral sensitivity characteristic of the image sensor is generated, and input profile information including the information is generated. To do
Adding the input profile information to the multiband image data and performing format processing;
Generating the input profile information;
The image area is divided into a plurality of divided areas, and based on the total spectral sensitivity characteristics corresponding to each of a plurality of pixels included in each divided area, the total spectral sensitivity characteristics representing each divided area Generating divided region representative characteristic information that is information;
An image data processing method in a server information processing apparatus, comprising: generating the input profile information by aggregating the divided region representative characteristic information together with other information.
前記分割領域代表特性情報を生成することがさらに、
前記複数の分割領域ごとに生成された、前記分割領域の数と同じ数の前記分割領域代表特性情報を、前記分割領域の数よりも少ない数に減じる処理である分割領域代表特性情報減数処理を行い、前記複数の分割領域のそれぞれに対応して、前記分割領域の数よりも少ない数に減じられた前記分割領域代表特性情報のうち、どの分割領域代表特性情報を適用するかを指定する情報である代表特性指定情報を生成することを含むことを特徴とする請求項11に記載のサーバ情報処理装置における画像データ処理方法。
Generating the divided region representative characteristic information;
A divided area representative characteristic information reduction process, which is a process of reducing the number of divided area representative characteristic information equal to the number of divided areas generated for each of the plurality of divided areas to a number smaller than the number of divided areas. Information for designating which divided area representative characteristic information to be applied among the divided area representative characteristic information reduced to a number smaller than the number of divided areas corresponding to each of the plurality of divided areas. The image data processing method in the server information processing apparatus according to claim 11, further comprising: generating representative characteristic designation information that is
前記入力プロファイル情報を生成することがさらに、
前記撮影光学系の周辺光量低下特性と、前記撮像素子のイメージエリア内の各画素に被写体光が入射する際の入射光量の像高依存性とに起因する周辺減光特性を補正するための、領域ごとの分光感度補正係数を前記複数の分割領域に対応して生成することをさらに有することを特徴とする請求項12に記載のサーバ情報処理装置における画像データ処理方法。
Generating the input profile information further;
In order to correct the peripheral light reduction characteristics due to the peripheral light amount reduction characteristics of the photographing optical system and the image height dependence of the incident light quantity when the subject light is incident on each pixel in the image area of the image sensor, The image data processing method in the server information processing apparatus according to claim 12, further comprising generating a spectral sensitivity correction coefficient for each area corresponding to the plurality of divided areas.
前記撮影光学系は複数の焦点距離に設定可能な変倍光学系であり、
前記入力プロファイル情報を生成することがさらに、
前記撮影光学系で設定可能な前記複数の焦点距離のそれぞれに対応する複数セットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数を予め生成し、当該の複数セットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数の中から、撮影時に前記撮影光学系で設定されていた焦点距離に対応するセットの前記分割領域代表特性情報、前記代表特性指定情報、および前記領域ごとの分光感度補正係数を選択することを含むことを特徴とする請求項13に記載のサーバ情報処理装置における画像データ処理方法。
The photographing optical system is a variable magnification optical system that can be set to a plurality of focal lengths,
Generating the input profile information further;
A plurality of sets of divided region representative characteristic information corresponding to each of the plurality of focal lengths that can be set by the photographing optical system, the representative characteristic designation information, and a spectral sensitivity correction coefficient for each region are generated in advance, The divided region of the set corresponding to the focal length set by the photographing optical system at the time of photographing from among the plural regions of the divided region representative characteristic information, the representative characteristic designation information, and the spectral sensitivity correction coefficient for each region. The image data processing method in the server information processing apparatus according to claim 13, further comprising selecting representative characteristic information, the representative characteristic designation information, and a spectral sensitivity correction coefficient for each region.
請求項11から14のいずれか1つに記載の、サーバ情報処理装置における画像データ処理方法で処理されて前記サーバ情報処理装置から送出されたマルチバンド画像データを受信可能なクライアント情報処理装置における色変換処理方法であって、
前記分割領域代表特性情報に基づき、前記複数の分割領域のそれぞれに対応する、分割領域ごとの入力プロファイルを作成することと、
前記複数の分割領域中のそれぞれの分割領域内の全ての画素データに対し、当該の分割領域に対応して作成された入力プロファイルを一律に作用させることと
を有することを特徴とする、クライアント情報処理装置における色変換処理方法。
A color in a client information processing apparatus capable of receiving multiband image data processed by the image data processing method in the server information processing apparatus according to any one of claims 11 to 14 and transmitted from the server information processing apparatus. A conversion processing method,
Creating an input profile for each divided region corresponding to each of the plurality of divided regions based on the divided region representative characteristic information;
The client information characterized in that the input profile created corresponding to the divided area is uniformly applied to all the pixel data in each divided area of the plurality of divided areas. A color conversion processing method in a processing apparatus.
JP2009038132A 2009-02-20 2009-02-20 Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor Withdrawn JP2010193380A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009038132A JP2010193380A (en) 2009-02-20 2009-02-20 Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009038132A JP2010193380A (en) 2009-02-20 2009-02-20 Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor

Publications (1)

Publication Number Publication Date
JP2010193380A true JP2010193380A (en) 2010-09-02

Family

ID=42818907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009038132A Withdrawn JP2010193380A (en) 2009-02-20 2009-02-20 Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor

Country Status (1)

Country Link
JP (1) JP2010193380A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031922A1 (en) * 2014-08-28 2016-03-03 平本 政夫 Multispectral camera
US9766125B2 (en) 2013-02-22 2017-09-19 Seiko Epson Corporation Spectroscopic camera
CN111750991A (en) * 2019-03-26 2020-10-09 精工爱普生株式会社 Spectroscopic camera and inspection system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9766125B2 (en) 2013-02-22 2017-09-19 Seiko Epson Corporation Spectroscopic camera
WO2016031922A1 (en) * 2014-08-28 2016-03-03 平本 政夫 Multispectral camera
JPWO2016031922A1 (en) * 2014-08-28 2017-06-15 平本 政夫 Multispectral camera
CN111750991A (en) * 2019-03-26 2020-10-09 精工爱普生株式会社 Spectroscopic camera and inspection system

Similar Documents

Publication Publication Date Title
US7969483B2 (en) White balance control method, imaging apparatus and storage medium storing white balance control program
CN102883107B (en) Picture pick-up device and control method thereof
US7778481B2 (en) Apparatus and method for image processing including photometry and colorimetry
US8803994B2 (en) Adaptive spatial sampling using an imaging assembly having a tunable spectral response
JP4324404B2 (en) Solid-state imaging device and digital camera
US9483849B2 (en) Method and apparatus for controlling camera for color calibration of multi-displays
US8629919B2 (en) Image capture with identification of illuminant
EP1558022A2 (en) Image processing apparatus, method and program, image pickup apparatus and image data output method and program
US8854515B2 (en) Efficient spectral imaging based on imaging systems with scene adaptation using tunable color pixels
JP2007259344A (en) Imaging apparatus and image processing method
US8040412B2 (en) Imaging apparatus and image data correcting method
JP2010124460A (en) Image reading apparatus and image forming apparatus
JP7286412B2 (en) IMAGE PROCESSING DEVICE AND CONTROL METHOD THEREOF, IMAGING DEVICE, MONITORING SYSTEM
JP2010193380A (en) Photographing apparatus, color conversion processing device, server information processor, client information processor, method of image data processing in server information processor, and method of color conversion processing in client information processor
US8654210B2 (en) Adaptive color imaging
US7760253B2 (en) Imaging device analysis methods, imaging device analysis systems, and articles of manufacture
JP6265625B2 (en) Image processing apparatus and image processing method
JP5247900B2 (en) Image sensor compensation
JP2010141874A (en) Image reading apparatus and image forming apparatus
US11451719B2 (en) Image processing apparatus, image capture apparatus, and image processing method
JP2018074607A (en) Image processing apparatus and camera
JP2008085975A (en) Imaging element characteristic evaluating method and imaging element characteristics evaluating apparatus
JP2013225802A (en) Digital camera, color conversion information generating program, color conversion program, and recording control program
JP2002281513A (en) Image photographing method, spectrum image acquiring device and program
KR20060131754A (en) System and method for effectively performing an image data transformation prodedure

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120501