JP2011223221A - Photographing device and image integration program - Google Patents

Photographing device and image integration program Download PDF

Info

Publication number
JP2011223221A
JP2011223221A JP2010089101A JP2010089101A JP2011223221A JP 2011223221 A JP2011223221 A JP 2011223221A JP 2010089101 A JP2010089101 A JP 2010089101A JP 2010089101 A JP2010089101 A JP 2010089101A JP 2011223221 A JP2011223221 A JP 2011223221A
Authority
JP
Japan
Prior art keywords
color
image
luminance
imaging device
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010089101A
Other languages
Japanese (ja)
Other versions
JP5411786B2 (en
Inventor
Hideki Mitsumine
秀樹 三ッ峰
Hidehiko Okubo
英彦 大久保
Masato Fujii
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2010089101A priority Critical patent/JP5411786B2/en
Publication of JP2011223221A publication Critical patent/JP2011223221A/en
Application granted granted Critical
Publication of JP5411786B2 publication Critical patent/JP5411786B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a high dynamic range even when using an ordinary imaging element for video production.SOLUTION: A photographing device 1 includes a single-plate RGB imaging element 7 and a monochrome imaging element 8, which photograph a subject through a half-mirror 6, and an arithmetic processing unit 3. The arithmetic processing unit 3 includes: brightness calibration means 20 for demosaicking a color photographed image 7a of two photographed images 7a and 8a that are obtained by photographing a color chart in advance by the single-plate RGB imaging element 7 and monochrome imaging element 8, generating a brightness value Yof the color photographed image 7a through a 3×1 color brightness conversion matrix K from an average of RGB values of full resolution, and optimizing the color brightness conversion matrix K so that the brightness value Yand a brightness value Yof the monochrome photographed image 8a match each other; and integrated image generating means 30 for generating an integrated image Iin which color information of the image photographed by the single-plate RGB imaging element 7 is integrated based upon the optimized color brightness conversion matrix K when the subject Ois photographed.

Description

本発明は、撮像技術、画像処理技術に係り、特に、映像制作に用いる映像処理技術に関する。   The present invention relates to an imaging technique and an image processing technique, and more particularly to a video processing technique used for video production.

放送等において用いられる映像作品の製作において、所定の被写体を撮影した後に行われるポストプロダクション(ポスプロともいう)に必要な映像加工の自由度は、クリエイタの想像力に対応するため充分なものが望まれている。   In the production of video works used in broadcasting, etc., the degree of freedom of video processing required for post-production (also referred to as post-production) performed after shooting a predetermined subject should be sufficient to accommodate the creator's imagination. ing.

例えば映像合成などに代表される映像加工を行う元になる精度のよい実写を取得できる撮影装置が存在していてそれを用いることができれば、映像加工の自由度を向上させることが可能になる。しかし、そのような理想的な撮影装置は、費用の面や入手の困難性の理由から、映像加工のために利用されてはいない。これに対して、通常の撮影装置に用いられている撮像デバイス(撮像素子)は、一般に、その時代の放送や通信方式で限定された品質付近を基準に設計され、製造されている。したがって、費用あるいは入手性の面からも、このような通常の撮像デバイスを利用することが現実的である。   For example, if there is a photographing apparatus capable of acquiring a real image with high accuracy based on video processing represented by video composition or the like and it can be used, the degree of freedom in video processing can be improved. However, such an ideal photographing apparatus is not used for image processing because of cost and difficulty in obtaining. On the other hand, an image pickup device (image pickup element) used in a normal photographing apparatus is generally designed and manufactured based on the vicinity of quality limited by the broadcasting or communication method of that era. Therefore, it is realistic to use such a normal imaging device also from the viewpoint of cost or availability.

しかし、放送機器の精度は、クリエイタの想像力を満足させるものではないのが現状である。そして、現状では、例えば放送規格などで規定された程度の精度の放送機器や、そのような精度よりも僅かに高い精度の放送機器が一般的に混合して用いられている。そのため、このような一般的な放送機器を用いて、映像合成などに代表される映像加工を行った場合、画像が劣化したり、違和感を与えるものとなったりする。例えば、撮影後の処理で、画像処理により、画像を拡大すると、色滲みが生じ、鮮鋭さが損なわれてしまう。   However, the accuracy of broadcasting equipment does not satisfy the imagination of creators. At present, for example, broadcasting equipment with a degree of accuracy specified by, for example, a broadcasting standard, and broadcasting equipment with a slightly higher precision than such a precision are generally mixed and used. Therefore, when video processing represented by video synthesis or the like is performed using such a general broadcasting device, the image may be deteriorated or uncomfortable. For example, when an image is enlarged by image processing in processing after photographing, color blur occurs and sharpness is impaired.

そこで、映像加工の自由度を向上することのできる撮像装置として、最終的な映像作品の映像形式に対し、例えば、より広いダイナミックレンジが取得可能、かつ、低コストなものが望まれている。ただし、コストの面では、映像加工の自由度は、映像作品の価値を左右する大きな要因なので、僅かな費用増で、より効果を得たいというニーズもある。   Therefore, as an imaging apparatus capable of improving the degree of freedom of image processing, for example, a device that can acquire a wider dynamic range and is low in cost with respect to the image format of the final image work is desired. However, in terms of cost, the degree of freedom in video processing is a major factor that affects the value of video works, so there is also a need to obtain a more effective effect with a slight increase in costs.

また、将来、現状よりも高解像度の映像形式が普及することが予想される。この場合、同時にその映像形式の作品を制作する側においても、高解像度の映像形式の映像加工に対応することとなる。つまり、制作側において、映像加工する際には、その映像形式に対し、より高解像度、高ダイナミックレンジの映像素材が必要とされると予想される。   In the future, it is expected that video formats with higher resolution than the current situation will become widespread. In this case, the production side of the video format at the same time also supports video processing of the high resolution video format. In other words, when the video is processed on the production side, it is expected that a video material having a higher resolution and a higher dynamic range is required for the video format.

従来、高ダイナミックレンジを撮影する装置としては、素子単体に工夫を行ったものや、撮影方法を工夫したものなどがある。このうち、素子単体に工夫を行ったものとしては、入射光と素子への蓄積電荷量の関係に対して、何らかの非線形な特性を持たせるものが挙げられる。しかしながら、このように素子に何らかの非線形な特性を持たせるものは、集積度の制限から、高解像度の素子が存在しないのが現状である。   Conventionally, devices for photographing a high dynamic range include a device that is devised for a single element, a device that devises a photographing method, and the like. Among these, devices that have been devised for a single device include those that have some nonlinear characteristics with respect to the relationship between incident light and the amount of charge accumulated in the device. However, in the present situation, there is no high-resolution element that gives the element some kind of non-linear characteristics due to the limitation of the degree of integration.

また、高ダイナミックレンジを撮影する装置のうち、撮影方法を工夫したものとしては、複数回撮影した画像を統合する手法が挙げられる(非特許文献1、2参照)。
非特許文献1に記載の手法は、シャッタースピードの変更により露光時間を変えて取得した複数画像を利用し高ダイナミックレンジ画像を取得する方法である。また、非特許文献2に記載の手法は、同様に露光時間を変更して取得した複数画像から高ダイナミックレンジ画像に統合する方法である。
Further, among devices that shoot a high dynamic range, a device that devises a shooting method includes a method of integrating images shot multiple times (see Non-Patent Documents 1 and 2).
The method described in Non-Patent Document 1 is a method of acquiring a high dynamic range image using a plurality of images acquired by changing the exposure time by changing the shutter speed. Further, the method described in Non-Patent Document 2 is a method of integrating a plurality of images acquired by changing the exposure time into a high dynamic range image.

齊藤啓太、他2名、“広ダイナミックレンジ圧縮における連続性補正・空間補正手法の検討”、映像情報メディア学会誌、Vol.61, No.3, p.325-331, 2007Keita Saito and two others, “Examination of continuity correction and spatial correction methods in wide dynamic range compression”, Journal of the Institute of Image Information and Television Engineers, Vol.61, No.3, p.325-331, 2007 Paul E. Debevec and Jitendra Malik, ” Recovering High Dynamic Range Radiance Maps from Photographs”, Proceedings of the SIGGRAPH’97 Conference”, p.369-378, August 1997Paul E. Debevec and Jitendra Malik, “Recovering High Dynamic Range Radiance Maps from Photographs”, Proceedings of the SIGGRAPH’97 Conference ”, p.369-378, August 1997

しかしながら、従来の高ダイナミックレンジを撮影する装置のうち、複数回撮影した画像を統合する撮影装置は、異なる時間で撮影していることから、動画への対応が困難である。あるいは動画へ対応させたとしても、その映像には、動きの速いものの輪郭に不自然な輪郭が生じるため、映像制作には適していない。例えば、非特許文献1の手法を動画に適用した場合、統合した高ダイナミックレンジ画像に未露光時間があるため、動きボケが不自然になる問題がある。また、非特許文献2の手法は動画への対応が困難であると共に、後処理で輝度のキャリブレーションを行うなどの煩雑さがある。   However, among conventional apparatuses that capture a high dynamic range, an image capturing apparatus that integrates images that have been captured multiple times captures images at different times, making it difficult to handle moving images. Or even if it corresponds to a moving image, since the unnatural outline arises in the outline of the fast-moving thing, it is not suitable for image production. For example, when the technique of Non-Patent Document 1 is applied to a moving image, there is a problem that motion blur becomes unnatural because the integrated high dynamic range image has an unexposed time. In addition, the method of Non-Patent Document 2 has difficulty in dealing with moving images, and has a complication such as brightness calibration in post-processing.

本発明は、以上のような問題点に鑑みてなされたものであり、映像制作において通常の撮像素子を用いたとしても高ダイナミックレンジを得る撮影装置および画像統合プログラムを提供することを課題とする。   The present invention has been made in view of the above problems, and it is an object of the present invention to provide an imaging apparatus and an image integration program that obtain a high dynamic range even when a normal imaging element is used in video production. .

前記課題を解決するために、本発明の請求項1に記載の撮影装置は、RGBの各カラーフィルタを有した分光特性の異なる1以上の単板カラー撮像デバイスと、カラーフィルタのないモノクローム撮像デバイスとが分光手段を介して同一撮影エリアを同一視点および同一画角で撮影する位置関係で配置されている撮像部と、前記カラー撮像デバイスおよびモノクローム撮像デバイスを用いて撮影された各撮影映像を1つに統合する処理を行う画像統合手段とを備える撮影装置であって、前記画像統合手段が、輝度キャリブレーション手段と、統合画像生成手段とを備えることとした。   In order to solve the above-described problem, an imaging apparatus according to claim 1 of the present invention includes one or more single-plate color imaging devices having RGB color filters and different spectral characteristics, and a monochrome imaging device having no color filter. Are arranged in a positional relationship in which the same photographing area is photographed with the same viewpoint and the same angle of view through the spectroscopic means, and each photographed image photographed using the color imaging device and the monochrome imaging device is 1 And an image integration unit that performs an integration process. The image integration unit includes a luminance calibration unit and an integrated image generation unit.

かかる構成によれば、撮影装置は、1つの被写体を、例えばプリズムやハーフミラーといった分光手段を介して、1以上のカラー撮像デバイスと、モノクローム撮像デバイスで同様に撮影する。ここで、カラー撮像デバイスは、例えば、ベイヤ配列などのオンチップ色フィルタを備える単板RGB撮像素子から構成され、モノクローム撮像デバイスは、例えば、クリアのオンチップレンズのみが装着されているモノクローム撮像素子から構成される。また、撮影装置の画像統合手段は、輝度キャリブレーション手段によって、色試験撮影用対象を前記カラー撮像デバイスで撮影したカラー画像のRGB画素をそれぞれ補間するデモザイクにより生成されるRGBプレーンのRGB値を色輝度変換行列により変換することで当該カラー画像における画素の輝度値を生成し、前記カラー撮像デバイスと同時に当該色試験撮影用対象を前記モノクローム撮像デバイスで撮影したモノクローム撮影画像における画素の輝度値と前記カラー画像における画素の輝度値との差が最小化するように前記色輝度変換行列を最適化して求める。ここで、例えばカラー画像の輝度値を生成する処理は、撮影しながら行ってもよい。そして、撮影装置の画像統合手段は、統合画像生成手段によって、前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影用対象をそれぞれ撮影した撮影画像のカラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、前記最適化された色輝度変換行列を含む行列であって色空間に写像する色空間変換行列を乗じて変換された輝度値のうち、前記モノクローム撮像画像では飽和していない領域の輝度値、および、前記モノクローム撮像画像では飽和している領域にあって前記変換された輝度値においては飽和していない領域にある輝度値を選択することにより統合輝度と前記色空間における色情報とを求め、これを、各撮影映像を1つに統合した統合画像の色情報とし、かつ、前記統合輝度を輝度情報として統合画像を生成する。   According to such a configuration, the photographing apparatus photographs one subject in the same manner with one or more color imaging devices and a monochrome imaging device via a spectral unit such as a prism or a half mirror. Here, the color imaging device is composed of, for example, a single-plate RGB imaging device having an on-chip color filter such as a Bayer array, and the monochrome imaging device is, for example, a monochrome imaging device on which only a clear on-chip lens is mounted. Consists of In addition, the image integration unit of the photographing apparatus uses the luminance calibration unit to color the RGB values of the RGB plane generated by the demosaic that interpolates the RGB pixels of the color image obtained by photographing the color test photographing target with the color imaging device. The luminance value of the pixel in the color image is generated by conversion using the luminance conversion matrix, and the luminance value of the pixel in the monochrome photographic image obtained by photographing the color test photographing target with the monochrome imaging device simultaneously with the color imaging device The color luminance conversion matrix is obtained by optimizing so that the difference from the luminance value of the pixel in the color image is minimized. Here, for example, the process of generating the luminance value of the color image may be performed while photographing. Then, the image integration unit of the photographing apparatus performs the RGB image RGB value generated by demosaicing from the color image of the photographed image obtained by photographing the photographing object by the color imaging device and the monochrome imaging device by the integrated image generating unit. Among the luminance values converted by multiplying the optimized color luminance conversion matrix by the color space conversion matrix that maps to the color space, the luminance value of the region that is not saturated in the monochrome captured image In addition, the integrated luminance and the color information in the color space are obtained by selecting a luminance value in a region that is saturated in the monochrome captured image and in a region that is not saturated in the converted luminance value. This is the color information of the integrated image obtained by integrating the captured images into one, and the integrated luminance is the luminance information. To generate a focus image.

また、撮影装置は、カラー撮像デバイスとモノクローム撮像デバイスを備えているので、このうちの一方では得られる情報であるが、他方では得られない情報を補間しつつ、1枚の画像を生成することができる。例えば、ベイヤ配列のカラー撮像デバイスによる撮影画像は、モノクローム撮像デバイスによる撮影画像から解像度を補間することができる。また、モノクローム撮像デバイスによる撮影画像は、カラー撮像デバイスから色情報を補間することができる。また、それぞれの撮像デバイスへの入射光量の差から、一方の撮像デバイスが飽和していれば、その部位の輝度値といった情報を、他方の撮像デバイスから補間することができる。このように、撮影装置は、その時点で入手可能な比較的低コストの一般的な撮像デバイスを複数利用し、双方の長所、短所を補いつつ両者の画像を高精度に合成して1つの映像とするので、従来よりも高ダイナミックレンジかつ高解像度の高精度な映像を取得することができる。さらに、一般的な撮像デバイスの個数が僅かに増加する程度の割安のコスト増に抑えつつ、映像作品の制作工程で生じる加工作業において、その自由度を確保することができる。   In addition, since the photographing apparatus includes a color imaging device and a monochrome imaging device, one image can be obtained while interpolating information that can be obtained on one of them, but not on the other. Can do. For example, the resolution of a captured image obtained by a color imaging device having a Bayer array can be interpolated from the captured image obtained by a monochrome imaging device. Moreover, color information can be interpolated from the color imaging device for the image captured by the monochrome imaging device. Also, if one imaging device is saturated from the difference in the amount of incident light to each imaging device, information such as the luminance value of that part can be interpolated from the other imaging device. In this way, the imaging apparatus uses a plurality of relatively low-cost general imaging devices available at that time, and combines both images with high accuracy while compensating for the advantages and disadvantages of both. Therefore, it is possible to acquire a highly accurate video with a higher dynamic range and higher resolution than before. Furthermore, it is possible to secure the degree of freedom in the processing work that occurs in the production process of the video work while suppressing the cost increase to a degree that the number of general imaging devices is slightly increased.

また、かかる構成によれば、撮影装置において、統合画像生成手段は、撮影したカラー画像をデモザイク化したRGBプレーンのRGB値に対して、色空間変換行列を乗じる。つまり、統合画像生成手段は、カラー撮像デバイスおよびモノクローム撮像デバイスで撮影された各撮影画像の色情報として、カラー画像のデモザイク処理により得られた色情報を用いる。ここで、色空間変換行列は、カラー画像の画素のRGB値を特殊な色空間に一旦写像するものである。なお、色空間変換行列は3×3の行列であり、色輝度変換行列は、RGB値を輝度に変換するので3×1の要素を有する行列である。色空間変換行列は、統合輝度値と、色情報とを同時に扱うために、色輝度変換行列を含んでいる。色空間変換行列によって、統合輝度と、前記色空間における色情報とが求められる。このように撮影装置により得られた統合画像は、ポスプロにおいて、映像加工に供されることとなる。   Further, according to this configuration, in the photographing apparatus, the integrated image generating unit multiplies the RGB value of the RGB plane obtained by demosaicing the photographed color image by the color space conversion matrix. That is, the integrated image generation unit uses color information obtained by demosaic processing of a color image as color information of each captured image captured by a color imaging device and a monochrome imaging device. Here, the color space conversion matrix temporarily maps the RGB values of the pixels of the color image into a special color space. The color space conversion matrix is a 3 × 3 matrix, and the color luminance conversion matrix is a matrix having 3 × 1 elements because it converts RGB values into luminance. The color space conversion matrix includes a color luminance conversion matrix in order to handle the integrated luminance value and the color information at the same time. The integrated luminance and color information in the color space are obtained by the color space conversion matrix. In this way, the integrated image obtained by the photographing apparatus is subjected to video processing in the post-production.

また、本発明の請求項2に記載の撮影装置は、請求項1に記載の撮影装置において、前記輝度キャリブレーション手段が、前記色試験撮影用対象としてカラーチャートを前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影したカラーチャート画像を用いて前記色輝度変換行列を最適化し、最適化した色輝度変換行列を記憶手段に保持することとした。   According to a second aspect of the present invention, there is provided the photographing apparatus according to the first aspect, wherein the luminance calibration means uses a color chart as the color test photographing target for the color imaging device and the monochrome imaging device. The color luminance conversion matrix is optimized using the color chart image photographed in Step 1, and the optimized color luminance conversion matrix is held in the storage means.

かかる横成によれば、撮影装置は、例えば屋内のスタジオ等において同様な条件で何度も使用されるときには、本番の撮影の前に、カラーチャートを用いて、各撮像デバイスの輝度を一度校正すれば、その後、撮影のたびに輝度の校正をする必要がない。そして、各撮像デバイスの輝度を校正しておけば、被写体をカラー撮像デバイスおよびモノクローム撮像デバイスで撮影したときに、その都度、同様な条件の高ダイナミックかつ高解像度の統合画像を取得することができる。   According to this horizontal composition, when the photographing apparatus is used many times under similar conditions, for example, in an indoor studio, the luminance of each imaging device is once calibrated using a color chart before the actual photographing. Then, after that, it is not necessary to calibrate the brightness every time the image is taken. If the brightness of each imaging device is calibrated, a highly dynamic and high resolution integrated image under the same conditions can be acquired each time the subject is photographed with a color imaging device and a monochrome imaging device. .

また、本発明の請求項3に記載の撮影装置は、請求項1に記載の撮影装置において、前記輝度キャリブレーション手段が、外部環境に応じて更新された前記色試験撮影用対象を、前記カラー撮像デバイスおよびモノクローム撮像デバイスでその都度撮影した各撮影画像を用いて前記色輝度変換行列を最適化し、最適化した色輝度変換行列を、前記色試験撮影用対象に応じて更新しながら記憶手段に保持することとした。   According to a third aspect of the present invention, there is provided the photographing apparatus according to the first aspect, wherein the luminance calibration means sets the color test photographing object updated according to an external environment as the color test photographing object. The color luminance conversion matrix is optimized using each captured image captured by the imaging device and the monochrome imaging device, and the optimized color luminance conversion matrix is updated in accordance with the color test imaging target while being stored in the storage unit. I decided to keep it.

かかる横成によれば、撮影装置は、例えば、撮影対象の絵柄が変わったとき、屋内にて照明条件の異なる場所に移動するとき、屋内から屋外への移動を伴って使用されるとき、屋外で使用されるとき、といった場合に、本番の撮影の前に、照明条件の違いや天候等により随時変化する外部環境に応じて、各撮像デバイスで撮影した通常の撮影映像を用いて、各撮影画像の輝度をその都度校正することで、最適化した色輝度変換行列を更新することができる。ここで、例えばフレーム単位で色輝度変換行列を更新してもよい。この撮影装置によれば、被写体をカラー撮像デバイスおよびモノクローム撮像デバイスで撮影したときに、その都度、それぞれの撮影環境に応じた高ダイナミックかつ高解像度な統合画像を取得することができる。   According to this horizontal composition, for example, when a picture to be photographed has changed, when moving to a place with different illumination conditions indoors, when used with movement from indoor to outdoor, When using the camera, each shooting is performed using the normal shooting video shot with each imaging device before the actual shooting, depending on the external environment that changes from time to time due to differences in lighting conditions, weather, etc. By calibrating the luminance of the image each time, the optimized color luminance conversion matrix can be updated. Here, for example, the color luminance conversion matrix may be updated in units of frames. According to this photographing apparatus, when a subject is photographed with a color imaging device and a monochrome imaging device, a high dynamic and high resolution integrated image corresponding to each photographing environment can be acquired each time.

また、本発明の請求項4に記載の撮影装置は、請求項1ないし請求項3のいずれか一項に記載の撮影装置において、前記輝度キャリブレーション手段が、前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影した各撮影画像から、予め定められた規則にしたがって画素を間引いて残余の画素を対象として前記モノクローム撮影画像における画素の輝度値と前記カラー画像における画素の輝度値との差が最小化するように前記色輝度変換行列を最適化して求めることとした。   According to a fourth aspect of the present invention, in the photographing apparatus according to any one of the first to third aspects, the brightness calibration means is the color imaging device and the monochrome imaging device. In order to minimize the difference between the luminance value of the pixel in the monochrome image and the luminance value of the pixel in the color image with respect to the remaining pixels by thinning out the pixels from each captured image according to a predetermined rule. Then, the color luminance conversion matrix is optimized.

かかる横成によれば、撮影装置は、各撮像デバイスによる撮影画像の全画素を用いることなく、それぞれの一部の画像を用いて色輝度変換行列を最適化するので、この最適化処理を高速に行うことができる。特に、例えばフレーム単位で色輝度変換行列を更新する場合には、計算コストを大幅に低減することができる。ここで、画素を間引く規則とは、各撮像デバイスによる撮影画像の画素の位置が同じであれば、特に限定されるものではなく、例えば、1画素おきにサンプリングしたり、画素をランダムに選択したりすることができる。   According to this horizontal composition, the image capturing apparatus optimizes the color luminance conversion matrix using each partial image without using all the pixels of the image captured by each image capturing device. Can be done. In particular, for example, when the color luminance conversion matrix is updated in units of frames, the calculation cost can be greatly reduced. Here, the rule for thinning out the pixels is not particularly limited as long as the positions of the pixels of the image captured by each imaging device are the same. For example, sampling is performed every other pixel or pixels are randomly selected. Can be.

また、本発明の請求項5に記載の撮影装置は、請求項1ないし請求項4のいずれか一項に記載の撮影装置において、前記画像統合手段が、位置キャリブレーション手段をさらに備えることとした。   According to a fifth aspect of the present invention, in the photographing apparatus according to any one of the first to fourth aspects, the image integration unit further includes a position calibration unit. .

かかる横成によれば、撮影装置において、画像統合手段の位置キャリブレーション手段は、位置試験撮影用対象を前記各撮像デバイスで撮影した複数の撮影画像に基づいて、前記カラー撮像デバイスで撮影したカラー画像の特徴点の座標を射影行列により変換することで前記モノクローム撮影画像における座標に変換された変換座標値を生成し、前記カラー撮像デバイスと同時に当該位置試験撮影用対象を前記モノクローム撮像デバイスで撮影したモノクローム撮影画像の当該特徴点の座標と前記カラー画像の特徴点に対応するモノクローム撮影画像における前記変換座標値との差が最小化するように前記射影行列を最適化して求める。現実的には、例えばプリズムやハーフミラーといった分光手段に対する各撮像デバイスの設置精度によっては、画素のサンプリング位置が異なる場合がある。そして、かかる横成によれば、撮影装置において、位置キャリブレーション手段が、機械的な位置合わせでも校正できないような画素単位の微小な位置ずれをも、画像処理により校正可能である。したがって、撮影装置は、高ダイナミックかつ高解像度な統合画像を精度よく取得することができる。   According to this horizontal composition, in the photographing apparatus, the position calibration means of the image integration means is a color photographed by the color imaging device based on a plurality of photographed images obtained by photographing the position test photographing object with the respective imaging devices. By converting the coordinates of the feature points of the image by a projection matrix, a converted coordinate value converted into the coordinates in the monochrome image is generated, and the position test imaging target is imaged by the monochrome imaging device simultaneously with the color imaging device. The projection matrix is optimized and determined so that the difference between the coordinates of the feature point of the monochrome photographed image and the converted coordinate value in the monochrome photograph image corresponding to the feature point of the color image is minimized. Actually, depending on the installation accuracy of each imaging device with respect to the spectroscopic means such as a prism or a half mirror, the pixel sampling position may differ. According to such horizontal composition, in the photographing apparatus, the position calibration unit can also calibrate a minute positional deviation in pixel units that cannot be calibrated even by mechanical alignment by image processing. Therefore, the photographing apparatus can acquire a highly dynamic and high resolution integrated image with high accuracy.

また、本発明の請求項6に記載の撮影装置は、請求項1ないし請求項5のいずれか一項に記載の撮影装置において、複数の前記カラー撮像デバイスが配設され、各カラー撮像デバイスは互いに分光感度が異なるカラーフィルタを有し、前記輝度キャリブレーション手段が、前記カラー撮像デバイスの各撮影画像のうち、前記色輝度変換行列を求める際に用いた第1カラー画像以外の第2カラー画像から、前記第1カラー画像と同様にデモザイクにより生成されるRGBプレーンのRGB値を第2の色輝度変換行列により変換することで当該第2カラー画像の輝度値を生成し、前記第2カラー画像の輝度値と既に最適化されている前記第1カラー撮像画像の輝度値との差が最小化するように前記第2の色輝度変換行列を最適化して求め、前記統合画像生成手段が、前記第2カラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、前記最適化された第2の色輝度変換行列を含む行列であって色空間に写像する第2の色空間変換行列を乗じて変換された輝度値のうち、前記第1カラー画像では飽和していない領域の輝度値、および、前記第1カラー画像では飽和している領域にあって前記変換された輝度値においては飽和していない領域にある輝度値を選択することにより統合輝度と前記色空間における色情報とを求め、これを、各撮影映像を1つに統合した第2の統合画像の色情報とし、かつ、前記統合輝度を輝度情報として第2の統合画像をさらに生成することとした。   According to a sixth aspect of the present invention, in the photographing apparatus according to any one of the first to fifth aspects, a plurality of the color imaging devices are disposed, and each of the color imaging devices is A second color image other than the first color image used when the luminance calibration unit obtains the color luminance conversion matrix among the respective captured images of the color imaging device. From the RGB color value of the RGB plane generated by demosaicing similarly to the first color image, the luminance value of the second color image is generated by converting the RGB value by the second color luminance conversion matrix, and the second color image The second color luminance conversion matrix is obtained by optimizing the second color luminance conversion matrix so as to minimize the difference between the luminance value of the first color captured image and the luminance value of the first color captured image that has already been optimized. Image generation means is a matrix that includes the optimized second color luminance conversion matrix for the RGB values of the RGB plane generated by demosaicing from the second color image, and that maps to the color space. Among the luminance values converted by multiplying by the color space conversion matrix, the luminance value of the region that is not saturated in the first color image and the region that is saturated in the first color image are converted in the luminance value. By selecting a luminance value that is in a region that is not saturated among the luminance values, the integrated luminance and the color information in the color space are obtained, and this is obtained as a second integrated image obtained by integrating the captured images into one. The second integrated image is further generated using the color information and the integrated luminance as the luminance information.

かかる横成によれば、撮影装置は、互いに分光感度が異なるカラーフィルタを有した複数のカラー撮像デバイスを備えているので、複数のカラー撮像デバイスへのそれぞれの入射光量の差から、1つのカラー撮像デバイスだけが飽和していれば、その部位の輝度値といった情報を、他のカラー撮像デバイスから補間することができる。したがって、撮影装置は、より高ダイナミックかつ高解像度な統合画像を精度よく取得することができる。   According to this horizontal composition, since the photographing apparatus includes a plurality of color imaging devices having color filters having different spectral sensitivities, one color is determined from the difference in the amount of incident light to each of the plurality of color imaging devices. If only the imaging device is saturated, information such as the luminance value of the part can be interpolated from other color imaging devices. Therefore, the photographing apparatus can acquire a higher dynamic and higher resolution integrated image with high accuracy.

また、本発明の請求項7に記載の撮影装置は、請求項1ないし請求項5のいずれか一項に記載の撮影装置において、前記統合画像生成手段が、前記カラー撮像デバイスおよびモノクローム撮像デバイスで前記撮影用対象をそれぞれ撮影した撮影画像を統合した統合画像を生成する際に、前記撮影用対象を前記カラー撮像デバイスで撮影したカラー画像の輝度の範囲に応じた処理を行うこととした。   According to a seventh aspect of the present invention, in the photographing apparatus according to any one of the first to fifth aspects, the integrated image generation means is the color imaging device and the monochrome imaging device. When generating an integrated image obtained by integrating photographed images obtained by photographing the photographing objects, processing according to a luminance range of a color image obtained by photographing the photographing object with the color imaging device is performed.

かかる横成によれば、撮影装置において、統合画像生成手段は、前記撮影用対象を前記カラー撮像デバイスで撮影したカラー画像において、前記モノクローム撮像デバイスの輝度の上限として予め定められた第1閾値より大きい輝度領域の画素については、当該カラー画像からデモザイクにより生成されるRGBプレーンのRGB値を求める。ここで、第1閾値は、例えば、モノクローム撮像デバイスが飽和するときの輝度値とする。   According to this horizontal composition, in the photographing apparatus, the integrated image generating means uses a first threshold that is predetermined as an upper limit of the luminance of the monochrome imaging device in a color image obtained by photographing the photographing object with the color imaging device. For pixels in a large luminance area, the RGB values of the RGB plane generated by demosaicing from the color image are obtained. Here, the first threshold value is, for example, a luminance value when the monochrome imaging device is saturated.

また、かかる横成によれば、撮影装置において、統合画像生成手段は、前記第1閾値よりも小さな予め定められた第2閾値より小さい輝度領域の画素については、前記撮影用対象を前記カラー撮像デバイスで撮影したカラー画像を再度デモザイク化し、このデモザイクにおいて、前記モノクローム撮像デバイスで撮影したモノクローム撮影画像の輝度値の勾配を利用した内挿をした上で生成されるRGBプレーンのRGB値を算出する。ここで、第2閾値は、例えば、第1閾値の90%程度の値とする。第2閾値より小さい輝度領域の画素について、仮に従来手法と同様な方法でデモザイクを行うと、不充分なサンプリングであるため品質確保が困難となってしまう。しかしながら、かかる構成によれば、統合画像生成手段は、モノクローム撮影画像の輝度値の勾配を利用するため、充分なサンプリングが可能となる。その結果、色滲みが生じたり、精細感が低下したりすることを防ぎ、品質を確保することができる。   Further, according to this horizontal composition, in the photographing apparatus, the integrated image generation unit is configured to perform the color photographing on the photographing target for pixels in a luminance area smaller than the second threshold that is smaller than the first threshold. The color image captured by the device is demosaiced again, and the RGB value of the RGB plane generated after interpolation using the gradient of the luminance value of the monochrome captured image captured by the monochrome imaging device is calculated in the demosaic. . Here, the second threshold value is, for example, about 90% of the first threshold value. If the demosaic is performed on the pixels in the luminance region smaller than the second threshold by the same method as the conventional method, it is difficult to ensure the quality because of insufficient sampling. However, according to such a configuration, since the integrated image generation unit uses the gradient of the luminance value of the monochrome photographed image, sufficient sampling is possible. As a result, it is possible to prevent color blurring and a decrease in fineness and to ensure quality.

また、かかる横成によれば、撮影装置において、統合画像生成手段は、前記第2閾値以上前記第1閾値以下の輝度領域の画素については、前記第1閾値より大きい輝度領域の画素について既に算出されたRGB値と、前記第2閾値より小さい輝度領域の画素について既に算出されたRGB値とを、当該画素の輝度と前記第1および第2閾値との距離に応じて加重平均する。統合画像生成手段は、各画素の輝度に応じた前記の各処理により、統合画像のRGB値を算出する。
そして、統合画像生成手段が、撮影したカラー画像の輝度の範囲に応じた処理を行うことで得られた統合画像は、ポスプロにおいて、映像加工に供されることとなる。そして、例えば、実写とCGとの映像合成を行うために、画像処理により、画像を拡大したとしても、色滲みが生じにくく、鮮鋭さが損なわれることはない。
Further, according to this horizontal composition, in the photographing apparatus, the integrated image generation unit has already calculated the pixels in the luminance region that are greater than the second threshold and the pixels in the luminance region that are greater than or equal to the first threshold. The calculated RGB values and the RGB values already calculated for the pixels in the luminance region smaller than the second threshold value are weighted and averaged according to the distance between the luminance of the pixel and the first and second threshold values. The integrated image generation means calculates the RGB value of the integrated image by the above-described processes corresponding to the luminance of each pixel.
Then, the integrated image obtained by the integrated image generating means performing processing according to the luminance range of the photographed color image is subjected to video processing in the post-production. For example, even if an image is enlarged by image processing in order to synthesize a video image of a live-action and CG, color blur hardly occurs and sharpness is not impaired.

また、本発明の請求項8に記載の撮影装置は、請求項6に記載の撮影装置において、前記統合画像生成手段が、前記複数のカラー撮像デバイスおよびモノクローム撮像デバイスで前記撮影用対象をそれぞれ撮影した撮影画像を統合した統合画像を生成する際に、前記撮影用対象を撮影した第2カラー画像の輝度の範囲に応じた処理を行うこととした。   According to an eighth aspect of the present invention, in the photographing apparatus according to the sixth aspect, the integrated image generating unit photographs the photographing object with the plurality of color imaging devices and monochrome imaging devices, respectively. When an integrated image obtained by integrating the photographed images is generated, processing according to the luminance range of the second color image obtained by photographing the photographing object is performed.

かかる横成によれば、撮影装置において、統合画像生成手段は、前記撮影用対象を撮影した第2カラー画像において、前記第1カラー画像の輝度の上限として予め定められた第3閾値より大きい輝度領域の画素については、当該第2カラー画像からデモザイクにより生成されるRGBプレーンのRGB値を求める。ここで、第3閾値は、例えば、第1カラー画像を撮影したカラー撮像デバイスが変換後の輝度で飽和するときの輝度値とする。   According to this horizontal composition, in the photographing apparatus, the integrated image generating means has a luminance greater than a third threshold value that is predetermined as an upper limit of the luminance of the first color image in the second color image obtained by photographing the photographing object. For the pixels in the region, the RGB value of the RGB plane generated by demosaicing from the second color image is obtained. Here, the third threshold value is, for example, a luminance value when the color imaging device that captured the first color image is saturated with the converted luminance.

また、かかる横成によれば、撮影装置において、統合画像生成手段は、前記第3閾値よりも小さな予め定められた第4閾値より小さい輝度領域の画素については、前記第2カラー画像を再度デモザイク化し、このデモザイクにおいて、前記統合画像の輝度値の勾配を利用した内挿をした上で生成されるRGBプレーンのRGB値を算出する。ここで、第4閾値は、例えば、第3閾値の90%程度の値とする。   Further, according to this horizontal composition, in the photographing apparatus, the integrated image generation unit re-demosaics the second color image again for pixels in a luminance area smaller than the fourth threshold value that is smaller than the third threshold value. In this demosaic, the RGB value of the RGB plane generated after interpolation using the gradient of the luminance value of the integrated image is calculated. Here, the fourth threshold value is, for example, about 90% of the third threshold value.

また、かかる横成によれば、撮影装置において、統合画像生成手段は、前記第4閾値以上前記第3閾値以下の輝度領域の画素については、前記第3閾値より大きい輝度領域の画素について既に算出されたRGB値と、前記第4閾値より小さい輝度領域の画素について既に算出されたRGB値とを、当該画素の輝度と前記第3および第4閾値との距離に応じて加重平均する。統合画像生成手段は、各画素の輝度に応じた前記の各処理により、統合画像のRGB値を算出する。
そして、統合画像生成手段が、撮影した第2カラー画像の輝度の範囲に応じた処理を行うことで得られた統合画像は、ポスプロにおいて、映像加工に供されることとなる。
Further, according to this horizontal composition, in the photographing apparatus, the integrated image generation unit has already calculated the pixels in the luminance region that is greater than or equal to the fourth threshold and the luminance region that is greater than or equal to the third threshold. The calculated RGB values and the RGB values already calculated for the pixels in the luminance region smaller than the fourth threshold value are weighted and averaged according to the distance between the luminance of the pixel and the third and fourth threshold values. The integrated image generation means calculates the RGB value of the integrated image by the above-described processes corresponding to the luminance of each pixel.
The integrated image obtained by the integrated image generating means performing processing according to the luminance range of the captured second color image is subjected to video processing in the post-production.

また、本発明の請求項9に記載の画像統合プログラムは、RGBの各カラーフィルタを有した分光特性の異なる1以上の単板カラー撮像デバイスと、カラーフィルタのないモノクローム撮像デバイスとが分光手段を介して同一撮影エリアを同一視点および同一画角で撮影する位置関係で配置されている撮像部を用いて撮影された各撮影映像を1つに統合する処理を行うために、コンピュータを、輝度キャリブレーション手段、および、統合画像生成手段として機能させるためのプログラムであることとした。   According to a ninth aspect of the present invention, there is provided an image integration program in which one or more single-plate color imaging devices having different color characteristics having RGB color filters and a monochrome imaging device having no color filter have spectral means. In order to perform a process of integrating the captured images captured using the imaging units arranged in a positional relationship in which the same imaging area is captured with the same viewpoint and the same angle of view, a luminance calibration is performed. And a program for functioning as integrated image generation means.

かかる構成によれば、画像統合プログラムは、輝度キャリブレーション手段によって、色試験撮影用対象を前記カラー撮像デバイスで撮影したカラー画像のRGB画素をそれぞれ補間するデモザイクにより生成されるRGBプレーンのRGB値を色輝度変換行列により変換することで当該カラー画像における画素の輝度値を生成し、前記カラー撮像デバイスと同時に当該色試験撮影用対象を前記モノクローム撮像デバイスで撮影したモノクローム撮影画像における画素の輝度値と前記カラー画像における画素の輝度値との差が最小化するように前記色輝度変換行列を最適化して求める。そして、画像統合プログラムは、統合画像生成手段によって、前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影用対象をそれぞれ撮影した撮影画像のカラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、前記最適化された色輝度変換行列を含む行列であって色空間に写像する色空間変換行列を乗じて変換された輝度値のうち、前記モノクローム撮像画像では飽和していない領域の輝度値、および、前記モノクローム撮像画像では飽和している領域にあって前記変換された輝度値においては飽和していない領域にある輝度値を選択することにより統合輝度と前記色空間における色情報とを求め、これを、各撮影映像を1つに統合した統合画像の色情報とし、かつ、前記統合輝度を輝度情報として統合画像を生成する。   According to this configuration, the image integration program uses the luminance calibration means to calculate the RGB values of the RGB plane generated by the demosaic that interpolates the RGB pixels of the color image obtained by photographing the color test photographing target with the color imaging device. The luminance value of the pixel in the color image is generated by conversion using the color luminance conversion matrix, and the luminance value of the pixel in the monochrome photographic image obtained by photographing the color test photographing target with the monochrome imaging device simultaneously with the color imaging device The color luminance conversion matrix is obtained by optimizing so that a difference from the luminance value of the pixel in the color image is minimized. Then, the image integration program uses the integrated image generation means for the RGB values of the RGB plane generated by demosaicing from the color images of the captured images obtained by capturing the imaging objects with the color imaging device and the monochrome imaging device, respectively. Among luminance values converted by multiplying a color space conversion matrix that is an optimized color luminance conversion matrix and mapped to a color space, luminance values of regions that are not saturated in the monochrome captured image, and By obtaining a luminance value in a region that is saturated in the monochrome captured image and in a region that is not saturated in the converted luminance value, an integrated luminance and color information in the color space are obtained, and this is obtained. The color information of the integrated image is obtained by integrating the captured images into one, and the integrated luminance is integrated as the luminance information. To generate the image.

請求項1または請求項9に記載の発明によれば、撮影装置または画像統合プログラムは、一般的な撮像デバイスを複数利用して撮影する2つの画像の双方の長所、短所を補いつつ両者の画像を高精度に合成して1つの映像とするので、従来よりも高ダイナミックレンジかつ高解像度の高精度な映像を低コストで取得することができる。したがって、映像制作において、映像加工の自由度を拡大することができる。   According to the invention described in claim 1 or claim 9, the image capturing apparatus or the image integration program compensates the advantages and disadvantages of both images captured by using a plurality of general image capturing devices. Are combined into a single image with high accuracy, so that a highly accurate image with a higher dynamic range and higher resolution than before can be obtained at low cost. Accordingly, the degree of freedom of video processing can be expanded in video production.

請求項2に記載の発明によれば、撮影装置は、各撮像デバイスの輝度を一度校正しておけば、被写体を各撮像デバイスで撮影したときに、その都度、同様な条件の高ダイナミックかつ高解像度の統合画像を取得することができる。   According to the second aspect of the present invention, once the luminance of each imaging device is calibrated, the imaging apparatus can perform high dynamic and high performance under the same conditions each time the subject is captured by each imaging device. An integrated image of resolution can be acquired.

請求項3に記載の発明によれば、撮影装置は、被写体を各撮像デバイスで撮影したときに、その都度、それぞれの撮影環境に応じた高ダイナミックかつ高解像度な統合画像を取得することができる。   According to the third aspect of the present invention, the photographing apparatus can acquire a high dynamic and high resolution integrated image corresponding to each photographing environment each time the subject is photographed by each imaging device. .

請求項4に記載の発明によれば、撮影装置は、各撮像デバイスによる撮影画像の全画素を用いることなく、それぞれの一部の画像を用いて色輝度変換行列を最適化するので、この最適化処理を高速に行うことができる。   According to the invention described in claim 4, the image capturing apparatus optimizes the color luminance conversion matrix using each partial image without using all the pixels of the image captured by each image capturing device. Can be performed at high speed.

請求項5に記載の発明によれば、撮影装置は、各撮像デバイスで撮影した撮影画像間で画素を対応付けるので、高ダイナミックかつ高解像度な統合画像を精度よく取得することができる。   According to the fifth aspect of the present invention, since the imaging apparatus associates pixels between captured images captured by each imaging device, it is possible to acquire a high dynamic and high resolution integrated image with high accuracy.

請求項6に記載の発明によれば、撮影装置は、1つのカラー撮像デバイスだけが飽和していても、その部位の輝度値といった情報を、他のカラー撮像デバイスから補間することができるので、より高ダイナミックかつ高解像度な統合画像を精度よく取得することができる   According to the invention described in claim 6, even when only one color imaging device is saturated, the imaging apparatus can interpolate information such as the luminance value of the part from other color imaging devices. Highly dynamic and high resolution integrated images can be acquired with high accuracy

請求項7に記載の発明によれば、撮影装置は、各撮像デバイスでそれぞれ撮影した撮影画像の色情報を統合した統合画像を生成する際に、輝度の小さい画素については、カラー画像のデモザイクにおいてモノクローム撮影画像の輝度値の勾配を利用するため、充分なサンプリングが可能となる。その結果、色滲みが生じたり、精細感が低下したりすることを防ぎ、品質を確保した統合画像を取得することができる。   According to the seventh aspect of the present invention, when the image capturing apparatus generates an integrated image in which color information of captured images captured by the respective image capturing devices is integrated, a pixel with low luminance is subjected to color image demosaicing. Since the gradient of the luminance value of the monochrome photographed image is used, sufficient sampling is possible. As a result, it is possible to prevent color blurring and a reduction in fineness, and to acquire an integrated image that ensures quality.

請求項8に記載の発明によれば、撮影装置は、各カラー撮像デバイスでそれぞれ撮影した撮影画像の色情報を統合した統合画像を生成する際に、輝度の小さい画素については、第2カラー画像のデモザイクにおいて統合画像の輝度値の勾配を利用するため、充分なサンプリングが可能となる。   According to the eighth aspect of the present invention, when the photographing apparatus generates an integrated image obtained by integrating the color information of the photographed images photographed by the respective color imaging devices, the second color image is obtained with respect to pixels having low luminance. In the demosaic, the gradient of the luminance value of the integrated image is used, so that sufficient sampling is possible.

本発明の実施形態に係る撮影装置の構成図であって、(a)は全体構成を示すブロック図、(b)は撮像部の構成例をそれぞれ示している。1A and 1B are configuration diagrams of an imaging apparatus according to an embodiment of the present invention, where FIG. 1A is a block diagram illustrating an overall configuration, and FIG. 1B illustrates a configuration example of an imaging unit. 本発明の実施形態に係る撮影装置の画像統合部の輝度統合に係るブロック図である。It is a block diagram which concerns on the brightness | luminance integration of the image integration part of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮影装置の画像統合部の画素位置統合に係るブロック図である。It is a block diagram which concerns on pixel position integration of the image integration part of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮影装置の画像統合部の色情報の統合に係るブロック図である。It is a block diagram which concerns on integration of the color information of the image integration part of the imaging device which concerns on embodiment of this invention. 図2に示す輝度キャリブレーション手段で行うデモザイク処理を示す説明図である。It is explanatory drawing which shows the demosaic process performed with the brightness | luminance calibration means shown in FIG. 図2に示す輝度キャリブレーション手段で行う輝度統合処理の説明図である。It is explanatory drawing of the brightness | luminance integration process performed by the brightness | luminance calibration means shown in FIG. カラーチャートを利用した輝度統合処理の具体例を示す説明図であって、(a)はモノクローム撮像素子の撮影画像、(b)は単板RGB撮像素子の撮影画像、(c)は最適化による輝度整合結果を示すグラフをそれぞれ示している。It is explanatory drawing which shows the specific example of the brightness | luminance integration process using a color chart, Comprising: (a) is a picked-up image of a monochrome image sensor, (b) is a picked-up image of a single-plate RGB image sensor, (c) is by optimization The graph which shows a brightness | luminance matching result is shown, respectively. 本発明の実施形態に係る撮影装置の画像統合部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image integration part of the imaging device which concerns on embodiment of this invention. 図8に示す第2デモザイキング処理手段で行うデモザイク処理を示す説明図である。It is explanatory drawing which shows the demosaic process performed by the 2nd demosaicing process means shown in FIG. 図8に示す画像統合部で行う画像統合処理の説明図である。It is explanatory drawing of the image integration process performed by the image integration part shown in FIG. 本発明の実施形態に係る撮影装置の画像処理の流れを示す説明図である。It is explanatory drawing which shows the flow of the image processing of the imaging device which concerns on embodiment of this invention.

図面を参照して本発明の撮影装置を実施するための形態について詳細に説明する。以下では、説明の都合上、1.撮影装置の概要,構成、2.画像統合部の概要,構成、3.画像統合部の詳細な構成、4.輝度統合処理、5.色情報統合処理、6.撮影装置の動作の流れの各章について順次説明することとする。   An embodiment for carrying out an imaging apparatus of the present invention will be described in detail with reference to the drawings. Below, for convenience of explanation, 1. 1. Outline and configuration of photographing apparatus 2. Outline and configuration of image integration unit 3. Detailed configuration of the image integration unit 4. luminance integration processing; 5. Color information integration process Each chapter of the flow of operation of the photographing apparatus will be described sequentially.

(1.撮影装置の概要,構成)
図1は、本発明の実施形態に係る撮影装置の構成図であって、(a)は全体構成を示すブロック図、(b)は撮像部の構成例をそれぞれ示している。
撮影装置1は、光学系および撮像素子と、例えば、FPGA(Field Programmable Gate Array)やPC(Personal Computer)で利用されているGPU(Graphics Processing Unit)等の演算装置と、メモリやハードディスク等の記憶装置と、外部との間で各種情報の送受信を行うインタフェース装置とを備えたコンピュータと、このコンピュータにインストールされたプログラムとから構成される。つまり、撮影装置1は、ハードウェア装置とソフトウェアとが協働することによって、前記したハードウェア資源がプログラムによって制御されることにより実現されるカメラシステムであって、図1に示すように、撮像部2と、演算処理部3と、記憶部4と、ポスプロ用蓄積部5とを備えている。撮影装置1は、複数の撮像素子を校正および統合する機能を有している。
(1. Overview and configuration of the imaging device)
1A and 1B are configuration diagrams of an imaging apparatus according to an embodiment of the present invention, where FIG. 1A is a block diagram illustrating an overall configuration, and FIG. 1B illustrates a configuration example of an imaging unit.
The photographing apparatus 1 includes an optical system and an image sensor, a computing device such as a GPU (Graphics Processing Unit) used in an FPGA (Field Programmable Gate Array) or a PC (Personal Computer), and a storage such as a memory or a hard disk. The computer includes a computer and an interface device that transmits and receives various types of information to and from the outside, and a program installed in the computer. That is, the photographing apparatus 1 is a camera system that is realized by the hardware device and software cooperating to control the above hardware resources by a program. As shown in FIG. Unit 2, arithmetic processing unit 3, storage unit 4, and post-production storage unit 5. The photographing apparatus 1 has a function of calibrating and integrating a plurality of image sensors.

撮像部2は、同軸光学系により同一撮影エリアを同一視点および同一画角で撮影可能なように配置された複数の撮像デバイスとして、単板RGB撮像素子(カラー撮像デバイス)7と、モノクローム撮像素子(モノクローム撮像デバイス)8とを備えている。
単板RGB撮像素子7は、例えば、一般的なCCD(Charge Coupled Device)撮像素子から構成され、ベイヤ配列などによりRGBの各オンチップカラーフィルタを有している。モノクローム撮像素子8は、例えば、一般的なCCD撮像素子から構成され、カラーフィルタはなく、クリアのオンチップレンズのみが装着されている。
The imaging unit 2 includes a single-plate RGB imaging device (color imaging device) 7 and a monochrome imaging device as a plurality of imaging devices arranged so that the same imaging area can be imaged with the same viewpoint and the same angle of view by a coaxial optical system. (Monochrome imaging device) 8.
The single-plate RGB imaging device 7 is composed of, for example, a general CCD (Charge Coupled Device) imaging device, and has RGB on-chip color filters by a Bayer array or the like. The monochrome image pickup device 8 is composed of, for example, a general CCD image pickup device, has no color filter, and is mounted with only a clear on-chip lens.

各撮像デバイスは、1つのレンズLに対して、ハーフミラー(分光手段)6を介し共役な位置関係となるよう設置されている。ここで、共役とは、同軸光学系により同一撮影エリアを同一視点および同一画角で撮影可能なように配置されていることを意味する。また、各撮像デバイスのサイズや画素数等が同じ場合にはハーフミラー(分光手段)6からの距離が等しくなることを示す。また、各撮像デバイスのサイズや画素数が異なったとしても同一被写体を同じように表示できるようにハーフミラー(分光手段)6からの距離がそれぞれ調整されていることを示す。   Each imaging device is installed so as to have a conjugate positional relationship with respect to one lens L via a half mirror (spectral means) 6. Here, the conjugate means that the same imaging area is arranged so that it can be taken with the same viewpoint and the same angle of view by the coaxial optical system. In addition, when the size and the number of pixels of each imaging device are the same, the distance from the half mirror (spectral means) 6 becomes equal. In addition, the distance from the half mirror (spectral means) 6 is adjusted so that the same subject can be displayed in the same manner even if the size and the number of pixels of each imaging device are different.

なお、図1(b)では、光学系の側面図を示すと共に、単板RGB撮像素子7およびモノクローム撮像素子8の入射面を、4×4の画素で例示したが、実際には、一辺が数千画素程度であって、縦横が同数とは限らない。また、単板RGB撮像素子7において、R(赤)を斜線、G(緑)をドット、B(青)を横縞のハッチングでそれぞれ示した。   In addition, in FIG.1 (b), while showing the side view of an optical system, the entrance plane of the single-plate RGB image pick-up element 7 and the monochrome image pick-up element 8 was illustrated with the pixel of 4x4, but actually one side is It is about several thousand pixels, and the vertical and horizontal directions are not necessarily the same. In the single-plate RGB imaging device 7, R (red) is indicated by hatching, G (green) is indicated by dots, and B (blue) is indicated by horizontal stripes.

以下では、撮像部2は、図1(b)に示すように、カラー撮像デバイスとモノクローム撮像デバイスを1つずつ合計2つの撮像デバイスを備えるものとして説明する。
ただし、互いに分光特性の異なる複数のカラー撮像デバイスと、1つのモノクローム撮像デバイスとを備えるものとしてもよい。
また、撮像デバイスの個数に関わらず、分光手段としてハーフミラー6を用いる代わりに、可視光全域に対し1:1程度に分光するプリズムで入射光を分離するようにしてもよい。
さらに、光の分配率が1:1のハーフミラーやプリズムを使用することに限定されるものではなく、光の分配率を2:1や10:1等として、カラー撮像デバイス側が少なくなるように割り振ることとしてもよい。このように光の分配率を2:1や10:1等にした場合、見かけ上のダイナミックレンジを広げることができる。
In the following description, it is assumed that the imaging unit 2 includes a total of two imaging devices, one color imaging device and one monochrome imaging device, as shown in FIG.
However, a plurality of color imaging devices having different spectral characteristics and a single monochrome imaging device may be provided.
Regardless of the number of imaging devices, instead of using the half mirror 6 as the spectroscopic means, the incident light may be separated by a prism that splits the visible light to about 1: 1.
Furthermore, it is not limited to the use of a half mirror or prism with a light distribution ratio of 1: 1, and the color image pickup device side is reduced by setting the light distribution ratio to 2: 1, 10: 1 or the like. It is good also as allocating. Thus, when the light distribution ratio is set to 2: 1, 10: 1, or the like, the apparent dynamic range can be expanded.

また、撮影シーンによっては、1:1に分光するのではなく非対称に分光してもよい。このように非対称にする場合には、モノクローム撮像素子8側が、単板RGB撮像素子7よりも多くの光が入射するようにすることで、明るい被写体に対しても色情報が飽和しにくくなるので、そのようにすることが望ましい。この比は、各撮像デバイスの各画素への最終的な入射光量で考慮すべきである。なぜなら、単板RGB撮像素子7側のオンチップカラーフィルタの減衰量の影響があるためである。
また、1/4波長板Bに関しては、ハーフミラー6に偏光特性が無い場合には、必要ないが、ハーフミラー6に偏光特性がある場合には、レンズLの前または後ろに、1/4波長板Bが設置される。なお、図1(b)では一例として、レンズLの前に1/4波長板Bが設置されている。
Further, depending on the shooting scene, the spectrum may be asymmetrically distributed instead of 1: 1. In this case, since the monochrome image sensor 8 side receives more light than the single-plate RGB image sensor 7, color information is less likely to be saturated even for a bright subject. It is desirable to do so. This ratio should be considered in the final incident light quantity to each pixel of each imaging device. This is because there is an influence of the attenuation amount of the on-chip color filter on the single-plate RGB imaging device 7 side.
The quarter wavelength plate B is not necessary when the half mirror 6 does not have polarization characteristics, but when the half mirror 6 has polarization characteristics, the quarter wavelength plate B is disposed before or behind the lens L. A wave plate B is installed. In FIG. 1B, as an example, a quarter-wave plate B is installed in front of the lens L.

演算処理部3は、例えば1基のGPUにより実現され、図1(a)に示すように、画像統合部11と、プレビュー用プロセス部12とを備えている。
画像統合部(画像統合手段)11は、記憶手段に格納された画像統合プログラムに基づいて、単板RGB撮像素子7と、モノクローム撮像素子8とを用いて撮影された各撮影映像を1つに統合する処理を行うものである。
The arithmetic processing unit 3 is realized by, for example, one GPU, and includes an image integration unit 11 and a preview processing unit 12 as illustrated in FIG.
The image integration unit (image integration unit) 11 combines each captured video imaged using the single-plate RGB imaging device 7 and the monochrome imaging device 8 based on the image integration program stored in the storage unit. The process to be integrated is performed.

画像統合部11は、各撮像デバイスを用いて本番用の被写体を撮影した各撮影映像Ioを1つに統合した統合画像Itを生成する前に、事前に試験的に撮影した試験対象の各撮影画像の輝度を利用して色輝度変換行列を最適化する。この最適化で得られた輝度は統合輝度値YTとして保持される。画像統合部11の処理結果である統合画像Itは、映像加工を行うための映像情報として記憶部4のハードディスクなどの記録メディアに蓄積される。なお、この画像統合部11の詳細は後記する。 Image integration unit 11, before generating the integrated image I t which integrates each captured image I o the subject of the shot for production into one with each imaging device, previously the subject of testing experimental photographed The color luminance conversion matrix is optimized using the luminance of each captured image. The brightness obtained by this optimization is held as an integrated brightness value Y T. Integrated image I t is a processing result of the image integration unit 11 is accumulated in a recording medium such as a hard disk of the storage unit 4 as image information for image processing. Details of the image integration unit 11 will be described later.

プレビュー用プロセス部12は、撮影された統合画像Itを表示する機能(プレビュー機能)と、統合画像Itに加工を施してポスプロ用蓄積部5に蓄積する映像加工機能とを備えている。 Preview processing section 12 has a function of displaying the photographed integrated image I t and (preview function), a video processing function to store the post-production for the storage unit 5 is subjected to processing in the integrated image I t.

プレビュー機能は、通常のカメラで行うことのできる処理であって、例えば、プリニー処理、ガンマ補正処理、ニー処理、ホワイトクリップ処理、エッジエンハンス処理を行う機能である。これにより、カメラマンやディレクターが撮影現場で、モニタ13に表示された統合画像Itをリアルタイムに見ることができる。なお、モニタ13は、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ(LCD:Liquid Crystal Display)、EL(Electronic Luminescence)等から構成される。 The preview function is a process that can be performed by a normal camera. For example, the preview function is a function that performs plenary processing, gamma correction processing, knee processing, white clip processing, and edge enhancement processing. Thus, at photographers and director shooting, you can see the integrated image I t which is displayed on the monitor 13 in real time. The monitor 13 includes, for example, a CRT (Cathode Ray Tube), a liquid crystal display (LCD), an EL (Electronic Luminescence), and the like.

映像加工機能は、通常のカメラで行うことのできる処理とは異なり、例えば、ノンリニアトーンマッピング処理を行う機能である。ノンリニアトーンマッピングは、モニタ(表示デバイス)13のダイナミックレンジに対応させるためのものである。通常、ダイナミックレンジの広い画像をそのまま表示するデバイスがない場合、表示デバイスに合わせてダイナミックレンジを調整する(トーンマッピングする)必要がある。ノンリニアトーンマッピングの処理については、従来、種々提案されており、本実施形態はその手法については限定するものではない。一例として挙げれば、画像輝度の対数平均値を求め、これを基準に明るい部分を圧縮し、暗い部分を伸ばすような曲線補正を行うことができる。   The video processing function is a function that performs, for example, non-linear tone mapping processing, unlike processing that can be performed by a normal camera. The non-linear tone mapping is for corresponding to the dynamic range of the monitor (display device) 13. Normally, when there is no device that displays an image with a wide dynamic range as it is, it is necessary to adjust the dynamic range (tone mapping) according to the display device. Various non-linear tone mapping processes have been proposed in the past, and this embodiment does not limit the method. As an example, a logarithmic average value of image luminance can be obtained, and curve correction can be performed such that a bright portion is compressed and a dark portion is extended based on this value.

記憶部4は、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリやハードディスク等の記憶装置から構成され、例えば、撮影画像IOと、統合輝度値YTと、統合画像ITとを記憶することとした。
撮影画像IOは、各撮像デバイスを用いて撮影した撮影映像を示す。
統合輝度値YTは、画像統合部11で算出した輝度値であって、試験対象の各撮影画像の輝度を統合した輝度値を示す。
統合画像ITは、画像統合部11で輝度に加えて色情報も統合した画像を示す。
The storage unit 4 includes a storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and a hard disk. For example, the captured image I O , the integrated luminance value Y T, and the integrated image I T. I decided to remember.
The captured image I O indicates a captured image captured using each imaging device.
The integrated luminance value Y T is a luminance value calculated by the image integration unit 11 and indicates a luminance value obtained by integrating the luminance of each captured image to be tested.
Integrated image I T show images also integrated color information in addition to the luminance image integration unit 11.

ポスプロ用蓄積部5は、プレビュー用プロセス部12にて統合画像Itに加工を施した映像を蓄積するものであって、例えば、一般的なハードディスクなどから構成される。 Post-production for the storage unit 5 is for storing the image subjected to processing in the integrated image I t at the preview process unit 12, for example, and the like typical hard disk.

(2.画像統合部の概要,構成)
図1に示す撮影装置1の画像統合部11の詳細について図2を参照して説明する。なお、図2は、図1に示す撮影装置1の画像統合部11のみを示したものである。画像統合部11が複数の撮像デバイスによる画像を統合する処理は、主に校正段階と、合成段階(統合段階)とに分けることができる。
(2. Outline and configuration of image integration unit)
Details of the image integration unit 11 of the photographing apparatus 1 shown in FIG. 1 will be described with reference to FIG. 2 shows only the image integration unit 11 of the photographing apparatus 1 shown in FIG. The process in which the image integration unit 11 integrates images from a plurality of imaging devices can be mainly divided into a calibration stage and a synthesis stage (integration stage).

画像統合部11は、図2に示すように、主に校正段階の画像処理を行う輝度キャリブレーション手段20と、統合段階の画像処理を行う統合画像生成手段30とを備えている。   As shown in FIG. 2, the image integration unit 11 includes a luminance calibration unit 20 that mainly performs image processing at the calibration stage, and an integrated image generation unit 30 that performs image processing at the integration stage.

前提として、撮影装置1において、単板RGB撮像素子7とモノクローム撮像素子8で輝度の相関校正を行うために、事前に、カラーチャート(色試験撮影用対象)O1を撮影する。カラーチャートO1は、例えば、図2に例示したように、24色の色領域が配置されたカラーチェッカであるマクベスチャートなどから構成される。このとき撮影したカラーチャート画像を撮影画像1と表記する。輝度キャリブレーション手段20は、この撮影画像1を用いて色輝度変換行列を最適化し、最適化した色輝度変換行列により生成した統合輝度値を記憶部4に保持する。その後、撮影装置1において、単板RGB撮像素子7とモノクローム撮像素子8で被写体(本番の撮影用対象)O2を撮影する。このときの撮影画像を撮影画像2と表記する。この撮影画像2により統合段階の画像処理を行うのが統合画像生成手段30である。以下では、まず、画像統合部11による校正段階の画像処理について説明する。 As a premise, in the photographing apparatus 1, a color chart (color test photographing target) O 1 is photographed in advance in order to perform correlation correction of luminance with the single-plate RGB imaging element 7 and the monochrome imaging element 8. The color chart O 1 includes, for example, a Macbeth chart which is a color checker in which 24 color areas are arranged as illustrated in FIG. The color chart image photographed at this time is denoted as photographed image 1. The luminance calibration unit 20 optimizes the color luminance conversion matrix using the captured image 1 and holds the integrated luminance value generated by the optimized color luminance conversion matrix in the storage unit 4. Thereafter, in the photographing apparatus 1, the subject (the actual photographing target) O 2 is photographed by the single-plate RGB imaging element 7 and the monochrome imaging element 8. The captured image at this time is referred to as captured image 2. The integrated image generation means 30 performs image processing at the integration stage based on the captured image 2. Hereinafter, first, the image processing at the calibration stage by the image integration unit 11 will be described.

(3.画像統合部の詳細な構成)
ここでは、3−1.輝度の相関校正に係る校正の概要、3−2.輝度キャリブレーション手段、3−3.統合画像生成手段、3−4.画像統合部の第1変形例、3−5.画像統合部の第2変形例の各節に分けて説明する。
(3. Detailed configuration of the image integration unit)
Here, 3-1. Outline of calibration related to luminance correlation calibration, 3-2. Luminance calibration means, 3-3. Integrated image generating means, 3-4. First modification of image integration unit, 3-5. This will be described in each section of the second modification of the image integration unit.

<3−1.輝度の相関校正に係る校正の概要>
通常、RGBから輝度色差などの別のカラースペースに変換する変換行列は、多数存在する。しかし、本実施形態では、見た目の輝度ではなく、単板RGB撮像素子7による撮影画像の画素の輝度とモノクローム撮像素子8による撮影画像の画素の輝度との整合を目的としている。そこで、3×1の色輝度変換行列[a b c]を定義し、単板RGB撮像素子7による撮影画像の画素のRGB各輝度値に対し、この色輝度変換行列[a b c]を乗じて輝度値を求めることとし、この色輝度変換行列[a b c]を、最適化により算出し利用する。
<3-1. Outline of calibration related to luminance correlation calibration>
Usually, there are many conversion matrices for converting from RGB to another color space such as luminance color difference. However, this embodiment aims at matching not the apparent luminance but the luminance of the pixel of the captured image by the single-plate RGB imaging element 7 and the luminance of the pixel of the captured image by the monochrome imaging element 8. Therefore, a 3 × 1 color luminance conversion matrix [a b c] is defined, and the RGB luminance values of the pixels of the image captured by the single-plate RGB imaging device 7 are multiplied by the color luminance conversion matrix [a b c]. Thus, the luminance value is obtained, and the color luminance conversion matrix [a b c] is calculated and used by optimization.

<3−2.輝度キャリブレーション手段>
図2に示す輝度キャリブレーション手段20は、カラーチャートO1を単板RGB撮像素子7で撮影したカラー画像のRGB画素をそれぞれ補間するデモザイクにより生成されるRGBプレーンのRGB値(以下、フル解像度のRGB値という)を色輝度変換行列[a b c]により変換することで当該カラー画像の画素の輝度値を生成し、単板RGB撮像素子7と同時にカラーチャートO1をモノクローム撮像素子8で撮影した撮影画像(モノクローム撮影画像)の画素の輝度値と、カラー画像の画素の輝度値との差が最小化するように色輝度変換行列[a b c]を最適化して求めることとした。
<3-2. Brightness calibration means>
The luminance calibration means 20 shown in FIG. 2 has RGB values (hereinafter referred to as full resolution) of RGB planes generated by demosaic that interpolate the RGB pixels of the color image obtained by photographing the color chart O 1 with the single-plate RGB imaging device 7. RGB values) are converted by the color luminance conversion matrix [a b c] to generate luminance values of the pixels of the color image, and the color chart O 1 is photographed by the monochrome image sensor 8 simultaneously with the single-plate RGB image sensor 7. The color luminance conversion matrix [a b c] is optimized so as to minimize the difference between the luminance value of the captured image (monochrome captured image) and the luminance value of the color image.

このために、輝度キャリブレーション手段20は、図2に示すように、デモザイキング処理手段21と、平均RGB値算出手段22と、平均輝度値算出手段23と、色輝度変換行列最適化処理手段24とを備えている。   For this purpose, the luminance calibration unit 20 includes a demosaicing processing unit 21, an average RGB value calculation unit 22, an average luminance value calculation unit 23, and a color luminance conversion matrix optimization processing unit 24, as shown in FIG. And.

デモザイキング処理手段21は、カラーチャートO1を単板RGB撮像素子7で撮影したカラー画像のRGB画素をそれぞれ補間するデモザイクにより生成されるRGBプレーンのRGB値(以下、フル解像度のRGB値という)を求めるものである。このカラーチャートO1を撮影したフル解像度のRGB値を以下ではRGB値1という。このRGB値1は、平均RGB値算出手段22で利用される。 The demosaicing processing means 21 is an RGB value (hereinafter referred to as a full-resolution RGB value) of an RGB plane generated by demosaicing that interpolates each RGB pixel of a color image obtained by photographing the color chart O 1 with the single-plate RGB imaging device 7. Is what you want. The full resolution RGB value obtained by photographing the color chart O 1 is hereinafter referred to as RGB value 1. This RGB value 1 is used by the average RGB value calculation means 22.

ここで、デモザイキング処理手段21の行う一般的なデモザイク処理について図5を参照して説明する。デモザイキング処理手段21は、単板RGB撮像素子の撮影画像7aを、まず、RAWデータとして、解像度の粗いGプレーン101、Rプレーン102、およびBプレーン103に分解する。なお、ベイヤ配列では、2つのG画素と、1つのR画素と、1つのB画素との組を単位としている。   Here, a general demosaic process performed by the demosaicing processing means 21 will be described with reference to FIG. The demosaicing processing means 21 first decomposes the captured image 7a of the single-plate RGB image sensor into RAW data having a coarse G plane 101, R plane 102, and B plane 103. In the Bayer array, a group of two G pixels, one R pixel, and one B pixel is used as a unit.

デモザイキング処理手段21は、Gプレーン101に対しては、画像のエッジ方向を利用して内挿を行うことで、フル解像度G画像111を生成する。画像のエッジ方向を利用して内挿を行う方法としては、適応型カラープレーン補間法(ACPI:Advanced Color Plane Interpolation)が一般的である。   The demosaicing processing means 21 generates a full resolution G image 111 by interpolating the G plane 101 using the edge direction of the image. An adaptive color plane interpolation method (ACPI: Advanced Color Plane Interpolation) is generally used as an interpolation method using the edge direction of an image.

デモザイキング処理手段21は、Rプレーン102に対しては、画像のエッジ方向を利用し、かつ、フル解像度G画像111の勾配を利用することで内挿を行い、フル解像度R画像122を生成する。
同様に、デモザイキング処理手段21は、Bプレーン103に対しては、画像のエッジ方向を利用し、かつ、フル解像度G画像111の勾配を利用することで内挿を行い、フル解像度B画像123を生成する。
The demosaicing processing unit 21 performs interpolation by using the edge direction of the image and the gradient of the full resolution G image 111 for the R plane 102 to generate a full resolution R image 122. .
Similarly, the demosaicing processing means 21 interpolates the B plane 103 by using the edge direction of the image and using the gradient of the full resolution G image 111, and the full resolution B image 123. Is generated.

デモザイキング処理手段21は、以上の処理により、フル解像度のRGB値(RGB値1)として、フル解像度G画像121、フル解像度R画像122、フル解像度B画像123を生成する。なお、フル解像度G画像111は、フル解像度G画像121と同じものであり、RプレーンおよびBプレーンの内挿に利用される画像であることを明確にするために、フル解像度G画像121とは符号を変えたものである。   The demosaicing processing means 21 generates a full resolution G image 121, a full resolution R image 122, and a full resolution B image 123 as full resolution RGB values (RGB value 1) by the above processing. Note that the full resolution G image 111 is the same as the full resolution G image 121, and in order to clarify that the full resolution G image 111 is an image used for interpolation of the R plane and the B plane, The sign is changed.

図2に戻って、輝度キャリブレーション手段20の構成の説明を続ける。
平均RGB値算出手段22は、カラーチャートO1を撮影したフル解像度のRGB値(RGB値1)に基づいて、カラーチャートO1の各色領域に対し、Rの輝度の平均値、Gの輝度の平均値、Bの輝度の平均値の組を、RGB平均輝度値[Rccc]として求めた上で、これを色輝度変換行列[a b c]により変換することで当該カラー画像の画素の輝度値Ycを生成するものである。
平均RGB値算出手段22は、カラー画像の色領域ごとに、式(1)により、RGB平均輝度値[Rccc]に対して、3×1の色輝度変換行列[a b c]をかけて輝度値Ycを生成する。この輝度値Ycは、色輝度変換行列最適化処理手段24で利用される。
Returning to FIG. 2, the description of the configuration of the luminance calibration means 20 will be continued.
Average RGB value calculating means 22 based on the RGB values of the full resolution obtained by photographing a color chart O 1 (RGB value 1), for each color area of the color chart O 1, the average value of the luminance of R, the luminance of G A set of the average value and the average value of the luminance of B is obtained as an RGB average luminance value [R c G c B c ] and is converted by the color luminance conversion matrix [a b c] to thereby obtain the color image. and it generates a luminance value Y c of the pixel.
The average RGB value calculating means 22 calculates the 3 × 1 color luminance conversion matrix [a b c for the RGB average luminance value [R c G c B c ] according to the equation (1) for each color area of the color image. ] over to generate a luminance value Y c. This luminance value Y c is used by the color luminance conversion matrix optimization processing means 24.

平均輝度値算出手段23は、モノクローム撮像素子8で撮影したモノクローム撮影画像に基づいて、カラーチャートO1の各色領域に対して、画素の輝度値の平均値Ygを求める。この輝度値Ygは、色輝度変換行列最適化処理手段24で利用される。 The average luminance value calculating means 23 obtains the average value Y g of the luminance values of the pixels for each color region of the color chart O 1 based on the monochrome photographed image photographed by the monochrome image sensor 8. This luminance value Y g is used by the color luminance conversion matrix optimization processing means 24.

色輝度変換行列最適化処理手段24は、カラー画像から算出されたi番目の色領域の輝度値Yciと、モノクローム撮影画像のi番目の色領域の輝度値Ygiと、の差の総和を評価関数として3×1の色輝度変換行列[a b c]を例えばマーカート法を用いて最適化して求める。色輝度変換行列最適化処理手段24は、この評価関数が最小になるように、式(2)の関数の値を算出して、3×1の色輝度変換行列[a b c]を最適化する。 The color luminance conversion matrix optimization processing means 24 calculates a sum of differences between the luminance value Y ci of the i-th color region calculated from the color image and the luminance value Y gi of the i-th color region of the monochrome photographed image. As an evaluation function, a 3 × 1 color luminance conversion matrix [a b c] is optimized and obtained by using, for example, the Markert method. The color luminance conversion matrix optimization processing unit 24 calculates the value of the function of Expression (2) so that the evaluation function is minimized, and optimizes the 3 × 1 color luminance conversion matrix [a b c]. To do.

色輝度変換行列[a b c]が最適化されたときに、カラー画像から算出された輝度値Ycと、モノクローム撮影画像の当該色領域の輝度値Ygとが実質的に等しくなるので、このときの輝度値が統合輝度値YTとして記憶部4に格納される。この統合輝度値YTの詳細については後記する。ここで、最適化された色輝度変換行列[a b c]を、式(3)に示すように、あらためて色輝度変換行列Kと表記する。この色輝度変換行列Kも記憶部4に格納される。 When the color luminance conversion matrix [a b c] is optimized, the luminance value Y c calculated from the color image is substantially equal to the luminance value Y g of the color area of the monochrome photographed image. The luminance value at this time is stored in the storage unit 4 as the integrated luminance value Y T. Details of the integrated luminance value Y T will be described later. Here, the optimized color luminance conversion matrix [a b c] is referred to as color luminance conversion matrix K anew as shown in Equation (3). This color luminance conversion matrix K is also stored in the storage unit 4.

前記の説明では、事前に撮影する色試験撮影用対象をカラーチャートO1であるものとして説明したが、色試験撮影用対象は、カラーチャートに限定したものではない。例えば、一般に撮影した画像で、各画素のRGB各輝度値とモノクローム素子の輝度値との差を最小化することにより同様に算出可能である。 In the above description, the color test photographing target to be photographed in advance is described as the color chart O 1 , but the color test photographing target is not limited to the color chart. For example, it can be calculated in the same manner by minimizing the difference between the RGB luminance values of each pixel and the luminance value of the monochrome element in a generally photographed image.

この場合、輝度キャリブレーション手段20は、外部環境に応じて更新された一般の撮影画像(色試験撮影用対象)を、単板RGB撮像素子7とモノクローム撮像素子8でその都度撮影した各撮影画像を用いて3×1の色輝度変換行列[a b c]を最適化し、最適化した色輝度変換行列Kを、その都度撮影した一般の撮影画像(色試験撮影用対象)に応じて更新しながら記憶部4に保持する。   In this case, the luminance calibration unit 20 captures a general captured image (color test imaging target) updated according to the external environment with the single-plate RGB imaging device 7 and the monochrome imaging device 8 each time. Is used to optimize the 3 × 1 color luminance conversion matrix [a b c], and the optimized color luminance conversion matrix K is updated according to a general captured image (color test imaging target) captured each time. However, it is held in the storage unit 4.

また、輝度キャリブレーション手段20は、単板RGB撮像素子7とモノクローム撮像素子8で撮影した各撮影画像から、予め定められた規則にしたがって画素を間引いて、残余の画素を対象としてモノクロ撮影画像の輝度値とカラー画像の輝度値との差が最小化するように色輝度変換行列K=[a b c]を最適化するように構成してもよい。ここで、画素を間引く規則とは、例えば、1画素おきにサンプリングしたり、画素をランダムに選択したりするといった規則である。なお、その規則は、各撮像デバイスによる撮影画像の画素の間引く位置が同じであれば、特に限定されるものではない。   Also, the brightness calibration means 20 thins out pixels according to a predetermined rule from each photographed image photographed by the single-plate RGB image sensor 7 and the monochrome image sensor 8, and the remaining pixels are targeted for the monochrome photographed image. The color luminance conversion matrix K = [a b c] may be optimized so that the difference between the luminance value and the luminance value of the color image is minimized. Here, the rule of thinning out pixels is, for example, a rule of sampling every other pixel or randomly selecting a pixel. Note that the rules are not particularly limited as long as the positions of pixels to be thinned by the imaging devices are the same.

<3−3.統合画像生成手段>
統合画像生成手段30は、単板RGB撮像素子7とモノクローム撮像素子8で被写体(本番の撮影用対象)O2をそれぞれ撮影した撮影画像のカラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、輝度キャリブレーション手段20で最適化された色輝度変換行列Kを含む色空間変換行列Cを乗じて変換された輝度値のうちモノクローム撮像画像とで飽和していない輝度値を選択することにより統合輝度と色空間における色情報とを求め、これを、各撮影映像を1つに統合した統合画像の色情報とし、かつ、統合輝度を輝度情報として統合画像Itを生成するものである。ここで、変換された輝度値から選択する輝度値とは、詳細は後記するが、モノクローム撮像画像では飽和していない領域の輝度値、および、モノクローム撮像画像では飽和している領域にあって変換輝度値においては飽和していない領域にある輝度値を示す。以下では、簡単のため、統合画像生成手段30は、被写体O2を単板RGB撮像素子7で撮影したカラー画像の色情報をそのまま利用すると共に、そのカラー画像の輝度情報を、統合輝度値YTに置き換えることで統合画像ITを生成することとした。
<3-3. Integrated image generation means>
The integrated image generating means 30 converts the RGB values of the RGB plane generated by demosaicing from the color images of the captured images obtained by capturing the subject (the actual imaging target) O 2 with the single-plate RGB imaging device 7 and the monochrome imaging device 8. On the other hand, a luminance value that is not saturated with the monochrome captured image is selected from the luminance values converted by multiplying the color space conversion matrix C including the color luminance conversion matrix K optimized by the luminance calibration means 20. It obtains the color information in the integrated luminance and color space by which the, the color information of the integrated image obtained by integrating the respective captured video into one, and is intended to generate an integrated image I t integrated luminance as the luminance information . Here, the brightness value to be selected from the converted brightness value will be described in detail later, but it is converted in the brightness value of the area that is not saturated in the monochrome captured image and the area that is saturated in the monochrome captured image. In the luminance value, the luminance value in an unsaturated region is shown. In the following, for simplicity, the integrated image generating means 30 uses the color information of the color image obtained by photographing the subject O 2 with the single-plate RGB imaging device 7 as it is, and uses the luminance information of the color image as the integrated luminance value Y. The integrated image IT is generated by replacing with T.

本実施形態では、統合画像生成手段30は、色空間写像手段31と、色情報算出手段32とを備える。
色空間写像手段31は、輝度キャリブレーション手段20のデモザイキング処理手段21により単板RGB撮像素子7で被写体(本番の撮影用対象)O2を撮影したカラー画像をデモザイク化したフル解像度のRGB値に対して、式(4)に示す色空間変換行列Cを乗じるものである。
In the present embodiment, the integrated image generation unit 30 includes a color space mapping unit 31 and a color information calculation unit 32.
The color space mapping means 31 is a full-resolution RGB value obtained by demosaicing a color image obtained by photographing the subject (the actual photographing target) O 2 with the single-plate RGB imaging device 7 by the demosaicing processing means 21 of the luminance calibration means 20. Is multiplied by a color space conversion matrix C shown in Expression (4).

式(4)に示す色空間変換行列Cは、カラー画像をデモザイク化したフル解像度のRGB値を色空間に写像する行列であって、色輝度変換行列K=[a b c]を含む行列である。d,e,f,g,h,iは、予め定められた定数である。この色空間変換行列Cは、YCbr変換行列である。色空間写像手段31は、式(5)で示される変換を行うことで、RGB平均輝度値[Rccc]を特殊な色空間に写像する。 The color space conversion matrix C shown in Expression (4) is a matrix that maps a full resolution RGB value obtained by demosaicizing a color image to the color space, and includes a color luminance conversion matrix K = [a b c]. is there. d, e, f, g, h and i are predetermined constants. This color space conversion matrix C is a YC b Cr conversion matrix. The color space mapping unit 31 maps the RGB average luminance value [R c G c B c ] into a special color space by performing the conversion represented by equation (5).

ここで、C1、C2は色差情報を示している。また、Ycは、カラー画像に因んだ輝度値であるが、写像先の特殊な色空間においては、輝度は統合されているので、ここでは、統合輝度値YTと同じ意味を有している。なお、後記するように輝度領域を3分割する場合には、統合輝度値YTはカラー画像に因んだものやモノクローム撮影画像に因んだものがある。 Here, C 1 and C 2 indicate color difference information. Y c is a luminance value due to the color image, but in the special color space of the mapping destination, since the luminance is integrated, it has the same meaning as the integrated luminance value Y T here. ing. As will be described later, when the luminance region is divided into three, the integrated luminance value Y T may be related to a color image or a monochrome photographed image.

色情報算出手段32は、特殊な色空間に写像された行列に、色空間変換行列Cの逆行列C-1を乗じることで統合画像ITのRGB値[Rttt]を求めるものである。ここで、特殊な色空間に写像された行列は、輝度値Ytを含んでいる。ここでは、輝度値Ytは、写像先の特殊な色空間において輝度が統合されていることだけを示しており、統合輝度値YTと同じ意味を有している。また、C1′、C2′は、輝度が統合されている特殊な色空間の色差情報を示している。 The color information calculation unit 32 obtains the RGB value [R t G t B t ] of the integrated image I T by multiplying the matrix mapped to the special color space by the inverse matrix C −1 of the color space conversion matrix C. Is. Here, it mapped to a special color space matrix includes a luminance value Y t. Here, the luminance value Y t indicates only that the luminance is integrated in the special color space of the mapping destination, and has the same meaning as the integrated luminance value Y T. C 1 ′ and C 2 ′ indicate color difference information of a special color space in which luminance is integrated.

前記のように、統合画像生成手段30は、カラー画像の画素のRGB値を特殊な色空間に一旦写像した後に、この色空間変換行列Cの逆行列C-1を乗じることで統合画像のRGB値を求める。このように逆行列を乗じる理由は、各画素の計算において、式(6)の右辺の輝度値Ytは、モノクローム撮像画像では飽和していない領域の輝度値も考慮しているときには、統合輝度を求めるために一旦写像して生成された式(5)の左辺の行列の輝度値Ycとは異なる場合があるからである。このような場合の詳細については後記する。この2回の変換により、輝度値と色情報とを同時に扱いつつ、統合画像のRGB値を正確に求めることができる。また、式(6)の右辺の輝度値Ytと式(5)の左辺の行列の輝度値Ycとが同じである場合には、逆行列C-1を乗じる必要はなく、したがって色情報算出手段32がなくてもよい。これは、撮像画像が、飽和していない輝度値ばかりである場合に相当する。 As described above, the integrated image generating means 30 once maps the RGB values of the pixels of the color image into a special color space, and then multiplies the inverse matrix C −1 of this color space conversion matrix C to obtain the RGB of the integrated image. Find the value. The reason for multiplying the inverse matrix in this way is that, in the calculation of each pixel, the luminance value Y t on the right side of the equation (6) takes into account the luminance value of the region that is not saturated in the monochrome captured image, and the integrated luminance This is because the luminance value Y c of the matrix on the left side of Expression (5) once mapped and generated in order to obtain Details of such a case will be described later. By performing the conversion twice, the RGB value of the integrated image can be accurately obtained while simultaneously treating the luminance value and the color information. If the luminance value Y t on the right side of Equation (6) is the same as the luminance value Y c of the matrix on the left side of Equation (5), it is not necessary to multiply the inverse matrix C −1 , and therefore color information The calculating means 32 may not be provided. This corresponds to a case where the captured image has only luminance values that are not saturated.

<3−4.画像統合部の第1変形例>
ここでは、画像統合部の第1変形例について図3を参照して説明する。図3に示す画像統合部11Aは、校正段階のオプションとして、位置キャリブレーション手段40(図3参照)をさらに備える点が図2に示す画像統合部11と異なる。なお、図3は、図1に示す撮影装置1の画像統合部11の部分のみを示したものである。
<3-4. First Modification of Image Integration Unit>
Here, a first modification of the image integration unit will be described with reference to FIG. The image integration unit 11A shown in FIG. 3 is different from the image integration unit 11 shown in FIG. 2 in that it further includes a position calibration means 40 (see FIG. 3) as an option at the calibration stage. FIG. 3 shows only the image integration unit 11 of the photographing apparatus 1 shown in FIG.

前提として、撮影装置1において、単板RGB撮像素子7とモノクローム撮像素子8で幾何学的設置誤差の補正を行うために、事前に、パターン(位置試験撮影用対象)O3を撮影する。パターンO3は、例えば、図3に例示したように、市松模様などから構成される。このパターンO3の撮影画像のうち、例えば、市松模様の25個の交点41が各コーナーの候補として検出される。このときの撮影画像を撮影画像3と表記する。この撮影画像3に係る画像処理を主に行うのが位置キャリブレーション手段40である。 As a premise, in order to correct the geometric installation error with the single-plate RGB imaging device 7 and the monochrome imaging device 8 in the imaging device 1, a pattern (position test imaging target) O 3 is imaged in advance. The pattern O 3 is composed of, for example, a checkered pattern as illustrated in FIG. Among the captured images of the pattern O 3 , for example, 25 intersections 41 in a checkered pattern are detected as candidates for each corner. The captured image at this time is referred to as a captured image 3. The position calibration means 40 mainly performs image processing relating to the photographed image 3.

図3に示す位置キャリブレーション手段40は、パターンO3を各撮像デバイスで撮影した複数の撮影画像に基づいて、それぞれの画素の位置を整合するための射影行列を最適化することで、各撮像デバイスの撮影画像間で画素を対応付けるものである。 The position calibration means 40 shown in FIG. 3 optimizes a projection matrix for matching the positions of the respective pixels based on a plurality of captured images obtained by capturing the pattern O 3 with each image capturing device, thereby capturing each image. Pixels are associated between captured images of devices.

位置キャリブレーション手段40は、各撮影画像のコーナー座標を画像処理(例えばHarrisオペレータなど)で検出する。つまり、位置キャリブレーション手段40は、カラー画像のi番目のコーナーに対応するRGBの座標(Xi,Yi,Zi)と、同じi番目のコーナーについてのモノクローム撮影画像の対応するモノクローム撮影画像における座標(xi,yi,zi)とを検出する。 The position calibration means 40 detects the corner coordinates of each captured image by image processing (for example, a Harris operator). That is, the position calibration unit 40 corresponds to the RGB coordinate (X i , Y i , Z i ) corresponding to the i-th corner of the color image and the corresponding monochrome captured image of the monochrome captured image at the same i-th corner. The coordinates at (x i , y i , z i ) are detected.

位置キャリブレーション手段40は、幾何学的設置誤差の補正を次のように行う。すなわち、位置キャリブレーション手段40は、カラー画像とモノクローム撮影画像のうちの一方の画像のコーナーに対応する座標に3×3の射影行列を乗じて得られる座標値と、他方の画像のコーナーに対応する座標とが等しくなるように、射影行列を最適化する。   The position calibration unit 40 corrects the geometric installation error as follows. That is, the position calibration means 40 corresponds to the coordinate value obtained by multiplying the coordinate corresponding to the corner of one of the color image and the monochrome photographed image by the 3 × 3 projection matrix and the corner of the other image. The projection matrix is optimized so that the coordinates to be made are equal.

本変形例では、位置キャリブレーション手段40は、マーカート法を用いてこの最適化を行う。ここでは、射影行列は、カラー画像のコーナーに対応するRGBの座標を示す行列[Xiii]から、モノクローム撮影画像のコーナーに対応するモノクローム撮影画像における座標を示す行列[xiii](変換座標値)に変換する方向とした。また、各撮像デバイスの幾何学的設置誤差として、各撮影画像の各コーナーにおいて次の距離dを求めることとした。この距離dは、コーナーにおいてRGBの座標と射影行列とを乗じて得られる座標値(変換座標値)と、そのコーナーのモノクローム撮影画像における座標値との距離を示す。そして、各コーナーで求まる距離の総和が最小になるように評価関数を定義した。また、射影行列の初期値については、カラー画像の各コーナーの座標の平均つまり重心位置と、その重心位置に対してモノクローム撮影画像の重心位置とを合致させるような値を用いた。位置キャリブレーション手段40によって最適化された射影行列Pは、記憶部4に格納される。以降、画素値は射影行列Pを通し座標を変換し参照することとする。 In this modification, the position calibration means 40 performs this optimization using a marker method. Here, the projection matrix is derived from a matrix [X i Y i Z i ] indicating RGB coordinates corresponding to the corners of the color image, and a matrix [x i y indicating coordinates in the monochrome captured images corresponding to the corners of the monochrome captured image. i z i ] (conversion coordinate value). Further, as the geometric installation error of each imaging device, the following distance d is obtained at each corner of each captured image. This distance d indicates the distance between the coordinate value (conversion coordinate value) obtained by multiplying the RGB coordinates and the projection matrix at the corner and the coordinate value in the monochrome photographed image at that corner. Then, an evaluation function was defined so that the sum of distances obtained at each corner was minimized. As the initial value of the projection matrix, an average of coordinates of each corner of the color image, that is, a centroid position, and a value that matches the centroid position of the monochrome photographed image with the centroid position are used. The projection matrix P optimized by the position calibration means 40 is stored in the storage unit 4. Hereinafter, the pixel values are referred to by converting coordinates through the projection matrix P.

<3−5.画像統合部の第2変形例>
ここでは、画像統合部の第2変形例について図4を参照して説明する。図4に示す画像統合部11Bは、統合段階のオプションとして、ホワイトバランス処理手段50をさらに備える点が図2に示す画像統合部11と異なる。なお、図4は、図1に示す撮影装置1の画像統合部11の部分のみを示したものであり、図2に示したブロック構成要素のうち、図4において説明に直接関係のないブロック構成要素の図示は省略した。
図4に示すホワイトバランス処理手段50は、被写体(本番の撮影用対象)O2を撮影単板RGB撮像素子7で撮影した撮影映像2について、従来のカメラ同様に、白色を正確に白く映し出すように補正するホワイトバランスの処理を行うものである。ホワイトバランスの調整は一般的な方法で行うことができる。
<3-5. Second Modification of Image Integration Unit>
Here, a second modification of the image integration unit will be described with reference to FIG. The image integration unit 11B illustrated in FIG. 4 is different from the image integration unit 11 illustrated in FIG. 2 in that the image integration unit 11B further includes a white balance processing unit 50 as an integration stage option. FIG. 4 shows only the image integration unit 11 of the photographing apparatus 1 shown in FIG. 1, and among the block components shown in FIG. 2, the block configuration not directly related to the description in FIG. Illustration of elements was omitted.
The white balance processing means 50 shown in FIG. 4 accurately displays the white color of the photographed image 2 obtained by photographing the subject (the actual photographing object) O 2 with the photographing single-plate RGB imaging device 7 as in the conventional camera. A white balance process for correcting the white balance is performed. The white balance can be adjusted by a general method.

(4.輝度統合処理)
ここでは、図2に示す輝度キャリブレーション手段で行う輝度統合処理について、4−1.輝度統合処理の概要、4−2.輝度統合処理の具体例の各節に分けて説明する。
<4−1.輝度統合処理の概要>
図6は、図2に示す輝度キャリブレーション手段で行う輝度統合処理の説明図である。
図6のグラフの横軸は、各撮像デバイスへ入射する入射光量を示し、グラフの縦軸は、各撮像デバイスの輝度値を示している。
(4. Luminance integration processing)
Here, regarding the luminance integration processing performed by the luminance calibration means shown in FIG. Overview of luminance integration processing, 4-2. This will be described in each section of a specific example of luminance integration processing.
<4-1. Overview of luminance integration processing>
FIG. 6 is an explanatory diagram of luminance integration processing performed by the luminance calibration means shown in FIG.
The horizontal axis of the graph in FIG. 6 indicates the amount of incident light that enters each imaging device, and the vertical axis of the graph indicates the luminance value of each imaging device.

モノクローム撮像素子8の輝度値の勾配は、符号201の太い実線で示すように、入射光量Q1までは線形に増加し、以降は飽和している。すなわち、入射光量Q1においてモノクローム撮像素子8は飽和輝度値Sth1に達している。 The gradient of the luminance value of the monochrome imaging element 8 increases linearly up to the incident light quantity Q 1 and is saturated thereafter, as indicated by the thick solid line 201. That is, the monochrome image pickup device 8 reaches the saturation luminance value S th1 at the incident light quantity Q 1 .

一方、単板RGB撮像素子7のRGB値[Rccc]の勾配は、符号202の細い実線で示すように、入射光量Q1では飽和せずに線形に増加し、入射光量Q3においてモノクローム撮像素子8の飽和輝度値Sth1に達しても線形に増加している。なお、グラフでは、RGB値の勾配については、(Rc+Gc+Bc)/3の輝度を示している。 On the other hand, the gradient of the RGB value [R c G c B c ] of the single-plate RGB image pickup device 7 increases linearly without being saturated with the incident light quantity Q 1 , as indicated by the thin solid line of reference numeral 202. In FIG. 3 , even when the saturation luminance value S th1 of the monochrome image pickup element 8 is reached, it increases linearly. In the graph, regarding the gradient of the RGB value, the luminance of (R c + G c + B c ) / 3 is shown.

前記した式(1)により、単板RGB撮像素子7のRGB値[Rccc]の転置行列を、最適化した行列[a b c]で変換した変換後輝度の勾配は、符号203の実線で示される。 The gradient of the converted luminance obtained by converting the transposed matrix of the RGB values [R c G c B c ] of the single-plate RGB image sensor 7 with the optimized matrix [a b c] according to the above-described equation (1) is This is indicated by a solid line 203.

変換後輝度の勾配は、符号203の実線で示すように、符号202の実線の勾配の約2倍の傾きとなっている。より詳細な実験では、単板RGB撮像素子7から導いた飽和輝度値は、モノクローム撮像素子8の飽和輝度値Sth1の1.5〜2.5倍程度に向上した。したがって、統合輝度値YTにおいてダイナミックレンジは3.5〜8dB向上した。これは、撮像素子のダイナミックレンジ(72dB)を考慮すると、75.5〜80dBとなる。つまり、HDR(High Dynamic Range)化することができる。 The gradient of the luminance after conversion is approximately twice as large as the gradient of the solid line 202 as indicated by the solid line 203. In a more detailed experiment, the saturation luminance value derived from the single-plate RGB imaging element 7 was improved to about 1.5 to 2.5 times the saturation luminance value S th1 of the monochrome imaging element 8. Therefore, the dynamic range is improved by 3.5 to 8 dB in the integrated luminance value Y T. This is 75.5 to 80 dB in consideration of the dynamic range (72 dB) of the image sensor. That is, HDR (High Dynamic Range) can be achieved.

図6に示すように、同じ入射光量ならば、モノクローム撮像素子8の方が高輝度である。また、各撮像素子への入射光量としては、モノクローム撮像素子8の方が多い。そのため、画像統合部11では、モノクローム撮像素子8を暗い領域用に用いることとした。暗い領域に用いるため、モノクローム撮像素子8の輝度(Yg)は飽和し易い。そこで、画像統合部11は、モノクローム撮像素子8の輝度(Yg)が飽和している領域については、最適化した輝度値で置換することとした。これが統合輝度値YTである。なお、モノクローム撮像素子8の輝度が飽和している領域ばかりの撮影画像であれば、統合輝度値YTとして、前記した式(1)に示すYcを用いることができる。 As shown in FIG. 6, the monochrome image pickup device 8 has higher brightness if the amount of incident light is the same. Further, the monochrome image pickup device 8 has a larger amount of incident light on each image pickup device. Therefore, the image integration unit 11 uses the monochrome imaging element 8 for a dark region. Since it is used for a dark region, the luminance (Y g ) of the monochrome image sensor 8 is likely to be saturated. Therefore, the image integration unit 11 replaces an area where the luminance (Y g ) of the monochrome image sensor 8 is saturated with an optimized luminance value. This is the integrated luminance value Y T. Incidentally, if the captured image just areas where the luminance of the monochrome image pickup device 8 is saturated, it is possible to use a Y c shown as an integrated luminance value Y T, the equation (1).

より好適な実施形態として、比較的低い入射光量に対してモノクローム撮像素子8の輝度値(Yg)を用い、かつ、比較的高い入射光量に対して、前記した式(1)に示すYcを用いることができる。なお、このための構成については後記する。この場合、飽和輝度値Sth1の近傍で、滑らかに勾配を接続するために、統合輝度値の輝度領域を飽和輝度値Sth1を第1閾値として、これよりも所定値Ssubだけ小さな飽和レベルSth2を第2閾値として3分割する。飽和レベルSth2は入射光量Q2に対応する輝度値である。本実施形態では、飽和レベルSth2は、飽和輝度値Sth1の10%程度とした。 As a more preferred embodiment, the luminance value (Y g ) of the monochrome imaging device 8 is used for a relatively low amount of incident light, and Y c shown in the above equation (1) for a relatively high amount of incident light. Can be used. The configuration for this will be described later. In this case, in the vicinity of the saturated luminance value S th1, in order to smoothly connect the slope, the luminance region of the integrated luminance value as the first threshold saturation luminance value S th1, predetermined value S sub only small saturation level than this S th2 is divided into three with the second threshold value. The saturation level S th2 is a luminance value corresponding to the incident light quantity Q 2 . In the present embodiment, the saturation level S th2 is about 10% of the saturation luminance value S th1 .

以下では、図6のグラフを横軸に平行な破線で3つに区分した輝度領域を想定する。ここで、輝度が高い領域から、領域α、領域β、領域γと呼ぶ。
領域αは、入射光量Q1から入射光量Q3までの入射光量に対応した輝度領域であり、統合輝度値YTは、前記した式(1)に示すYcで表される。
領域γは、入射光量0から入射光量Q2までの入射光量に対応した輝度領域であり、統合輝度値YTは、モノクローム撮像素子8の輝度値Ygで表される。
領域βは、入射光量Q2から入射光量Q1までの入射光量に対応した輝度領域であり、統合輝度値YTは、前記した式(1)に示すYcと、輝度値Ygとの2つの閾値からの距離に応じた加重平均で表される。この加重平均された輝度値をYtと表記する。
In the following, a luminance region is assumed in which the graph of FIG. 6 is divided into three by broken lines parallel to the horizontal axis. Here, the regions having high luminance are referred to as region α, region β, and region γ.
The region α is a luminance region corresponding to the incident light amount from the incident light amount Q 1 to the incident light amount Q 3 , and the integrated luminance value Y T is represented by Y c shown in the above equation (1).
The region γ is a luminance region corresponding to the incident light amount from the incident light amount 0 to the incident light amount Q 2 , and the integrated luminance value Y T is represented by the luminance value Y g of the monochrome imaging element 8.
The region β is a luminance region corresponding to the incident light amount from the incident light amount Q 2 to the incident light amount Q 1 , and the integrated luminance value Y T is the Y c shown in the above equation (1) and the luminance value Y g . It is expressed as a weighted average according to the distance from the two thresholds. The weighted average luminance value is denoted as Y t .

<4−2.輝度統合処理の具体例>
図7は、カラーチャートを利用した輝度統合処理の具体例を示す説明図であって、(a)はモノクローム撮像素子の撮影画像、(b)は単板RGB撮像素子の撮影画像、(c)は最適化による輝度整合結果を示すグラフをそれぞれ示している。
ここでは、撮像素子として、以下の仕様のものを用いた。
8.9M≒4000×2000(画素)、12ビット
また、撮像素子と演算処理部3を構成する演算用PCとのインタフェースとして、LVDSからPCI Expressに変換する程度の簡素なハードウェアを用いた。撮像素子からの信号をなんの加工処理も行わずに演算用PCに直接入力し、これを演算用PC内のグラフィックスカード上のメモリに転送、グラフィックスカード上のGPUにより浮動小数点32ビットで処理を行った。なお、輝度統合以降の画像処理についてもグラフィックスカード上で全て処理を行った。
<4-2. Specific example of luminance integration processing>
FIG. 7 is an explanatory diagram showing a specific example of luminance integration processing using a color chart, where (a) is a captured image of a monochrome image sensor, (b) is a captured image of a single-plate RGB image sensor, and (c). Respectively show graphs showing the results of luminance matching by optimization.
Here, an image sensor having the following specifications was used.
8.9M≈4000 × 2000 (pixels), 12 bits As the interface between the image sensor and the calculation PC constituting the calculation processing unit 3, simple hardware capable of converting from LVDS to PCI Express was used. The signal from the image sensor is directly input to the computing PC without any processing, and this is transferred to the memory on the graphics card in the computing PC, and processed with floating point 32 bits by the GPU on the graphics card. went. Note that all the image processing after luminance integration was also performed on the graphics card.

図7(c)のグラフにおいて、横軸は、カラーチャートの各色エリアを示し、縦軸は、モノクローム撮像素子8の撮影画像の画素の輝度値に対するカラー画像の画素の輝度比を示している。
このグラフにおいてダイヤで示す輝度整合結果は、比較例であって、BTA S−001規格において1080システムに対して規定された伝送原色で整合した輝度Yである。
Y=[0.2126 0.7152 0.0722][RGB]T … 式(7)
なお、BTA S−001規格は、“標準規格名「1125/60高精細度テレビジョン方式スタジオ規格(ARIB BTA−001 C 1.0版)」、社団法人電波産業会”に記載されている。
In the graph of FIG. 7C, the horizontal axis indicates each color area of the color chart, and the vertical axis indicates the luminance ratio of the color image pixel to the luminance value of the captured image pixel of the monochrome imaging element 8.
The luminance matching result indicated by a diamond in this graph is a comparative example, and is a luminance Y matched with the transmission primary color defined for the 1080 system in the BTA S-001 standard.
Y = [0.2126 0.7152 0.0722] [RGB] T Equation (7)
The BTA S-001 standard is described in “standard name“ 1125/60 high definition television system studio standard (ARIB BTA-001 C 1.0 version) ”, Japan Radio Industry Association.

単板RGB撮像素子7のRGB値[Rccc]を、通常HDTV(ハイビジョン)規格にしたがって単純に変換した輝度は、図7(c)のグラフに示すように、モノクローム撮像素子8の撮影画像における画素の輝度値「1.000」からかけ離れたものとなっており、さらに、カラーチャートの色に依存して大きく変動していることが分かる。これは、通常HDTV(ハイビジョン)規格では、被写体反射率や光源、色フィルタなどの分光特性に起因してモノクローム撮影画像における画素の輝度と正確には一致しないことに由来する。 The luminance obtained by simply converting the RGB value [R c G c B c ] of the single-plate RGB image sensor 7 in accordance with the normal HDTV (high vision) standard is the monochrome image sensor 8 as shown in the graph of FIG. It can be seen that this is far from the luminance value “1.000” of the pixel in the photographed image of FIG. 5, and further varies greatly depending on the color of the color chart. This is because the normal HDTV (high vision) standard does not exactly match the luminance of pixels in a monochrome photographed image due to spectral characteristics such as subject reflectance, light source, and color filter.

一方、図7(c)のグラフにおいて正方形で示す輝度整合結果は、本実施形態の撮影装置1で統合した統合輝度値YTである。なお、輝度領域を領域α、β、γに分けて行った。図7(c)のグラフに示すように、R、G、Bへの各係数を最適化により求めた統合輝度値YTは、各色エリアに亘ってモノクローム撮像素子8の撮影画像における画素の輝度値と非常によく合致しており、カラー画像における画素の輝度とモノクローム撮影画像における画素の輝度とが統合されていることが分かる。 On the other hand, the luminance matching result indicated by a square in the graph of FIG. 7C is an integrated luminance value Y T integrated by the imaging apparatus 1 of the present embodiment. The luminance area was divided into areas α, β, and γ. As shown in the graph of FIG. 7C, the integrated luminance value Y T obtained by optimizing the coefficients for R, G, and B is the luminance of the pixel in the captured image of the monochrome imaging element 8 over each color area. The values agree very well, and it can be seen that the luminance of the pixels in the color image and the luminance of the pixels in the monochrome photographed image are integrated.

(5.色情報統合処理)
図8に例示する画像統合部11Cは、輝度領域を領域α、β、γに分けて処理を行うために、統合画像生成手段30Cを備えている。なお、図9は、図1に示す撮影装置1の画像統合部11の部分のみを示したものであり、図2に示したブロック構成要素のうち、図8において説明に直接関係のないブロック構成要素の図示は省略した。
統合画像生成手段30Cは、色空間写像手段31Cと、色情報算出手段32Cと、統合輝度判別手段33と、第2デモザイキング処理手段34と、第2色空間写像手段35と、加重平均手段36とを備えている。
(5. Color information integration processing)
The image integration unit 11C illustrated in FIG. 8 includes an integrated image generation unit 30C in order to perform processing by dividing a luminance region into regions α, β, and γ. FIG. 9 shows only the image integration unit 11 of the photographing apparatus 1 shown in FIG. 1, and among the block components shown in FIG. 2, the block configuration not directly related to the description in FIG. Illustration of elements was omitted.
The integrated image generation unit 30C includes a color space mapping unit 31C, a color information calculation unit 32C, an integrated luminance determination unit 33, a second demosaicing processing unit 34, a second color space mapping unit 35, and a weighted average unit 36. And.

この統合画像生成手段30Cは、以下の動作を前提としている。これらの動作は、校正段階で説明した処理と同様なので、説明を適宜省略する。
撮影装置1において、単板RGB撮像素子7とモノクローム撮像素子8で被写体(本番の撮影用対象)O2を撮影すると、輝度キャリブレーション手段20の平均RGB値算出手段22(図2参照)は、被写体O2を撮影したフル解像度のRGB値(RGB値2)に基づいて、RGB平均輝度値[Rccc]を求め、これを色輝度変換行列[a b c]により変換することで、被写体O2のカラー画像における画素の輝度値Ycを生成する。
また、輝度キャリブレーション手段20の平均輝度値算出手段23(図2参照)は、被写体O2を撮影したモノクローム撮影画像における画素の輝度値Ygを求める。これら被写体O2のカラー画像における画素の輝度値Ycおよびモノクローム撮影画像における画素の輝度値Ygは、統合輝度判別手段33に送られる。
This integrated image generating means 30C is premised on the following operations. Since these operations are the same as the processing described in the calibration stage, description thereof will be omitted as appropriate.
In the photographing apparatus 1, when the subject (the actual photographing target) O 2 is photographed by the single-plate RGB imaging element 7 and the monochrome imaging element 8, the average RGB value calculating means 22 (see FIG. 2) of the luminance calibration means 20 is obtained. An RGB average luminance value [R c G c B c ] is obtained based on a full resolution RGB value (RGB value 2) obtained by photographing the subject O 2 , and this is converted by a color luminance conversion matrix [a b c]. Thus, the luminance value Y c of the pixel in the color image of the subject O 2 is generated.
Further, the average brightness value calculating means 23 (see FIG. 2) of the brightness calibration means 20 obtains the brightness value Y g of the pixel in the monochrome captured image obtained by capturing the subject O 2 . The luminance value Y c of the pixel in the color image of the subject O 2 and the luminance value Y g of the pixel in the monochrome photographed image are sent to the integrated luminance determination unit 33.

図8に示す色空間写像手段31Cは、図2に示す色空間写像手段31と同様であるが、統合輝度値がα領域のものだけを処理対象としている点が異なる。このため、前記した式(5)で示される変換により変換された輝度値Ycは、統合輝度値YTのうち、カラー画像に因んだものとなる。また、前記した式(5)で示される変換により変換された色差情報C1、C2は、このカラー画像に因んだ輝度値と関連付けられるので、輝度値Yc、色差情報C1、C2は、調整された色情報として、色情報算出手段32Cにそれぞれ出力されることとなる。 The color space mapping unit 31C shown in FIG. 8 is the same as the color space mapping unit 31 shown in FIG. 2, except that only those having an integrated luminance value in the α region are processed. For this reason, the luminance value Y c converted by the conversion expressed by the above equation (5) is attributed to the color image in the integrated luminance value Y T. Further, since the color difference information C 1 and C 2 converted by the conversion expressed by the above equation (5) is associated with the luminance value due to this color image, the luminance value Y c , the color difference information C 1 and C 2 2 is output to the color information calculation means 32C as adjusted color information.

統合輝度判別手段33は、被写体O2のカラー画像の輝度値Ycおよびモノクローム撮影画像の輝度値Ygを受け付け、輝度キャリブレーション手段20により生成された統合輝度値YTを参照して、各撮像デバイスから入力した輝度値が、モノクローム撮像素子8が飽和している領域(α領域)と、モノクローム撮像素子8が飽和していない領域(γ領域)と、それらの中間領域(β領域)とのいずれに該当するかを判別する。 The integrated luminance discrimination means 33 receives the luminance value Y c of the color image of the subject O 2 and the luminance value Y g of the monochrome photographed image, and refers to the integrated luminance value Y T generated by the luminance calibration means 20 to The luminance value input from the imaging device has a region where the monochrome image sensor 8 is saturated (α region), a region where the monochrome image sensor 8 is not saturated (γ region), and an intermediate region (β region) between them. It is determined which of the following is true.

統合輝度判別手段33は、各撮像デバイスから入力した輝度値がα領域であると判別した場合、色空間写像手段31Cに動作指示を出力する。
統合輝度判別手段33は、各撮像デバイスから入力した輝度値がγ領域であると判別した場合、第2色空間写像手段35に動作指示を出力する。
統合輝度判別手段33は、各撮像デバイスから入力した輝度値がβ領域であると判別した場合、第2デモザイキング処理手段34に動作指示を出力する。
When the integrated luminance determining unit 33 determines that the luminance value input from each imaging device is the α region, the integrated luminance determining unit 33 outputs an operation instruction to the color space mapping unit 31C.
The integrated luminance determining unit 33 outputs an operation instruction to the second color space mapping unit 35 when determining that the luminance value input from each imaging device is the γ region.
The integrated luminance determining unit 33 outputs an operation instruction to the second demosaicing processing unit 34 when determining that the luminance value input from each imaging device is in the β region.

第2デモザイキング処理手段34は、統合輝度判別手段33からの動作指示に基づいて、単板RGB撮像素子7で撮像された被写体O2のカラー画像の未飽和領域の画素に対して再度デモザイク処理を施すものである。この再度デモザイク処理を施されたフル解像度のRGB値は、第2色空間写像手段35で利用される。 The second demosaicing processing unit 34 performs demosaic processing again on the pixels in the unsaturated region of the color image of the subject O 2 imaged by the single-plate RGB imaging device 7 based on the operation instruction from the integrated luminance determination unit 33. Is to be applied. The full-resolution RGB values that have been demosaiced again are used by the second color space mapping means 35.

ここで、第2デモザイキング処理手段34の行うデモザイク処理について図9を参照して説明する。第2デモザイキング処理手段34は、単板RGB撮像素子の撮影画像7aを、まず、RAWデータとして、解像度の粗いGプレーン101、Rプレーン102、およびBプレーン103に分解する。   Here, demosaic processing performed by the second demosaicing processing means 34 will be described with reference to FIG. The second demosaicing processing means 34 first decomposes the captured image 7a of the single-plate RGB image sensor into RAW data having a coarse G plane 101, R plane 102, and B plane 103.

第2デモザイキング処理手段34は、Gプレーン101に対しては、画像のエッジ方向を利用し、かつ、モノクローム撮像素子の撮影画像8aの勾配を利用することで内挿を行い、フル解像度G画像321を生成する。   The second demosaicing processing means 34 interpolates the G plane 101 by using the edge direction of the image and by using the gradient of the captured image 8a of the monochrome image pickup device, thereby obtaining a full resolution G image. 321 is generated.

同様に、第2デモザイキング処理手段34は、Rプレーン102に対しても、画像のエッジ方向を利用し、かつ、モノクローム撮像素子の撮影画像8aの勾配を利用することで内挿を行い、フル解像度R画像322を生成する。
また、同様に、第2デモザイキング処理手段34は、Bプレーン103に対しても、画像のエッジ方向を利用し、かつ、モノクローム撮像素子の撮影画像8aの勾配を利用することで内挿を行い、フル解像度B画像323を生成する。
Similarly, the second demosaicing processing means 34 performs interpolation on the R plane 102 by using the edge direction of the image and by using the gradient of the captured image 8a of the monochrome image sensor. A resolution R image 322 is generated.
Similarly, the second demosaicing processing means 34 performs interpolation on the B plane 103 by using the edge direction of the image and using the gradient of the captured image 8a of the monochrome image sensor. A full resolution B image 323 is generated.

第2デモザイキング処理手段34は、以上の処理により、被写体O2のカラー画像のフル解像度のRGB値として、フル解像度G画像321、フル解像度R画像322、フル解像度B画像323を生成する。 The second demosaicing processing means 34 generates the full resolution G image 321, the full resolution R image 322, and the full resolution B image 323 as the full resolution RGB values of the color image of the subject O 2 by the above processing.

図8に戻って、統合画像生成手段30Cの構成の説明を続ける。
第2色空間写像手段35は、色空間写像手段31Cと同様であるが、統合輝度値がγ領域のものだけを処理対象としている点が異なる。このため、前記した式(5)で示される変換により変換された輝度値Ycは、統合輝度値YTのうち、モノクローム撮影画像に因んだものとなる。また、前記した式(5)で示される変換により変換された色差情報C1、C2は、このモノクローム撮影画像に因んだ輝度値と関連付けられるので、輝度値Yc、色差情報C1、C2は、調整された色情報として、色情報算出手段32Cにそれぞれ出力されることとなる。
Returning to FIG. 8, the description of the configuration of the integrated image generating means 30C will be continued.
The second color space mapping means 35 is the same as the color space mapping means 31C, except that only those having an integrated luminance value in the γ region are processed. For this reason, the luminance value Y c converted by the conversion expressed by the above equation (5) is attributed to the monochrome photographed image in the integrated luminance value Y T. Further, since the color difference information C 1 and C 2 converted by the conversion expressed by the above equation (5) is associated with the luminance value caused by the monochrome photographed image, the luminance value Y c , the color difference information C 1 , C 2 is output to the color information calculation unit 32C as adjusted color information.

加重平均手段36は、色空間写像手段31Cにより1度目のデモザイク処理により生成されたRGB平均輝度値[Rccc]を特殊な色空間に写像した行列における調整された色情報と、第2色空間写像手段35により再度のデモザイク処理により生成されたRGB平均輝度値[Rccc]を特殊な色空間に写像した行列における調整された色情報とを2つの閾値からの距離に応じて加重平均することで、β領域について調整された色情報を生成するものである。このため、β領域の調整された色情報は、カラー画像およびモノクローム撮影画像の双方に因んだものとなる。調整された色情報における輝度値Ytは、統合輝度値YTのうち、カラー画像およびモノクローム撮影画像の双方に因んだものとなる。輝度値Yt、および平均化された色差情報C1、C2は、調整された色情報として、色情報算出手段32Cにそれぞれ出力されることとなる。 The weighted average means 36 adjusts color information in a matrix obtained by mapping the RGB average luminance values [R c G c B c ] generated by the first demosaic process by the color space mapping means 31C into a special color space; The adjusted color information in the matrix in which the RGB average luminance value [R c G c B c ] generated by the second demosaic process by the second color space mapping unit 35 is mapped to a special color space is obtained from two threshold values. Color information adjusted for the β region is generated by weighted averaging according to the distance. For this reason, the adjusted color information of the β region is caused by both the color image and the monochrome photographed image. Luminance value Y t in the adjusted color information, of the integrated luminance value Y T, the one named after both color images and monochrome photographic image. The luminance value Y t and the averaged color difference information C 1 and C 2 are respectively output to the color information calculation unit 32C as adjusted color information.

色情報算出手段32Cは、図2に示す色情報算出手段32と同様であるが、色空間写像手段31Cのほかに、第2色空間写像手段35および加重平均手段36から入力される行列にも色空間変換行列Cの逆行列C-1を乗じる点が異なる。 The color information calculation unit 32C is the same as the color information calculation unit 32 shown in FIG. 2, but in addition to the color space mapping unit 31C, a matrix input from the second color space mapping unit 35 and the weighted average unit 36 is also used. The difference is that the inverse matrix C −1 of the color space conversion matrix C is multiplied.

ここで、色情報算出手段32Cが実行する、調整された色情報の統合について、図10を参照して説明する。図10は、図6に示した説明図と同様な説明図であるが、以下では、図10の説明図を縦軸に沿って3つに分けた入射光量の領域を想定する。   Here, the integration of the adjusted color information executed by the color information calculation unit 32C will be described with reference to FIG. FIG. 10 is an explanatory diagram similar to the explanatory diagram shown in FIG. 6, but in the following, it is assumed that the incident light quantity region is obtained by dividing the explanatory diagram of FIG. 10 into three along the vertical axis.

図10の横軸において入射光量がQ1以上の比較的大きい領域は、輝度領域の領域αに該当する。この領域の場合、色情報算出手段32Cは、色空間写像手段31Cから入力する行列の情報を用いて、単板RGB撮像素子7の1度目のデモザイク処理に対応した色情報(1枚の撮像デバイスに因んだ色情報)を当該画素の色情報として転写する。 A relatively large region where the amount of incident light is Q 1 or more on the horizontal axis in FIG. 10 corresponds to the region α of the luminance region. In the case of this region, the color information calculation unit 32C uses the matrix information input from the color space mapping unit 31C to provide color information corresponding to the first demosaic process of the single-plate RGB imaging device 7 (one imaging device). The color information associated with the pixel) is transferred as the color information of the pixel.

また、図10の横軸において入射光量がQ2以下の比較的小さい領域は、輝度領域の領域γに該当する。この領域の場合、色情報算出手段32Cは、第2色空間写像手段35から入力する行列の情報を用いて、単板RGB撮像素子7の2度目のデモザイク処理に対応した色情報(モノクローム撮像素子およびRGB素子の2枚の撮像デバイスに因んだ色情報)を当該画素の色情報として転写する。 In addition, a relatively small region where the amount of incident light is Q 2 or less on the horizontal axis in FIG. 10 corresponds to the region γ of the luminance region. In the case of this region, the color information calculation unit 32C uses the matrix information input from the second color space mapping unit 35 to use the color information corresponding to the second demosaic process of the single-plate RGB image sensor 7 (monochrome image sensor). And the color information associated with the two imaging devices of the RGB elements) is transferred as the color information of the pixel.

さらに、図10の横軸において入射光量がQ2以上Q1以下の中間領域は、輝度領域の領域βに該当する。この領域の場合、色情報算出手段32Cは、加重平均手段36から入力する行列の情報を用いて、色情報をQ2、Q1の2つの閾値からの距離に応じて加重平均して転写する。なお、Q2、Q1の2つの閾値からの距離は、輝度値における飽和レベルSth2および飽和輝度値Sth1からの距離に相当する。 Further, the intermediate region where the incident light quantity is Q 2 or more and Q 1 or less on the horizontal axis in FIG. 10 corresponds to the region β of the luminance region. In the case of this region, the color information calculation unit 32C uses the matrix information input from the weighted average unit 36 and transfers the color information after performing a weighted average according to the distance from the two threshold values Q 2 and Q 1. . The distance from the two threshold values Q 2 and Q 1 corresponds to the distance from the saturation level S th2 and the saturation luminance value S th1 in the luminance value.

(6.撮影装置の動作の流れ)
次に、図1に示す撮影装置1の動作の流れについて説明する。なお、例えば、画像処理の校正段階よりも前に、以下の機械的な位置合わせを行うことが好ましい。この機械的な位置合わせは、粗い調整(粗調)として、撮影装置1により、例えば図3に示すパターンのようなチェッカーボードを撮影し、目視により、単板RGB撮像素子7およびモノクローム撮像素子8に予め配設されているそれぞれのマイクロメータ(6自由度)で調整するものである。続いて、画像処理の校正段階として、位置キャリブレーション手段40(図3参照)が微細な調整(微調)を行う。さらに画像処理の校正段階として、輝度キャリブレーション手段20(図2参照)が統合輝度値YTを生成する。なお、位置の校正は、輝度校正前でもよいし、後から補正してもよい。
(6. Flow of operation of the photographing device)
Next, the operation flow of the photographing apparatus 1 shown in FIG. 1 will be described. For example, it is preferable to perform the following mechanical alignment before the calibration stage of image processing. In this mechanical alignment, as a rough adjustment (coarse adjustment), for example, a checkerboard like the pattern shown in FIG. 3 is photographed by the photographing apparatus 1 and visually observed, the single-plate RGB imaging element 7 and the monochrome imaging element 8. Are adjusted with respective micrometers (6 degrees of freedom) arranged in advance. Subsequently, as a calibration stage of image processing, the position calibration means 40 (see FIG. 3) performs fine adjustment (fine adjustment). Further, as a calibration stage of image processing, the brightness calibration means 20 (see FIG. 2) generates an integrated brightness value Y T. The position calibration may be performed before the brightness calibration or may be performed later.

以下では、撮影装置1において、粗調および微細がなされ、さらに、輝度の校正もなされた後の画像処理について図11を参照(図1,2,4,8を適宜参照)して説明する。なお、輝度領域を領域α、β、γに分けて処理を行うこととした。   In the following, image processing after coarse adjustment and fine adjustment and luminance calibration in the photographing apparatus 1 will be described with reference to FIG. 11 (refer to FIGS. 1, 2, 4 and 8 as appropriate). Note that the luminance area is divided into areas α, β, and γ for processing.

まず、撮影装置1において、単板RGB撮像素子7とモノクローム撮像素子8で被写体(本番の撮影用対象)O2を撮影する。
画像統合部11の輝度キャリブレーション手段20は、デモザイキング処理手段21によって、被写体O2のカラー画像をACPI等によりデモザイキングする(ステップS1)。なお、ステップS1により生成されるフル解像度のRGB値は、ステップS5により生成されるフル解像度のRGB値に比べると低精度のものである。
First, in the photographing apparatus 1, the subject (the actual photographing target) O 2 is photographed by the single-plate RGB imaging element 7 and the monochrome imaging element 8.
The luminance calibration unit 20 of the image integration unit 11 performs demosaicing of the color image of the subject O 2 by ACPI or the like using the demosaicing processing unit 21 (step S1). Note that the full resolution RGB value generated in step S1 is less accurate than the full resolution RGB value generated in step S5.

そして、輝度キャリブレーション手段20は、平均RGB値算出手段22によって、被写体O2のフル解像度のRGB値を、最適化された色輝度変換行列K=[a b c]により変換することで当該カラー画像の輝度値Ycを生成する(ステップS2)。 Then, the luminance calibration unit 20 converts the RGB value of the full resolution of the subject O 2 by the average RGB value calculation unit 22 using the optimized color luminance conversion matrix K = [a b c]. A luminance value Y c of the image is generated (step S2).

このステップS2により生成されるカラー画像の輝度情報は、単板RGB撮像素子7に入射する入射光量が比較的小さい領域の輝度情報を、モノクローム撮像素子8に対して補間するために用いることができる情報である。一方、モノクローム撮像素子8で撮影されたモノクローム撮影画像8aの輝度情報は、モノクローム撮像素子8に入射する入射光量が比較的大きい領域の輝度情報を、単板RGB撮像素子7に対して補間するものである。   The luminance information of the color image generated in step S2 can be used to interpolate the luminance information of the region where the amount of incident light incident on the single-plate RGB imaging device 7 is relatively small with respect to the monochrome imaging device 8. Information. On the other hand, the luminance information of the monochrome photographed image 8 a photographed by the monochrome image sensor 8 is obtained by interpolating the luminance information of a region where the incident light amount incident on the monochrome image sensor 8 is relatively large with respect to the single-plate RGB image sensor 7. It is.

統合画像生成手段30Cは、被写体O2のカラー画像の輝度値Ycおよびモノクローム撮影画像の輝度値Ygを受け付け、輝度情報を統合する(ステップS3)。そして、統合画像生成手段30Cは、統合輝度判別手段33によって、予め作成された統合輝度値YTを参照して、各撮像デバイスから入力した輝度値が、α領域、γ領域、β領域のいずれに該当するかを判別する(ステップS4)。輝度値がγ領域に該当すると判別された場合、第2デモザイキング処理手段34は、単板RGB撮像素子7で撮像された被写体O2のカラー画像の未飽和領域の画素に対して再度デモザイク処理を施す(ステップS5)。なお、ステップS5により生成されるフル解像度のRGB値は、モノクローム撮像素子の撮影画像8aの勾配が利用されているため、前記したステップS1で生成されたフル解像度のRGB値に比べると高精度の色情報となる。 The integrated image generating means 30C receives the luminance value Y c of the color image of the subject O 2 and the luminance value Y g of the monochrome photographed image, and integrates the luminance information (step S3). Then, the integrated image generating unit 30C refers to the integrated luminance value Y T created in advance by the integrated luminance determining unit 33, and the luminance value input from each imaging device is any of the α region, the γ region, and the β region. (Step S4). When it is determined that the luminance value corresponds to the γ region, the second demosaicing processing unit 34 performs demosaic processing again on pixels in the unsaturated region of the color image of the subject O 2 imaged by the single-plate RGB image sensor 7. (Step S5). Note that the full resolution RGB value generated in step S5 uses the gradient of the captured image 8a of the monochrome image sensor, and therefore is more accurate than the full resolution RGB value generated in step S1. It becomes color information.

ステップS4またはステップS5に続いて、色情報算出手段32Cは、輝度値の領域にそれぞれ対応して、1枚の撮像デバイスまたは2枚の撮像デバイスの撮影画像に因んだ色情報により、該当する画素に色を転写する(ステップS6)。これにより、統合画像Itが生成され、記憶部4に格納される。 Subsequent to step S4 or step S5, the color information calculation unit 32C corresponds to each of the luminance value areas by using color information associated with the captured image of one imaging device or two imaging devices. The color is transferred to the pixel (step S6). Thus, the integrated image I t is generated and stored in the storage unit 4.

具体的には、輝度値がα領域に該当すると判別された場合、色情報算出手段32Cは、単板RGB撮像素子7で撮像された被写体O2のカラー画像の1度目のデモザイク処理で生成された色情報(1枚の撮像デバイスに因んだ色情報)により、輝度値がα領域に該当する画素に色を転写する。 Specifically, when it is determined that the luminance value corresponds to the α region, the color information calculation unit 32C is generated by the first demosaic process of the color image of the subject O 2 imaged by the single-plate RGB image sensor 7. Based on the obtained color information (color information associated with one image pickup device), the color is transferred to a pixel whose luminance value corresponds to the α region.

また、輝度値がγ領域に該当すると判別された場合、色情報算出手段32Cは、単板RGB撮像素子7で撮像された被写体O2のカラー画像の2度目のデモザイク処理(2枚の撮像デバイスに因んだ色情報)で生成された色情報により、輝度値がγ領域に該当する画素に色を転写する。 If it is determined that the luminance value corresponds to the γ region, the color information calculation unit 32C performs the second demosaic process (two imaging devices) on the color image of the subject O 2 captured by the single-plate RGB imaging element 7. The color information is transferred to a pixel whose luminance value corresponds to the γ region.

さらに、輝度値がβ領域に該当すると判別された場合、色情報算出手段32Cは、輝度値がα領域に該当すると判別された画素の色情報と、γ領域に該当すると判別された画素の色情報とを加重平均した色情報により、輝度値がβ領域に該当する画素に色を転写する。   Further, when it is determined that the luminance value corresponds to the β region, the color information calculation unit 32C determines the color information of the pixel determined to correspond to the α region and the color of the pixel determined to correspond to the γ region. The color is transferred to a pixel whose luminance value corresponds to the β region by color information obtained by weighted averaging the information.

ステップS6に続いて、撮影装置1のプレビュー用プロセス部12は、映像加工機能によって、記憶部4から統合画像Itを読み出して、モニタ13に合わせてノンリニアトーンマッピングを行う(ステップS6)。このノンリニアトーンマッピングを行った映像は、ポスプロ用蓄積部5に蓄積されたり、モニタ13に出力されたりする。 Following step S6, the preview processing unit 12 of the imaging apparatus 1, the video processing function reads the integrated image I t from the storage unit 4, performs non-linear tone mapping in accordance with the monitor 13 (step S6). The video on which this nonlinear tone mapping has been performed is stored in the post-production storage unit 5 or output to the monitor 13.

本実施形態の撮影装置1を用いて撮影を行うことで、高ダイナミックレンジかつ、高精細な映像を取得できる。これにより、通常、撮像素子が飽和したり、黒ツブレしたりして視認できない領域が生じるようなシーンにおいても、統合された画像Itは飽和しにくく、黒ツブレしにくい。 By photographing using the photographing apparatus 1 of the present embodiment, a high dynamic range and high definition video can be acquired. Thus, typically, or imaging device saturation, even in the scene, such as a region that can not be visually recognized or to underexposure occurs, integrated image I t is less likely to saturate, underexposure difficult.

また、ダイナミックレンジが拡大していることにより、多段の画像加工処理にも関わらず、従来の限定された精度あるいは低い精度のハードウェア処理と比較し、顕著な画質劣化が認められなかった。   In addition, due to the expansion of the dynamic range, no significant image quality degradation was observed compared to conventional hardware processing with limited accuracy or low accuracy, despite multi-stage image processing.

また、デモザイク処理を行う際に、従来手法では不十分なサンプリングであるため品質確保が困難であったが、本実施形態の撮影装置1では、輝度領域のγ領域については、モノクローム撮影画像の輝度値Ygを利用しRGB素子の元の輝度値に対し、デモザイク処理を再度行う際に、モノクローム撮影画像の輝度値Ygの勾配を利用することで、色滲みや精細感の低下を防ぐことができる。したがって、撮影後の処理で、画像処理により、明るさや色を変更しても、擬似輪郭などの劣化が生じにくく、拡大しても色滲みが生じず鮮鋭さも損なわれない。そのため、撮影装置1によれば、映像加工の自由度を拡大することができる。 In addition, when performing demosaic processing, it has been difficult to ensure quality because the conventional method is insufficient sampling. However, in the imaging apparatus 1 of the present embodiment, the luminance of the monochrome captured image is about the γ region of the luminance region. to use the value Y g original luminance value of RGB elements, when performing demosaic process again, by utilizing the gradient of the luminance values Y g monochrome photographic images, to prevent deterioration of color bleeding or fineness Can do. Therefore, even if the brightness or color is changed by image processing in the post-shooting process, the pseudo contour is hardly deteriorated, and even if enlarged, the color blur does not occur and the sharpness is not impaired. Therefore, according to the imaging device 1, the degree of freedom of video processing can be expanded.

また、実施例では、トーンマッピングも合わせてすべて、一台のPCに搭載した1基のGPUでリアルタイムに処理が可能であった。つまり、本実施形態の撮影装置1は、ハードウェア化が容易であり、コスト的にも低廉化が期待できる。また、PCによる演算性能が向上すれば、通常の被写体を対象に撮影中、リアルタイムに、色輝度変換行列Kの自動更新が可能である。   In the embodiment, all tone mapping, including tone mapping, can be performed in real time by a single GPU mounted on one PC. That is, the photographing apparatus 1 of the present embodiment can be easily realized in hardware, and can be expected to be reduced in cost. Further, if the computing performance by the PC is improved, the color luminance conversion matrix K can be automatically updated in real time during shooting of a normal subject.

以上、本実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。例えば、撮影装置が、互いに分光特性の異なる2枚のカラー撮像デバイスと、1つのモノクローム撮像デバイスとを備えるようにしてもよい。この場合には、第1フェーズとして、まず、1枚のカラー撮像デバイスと、1つのモノクローム撮像デバイスとについて、前記したように統合輝度値を生成して、画像を統合する。ここで、2枚のカラー撮像デバイスのうち一方(第1のカラー撮像デバイス)と、モノクローム撮像デバイスとを統合対象とする。   As mentioned above, although this invention was demonstrated based on this embodiment, this invention is not limited to this. For example, the photographing apparatus may include two color imaging devices having different spectral characteristics and one monochrome imaging device. In this case, as the first phase, first, an integrated luminance value is generated as described above for one color imaging device and one monochrome imaging device, and the images are integrated. Here, one of the two color imaging devices (first color imaging device) and the monochrome imaging device are to be integrated.

次に、第2フェーズとして、第2のカラー撮像デバイスを、第1フェーズにおけるモノクローム撮像デバイスに置き換えた上で、この置き換えた第2のカラー撮像デバイスと、第1のカラー撮像デバイスとを統合対象として、第1フェーズと同様な方法で統合輝度値を生成して、画像を統合する。第2フェーズの場合、図6のグラフにおいて、以下のように置換すれば、第1フェーズと同様な方法で第2の統合輝度値を生成し、画像を統合することができる。   Next, as the second phase, the second color imaging device is replaced with the monochrome imaging device in the first phase, and the replaced second color imaging device and the first color imaging device are integrated. As a result, an integrated luminance value is generated in the same manner as in the first phase, and the images are integrated. In the case of the second phase, in the graph of FIG. 6, the second integrated luminance value can be generated and the images can be integrated by the same method as in the first phase by replacing as follows.

すなわち、図6のグラフにおける置換では、符号201の太い実線が、第1のカラー撮像デバイスの輝度値の勾配を表す。一方、符号202の細い実線が、第2のカラー撮像デバイスの輝度値の勾配を表す。また、符号203の実線は、第2のカラー撮像デバイスの輝度値を、最適化された第2の色輝度変換行列で変換した変換後輝度の勾配を表す。また、飽和輝度値Sth1を便宜的に第3の閾値と呼び、飽和レベルSth2を便宜的に第4の閾値と呼ぶ。また、第4の閾値より小さい範囲では、デモザイク処理において、第1フェーズで統合した統合画像の輝度勾配を利用する。なお、第2のカラー撮像デバイスは、第1のカラー撮像デバイスよりも輝度勾配が緩やかであっても急峻であってもどちらでもよい。さらに、互いに分光特性の異なるのであれば、3枚以上のカラー撮像デバイスについても同様に統合対象とすることができる。 That is, in the replacement in the graph of FIG. 6, a thick solid line denoted by reference numeral 201 represents the gradient of the luminance value of the first color imaging device. On the other hand, a thin solid line denoted by reference numeral 202 represents the gradient of the luminance value of the second color imaging device. A solid line denoted by reference numeral 203 represents a gradient of converted luminance obtained by converting the luminance value of the second color imaging device using the optimized second color luminance conversion matrix. Further, the saturation luminance value S th1 is referred to as a third threshold for convenience, and the saturation level S th2 is referred to as a fourth threshold for convenience. In a range smaller than the fourth threshold, the luminance gradient of the integrated image integrated in the first phase is used in the demosaic process. Note that the second color imaging device may have a gentler or steeper luminance gradient than the first color imaging device. Further, if the spectral characteristics are different from each other, three or more color imaging devices can be similarly integrated.

また、例えば、図1に示した撮影装置1は、一般的なコンピュータを、前記した画像統合部11の各手段として機能させる画像統合プログラムにより動作させることで実現することができる。このプログラム(画像統合プログラム)は、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。   Further, for example, the photographing apparatus 1 shown in FIG. 1 can be realized by operating a general computer by an image integration program that functions as each unit of the image integration unit 11 described above. This program (image integration program) can be distributed via a communication line, or can be distributed by writing on a recording medium such as a CD-ROM.

また、撮影装置1は、画像統合部11が、ベストモードとして、輝度キャリブレーション手段20と、統合画像生成手段30と、位置キャリブレーション手段40と、ホワイトバランス処理手段50とを備えるものとしてもよい。   In the photographing apparatus 1, the image integration unit 11 may include the luminance calibration unit 20, the integrated image generation unit 30, the position calibration unit 40, and the white balance processing unit 50 as the best mode. .

また、図8に示す統合画像生成手段30Cでは、色情報算出手段32Cが、色空間写像手段31C、第2色空間写像手段35および加重平均手段36による画素ごとの処理がなされた画像全体の情報を利用して、その画像における画素毎に逆行列を乗じる処理を行うこととしたが、これに限定されるものではない。例えば、統合画像生成手段から色情報算出手段32Cを除いて、撮影画像において選択された所定の画素の輝度に応じて、色空間写像手段31C、第2色空間写像手段35および加重平均手段36のいずれかの処理を行い、当該画素の情報と、その画素における処理結果としての統合輝度および色情報とを対応させて記憶しておく構成としても同様な効果を奏することができる。   Further, in the integrated image generating means 30C shown in FIG. 8, the color information calculating means 32C is information on the entire image that has been processed for each pixel by the color space mapping means 31C, the second color space mapping means 35, and the weighted averaging means 36. Is used to perform the process of multiplying the inverse matrix for each pixel in the image, but is not limited to this. For example, the color information calculating unit 32C is excluded from the integrated image generating unit, and the color space mapping unit 31C, the second color space mapping unit 35, and the weighted average unit 36 are set according to the luminance of a predetermined pixel selected in the captured image. A similar effect can be achieved by performing any one of the processes and storing the information of the pixel and the integrated luminance and color information as the processing result of the pixel in association with each other.

本発明は、映像制作産業だけではなく、例えば監視映像を取得する必要がある産業など広い範囲で利用可能であり、特に、比較的高品質な映像コンテンツを作成する用途に向いている。   The present invention can be used not only in the video production industry but also in a wide range, for example, in an industry where it is necessary to obtain a monitoring video, and is particularly suitable for use in creating relatively high-quality video content.

1 撮影装置
2 撮像部
3 演算処理部
4 記憶部
5 ポスプロ用蓄積部
6 ハーフミラー(分光手段)
7 単板RGB撮像素子
8 モノクローム撮像素子
11、11A、11B、11C 画像統合部(画像統合手段)
12 プレビュー用プロセス部
13 モニタ
20 輝度キャリブレーション手段
21 デモザイキング処理手段
22 平均RGB値算出手段
23 平均輝度値算出手段
24 色輝度変換行列最適化処理手段
30、30C 統合画像生成手段
31、31C 色空間写像手段
32、32C 色情報算出手段
33 統合輝度判別手段
34 第2デモザイキング処理手段
35 第2色空間写像手段
36 加重平均手段
40 位置キャリブレーション手段
50 ホワイトバランス処理手段
B 1/4波長板
L レンズ
1 カラーチャート(色試験撮影用対象)
2 被写体(本番の撮影用対象)
3 パターン(位置試験撮影用対象)
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 3 Arithmetic processing part 4 Memory | storage part 5 Posto storage part 6 Half mirror (spectral means)
7 Single-plate RGB image sensor 8 Monochrome image sensor 11, 11A, 11B, 11C Image integration unit (image integration means)
12 preview process unit 13 monitor 20 brightness calibration means 21 demosaicing processing means 22 average RGB value calculation means 23 average brightness value calculation means 24 color brightness conversion matrix optimization processing means 30, 30C integrated image generation means 31, 31C color space Mapping means 32, 32C Color information calculation means 33 Integrated luminance discrimination means 34 Second demosaicing processing means 35 Second color space mapping means 36 Weighted averaging means 40 Position calibration means 50 White balance processing means B 1/4 wavelength plate L lens O 1 color chart (for color test shooting)
O 2 subject (target for actual shooting)
O 3 pattern (target for position test photography)

Claims (9)

RGBの各カラーフィルタを有した分光特性の異なる1以上の単板カラー撮像デバイスと、カラーフィルタのないモノクローム撮像デバイスとが分光手段を介して同一撮影エリアを同一視点および同一画角で撮影する位置関係で配置されている撮像部と、前記カラー撮像デバイスおよびモノクローム撮像デバイスを用いて撮影された各撮影映像を1つに統合する処理を行う画像統合手段とを備える撮影装置であって、
前記画像統合手段は、
色試験撮影用対象を前記カラー撮像デバイスで撮影したカラー画像のRGB画素をそれぞれ補間するデモザイクにより生成されるRGBプレーンのRGB値を色輝度変換行列により変換することで当該カラー画像における画素の輝度値を生成し、前記カラー撮像デバイスと同時に当該色試験撮影用対象を前記モノクローム撮像デバイスで撮影したモノクローム撮影画像における画素の輝度値と前記カラー画像における画素の輝度値との差が最小化するように前記色輝度変換行列を最適化して求める輝度キャリブレーション手段と、
前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影用対象をそれぞれ撮影した撮影画像のカラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、前記最適化された色輝度変換行列を含む行列であって色空間に写像する色空間変換行列を乗じて変換された輝度値のうち、前記モノクローム撮像画像では飽和していない領域の輝度値、および、前記モノクローム撮像画像では飽和している領域にあって前記変換された輝度値においては飽和していない領域にある輝度値を選択することにより統合輝度と前記色空間における色情報とを求め、これを、各撮影映像を1つに統合した統合画像の色情報とし、かつ、前記統合輝度を輝度情報として統合画像を生成する統合画像生成手段と
を備えることを特徴とする撮影装置。
Position where one or more single-plate color imaging devices having different spectral characteristics with RGB color filters and a monochrome imaging device without color filters capture the same imaging area with the same viewpoint and the same angle of view via the spectral means An imaging apparatus comprising: an imaging unit arranged in a relationship; and an image integration unit that performs a process of integrating each captured image captured using the color imaging device and the monochrome imaging device into one,
The image integration means includes
The luminance value of the pixel in the color image is obtained by converting the RGB value of the RGB plane generated by the demosaic that interpolates the RGB pixels of the color image obtained by photographing the color test photographing target with the color imaging device by the color luminance conversion matrix. And the difference between the luminance value of the pixel in the monochrome photographic image obtained by photographing the color test photographing target with the monochrome imaging device simultaneously with the color imaging device and the luminance value of the pixel in the color image is minimized. Brightness calibration means for optimizing the color brightness conversion matrix;
The matrix including the optimized color luminance conversion matrix for the RGB values of the RGB plane generated by demosaicing from the color images of the captured images captured by the color imaging device and the monochrome imaging device. Among the luminance values converted by multiplying by the color space conversion matrix that maps to the color space, the luminance value of the region that is not saturated in the monochrome captured image, and the region that is saturated in the monochrome captured image An integrated luminance and color information in the color space are obtained by selecting a luminance value in a region that is not saturated in the converted luminance value, and this is obtained as an integrated image obtained by integrating the captured images into one. And an integrated image generation unit configured to generate an integrated image using color information and the integrated luminance as luminance information. Shadow devices.
前記輝度キャリブレーション手段は、
前記色試験撮影用対象としてカラーチャートを前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影したカラーチャート画像を用いて前記色輝度変換行列を最適化し、最適化した色輝度変換行列を記憶手段に保持する
ことを特徴とする請求項1に記載の撮影装置。
The brightness calibration means includes
The color luminance conversion matrix is optimized using a color chart image obtained by photographing a color chart as the color test photographing target with the color imaging device and the monochrome imaging device, and the optimized color luminance conversion matrix is held in a storage unit. The imaging device according to claim 1.
前記輝度キャリブレーション手段は、
外部環境に応じて更新された前記色試験撮影用対象を、前記カラー撮像デバイスおよびモノクローム撮像デバイスでその都度撮影した各撮影画像を用いて前記色輝度変換行列を最適化し、最適化した色輝度変換行列を、前記色試験撮影用対象に応じて更新しながら記憶手段に保持する
ことを特徴とする請求項1に記載の撮影装置。
The brightness calibration means includes
The color luminance conversion matrix is optimized by using each of the color imaging device and the monochrome imaging device for each color test imaging object that has been updated according to an external environment, and the color luminance conversion matrix is optimized. The imaging apparatus according to claim 1, wherein the matrix is held in a storage unit while being updated in accordance with the color test imaging target.
前記輝度キャリブレーション手段は、
前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影した各撮影画像から、予め定められた規則にしたがって画素を間引いて残余の画素を対象として前記モノクローム撮影画像における画素の輝度値と前記カラー画像における画素の輝度値との差が最小化するように前記色輝度変換行列を最適化して求める
ことを特徴とする請求項1ないし請求項3のいずれか一項に記載の撮影装置。
The brightness calibration means includes
From each captured image captured by the color imaging device and the monochrome imaging device, pixels are thinned out according to a predetermined rule, and the luminance value of the pixel in the monochrome captured image and the luminance of the pixel in the color image are set for the remaining pixels. The photographing apparatus according to any one of claims 1 to 3, wherein the color luminance conversion matrix is obtained by optimization so that a difference from the value is minimized.
前記画像統合手段は、
位置試験撮影用対象を前記各撮像デバイスで撮影した複数の撮影画像に基づいて、前記カラー撮像デバイスで撮影したカラー画像の特徴点の座標を射影行列により変換することで前記モノクローム撮影画像における座標に変換された変換座標値を生成し、前記カラー撮像デバイスと同時に当該位置試験撮影用対象を前記モノクローム撮像デバイスで撮影したモノクローム撮影画像の当該特徴点の座標と前記カラー画像の特徴点に対応するモノクローム撮影画像における前記変換座標値との差が最小化するように前記射影行列を最適化して求める位置キャリブレーション手段をさらに備える
ことを特徴とする請求項1ないし請求項4のいずれか一項に記載の撮影装置。
The image integration means includes
Based on a plurality of photographed images obtained by photographing the position test photographing object with the respective imaging devices, the coordinates of the feature points of the color image photographed with the color imaging device are converted into the coordinates in the monochrome photographed image by transforming with the projection matrix. A converted coordinate value is generated, and at the same time as the color imaging device, the position test imaging target is captured by the monochrome imaging device and the coordinates of the feature point of the monochrome captured image and the monochrome corresponding to the feature point of the color image 5. The apparatus according to claim 1, further comprising a position calibration unit that optimizes the projection matrix so as to minimize a difference from the converted coordinate value in a captured image. Shooting device.
複数の前記カラー撮像デバイスが配設され、各カラー撮像デバイスは互いに分光感度が異なるカラーフィルタを有し、
前記輝度キャリブレーション手段は、
前記カラー撮像デバイスの各撮影画像のうち、前記色輝度変換行列を求める際に用いた第1カラー画像以外の第2カラー画像から、前記第1カラー画像と同様にデモザイクにより生成されるRGBプレーンのRGB値を第2の色輝度変換行列により変換することで当該第2カラー画像の輝度値を生成し、前記第2カラー画像の輝度値と既に最適化されている前記第1カラー撮像画像の輝度値との差が最小化するように前記第2の色輝度変換行列を最適化して求め、
前記統合画像生成手段は、
前記第2カラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、前記最適化された第2の色輝度変換行列を含む行列であって色空間に写像する第2の色空間変換行列を乗じて変換された輝度値のうち、前記第1カラー画像では飽和していない領域の輝度値、および、前記第1カラー画像では飽和している領域にあって前記変換された輝度値においては飽和していない領域にある輝度値を選択することにより統合輝度と前記色空間における色情報とを求め、これを、各撮影映像を1つに統合した第2の統合画像の色情報とし、かつ、前記統合輝度を輝度情報として第2の統合画像をさらに生成することを特徴とする請求項1ないし請求項5のいずれか一項に記載の撮影装置。
A plurality of the color imaging devices are provided, and each color imaging device has a color filter having different spectral sensitivity from each other,
The brightness calibration means includes
Of each captured image of the color imaging device, an RGB plane generated by demosaicing in the same manner as the first color image from a second color image other than the first color image used when obtaining the color luminance conversion matrix. The RGB value is converted by the second color luminance conversion matrix to generate the luminance value of the second color image, and the luminance value of the second color image and the luminance of the first color captured image already optimized are generated. The second color luminance conversion matrix is optimized so as to minimize a difference from the value,
The integrated image generation means includes
A second color space conversion matrix that is a matrix including the optimized second color luminance conversion matrix with respect to the RGB values of the RGB plane generated by demosaicing from the second color image, and that maps to the color space Among the luminance values converted by multiplying by the luminance value of the region not saturated in the first color image and the converted luminance value in the region saturated in the first color image. By selecting a luminance value in a region that is not saturated, the integrated luminance and the color information in the color space are obtained, and this is used as the color information of the second integrated image in which the captured images are integrated into one, and The imaging apparatus according to claim 1, further generating a second integrated image using the integrated luminance as luminance information.
前記統合画像生成手段は、
前記カラー撮像デバイスおよびモノクローム撮像デバイスで前記撮影用対象をそれぞれ撮影した撮影画像を統合した統合画像を生成する際に、
前記撮影用対象を前記カラー撮像デバイスで撮影したカラー画像において、前記モノクローム撮像デバイスの輝度の上限として予め定められた第1閾値より大きい輝度領域の画素については、
当該カラー画像からデモザイクにより生成されるRGBプレーンのRGB値を求め、
前記第1閾値よりも小さな予め定められた第2閾値より小さい輝度領域の画素については、
前記撮影用対象を前記カラー撮像デバイスで撮影したカラー画像を再度デモザイク化し、このデモザイクにおいて、前記モノクローム撮像デバイスで撮影したモノクローム撮影画像の輝度値の勾配を利用した内挿をした上で生成されるRGBプレーンのRGB値を算出し、
前記第2閾値以上前記第1閾値以下の輝度領域の画素については、
前記第1閾値より大きい輝度領域の画素について既に算出されたRGB値と、前記第2閾値より小さい輝度領域の画素について既に算出されたRGB値とを、当該画素の輝度と前記第1および第2閾値との距離に応じて加重平均する、
ことで統合画像のRGB値を算出することを特徴とする請求項1ないし請求項5のいずれか一項に記載の撮影装置。
The integrated image generation means includes
When generating an integrated image obtained by integrating photographed images obtained by photographing the photographing objects with the color imaging device and the monochrome imaging device,
In a color image obtained by photographing the photographing object with the color imaging device, for pixels in a luminance region that is larger than a first threshold that is predetermined as an upper limit of the luminance of the monochrome imaging device,
Obtain the RGB value of the RGB plane generated by demosaicing from the color image,
For pixels in the luminance region smaller than the second predetermined threshold value smaller than the first threshold value,
A color image obtained by photographing the photographing object with the color imaging device is demosaiced again, and the demosaic image is generated after interpolation using the gradient of the luminance value of the monochrome photographed image photographed with the monochrome imaging device. Calculate the RGB value of the RGB plane,
For pixels in the luminance region that are greater than or equal to the second threshold and less than or equal to the first threshold,
The RGB value already calculated for the pixel in the luminance region greater than the first threshold value and the RGB value already calculated for the pixel in the luminance region smaller than the second threshold value are set as the luminance of the pixel and the first and second values. Weighted average according to the distance to the threshold,
6. The photographing apparatus according to claim 1, wherein the RGB value of the integrated image is calculated as described above.
前記統合画像生成手段は、
前記複数のカラー撮像デバイスおよびモノクローム撮像デバイスで前記撮影用対象をそれぞれ撮影した撮影画像を統合した統合画像を生成する際に、
前記撮影用対象を撮影した第2カラー画像において、前記第1カラー画像の輝度の上限として予め定められた第3閾値より大きい輝度領域の画素については、
当該第2カラー画像からデモザイクにより生成されるRGBプレーンのRGB値を求め、
前記第3閾値よりも小さな予め定められた第4閾値より小さい輝度領域の画素については、
前記第2カラー画像を再度デモザイク化し、このデモザイクにおいて、前記統合画像の輝度値の勾配を利用した内挿をした上で生成されるRGBプレーンのRGB値を算出し、
前記第4閾値以上前記第3閾値以下の輝度領域の画素については、
前記第3閾値より大きい輝度領域の画素について既に算出されたRGB値と、前記第4閾値より小さい輝度領域の画素について既に算出されたRGB値とを、当該画素の輝度と前記第3および第4閾値との距離に応じて加重平均する、
ことで統合画像のRGB値を算出することを特徴とする請求項6に記載の撮影装置。
The integrated image generation means includes
When generating an integrated image obtained by integrating photographed images obtained by photographing the photographing objects with the plurality of color imaging devices and monochrome imaging devices,
In the second color image obtained by photographing the photographing object, for pixels in a luminance region that is larger than a third threshold value that is predetermined as the upper limit of the luminance of the first color image,
Obtain the RGB value of the RGB plane generated by demosaicing from the second color image,
For pixels in the luminance region smaller than the fourth threshold that is smaller than the third threshold,
The second color image is demosaiced again, and in this demosaic, the RGB value of the RGB plane generated after interpolation using the gradient of the luminance value of the integrated image is calculated,
For pixels in the luminance region that are greater than or equal to the fourth threshold and less than or equal to the third threshold,
The RGB value already calculated for the pixel in the luminance area larger than the third threshold value and the RGB value already calculated for the pixel in the luminance area smaller than the fourth threshold value are set as the luminance of the pixel and the third and fourth values. Weighted average according to the distance to the threshold,
The imaging apparatus according to claim 6, wherein the RGB value of the integrated image is calculated.
RGBの各カラーフィルタを有した分光特性の異なる1以上の単板カラー撮像デバイスと、カラーフィルタのないモノクローム撮像デバイスとが分光手段を介して同一撮影エリアを同一視点および同一画角で撮影する位置関係で配置されている撮像部を用いて撮影された各撮影映像を1つに統合する処理を行うために、コンピュータを、
色試験撮影用対象を前記カラー撮像デバイスで撮影したカラー画像のRGB画素をそれぞれ補間するデモザイクにより生成されるRGBプレーンのRGB値を色輝度変換行列により変換することで当該カラー画像における画素の輝度値を生成し、前記カラー撮像デバイスと同時に当該色試験撮影用対象を前記モノクローム撮像デバイスで撮影したモノクローム撮影画像における画素の輝度値と前記カラー画像における画素の輝度値との差が最小化するように前記色輝度変換行列を最適化して求める輝度キャリブレーション手段、
前記カラー撮像デバイスおよびモノクローム撮像デバイスで撮影用対象をそれぞれ撮影した撮影画像のカラー画像からデモザイクにより生成されるRGBプレーンのRGB値に対して、前記最適化された色輝度変換行列を含む行列であって色空間に写像する色空間変換行列を乗じて変換された輝度値のうち、前記モノクローム撮像画像では飽和していない領域の輝度値、および、前記モノクローム撮像画像では飽和している領域にあって前記変換された輝度値においては飽和していない領域にある輝度値を選択することにより統合輝度と前記色空間における色情報とを求め、これを、各撮影映像を1つに統合した統合画像の色情報とし、かつ、前記統合輝度を輝度情報として統合画像を生成する統合画像生成手段
として機能させるための画像統合プログラム。
Position where one or more single-plate color imaging devices having different spectral characteristics with RGB color filters and a monochrome imaging device without color filters capture the same imaging area with the same viewpoint and the same angle of view via the spectral means In order to perform a process of integrating the captured images captured using the imaging units arranged in a relationship into one,
The luminance value of the pixel in the color image is obtained by converting the RGB value of the RGB plane generated by the demosaic that interpolates the RGB pixels of the color image obtained by photographing the color test photographing target with the color imaging device by the color luminance conversion matrix. And the difference between the luminance value of the pixel in the monochrome photographic image obtained by photographing the color test photographing target with the monochrome imaging device simultaneously with the color imaging device and the luminance value of the pixel in the color image is minimized. Luminance calibration means for optimizing and obtaining the color luminance conversion matrix,
The matrix including the optimized color luminance conversion matrix for the RGB values of the RGB plane generated by demosaicing from the color images of the captured images captured by the color imaging device and the monochrome imaging device. Among the luminance values converted by multiplying by the color space conversion matrix that maps to the color space, the luminance value of the region that is not saturated in the monochrome captured image, and the region that is saturated in the monochrome captured image An integrated luminance and color information in the color space are obtained by selecting a luminance value in a region that is not saturated in the converted luminance value, and this is obtained as an integrated image obtained by integrating the captured images into one. Image for functioning as integrated image generation means for generating an integrated image with color information and using the integrated luminance as luminance information If the program.
JP2010089101A 2010-04-08 2010-04-08 Image capturing apparatus and image integration program Expired - Fee Related JP5411786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010089101A JP5411786B2 (en) 2010-04-08 2010-04-08 Image capturing apparatus and image integration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010089101A JP5411786B2 (en) 2010-04-08 2010-04-08 Image capturing apparatus and image integration program

Publications (2)

Publication Number Publication Date
JP2011223221A true JP2011223221A (en) 2011-11-04
JP5411786B2 JP5411786B2 (en) 2014-02-12

Family

ID=45039644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010089101A Expired - Fee Related JP5411786B2 (en) 2010-04-08 2010-04-08 Image capturing apparatus and image integration program

Country Status (1)

Country Link
JP (1) JP5411786B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017118197A (en) * 2015-12-21 2017-06-29 キヤノン株式会社 Image processing device, image processing method and imaging apparatus
JP2019113494A (en) * 2017-12-26 2019-07-11 セイコーエプソン株式会社 Spectroscopy measuring device, electronic apparatus, and spectroscopy measuring method
CN111179322A (en) * 2019-12-18 2020-05-19 山东大学 Camera light source array-based material measurement shot image calibration method and system
CN114679542A (en) * 2022-03-25 2022-06-28 三星半导体(中国)研究开发有限公司 Image processing method and electronic device
JP7428090B2 (en) 2020-06-25 2024-02-06 セイコーエプソン株式会社 Calibration device, calibration method, calibration program, and spectroscopic camera

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775967B1 (en) 2016-07-29 2017-09-07 현대오트론 주식회사 Apparatus and method for converting image
CN107563960A (en) * 2017-08-30 2018-01-09 惠州Tcl移动通信有限公司 A kind of processing method, storage medium and the mobile terminal of self-timer picture
KR102648747B1 (en) 2019-01-18 2024-03-20 삼성전자주식회사 Imaging system for generating hdr image and operating method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131796A (en) * 1993-10-29 1995-05-19 Canon Inc Picture synthesizer
JPH08154210A (en) * 1994-11-28 1996-06-11 Kubota Corp Image pickup device
JP2003101886A (en) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd Image pickup device
JP2004040480A (en) * 2002-07-03 2004-02-05 Olympus Corp Imaging device
JP2004229259A (en) * 2002-11-26 2004-08-12 Keio Gijuku Device and method for color image processing
JP2008017079A (en) * 2006-07-05 2008-01-24 Hitachi Ltd Video camera
JP2009164723A (en) * 2007-12-28 2009-07-23 Fujifilm Corp Imaging apparatus and imaging control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07131796A (en) * 1993-10-29 1995-05-19 Canon Inc Picture synthesizer
JPH08154210A (en) * 1994-11-28 1996-06-11 Kubota Corp Image pickup device
JP2003101886A (en) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd Image pickup device
JP2004040480A (en) * 2002-07-03 2004-02-05 Olympus Corp Imaging device
JP2004229259A (en) * 2002-11-26 2004-08-12 Keio Gijuku Device and method for color image processing
JP2008017079A (en) * 2006-07-05 2008-01-24 Hitachi Ltd Video camera
JP2009164723A (en) * 2007-12-28 2009-07-23 Fujifilm Corp Imaging apparatus and imaging control method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017118197A (en) * 2015-12-21 2017-06-29 キヤノン株式会社 Image processing device, image processing method and imaging apparatus
JP2019113494A (en) * 2017-12-26 2019-07-11 セイコーエプソン株式会社 Spectroscopy measuring device, electronic apparatus, and spectroscopy measuring method
CN111179322A (en) * 2019-12-18 2020-05-19 山东大学 Camera light source array-based material measurement shot image calibration method and system
CN111179322B (en) * 2019-12-18 2023-06-02 山东大学 Material measurement shooting image calibration method and system based on camera light source array
JP7428090B2 (en) 2020-06-25 2024-02-06 セイコーエプソン株式会社 Calibration device, calibration method, calibration program, and spectroscopic camera
CN114679542A (en) * 2022-03-25 2022-06-28 三星半导体(中国)研究开发有限公司 Image processing method and electronic device
CN114679542B (en) * 2022-03-25 2024-04-16 三星半导体(中国)研究开发有限公司 Image processing method and electronic device

Also Published As

Publication number Publication date
JP5411786B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP5411786B2 (en) Image capturing apparatus and image integration program
US8659672B2 (en) Image processing apparatus and image pickup apparatus using same
JP5713752B2 (en) Image processing apparatus and control method thereof
US7529424B2 (en) Correction of optical distortion by image processing
US8797462B2 (en) Image processing apparatus and image processing method
JP5445363B2 (en) Image processing apparatus, image processing method, and image processing program
JP5408053B2 (en) Image processing apparatus and image processing method
WO2011151867A1 (en) Imaging device, imaging means and program
JP5672796B2 (en) Image processing apparatus and image processing method
US20120008005A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon
US20100039539A1 (en) Image processing apparatus and image processing method
WO2011083555A1 (en) Image processing device, image generating system, method, and program
US11184553B1 (en) Image signal processing in multi-camera system
JP2017011327A (en) Image processing apparatus, image processing method, and program
JP2014039222A (en) Image processing apparatus, control method and control program of the same and imaging apparatus
JP2018112936A (en) HDR image processing apparatus and method
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP5284183B2 (en) Image processing apparatus and method
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2008219230A (en) Imaging apparatus, and image processing method
JP5952573B2 (en) Image processing apparatus and control method thereof
JP6025555B2 (en) Image processing apparatus, image processing method, and program
JP2015126416A (en) Image processing apparatus, control method, and program
WO2015079481A1 (en) Image capture method and image capture apparatus
JP2012160852A (en) Image composition device, imaging device, image composition method, and image composition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131108

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees