WO2001022737A1 - Systeme de saisie d'images, processeur d'images et camera associee - Google Patents

Systeme de saisie d'images, processeur d'images et camera associee Download PDF

Info

Publication number
WO2001022737A1
WO2001022737A1 PCT/JP2000/006294 JP0006294W WO0122737A1 WO 2001022737 A1 WO2001022737 A1 WO 2001022737A1 JP 0006294 W JP0006294 W JP 0006294W WO 0122737 A1 WO0122737 A1 WO 0122737A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
color
value
correction
camera
Prior art date
Application number
PCT/JP2000/006294
Other languages
English (en)
French (fr)
Inventor
Mohamed Abolella Abdellatif
Koji Kitamura
Original Assignee
Nature Technology Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nature Technology Co., Ltd. filed Critical Nature Technology Co., Ltd.
Priority to KR1020027003548A priority Critical patent/KR20020032595A/ko
Priority to AU73130/00A priority patent/AU7313000A/en
Priority to CA002385173A priority patent/CA2385173A1/en
Priority to JP2001525971A priority patent/JP3796174B2/ja
Priority to EP00961007A priority patent/EP1220547A4/en
Publication of WO2001022737A1 publication Critical patent/WO2001022737A1/ja
Priority to US10/088,263 priority patent/US20050117045A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration

Definitions

  • the present invention relates to a photographing system for correcting the color of a photographed object or stabilizing the density of an image, and a camera and an image processing device used for the same.
  • color invariance color-constancy
  • the first Ret inex method is based on GWA (Gray Word Assumption) theory, which contains the assumption that the average color in the light detection path for the surface color of an object is gray. Then, color correction of the pixel is performed using color information of a light detection path extending around a certain section, for example, a certain pixel. Therefore, according to this Retinex method, a complicated calculation based on the light detection path color must be performed for each pixel, and the amount of calculation in the computer as a whole is extremely enormous. Also, for example, if the color of the scene is biased toward a certain color, this biased color is recognized as the color of the light source, so there is a limit to its application. You.
  • GWA Gram Word Assumption
  • the second white patch method a white patch is inserted into a scene, and the reflected light on the white patch is obtained as a light source color, and color correction is performed based on the light source color.
  • the reflected light on the white patch is obtained as a light source color, and color correction is performed based on the light source color.
  • the third highlight portion reference method for example, light around a saturated pixel is assumed to be a highlight portion, and light around the saturated pixel is determined as a light source color. Therefore, it is necessary to find the highlight part separately from the scene once photographed, and the image processing is very complicated. Also, since the pixel corresponding to the highlight is saturated, it is impossible to find the light source color there.
  • the nose type imaging system includes a lens, an image sensor, and a reflecting surface, a camera for shooting a main scene on the image sensor, and the main scene using information of a reference scene obtained by the reflecting surface. And an image processing device for correcting an image in the image processing apparatus. Then, mapping is performed in advance so that the reference scene and the main scene correspond to each other, and in the image processing apparatus, the color of the pixel of each main scene is substantially divided by the color of the corresponding reference scene. By doing so, color correction of the main scene was performed.
  • a second object of the present invention is to provide a photographing system or the like capable of sufficiently performing color correction even if the area of the reference image section is small. Disclosure of the invention
  • a feature of a photographing system is to correct a color of an image, and includes a lens, an image pickup device, a light receiving device, and a reflection surface, and the main scene includes A camera that captures an image on an image sensor, wherein the image sensor and the light receiving element have a plurality of color channels, the reflecting surface is arranged in a field of view of the camera, and is located at or near the main scene.
  • the light from the reference scene to which the reference scene belongs is reflected and received by the light receiving element via the lens, and the value of one pixel part of the reflected light of the reference scene received by the light receiving element or
  • a light source color measurement unit for obtaining an average value of each of the color channels of the plurality of voxel units as a reference signal value (rn, gn, bn), and a correction device for correcting an image color using the reference signal value And to have.
  • the correction device when the correction device is configured to perform image processing electrically using a digital or analog circuit, the correction device may be used, for example, at each coordinate position of a main scene captured by the imaging device.
  • the signal values (r [x] [y], g [x] [y], b [x] [y]) are substantially obtained by the reference signal values (rn, gn, bn) obtained for the respective color channels.
  • Rc [x] [y] 5 gc [x] [y], bc [x] [y] which is a correction unit for correcting the main signal value by division. You should.
  • An imaging system having the above features is used to realize color invariance in a color image.
  • the image pickup device and the light receiving device of the camera have a plurality of color channels, and the image processing device uses the value of the reference signal obtained for each of the color channels. It is required that the main signal is corrected by substantially dividing the value of each main signal for each color channel.
  • the present invention can also be used for stabilizing the density of an image in a black and white camera.
  • the reflected light I ( ⁇ ) is expressed by the following equation.
  • S (person) is the reflection function of the object surface
  • ⁇ (in) is the spectral intensity distribution (SPD) of the light source, which changes depending on the geometry, or the wavelength of the light source.
  • Reflection from a heterogeneous insulating surface consists of a linear addition of two components: boundary reflection and body reflection.
  • Figure 36 shows the structure of the surface where the color pigments are dispersed in the color carrier. Some incident light is reflected at the boundary between the surface of the color medium and the surrounding medium, and this component is called boundary reflection (I) and is representative of the color of the light source. The other incident light passes through successive re-reflections between the color pigments, and becomes a component called a solid (B) reflection (B) that transmits the color of the pigment called the surface color changed by the light primary color. .
  • These models are called Dyke Mouthmatic models, and the reflection function S ( ⁇ ) of the object surface is expressed as follows.
  • m. (g) and m B (g) are reference coefficients indicating boundary reflection and solid reflection, respectively, and depend only on the geometric relationship between the lighting and the imaging range (vi ewing).
  • C, (person) and CB (person) are optical components of boundary reflection and solid reflection, respectively. It depends only on the wavelength (person) of the light source.
  • the boundary reflection (I) described above changes the color of the incident light.
  • the surface of many objects in the world such as metals such as silver and aluminum, as well as color mediators such as fats, oils or waxes, does not change the color of the incident light according to the neutral boundary reflection (NIR) theory. Transmits the above SPD of light. Boundary reflections (I) often appear as highlights, so the specular reflection (I) of many objects is thought to transmit the color of the incident light.
  • each element of the image sensor integrates the brightness with a finite size above them, and the spectral observation result ki (x, y) of a certain point is obtained as follows.
  • one of the values 1, 2, and 3 taken by the subscript i corresponds to red, green, and blue, respectively, and (x, y) is the coordinates of the image.
  • (X, Y) is the world coordinates with respect to the center of imaging.
  • Ri (in) indicates the i-th spectral response associated with the characteristics of the sampling filter. Is the image-to-electricity conversion index, and b is called the sensor offset or dark noise.
  • re-reflection of light reflected from an object on the reflection surface
  • Light incident on the object is directed to the camera and the reflecting surface as surface reflection (I) and solid reflection (B), respectively.
  • the reflecting surface follows the Dyke-Mouthmatic model, the surface-surface reflection (11), the solid-surface reflection (BI), the surface-solid reflection (IB), and the solid —Rereflects as a solid reflection (BB).
  • the reflecting surface should reflect the light source color as it is in accordance with the NIR theory, it is preferable that the reflecting surface is made of aluminum, white or gray resin, paper, or the like.
  • the solid-solid reflection (BB) has a very low intensity and may not be considered.
  • surface-solid reflection (IB) does not change the light spectrum because the reflecting surface is optically flat, and is smaller than surface-surface reflection (II). Therefore, regardless of whether aluminum or the like that does not follow the dichromatic model is selected as the material of the reflecting surface, or the object that follows the dichromatic model, the elements of the re-reflected light can be regarded as the same.
  • the light C (Xn, Yn, person) at a certain coordinate on the reflecting surface that has entered the reflecting surface and has been re-reflected is represented by the following equation.
  • FIG. 38 is a diagram showing a process of a first blur phenomenon based on diffuse specular reflection on the surface of the reflection surface.
  • the incident light incident along the incident light path S 1 exhibits the intensity distribution as shown by a curve G 1, which has the highest intensity with respect to the specular reflection light path S 1 ′, and the intensity decreases as the distance increases.
  • the incident light incident along the incident light path S2 has the highest intensity with respect to the specular reflection light path S2 ', and exhibits an intensity distribution as shown by a curve G2.
  • the intensity of the reflected light along the reflected light path C ' is, for example, the sum of the values determined by the intersections of the curves Gl, G2 and the reflected light path Sn'.
  • the B 1 (X, Y) term in the above equation (4) is a function of this first blurring phenomenon and depends only on the surface roughness.
  • the term Sn (X, Y, person) in the above equation (4) indicates the spectral reflectance of the reflecting surface, and depends on the first coordinate and the wavelength. Note that the Sn (X, Y, person) term is 1 under the assumption of NIR.
  • the re-reflected light reflected by the reflecting surface enters the imaging device, which is a type of light receiving element, through the lens
  • the re-reflected light is defocused by the lens because the reflecting surface is installed near the lens.
  • One point on the reflective surface is projected as a circle whose density varies according to the spatial blur function B2 (Xn, Yn).
  • Fig. 39 shows the blur caused by this defocus, and the re-reflected light C in (X ni, Yni, person) is expressed by the following equation.
  • Cin (Xni, Yni, ⁇ ) SSB2 (Xn, Yn) C (Xn, Yn, input) dXndYn (5)
  • the suffix ni corresponds to each pixel on the image sensor of the reference scene obtained by, for example, re-reflection from the reflection surface.
  • this light Cin (Xn i, Yni, input) reaches, for example, the image sensor, the spectral observation result kin (x, y) of this light is given by Desired.
  • kni (x, y) [S S S Ri ( ⁇ ) Cin (Xni, Yni, ⁇ ) dAdXnidYni] + b (6)
  • the intensity component kni (x, y) of each RGB of each coordinate in the reference scene is calculated by dividing the above-described boundary—boundary reflection II and solid-boundary reflection BI into two blur functions of B 1 B 2 described above. This is expressed as a convolution.
  • the rays of the boundary reflection I from the highlight in the main scene are captured directly by the image sensor, the rays often exceed the dynamic range of the image sensor and occupy a small area. Therefore, despite the fact that the highlight contains information on the light source, it is difficult to use it effectively.
  • the reflection surface and the lens blur are used, the light from the highlight part is diffused by the above two convolutions, and the dynamic range is further reduced by reflection and becomes smaller. Therefore, it is easier to capture the light source color by using the highlight portion when capturing the highlight portion using the reflecting surface than when capturing the highlight portion using only the direct image. .
  • the boundary reflection I from the highlight portion is higher in brightness than the solid reflection B, so that it is more dominant than the solid-boundary reflection B I.
  • the solid-single boundary reflection BI is used for correcting the main scene in the reference scene.
  • the above two convolutions substantially correspond to the optical implementation of the previous GWA theory. Therefore, in the present invention, the correction by referring to the highlight portion and the correction by the GWA theory are performed simultaneously in parallel.
  • each seat of the reference scene is By mapping the spectrum kni (x, y) at the target position and the vector kn (x, y) at each coordinate position in the main scene and performing division using the value for each coordinate, a piecewise method is obtained. Color correction was performed.
  • the value of one pixel portion or the average value of a plurality of pixel portions of the reflected light of the reference scene received by the light receiving element is obtained as a reference signal, thereby obtaining one value representative of the light source color.
  • a vector corresponding to the number of colors of the three colors it is sufficient that the reflecting surface reflects light from the reference scene belonging to the main scene or the vicinity thereof and causes the light receiving element to receive the light.
  • the main light path may reflect light from the main scene or a reference scene belonging to the vicinity thereof.
  • the value of the main signal at each coordinate position of the main scene captured by the imaging element is substantially determined by the value (vector) of one reference signal.
  • the main signal is corrected by subtracting it.
  • the present invention is a global correction method using a value representative of a single light source color in principle. Therefore, the correspondence between the reference image portion corresponding to the reflecting surface and the main image portion is rougher than that of the above-described conventional technology, and the calibration can be performed very easily. In addition, since the correspondence between the reference image portion and the main image portion is rougher than that of the above-described conventional technology, color correction can be performed even if the area of the reference image portion is reduced. Was. Furthermore, in color correction, a single value is also used as the value of the reference signal and can be applied uniformly to the entire image range, and is effectively reduced to one value in each color channel. Since it is sufficient to perform more division, the correction speed can be greatly increased.
  • the coefficient having the value (rn, gn, bn) of the reference signal in the denominator is used.
  • (Sr, sg, sb) are obtained in advance, and the coefficients (sr, sg, sb) are calculated by the values (r [x] [y], g [x] [y], b [x] [y ])
  • the image processing apparatus can be easily configured to correct the main signal. In this case, the speed of the image processing is dramatically improved.
  • the coefficients (sr, sg, sb) in the respective color channels have the reference signal values (rn, gn, bn) different in the respective color channels in the denominator, and other coefficients (s) common to the respective color channels. May be treated as having in the molecule.
  • the coefficient (sr, sg, sb) is obtained from a certain frame signal among the frame signals sequentially transmitted from the image pickup device or the light receiving device, and the coefficient (sr, sg, sb) is further determined by another coefficient after a lapse of time. Multiplying each of the main signal values (r [x] [y], g [x] [y], b [ ⁇ ] [y]) obtained from a frame by correcting the main signal.
  • the device may be configured. At this time, the main signal values (r [X] [y], g [x] [y], b [x] [y] obtained by obtaining the coefficients (sr, sg, sb) from a plurality of other frames, respectively.
  • the other coefficient (s) is a set of the main signal values (r [x] [y], g [x] [y], b [x] [y]).
  • the value (rm, gm, bm) that can be regarded as the maximum value is taken, the value (rm, gm, bm) that can be regarded as the maximum value is set so as to approach the maximum scale value (D) of the main signal value. be able to.
  • This setting Accordingly, an extreme density difference between the highlight portion and the corrected image around the highlight portion can be reduced.
  • the other coefficient (s) is such that the main signal value in two channels at a pixel reaches the maximum scale value (D) and the main signal values in the remaining other channels are the maximum scale value (D). If the pixel value does not reach the threshold value, the pixel is defined as an invalid pixel, and the value (rcm, bcm) that can be regarded as the minimum value of the main signal value in the other channel in the set of the invalid pixels is the maximum scale value (D).
  • the image processing apparatus may be configured to have a value that at least reaches ()). With the same configuration, the color of the incorrect pixel is corrected in the same way as the highlight portion, and the unnaturalness of the corrected image is further reduced.
  • Image compression is used in the Internet technology and the like. Since compression causes loss of useful color data, the image processing apparatus of the present invention applies correction prior to compression.
  • a reflection surface moving mechanism capable of disposing the reflection surface outside the field of view of the force mellar may be provided. Then, after the reference signal value (rn, gn, bn) is obtained by the reflecting surface, the main image is taken by the reflecting surface moving mechanism in a state where the reflecting surface is arranged outside the field of view of the camera.
  • the main signal value (r [x] [y], g [x] [y], b [x] [y]) may be corrected based on the reference signal value (rn, gn, bn). Good. With this configuration, it is possible to prevent the reference image portion from appearing in the captured image range.
  • the imaging device and the light receiving device are separately provided.
  • the lens is provided in correspondence with the image pickup device and the light receiving device, and the zooming of both lenses and the stop are linked, so that the reflection surface is in accordance with the focal length of the lens.
  • the coordinate position and angle of the starting point may be continuously changed, and the reflecting surface may be fixed within the maximum field of view of the lens.
  • the zooming and the reference image unit can be moved without moving parts. It became possible to be linked.
  • the cost can be reduced slightly by using an unsuitable light-receiving element as an image-capturing element because the number of defective pixels is large as the light-receiving element.
  • the processing speed can be maintained by providing a coordinate table for removing defective pixels among the light receiving elements when the correction unit is selected.
  • the reference scene can be mainly limited to the center of the main scene or its vicinity. With such a configuration, it is possible to perform color correction particularly in the central portion, which is an important portion of the main scene, or in the vicinity thereof, particularly accurately.
  • the imaging system according to the present invention can also be applied at the time of image synthesis.
  • the camera has at least two cameras, and the correction signal values (rc [x] [y], gc [x] [y], bc [x] [y]) of one camera are compared by the other camera.
  • the obtained reference signal value is substantially multiplied for each of the color channels to obtain a secondary corrected image, and the imaging system is combined with the image of the other camera to obtain a combined image. It is better to configure With the same configuration, two images can be naturally combined as if they were illuminated with the same light source color.
  • the image processing apparatus further includes a CG (computer graphics) image creating unit that creates a combination image and a CG light source color determining unit that determines a light source color of the computer image, wherein the correction signal values (rc [x] [y], gc [x] [y] 3 bc [x] [y]) is substantially multiplied by the light source color value obtained by the CG light source color determination unit for each of the color channels to obtain a secondary correction image.
  • the imaging system may be configured such that an image is obtained and the secondary corrected image is synthesized with the computer image created by the CG image creating unit to obtain a combined image. According to the configuration, it is possible to similarly combine the overnight image of the view and the real image in a very natural state.
  • the image pickup element and the light receiving element are constituted by elements having the same characteristics.
  • the intensity component of each color channel is expressed as a power of a certain function.
  • this key differs depending on the characteristics of the image sensor and the like. Therefore, before dividing the main signal value by the reference signal value, it is necessary to match the multipliers of these two, and the signal processing becomes complicated. . Therefore, hardware for useless signal processing is omitted by configuring the imaging element and the light receiving element with elements having the same characteristics. It should be noted that even if the devices have the same characteristics, there are variations in characteristics between lots, and this is even more so with inexpensive imaging devices. However, by making the light receiving element a part of the imaging element, there is no room for such a problem, and a very good correction result can be obtained.
  • the above-mentioned camera further comprising a storage unit for storing an image file containing an image on the image sensor or a storage unit for a film for recording the image, wherein the image is located at an end of a main image portion and an entire image range.
  • a reference image section may be provided.
  • the entire image range may have a rectangular shape, and the reference image portion may be located at any corner.
  • the area of the reference image section can be made very small.
  • the reflection surface is rotatable around a central axis of the lens, and the reference image portion is positioned at any one of the corners depending on the position of the reflection surface, or the reference image portion is It may be possible to select whether or not to be located within the entire image range.
  • the present invention can be applied to so-called panoramic photography so that the main image portion has a horizontally elongated rectangle and the reference image portion is located above or below the entire image range.
  • the lens may be a zoom lens, and the coordinate position and angle of the starting point of the reflecting surface may be changed according to the focal length of the lens.
  • the reflecting surface is formed so as to continuously change the coordinate position and the angle of the starting point according to the focal length of the lens, and the relative position between the reflecting surface and the lens is determined by the lens. It is preferable to provide a reflecting surface moving mechanism that changes according to the focal length.
  • the present invention can be realized as an IC chip having a function realized by the image processing device described in the above feature or an electric circuit having the same function. Further, the present invention can also be realized as a recording medium that records software that is realized by being dictated by a computer to realize the functions realized by the image processing device described in the above features. Further, the image processing apparatus according to the above aspect can be configured such that the image correction is realized between two computers connected via a communication line such as a telephone line or an Internet network. .
  • a cover may be provided. However, if there is no room for other light source colors to enter the reflecting surface, the covering can be omitted.
  • the present invention is also applicable to a single-channel camera such as a monochrome camera.
  • the present invention is configured as a photographing system for stabilizing the density of an image.
  • a camera having a lens, an imaging element, a light receiving element, and a reflection surface for photographing a main scene on the imaging element; wherein the reflection surface is arranged in a field of view of the camera; and The light from the reference scene belonging to the vicinity is reflected, and the light is received by the light receiving element via the lens. Further, one pixel portion of the reflected light of the reference scene received by the light receiving element is reflected by the light receiving element.
  • Value or an average value of a plurality of pixel portions is determined as a reference signal value (rn, gn, bn), and a main signal value (r [x] [y], g at each coordinate position of the main scene captured by the image sensor is obtained.
  • [x] [y], b [x] [y]) is substantially divided by the reference signal value (rn, gn, bn)
  • an image processing device that obtains a corrected signal value (rc [x] [y] 3 gc [x] [y], bc [x] [y]) by correcting the main signal. I do.
  • the color correction device electrically corrects an image signal. That is, signal processing is performed after an image is captured by the image sensor and the light receiving element.
  • an image sensor such as a CCD has a limit in the brightness at which an image can be captured, and a part of a pixel around a highlight portion is saturated as described above, which may have an undesirable effect on color correction of an image.
  • the noise will be large during the correction, which may have the same undesirable effect on the color correction.
  • the colors of the corrected image are not continuous smoothly but have an intermittent gap.
  • the present invention proposes a configuration in which color correction is performed optically.
  • Optical filter means including a filter.
  • the optically executing correction device can be implemented together with a light source color measurement method other than the light source color measurement unit using the reflection surface.
  • the present invention can be implemented together with the above-mentioned Retinex method, white patch method, highlight section reference method, and a method using another light source color measurement sensor.
  • the optical filter is basically arranged so as to also change the color of an image reaching the light receiving element, and the means for obtaining the complementary color includes the reference signal value (rn, gn, bn).
  • the optical filter may be controlled so that the color balance of (1) approaches the required color balance as much as possible.
  • the optical filter means there is a configuration in which a plurality of preset filters each having a different color balance are provided, and a preset filter closest to the complementary color is selected. This preset fill In addition, they may be used simultaneously.
  • the optical filter means includes: a medium pump; an ink blowing section capable of independently blowing a plurality of color inks; a mixer for forming a mixture of the plurality of color inks and the medium; And a transparent passage for flowing the mixture. Further, the optical filter means includes: a medium pump; an ink ejection unit capable of independently ejecting a plurality of color inks; and a plurality of mixers for individually mixing the medium and each ink to form a mixture. And a plurality of transparent passages corresponding to the optical filters through which the respective mixtures are individually passed.
  • the optical filter means includes: a medium pump; an ink blowing section capable of independently blowing a plurality of color inks; a plurality of mixers for individually mixing the respective inks and the medium; And a plurality of transparent cells corresponding to the optical filters that pass through the cells.
  • a medium pump capable of independently blowing a plurality of color inks
  • a plurality of mixers for individually mixing the respective inks and the medium
  • a plurality of transparent cells corresponding to the optical filters that pass through the cells.
  • Each cell is provided on the front surface of the black-and-white image sensor in correspondence with RGB for each pixel. The connection may be made by a bridge path.
  • the optical filter As the optical filter, a filter having a different filter characteristic may be used. At this time, if the optical filter has a transmittance changing unit capable of changing the transmittance in accordance with the change of the filter characteristic, it is possible to change the color intensity for each filter characteristic.
  • the camera may be, for example, a 3 CCD camera provided with an optical block for decomposing light into RGB and three image sensors corresponding to each of RGB.
  • each optical filter means is provided with transmittance changing means for changing the density of an image reaching each image sensor, the optical correction can be performed.
  • Each of the transmittance changing means may include, for example, two polarizing filters whose angles can be changed with each other.
  • Each of the transmittance changing means includes two polarizing filters whose angles can be changed with respect to each other, and one of the two polarizing filters is provided by the optical processor. It may be provided in common before the block, and the other may be provided separately after the optical block for each color channel.
  • the means for measuring the complementary color includes: a lamp; a light color detector for detecting the color of the light of the lamp passing through the light receiving element; a light source color measurement unit; and a complementary color measurement unit based on the light source color measurement unit.
  • the optical filter means comprises: a filter for further passing light from the lamp through the film to the photographic paper; and a filter changing device for changing the color of the filter to the complementary color. It is also possible to adopt such a configuration.
  • the correction device further includes a main signal value (r [x] [y], g [x] [y] at each coordinate position of the main scene captured by the imaging device. , B [x] [y]) by the reference signal values (rn, gn, bn) obtained for each of the color channels, respectively, thereby correcting the main signal value (corrected signal value ( rc [x] [y], gc [x] [y], bc [x] [y]), and the electrical correction unit includes the optical filter.
  • the correction processing may be transiently performed before the completion of the color correction by the means.
  • an imaging system capable of realizing color invariance with a simple calibration or correcting a color in order to stabilize the density of an image, and It has become possible to provide a camera and an image processing device to be used.
  • the relationship between the main image and the reference image is rougher than in the related art. Therefore, even if the area of the reference image portion is small, color correction is sufficiently performed. It became possible.
  • the color correction device is configured to have optical execution as described above, a clear and natural corrected image can be obtained regardless of whether the scene light is strong or weak. It became so.
  • FIG. 1 is a block diagram showing an imaging system.
  • FIG. 2 shows a camera for a photographing system.
  • FIG. 2 (a) is a side view
  • FIG. 2 (b) is a front view
  • FIG. 2 (c) is a perspective view.
  • FIGS. 3 (a) to 3 (c) are diagrams showing the entire image range for explaining the relationship between the main scene and the reference scene, and FIGS. 3 (d) to 3 (f) are enlargements of the reference image portion.
  • FIG. FIG. 4 shows a modification of the camera for the photographing system.
  • FIG. 4 (a) is a side view
  • FIG. 4 (b) is a front view
  • FIG. 4 (c) is a perspective view.
  • FIG. 5 is a flowchart illustrating a processing procedure in the correction unit of the imaging system.
  • FIG. 6 is a second flowchart following FIG.
  • FIG. 7 is a third flowchart following FIG.
  • FIG. 8 is a fourth flowchart following FIG.
  • FIG. 9 is a fifth flowchart following FIG.
  • FIG. 10 is a sixth flowchart following FIG.
  • FIG. 11 is a diagram showing the entire image range for explaining still another relationship between the main scene and the reference scene.
  • FIG. 12 is a graph showing the relationship between the value kr of the color response in the red channel and the color histogram rh [kr].
  • FIG. 13 is a graph showing the relationship between the value krc of the color response at the bad pixel in the red channel and the color histogram rhc [krc] at the bad pixel.
  • FIG. 14 is a timing chart showing the relationship between the reference signal and the main signal within the personal computer.
  • FIG. 15 is a diagram corresponding to FIG. 2 in the second embodiment of the present invention.
  • FIG. 16 is a diagram corresponding to FIG. 2 in the third embodiment of the present invention.
  • FIG. 17 is a block diagram showing a fourth embodiment of the present invention.
  • FIG. 18 is a block diagram showing a fifth embodiment of the present invention.
  • FIG. 19 is a block diagram showing a sixth embodiment of the present invention.
  • FIG. 20 is a diagram illustrating a relationship between a subject, a tilt angle of a reflection surface, and a viewing angle on an image sensor.
  • FIG. 21 (a) is a diagram showing a seventh embodiment of the present invention
  • FIG. 21 (b) is a front view of the reflecting surface moving mechanism in (a).
  • FIG. 22 is a block diagram showing an eighth embodiment of the present invention.
  • FIGS. 23A to 23C are diagrams corresponding to FIG. 2 in the eighth embodiment, and FIG. 23D is a diagram illustrating the entire image range.
  • FIG. 24 is a block diagram showing a general model using an optical filter used in the ninth to eighteenth embodiments of the present invention.
  • FIG. 25 shows a filter rotating mechanism according to a ninth embodiment of the present invention.
  • FIG. 25 (a) is a longitudinal sectional view
  • FIG. 25 (b) is a front view.
  • FIG. 26A and 26B show a filter slide mechanism according to a tenth embodiment of the present invention.
  • FIG. 26A is a longitudinal sectional view
  • FIG. 26B is a front view.
  • FIG. 27 shows a filter rotating mechanism according to the eleventh embodiment of the present invention.
  • FIG. 27 (a) is a longitudinal sectional view and
  • FIG. 27 (b) is a front view.
  • FIG. 28 is a block diagram showing a twelfth embodiment of the present invention.
  • FIG. 29 is a block diagram showing a thirteenth embodiment of the present invention.
  • FIG. 30 shows a fourteenth embodiment of the present invention.
  • FIG. 30 (a) is a front view of a CCD filter
  • FIG. 30 (b) is a longitudinal sectional view of the same.
  • FIG. 31 is a block diagram of a photographic printing apparatus according to a fifteenth embodiment of the present invention.
  • FIG. 32 is a block diagram showing a sixteenth embodiment of the present invention.
  • FIG. 33 is a perspective view showing the relationship between the polarization filter and the liquid crystal variable filter according to the sixteenth embodiment of the present invention.
  • FIG. 34 shows a mechanism around an optical block showing a seventeenth embodiment of the present invention.
  • FIG. 35 is a modified example of FIG. 34 showing the eighteenth embodiment of the present invention.
  • Figure 36 shows a model of dichromatic reflection from a non-uniform non-conductive surface.
  • Fig. 37 is a diagram showing the state of re-reflection of the reflected light from the object on the reflection surface.
  • Fig. 38 shows the process of the first blurring phenomenon based on the diffuse mirror reflection on the surface of the reflection surface.
  • Fig. 39 is a diagram for explaining the process of blurring due to lens defocus.
  • rn, gn, bn Reflection surface average signal value in each channel of red, green, and blue (reference signal value)
  • kr, kg, kb Value of color response in each channel of red, green, and blue
  • Krckbc Red Blue value rh of color one response in bad pixels in each channel [kr] 5 gh [kg] , bh [kb]: red, green, and blue color one hiss Bok grams of normal pixels in each channel
  • sr, sg, sb Proportional constant multiplied by the effective input image signal value to obtain a corrected color scr
  • scb Proportional constant required to eliminate the appearance of color in defective pixels
  • an imaging system 1 shown in FIG. 1 includes a camera 2 and an image processing device 7. As shown in FIGS. 1 and 2, the camera 2 has a lens unit 4 and a cover 5 attached to the camera body 3, and a reflector 6 is attached inside the cover 5. An image is formed on the CCD 31 of the camera body 3 via the lens 41 of the lens unit 4, and the image signal is sent to a personal convenience server 8 (to be described later). This is processed by the system averaging unit 32.
  • the frame averaging unit 32 calculates the total amount of light incident on the CCD 31, and if the amount of light incident on the CCD 31 is too large, such as when a large number of saturated pixels occur at the CCD 31, the aperture adjustment motor 44 reduces the aperture 43.
  • the CCD 31 is a color CCD, and has three light receiving sections provided with three color filters of red, green and blue per pixel. Red, green and blue assigned to one pixel
  • the three light receiving sections can be assigned to a single CCD element, or can be distributed to three CCD elements using a prism (not shown).
  • the cover 5 prevents light other than the maximum visual field determined by the CCD 31 and the lens 41 and its vicinity from being incident.
  • a notch-shaped reflector 6 is mounted inside the cover 5 and a notch-shaped flat reflecting surface 61 is formed inside the cover.
  • the image of 0 passes directly through the lens 41 and forms an image on the main imaging unit 31 a on the CCD 31, and the image of 0 incident on the reflecting surface 61 reflects the first blur described above on the surface of the reflecting surface 61. Then, when the reflection surface 61 is brought close to the lens 41, the light reaches the reference imaging unit 3 lb of the CCD 31 in a state where the second blur is received. As shown in FIGS.
  • the reflector 6 is fully imaged so that the reflected light from the reflecting surface 61 forms the reference image portion 130 at the lower corner of the entire image area 100. It is provided corresponding to the corner of the range 100.
  • the main image section 110 corresponds to the main imaging section 31a
  • the reference image section 130 corresponds to the reference imaging section 31b.
  • the image of the reflecting surface rear end 63 of the reflector 6 is located around the lower corner of the entire image area 100, and the image of the reflecting surface front end 62 of the reflector 6 is located between the reflecting surface capturing unit 120 and the reference image unit 130.
  • the reflector 6 is made of, for example, aluminum or the like.
  • the reflecting surface 61 is flat and is slightly matted so as to scatter and reflect light.
  • the reflecting surface 61 may be made of white or gray paper. It can be composed of materials that follow the theory.
  • Fig. 3 shows the scene to be photographed and the entire captured image.
  • the image range 100 is superimposed and displayed, and the main scene 110 is also a main image portion.
  • Light incident on the reflecting surface 61 from 0 is reflected at the same angle as the incident angle and reaches the CCD 31.
  • the path of the light beam reaching the CCD 31 from the surface 62 of the reflecting surface exists while spreading with the above-described blurring action.
  • the main light beam path through which the light beam with the highest luminance passes will be considered.
  • the reflecting surface capturing unit 120 is determined by the orientation direction of the reflecting surface tip 62 and the principal ray path, and the reference principal axis 101 passing through the center of the reflecting surface capturing unit 120 is the entire image area.
  • the main axis angle A which is the lower side of 100, is set to be 45 degrees.
  • the image formed by the reflecting surface 61 of the reflecting surface capturing unit 120 appears as a reference image unit 130 in the lower corner of the entire image area 100.
  • the selected inner boundary 1 3 2 and the non-selected boundary 1 3 perpendicular to the reference spindle 1 0 1 The selection reference section 13 1 surrounded by 3 may be selected from the reference image section 130 in the calculation process described later.
  • the resolution of the entire image range 100 is 680 in the horizontal direction and 480 in the vertical direction, and the total number of pixels is 32640 pixels obtained by multiplying them. .
  • the image in the blurred range of the reference image portion 130 due to the reflection surface was about 3% of the whole.
  • a section in which x and y are larger than 50 and smaller than 70 is set as a target of the selection reference section 13 1.
  • these values are merely examples, and the present invention is not limited to these specific values.
  • the reference scene may be a range outside the entire image range 100 shown by reference numeral 12 lx in FIG. 3A and including the entire image range 100 shown by reference numeral 121 y.
  • the cover 5 can be rotated around the lens unit 4, so for example, by moving the reflector 6 to the upper corner of the entire image area 100, as shown in FIG. 3 (c).
  • the range of the reference scene 1 2 1 may be changed.
  • the reflector 6 may be moved between the sides of the entire image range 100 so that the reflector 6 is located outside the entire image range 100.
  • the reflecting surface 61 is disposed on the cover 5 so that the reference principal axis 101 is a diagonal line of the entire image range 100.
  • the middle part of the reflection surface capturing unit 120 is selected as the reference scene 122.
  • the selected inner boundary 1 34 and the non-selected boundary 1 35 are values larger than 30 and smaller than 50, respectively, which are smaller than the previous example.
  • Fig. 3 (f) in order to obtain an image for correction, a partial line between the selected inner boundary 13 2 and the selected outer boundary 13 3 as shown in the scan lines 1 36 a to c and the selected point 1 36 d is shown. , A reference signal can be obtained.
  • the cover 5 may be configured as a truncated pyramid as shown in Fig. 4 if only the position change of the reflecting surface 6 1 (rotation of 180 degrees) with respect to the diagonal of the entire image range 1 ⁇ 0 is considered. .
  • the video capture board 71 converts the coordinates of the image signal into time by using a video camera so that the following processing can be performed.
  • the correction section 7 2 also functions as a light source color measurement section for measuring the light source color using the reflection surface 61, and the correction section 7 2 selects the inner boundary 13 2 and the outer boundary 1 3 3.
  • the time gate is set as a video signal so as to limit the selection reference section 13 1 surrounded by.
  • the correction unit 72 performs a correction process described later.
  • the output adjustment unit 73 is for adjusting a user-defined image luminance coefficient S of the correction unit 72 described later.
  • Aperture operation unit 7 4 has frame averaging unit 3 2, aperture adjustment for zero adjustment of CCD 3 1
  • the diaphragm 43 is completely closed via the joint motor 44, and the zero adjustment in the compensator 72 is controlled.
  • the closing operation and the zero adjustment of the aperture 43 by the opening operation unit 74 are performed manually or at least automatically when the operation of the camera 2 is started.
  • the output of the correction unit 72 is displayed on the monitor 19 via the video camera 75, output from the color printer 10 via the 1/076, and further stored in the storage unit 77.
  • the storage unit 77 is composed of a hard disk that can be fixed or detached, a memory device, a flexible disk, or the like.
  • FIG. 5 shows a routine for calculating a zero image signal value in each of the red, green, and blue channels when the aperture is completely closed.
  • the direct image signal values rd [x] [y], gd [x] [y], and bd [x] [y] in the red, green, and blue channels are stored. Then, in S 1 1, in order to cancel the dark noise, red, green, and blue direct image image signals for each channel Value], ⁇ ]], 1 3 (1 [] ⁇ ] from zero image signal value]]] 2] ] 2 By subtracting [x] [y], the effective input image signal value (main signal value) for each of the red, green and blue channels r [x] [y], g [x] [y], b [x] [y ] Is required. If the camera has already performed zero adjustment of the input signal to remove dark noise, it is not necessary to provide the steps S1 to l1 and the aperture operation section 74.
  • a defective pixel refers to a pixel in which only one of the three colors red or blue is not saturated and the remaining two colors are saturated.
  • the direct image signal values gd [x] [y] and bd [x] [y] of the green-blue two channels are saturated, and the direct image signal values rd [ If x] [y] is not saturated, the number of pixels ii in the histogram of the bad pixel is accumulated in S15, and the effective input image signal value r [x] [y] in the red channel becomes the bad pixel. The value of the color response at is krc. Then, the color histogram rhc [krc] of the bad voxel in the red channel is accumulated.
  • the upper limit values rm, gm, and bm of the histogram group F1 in the normal pixel are obtained.
  • the values kr, kg, and kb of the color response in each of the red, green, and blue channels are reset, and as shown in S25, S26, S29, S30, S33, and S34, the values are reset to zero.
  • the routine is sequentially repeated from to the maximum dynamic range value of 255.
  • the routines of S23 and S24 in increments of kr, the upper limit rm of the histogram group in the normal pixel of the red channel is obtained.
  • the upper limit rm kr is the largest value of kr when the histogram rh is greater than 10 and the histogram rh exceeds 1000, as shown in FIG.
  • the upper limit values gm and bm of the histogram group F1 in the normal voxel of the green-blue channel are similarly obtained.
  • the definition procedure of rffl, gm, and bm is not limited to such a routine, and is the same as below. However, the value of 1000 may be different depending on the screen size.
  • the starting values rcm and bcm of the histogram group in the saturated pixel are obtained.
  • S35 the value of the color response krc, kbc in the defective pixel in each of the red and blue channels is reset, and as shown in S39, S40, S43, S44, the dynamic range from zero to the maximum of the dynamic range
  • the routine is repeated sequentially up to 255.
  • the routines of S37 and S38 in increments of krc by one, the starting value rem of the histogram group F2 in the bad voxel of the red channel is obtained.
  • the starting value rcnFkrc is a value of krc which is larger than 10 and is smallest when the histogram rh starts to exceed 0, as shown in FIG.
  • the starting value bcm of the histogram group F2 at the defective pixel of the blue channel is similarly obtained. If ii is zero in S36, there are no bad pixels, so rcm and bcm are 255 in S45.
  • the reference image section 130 employs a portion between the selection reference section 131 and the selection inner boundary 1332.
  • NMAX is 70 and NM IN is 50.
  • y is reset, and in step S47, the selection condition of the reference image section 130 is added.
  • step S50 S51, S52, 353, y is incremented by one.
  • S48 and S49 The processing of S48 and S49 is repeatedly performed until it increases and reaches NMAX.
  • the number i of pixels in the reflection image used for correction is accumulated, and in S49, the accumulated ra [i], ga [i], and ba [i] of the reflection surface signal value are obtained.
  • the reflected surface average signal value (reference signal value) in each of the red, green, and blue channels is divided by i, respectively, for the cumulative ra [i], ga [i], and ba [i] of the reflected surface signal value.
  • Rn, gn, bn are required.
  • the average value of the smallest and the largest of the proportional coefficients ssr, ssg, and ssb based on the histogram maximum value of the normal pixel histogram is obtained as the proportional constant s.
  • the largest or smallest of these proportional coefficients ssr, ssg, and ssb may be obtained as s.
  • the histogram of bad pixels When the number of pixels ii exceeds 1000, it is determined that there are non-negligible defective pixels, and the largest of the proportional constants scr and scb necessary to eliminate the appearance of color in the previous s and defective pixels is determined. It is obtained as the proportional coefficient s.
  • the proportional coefficient s is multiplied by the effective input image signal value to obtain a corrected color by preliminarily dividing the reflection surface average signal values rn, gn, and bn in the red, green, and blue channels, respectively.
  • the proportional constants sr, sg, and sb are obtained. Note that the value of 1000 takes into account about 0.3% of the total number of pixels in the entire image range, but the value can be selected as appropriate.
  • the algorithm shown in Fig. 10 calculates the corrected image signal values (corrected signal values) rc [x] [y], gc [x] [y:], and bc [x] [y] for each of the red, green, and blue channels. At the same time, processing of values exceeding the dynamic range D is performed. Also in this routine, the coordinates are reset in S59, and all the pixels in the entire image range 100 are scanned in S68 to S71. First, in S60, the effective input image signal values 1 "] ⁇ ] []
  • both the effective input image signal value and the proportional constants sr, sg, and sb may be extracted from the same frame.
  • the proportional constant sr is obtained from the first and second reference frames R 1 and R 2 which are one of the first and second reference frame groups II and I 2.
  • Sg, and sb and calculates the proportional constants sr, sg, and sb as valid input image signal values r [x] [y extracted from a plurality of frames in the second and third reference frame groups 12 and I3, respectively. ], g [x] [y], b [x] [y].
  • the routine for calculating the proportional constants sr, sg, and sb does not become a bottleneck and the processing speed is further improved.
  • the direct image signal values rd [x] [y] and gd [x] [y] in both the red and green channels are less than 255, respectively, and the direct image signal values bd [ If x] [y] is equal to or greater than 255, the corrected image signal value be in the blue channel is corrected again in S65.
  • the red and green signal values are used to infer the blue signal value.
  • the corrected image signal value be in the blue channel is the half of the difference between the direct image signal values rd [x] [y] and gd [x] [y] in the red and green channels, and the direct image signal value gd in the green channel.
  • this analogy method has obtained very good results.
  • Each function realized by the above-described image processing apparatus can be realized by loading software recorded on a recording medium such as a flexible disk, a hard disk, and a CD-ROM into a computer.
  • a recording medium such as a flexible disk, a hard disk, and a CD-ROM
  • this function can be realized by one or more IC chips or electric circuits.
  • the reflecting surface 61 is a flat surface.
  • the reference scene 121a can be set to be large for the selection reference section 131a.
  • the reflective surface 61 is arranged elongated at the lateral end of the entire image range 100, and as shown in FIG. Part 131b can be set.
  • the selection reference section 131c is set in a part of 100a arranged below the entire image range 100, and the illumination color is obtained from the reference scene 121c. Further, in (d), the reflecting surface 61 is formed as a convex curved surface in the same manner as in (a), so that the illumination color is obtained from the reference scene 121 d having a width wider than the width of the selection reference section 131 d. . In (c) and (d), a second CCD 33 corresponding to 100 a is provided separately from the CCD 31 below the CCD 31 corresponding to the entire image area 100.
  • the main image sent from the main imaging section 3 la of the CCD 31 is directly color-corrected by the analog or digital video amplifier 79 and displayed on the mobile device 11.
  • the calculation of the proportional constants sr, sg, and sb in the correction unit 72 is performed using the first and second reference frames Rl and R2 of il4, and these are calculated with time. It is used when correcting the first and second reference frame groups I2 and I3 later.
  • the output adjustment unit 73 is an operation unit for adjusting the output from the video amplifier 79. According to this configuration, there is an advantage that the main image is corrected at the video rate processing speed. The image obtained by extracting the main image and the reference image from the same frame and performing detailed correction can be recorded on the video recorder 12 via the video accelerator 75.
  • the third embodiment shown in FIG. 16 differs from the third embodiment in that a color film 37 using a chemical agent as an image sensor, for example, a silver halide film is used. That is, in the present invention, the color channels of the imaging element and the light receiving element are not separated from each other in shape, and a plurality of color channels may be formed by a change in chemical properties. Color — The film 37 is detachably stored in the film storage section 36.
  • the incident light from the lens 41 is separated by the prism 34, reaches the color film 37, and also reaches the light receiving element 35.
  • the light receiving element 35 transmits the image data to the frame averaging section 32, and the aperture 43 and the aperture adjusting mode 44 are controlled.
  • the present embodiment is different from the first embodiment in that an image processing device 7 separate from the camera 2 includes a personal convenience console 8 and a film scanner 16.
  • the image data including the main image and the reference image is scanned from the color film 37 which has been developed and set in the film scanner 16 and sent to 1/076.
  • the image signal is processed in the same manner as in the other embodiments.
  • the fourth embodiment shown in FIG. 17 shows a system in which an image is transmitted by communication from a camera 2 connected to one image processing device 7 to a monitor 9 connected to the other second personal computer 13. .
  • the corrected image processed and obtained in the same manner as the other embodiments is image-compressed by the image compression unit 81 by a method such as J PEG.
  • the color data is not partially lost, so that a good correction result can be expected.
  • the corrected and compressed image signals are transmitted to the communication terminals 14 and 15,
  • the image is transmitted via the evening net or a telephone line, and the image is displayed on the monitor 19 via the image processing unit 82 and the video accelerator 75.
  • these configurations can provide two-way communication by being mutually installed in two computers.
  • a and B images Sa and Sb are respectively taken from the first and second cameras 2 a and 2 b and taken into the video capture boards 71 and 71. It is.
  • the A image Sa is a studio photographed announcer image
  • the B image S b is an outdoor landscape image of the sunset sky.
  • the A image Sa is color-corrected by the correction unit 72 according to the above-described processing procedure.
  • the light source color in the scene of the B image Sb is obtained from the B image Sb via the scene light calculation unit 83 by the action of the reflecting surface. Then, after the second color correction is performed by multiplying the light source color on the A image Sa color-corrected by the second correction unit 84, the image synthesis unit 85 synthesizes the B image Sb with the image.
  • the A and B images S ab with natural colors are displayed on the monitor 9.
  • a contrast graphics image is used for the B image Sb.
  • the B image Sb can be displayed on the monitor 19 via the CG image creation unit 86.
  • the virtual light source color in the CG image creation unit 86 is obtained by the CG light source determination unit 87, and this is multiplied by the corrected A image Sa in the second correction unit 84, and the second time Color correction is performed.
  • the A image Sa that has been subjected to the color correction twice in this way is image-combined with the B image Sb in the image combining unit 85, and the person naturally blends into the computer graphic scene through the monitor 19.
  • A, B Image S ab is required.
  • the lens 41 is configured as a zoom lens, and the position and angle of the reflecting surface 61 are changed with the change of the focal length.
  • FIG. 20 shows the principle of the decision.
  • the maximum visual field VF is the same as CCD 31 Is determined by the four and one.
  • the rear end 63 of the reflecting surface 61 is determined at an appropriate position on the maximum visual field VF.
  • the reflection surface angle An of the reflection surface 61 is determined according to the following relationship.
  • the image sensor surface Fd is a plane on the surface of the CCD 31, the reflection position vertex surface Fn is a surface parallel to the image sensor surface Fd passing through the reflection point on the reflection surface 61, and the object surface Fo is an image sensor surface Fd passing the object 0. It is a parallel plane.
  • Ao / 2 can be regarded as a constant.
  • the reflection surface angle An is determined by the viewing angle Ad
  • the viewing angle Ad is determined by the position of the maximum visual field VF. Therefore, the rear end 63 of the reflecting surface 61 and the viewing angle Ad are uniquely determined by the focal length of the lens 41.
  • the camera 2 having the reflecting surface 61 in which the reflecting surface 63 and the reflecting surface angle An are continuously changed will be described with reference to FIGS. 21 (a) and (b).
  • the reflecting surface 61a which is a part of the reflecting surface 61 is determined by the reflecting surface rear end 63a and the reflecting surface angle An1.
  • the lens 41 is located at the position indicated by the dashed line with a slightly longer focal length, the reflecting surface rear end 63b of the reflecting surface 61b is located a little further from the lens 41 than the reflecting surface rear end 63a. Moving, the reflection surface angle An2 becomes larger than the reflection surface angle An1.
  • Reflecting surface 61 Reflecting surface front and rear end lines Along the lines 62L and 63L, the subsurface front and rear ends 62a, 62b, 63a, 63b Are respectively arranged, and the reflecting surfaces 61a and 61b are located between the front end line and the rear end line 62L and 63L of the reflecting surface.
  • the reflector 6 of the reflecting surface 6 1 having such a continuous change is connected to a support rod 6 6 forming a reflecting surface moving mechanism 65 and is connected to the center axis of the lens 41 around the first pivot 66 a. It is swingable about a substantially orthogonal axis. Further, the root of the support rod 66 is supported on the base member 67 via the first pivot 66 a, and further the second pivot 67 a perpendicular to the first pivot 66 a with respect to the camera body 3. It is swingably supported around.
  • the cover 5 has an opening 5a for inserting the reflector 6, corresponding to the corner of the entire image area 100 as in the previous embodiment.
  • the camera 2 is provided with a strobe 21 that is linked to the capture of an image into the CCD 31.
  • the reflector around the first pivot 66a is selected so that the appropriate reflecting surface 61a, 61b etc. is selected according to the focal length of the lens 41. 6 swings.
  • the flap 5a swings to an appropriate position so as to block light from outside the maximum visual field.
  • the strobe 21 is first turned on in this state, and the above-described reference scene 121 is captured via the CCD 31.
  • the support rod 66 swings outward around the second axis 67 a, and the reflecting surface 61 moves out of the field of view of the lens unit 4. 10 is shot.
  • the above-described color correction is performed using the reference scene 122 and the main scene 110.
  • strobe 21 is not required for video shooting.
  • the support bar 66 may be swung around the first pivot 66 a to move the reflecting surface 61 out of the field of view of the lens unit 4.
  • the third CCD 38 as a light receiving element is provided separately from the first CCD 31, and the zoom lens units 4 and 4 are the first and second zoom lens units.
  • Three CCDs 31 and 38 are provided respectively.
  • the apertures 43, 43 and the aperture adjusting motors 44, 44 of the lens units 4, 4 are commonly controlled by a frame averaging unit 32 linked to the first CCD 31.
  • the focal length of the lenses 4 1 and 4 1 It works with both lenses.
  • first and second video capture boards 7 lx, 71 y are provided, respectively.
  • the third CCD 38 is the same type of element as the first CCD 31 and differs from the first CCD 31 only in the number of defective pixels.
  • the reason why a lot of defective pixels can be used for the third CCD 38 is that it is sufficient to capture the light source color from the reference scene using the reflecting surface 61. Then, the position of the defective pixel grasped in advance by the inspection is stored in 71z, and the defective pixel is excluded when the correction unit 72 calculates the light source color.
  • An annular reflector 6 is mounted in the cover 5 on the third CCD 38 side.
  • the reflection surface angle An of the reflection surface 61 and the reflection surface rear end 63 are continuously changed in advance in accordance with the focal length of the lens 41.
  • the reference scene reflected on the reflecting surface 61 indicated by reference numeral 61a forms an image on the selected reference section 38al on the third CCD 38
  • the reference scene reflected on 61 indicated by reference numeral 6lb is the third CCD.
  • An image is formed on the selection reference section 38a2 on 38.
  • the focal length of the lens 41 can be changed.
  • An appropriate reference scene can be selected in accordance with this, and color correction of the main scene can be performed accurately.
  • the aperture 43 is controlled by a frame averaging unit 32 and an aperture adjustment motor 44 not shown. Is done.
  • FIG. 24 is a block diagram showing a general model using an optical filter used in the ninth to eighteenth embodiments.
  • the image processing device 151 includes an image processing unit 152 and a light source color measuring unit 153 that receive signals from the CCD 31 in parallel.
  • the basic configuration of the image processing unit 152 is similar to that of each of the above-described embodiments. The difference is that the color measurement unit and the correction unit are not included.
  • the signal received by the image processing unit 152 is output to the camera output 3a, and is connected to a monitor or the like.
  • the output of the light source color obtained by the reference imaging unit 31b and the light source color measuring unit 153 is received by the complementary color measuring unit 154, where the complementary color of the light source color is obtained.
  • the color control unit 155 implements the complementary color obtained by the complementary color measurement unit 154 as a fill color in any of the first to third positions P1 to P3.
  • the specific means of the color control means 155 will be described in the following embodiments, but the installation position of the filter may be any of the first to third positions P1 to P3.
  • the lens 41 shown in the lens unit 4 is a virtual lens. Since the lens 41 is actually composed of a plurality of lenses, a filter may be provided between the plurality of lenses.
  • the filter set at any of the first to third positions P1 to P3 transmits both the field of view (vi ewing) and the light from the reflecting surface 61, and transmits the main imaging unit 31a and the reference imaging unit. Reach 31 b.
  • the light source color measurement unit 153 adjusts the optical filter so that the color balance of the reference signal values (rn, gn, bn) detected by the reference imaging unit 31 approaches the color balance required. Perform feedback control. That is, the light source color measurement unit 153 calculates the light source color to make the light source color closer to white, and furthermore, calculates the color balance that is different from white light by the reference signal value (rn, gn, Perform feedback control as in bn).
  • the present invention finally corrects the light source color to be white light. Even in cases other than the above, it is assumed that the function includes a function of intrinsically correcting the light source color to be white light.
  • the final target value of the correction is determined only by the additive color mixing theory.
  • the ninth embodiment shown in FIG. 25 shows a filter rotating mechanism 160 which is an example of the color control means 255.
  • a filter rotating mechanism 160 a plurality of through holes are provided in a disk 163 which is rotated stepwise by a motor 162 around an axis 161.
  • a plurality of preset filters 164a to h having different color balances are provided in the through holes.
  • the characteristics of these preset filters can be selected according to the color temperature.
  • the color temperature is 550 K for daylight and 3 for artificial light of tungsten type. It is set to about 200K.
  • the preset file having the color temperature closest to the color temperature of the complementary color is selected.
  • the tenth embodiment shown in FIG. 26 shows a filter slide mechanism 170 which is an example of the color control means 150.
  • the filter slide mechanism 170 has a filter support plate 171, which can be moved by a driving member (not shown) in the X and y directions orthogonal to the optical axis of the CCD 31 and the lens 41, and a filter support mechanism.
  • a plurality of preset filters 172 a to i are provided in the through holes formed in the plate 17 1, respectively.
  • the preset filters 172a to i having appropriate color temperatures are selected.
  • the ninth and tenth embodiments each have two or more shafts 16 1
  • a filter rotating mechanism 180 of the eleventh embodiment shown in FIG. 27 can be considered.
  • a plurality of pre-sets are set so that ⁇ ⁇ ⁇ ⁇ ⁇ 1 8 8 8 8 8 8 1 8.
  • a liquid filter system 190 is provided as an optical filter device using a liquid corresponding to the color control device 155.
  • the medium such as water or oil stored in the tank 1991 is sent to the mixer 1993 by the pump 1992.
  • the pump 192 need only be of a simple configuration such as a diaphragm type pumping that can pump out a very small amount of liquid.
  • the color controller 194 controls the amount of ink blown out from each of the ink blowout units 195 a to c based on the information from the complementary color measurement unit 154.
  • Ink outlets 195 a-c store cyan, magenta or yellow (CMY) ink.
  • These inks can be prepared using, for example, Acid Bull # 25, Acid Dred # 289, and Acid Yellow # 23, respectively.
  • the color of the ink can be RGB, but the fill color of the image sensor is usually RGB, and the liquid fill system 190 is designed to find complementary colors. It is desirable to use.
  • the ink jetted from the ink jetting sections 195 ac is mixed with a medium by a mixer 193 and sent to a transparent passage 196.
  • the transparent passageway 196 is formed by laminating transparent glass plates with a very small gap therebetween to form a thin passageway, and a mixture of ink flowing inside acts as a filler.
  • the mixture that has passed through the transparent passageway 196 is discharged through the outlet 197.
  • the lens 4 is actually a combination of a plurality of lenses, the space between the lenses constituting the combination may be a transparent passageway 196.
  • a treatment means 198 for mixing the ink bleach etc. may be provided to feed back the medium.
  • the thirteenth embodiment shown in FIG. 29 is a modification of the twelfth embodiment.
  • the three mixers 193 a to c and the three transparent passages 196 a to c are independently provided for the three ink blowing units 195 a to c so as not to mix with each other. Is provided. Fill color characteristics of each color channel are changed according to the density of the ink Is done.
  • the fourteenth embodiment shown in FIG. 30 shows a system for changing the color of the CCD file 200 existing on the surface of the CCD 31 such as the color CCD.
  • each cell 202 is partitioned by a partition wall 201.
  • the cell 202 is provided corresponding to each of the RGB channels of the pixel 203.
  • cells 202 of the same color channel are connected to each other by a bridge path 204.
  • the red inflow passage 205r, the green inflow passage 205g, and the blue inflow passage 205b are connected to mixers 1993a to c of the thirteenth embodiment, respectively.
  • the medium ink mixture supplied by the red inflow channel 205 r, the green inflow channel 205 g, and the blue inflow channel 205 b passes through each cell 202 to act as a filter, and It is discharged via inflow 205 r, green inflow 205 g and blue inflow 205 b.
  • the fifteenth embodiment shown in FIG. 31 relates to color correction when printing on photographic paper 2 13 using a color film 37 as an image sensor.
  • the lamp 2 11 emits light to the color film 37 via the color correction filter 2 12, and prints the image of the color film 37 on the photographic paper 2 13.
  • the light color sensor 2 14 and the light source color measurement unit 2 15 obtain the light source color at the time of shooting from the reference imaging unit 37 b.
  • the complementary color measuring section 2 16 obtains the complementary color of the light source color and controls the filter exchange device 2 17 to change the color of the filter 2 12.
  • the color control means 155 including the filter 221 and the filter exchange device 217 can use any of the configurations described in the above or the following embodiments.
  • liquid crystal variable filter system 220 in which the CCD 31 is a monochrome CCD or the like, and the liquid crystal variable filter 222 and the brightness variable Evening 2 2 4 is used.
  • the liquid crystal variable filter 222 an LCTF (Liquid Crystal Tunable Filter) capable of switching the color channel to RGB or the like can be used.
  • the color of the liquid crystal variable filter 223 is changed at very short time intervals to take a single color image, and the brightness of the variable brightness filter 224 is changed for each filter characteristic.
  • a complementary color filter can be substantially formed.
  • variable intensity filter 224 As an example of the variable intensity filter 224, as shown in FIG. 33, two first and second polarizing filters 224a and 224b are provided perpendicularly to the optical axis of the lens unit 4, and the relative positions of these two filters are set. A configuration in which the angle is changed can be adopted. In addition, as the variable intensity filter 224, a plurality of neutral gray ND filters having different intensities can be switched and used.
  • the seventeenth embodiment shown in FIG. 33 relates to a 3 CCD camera 230.
  • An image is projected on each of the green CCD 233 g and the blue CCD 233 b.
  • red light / darkness variable filters 234, blue light / darkness variable filters 235, and green light / darkness variable filters 236 are the first and second polarization filters 234a, b, 235a, 235a, respectively. b, 236 a, b.
  • the eighteenth embodiment shown in FIG. 35 is a modification of the seventeenth embodiment.
  • one first polarization filter 237 is mounted in front of the optical block 231, for example, on the light-receiving side of the lens unit 4, and the other second polarization filters 234 b, 235 b, and 236 b are provided for each color channel. It is provided correspondingly.
  • the amount of light such as highlights can be adjusted with the first polarization filter 237, and the brightness of each channel can be adjusted independently by rotating the second polarization filter 234b, 235b, 236b with respect to the optical block 231. can do.
  • the possibility of yet another embodiment of the invention is mentioned.
  • the present invention has been described with respect to a color camera having three RGB channels.
  • the present invention is also applicable to a single-channel camera such as a color camera having a plurality of channels other than the RGB three-color channels, a black-and-white camera that shoots visible light, and an infrared camera that shoots infrared light that is invisible light.
  • the coefficient s multiplied by the value obtained by dividing the effective input image color value by the reflective surface average color value must be a constant.
  • a two-channel configuration including a visible light channel and an invisible light channel such as infrared light can be used as the color channel.
  • the reflecting surface 61 is formed as a flat surface, a convex surface, or a concave surface. However, this reflecting surface may be a mesh shape or a small hemispherical shape.
  • control is performed on all of RGB or CMY.
  • color correction is possible even if control is performed for only two of the three colors.
  • a color channel that is not controlled may be configured so that an ND filter is interposed and the aperture 43 can be used to perform substantially rough control.
  • a CCD element or a color film is used as an image sensor.
  • the imaging device is not limited to this, and for example, a vidicon may be used. Further, a photodiode or the like can be used as the light receiving element.
  • any of the embodiments can be implemented as a video camera or a still camera.
  • the ninth to fourteenth embodiments and the sixteenth to eighteenth embodiments can take advantage of both by being combined with the first to eighth embodiments. That is, since the processing time of the first to eighth embodiments is very quick, it is effective at the beginning of supplementing the imaging target, and the correction according to the ninth to fourteenth and sixteenth to eighteenth embodiments is thereafter performed. By doing so, more precise color correction can be performed.
  • the A image Sa is an image of an announcer photographed in a studio
  • the B image S b is an outdoor landscape image of a sunset sky.
  • the A image Sa is an announcer image or the like photographed in the studio as in the fifth embodiment, but is different in that a combi-view graphics image is used for the B image Sb.
  • the A image Sa may be a landscape
  • the B image Sb may be a portrait of an announcer.
  • the color correction according to the present invention may be performed. For example, only the head or face of a person is cut out of the A image Sa, which is a portrait or the like.
  • the B image Sb the head was removed from the photographed image of the model wearing the clothes, or the face was removed from the photographed image of the head such as the hairstyle, leaving only the model hairstyle.
  • the present invention relates to a photographing system for correcting the color of a photographed object or stabilizing the density of an image, and a camera and an image processing device used for the same.
  • the present invention is applied to color correction of a color camera having an image sensor of a plurality of color channels, but can also be applied to a camera having only a single channel such as a monochrome camera.

Description

明細書 撮影システム並びに画像処理装置及びカメラ 技術分野
本発明は、 撮影された物体の色を補正し又は画像の濃度を安定させるための撮 影システム、 並びに、 これらに用いるカメラ及び画像処理装置に関する。 背景技術
物体の色は入射光に影響されやすく、 カメラにより撮影された像の色を入射光 の種類によらず常に一定に表示するのは困難である。 人間はそのような環境にあ つても、 物体の色を常に一定に認識することができ、 このような能力を色の不変 性 (カラ一コンスタンシー) という。
従来より、 色の不変性を実現するために、 カメラにより撮影された画像の色補 正を行う方式としては、 撮像を各区分毎に補正する区分的 (Spat i a l) 補 正方式と、 画像を全体として均一に補正する全体的 (Gl oba l) 補正方式と が存在する。 前者の例として Re t inex方式が存在し、 後者の例としてホヮ ィ トパッチ方式及びハイライ ト部参照方式等が存在する。
第一の Ret inex方式は、 物体の表面色に関し光検出路における平均した 色はグレーであるという仮定を内容とする GWA (Gr ay Wo r ld As sumpt i on) 理論に基づいている。 そして、 ある区分、 例えばあるビクセ ルの周囲に広がる光検出路の色情報を用いて当該ピクセルの色補正を行っている。 したがって、 この Re t i nex方式によれば、 各ピクセルについて光検出路 色に基づく複雑な計算が実行されねばならず、 全体としてのコンピュータにおけ る計算量が非常に膨大で問題である。 また、 たとえば、 シーンの色がある色に偏 つている場合、 この偏った色が光源の色として認識されるので、 適用に限界があ る。
一方、 第二のホワイ トパッチ方式では、 シーンにホワイ トパッチが挿入され、 そのホワイ トパッチ上の反射光が光源色として求められ、 これに基づいて色補正 が行われる。 ところが、 現実問題として、 撮影しょうとするシーンにホワイ トパ ツチを直接挿入するのは事実上非常に困難である。
第三のハイライ ト部参照方式では、 例えば飽和ピクセルの周囲の光をハイライ ト部と仮定し、 この周囲の光を光源色として求める。 したがって、 一旦、 撮影さ れたシーン上からハイライ ト部を個別に見つけなければならず、 画像処 S^^'非常 に複雑である。 また、 ハイライ ト部に対応するピクセルは飽和しているので、 そ こから光源色を見つけるのは不可能である。
そこで、 これらの方式における問題を解消する方式として、 発明者は区分的補 正方式として国際出願番号 P C TZJ P 9 6 / 0 3 6 8 3号 (国際公開番号 WO 9 8 / 2 7 7 4 4号) のノ一ズ方式を提唱した。 同ノーズ方式の撮影システムに は、 レンズ、 撮像素子及び反射面を有し、 主シーンを前記撮像素子上に撮影する カメラと、 反射面により得られた参照用シーンの情報を用いて前記主シーンにお ける画像を補正する画像処理装置とが設けられている。 そして、 あらかじめ参照 用シ一ンと主シーンとの間で両者を対応させるマツピングを行い、 画像処理装置 において、 各主シーンのピクセルにおける色をこれに対応する参照用シーンの色 で実質的に除することで、 主シーンの色補正を行っていた。
しかし、 同ノ一ズ方式では、 参照用シーンと主シーンとの間で両者を対応させ るマッピングを行う必要がある。 よって、 色補正を正確に行うためには、 マツピ ングを前提とした精密なキヤリブレーシヨンを行う必要があり、 そのキヤリブレ ーシヨン作業が煩雑であった。 また、 マッピングのためには、 ある程度の広さの 参照用画像を撮影した画像上に確保することが必要である。 したがって、 主画像 と参照用画像とが同一の画像範囲に存在する場合、 主画像が参照用画像の分だけ 減少する。 かかる従来の実状に鑑みて、 本発明の第一の目的は、 簡易なキヤリブレ一ショ ンで色の不変性を実現させ又は画像の濃度を安定させるために色を補正すること の可能な撮影システム、 並びに、 これらに用いるカメラ及び画像処理装置を提供 することにある。
また、 本発明の第二の目的は、 参照用画像部の面積が小さくても十分に色補正 を行うことの可能な撮影システム等を提供することにある。 発明の開示
上記課題を達成するため、 本発明に係る撮影システムの特徴は、 画像の色を補 正するためのものであって、 レンズ、 撮像素子、 受光素子及び反射面を有し主シ ーンを前記撮像素子上に撮影するカメラを備え、 前記撮像素子及び前記受光素子 は複数の色チャンネルを有し、 前記反射面は前記カメラの視野内に配置されてお り、 且つ前記主シーン又はその近傍に属する参照用シーンからの光を反射すると 共に前記レンズを介して前記受光素子に受光させるものであり、 さらに、 前記受 光素子により受け入れられた参照用シーンの反射光のうち 1ビクセル部の値又は 複数ビクセル部の前記各色チャンネル毎における平均値を参照用信号値 (r n, gn, bn) として求める光源色測定部と、 この参照用信号値により画像の色を 補正する補正装置とを備えていことにある。
この撮影システムにおいて、 前記補正装置をデジタル又はアナログ回路で電気 的に画像処理を行うように構成する場合には、 この補正装置を例えば前記撮像素 子により撮影された主シーンの各座標位置における主信号値 (r [x][y],g[x] [y],b[x][y]) を前記各色チャンネル毎に求めた前記参照用信号値 (rn, gn, bn) によってそれぞれ実質的に除することにより前記主信号値を補正した補正 信号値 (rc[x][y]5gc[x][y],bc[x][y]) を得るための補正部として構成すればよ い。
上記特徴を備えた撮影システムはカラー画像における色の不変性を実現するた めに有用であって、 そのためには、 前記カメラの撮像素子及び前記受光素子が複 数の色チヤンネルを有し、 前記画像処理装置が前記各色チヤンネル毎に求めた前 記参照用信号の値により前記各主信号の値を前記各色チャンネル毎に実質的に除 することで主信号の補正を行うものであることが求められる。
ここで、 本発明による画像の濃度を安定させる作用を説明するに当たり、 カラ 一力メラによる色の不変性を例にとって説明する。 もちろん、 本発明は白黒カメ ラにおける画像の濃度を安定させる用途にも用いることができる。
あるシーンにおける物体の表面が一つの光源により照らされているとき、 反射 光 I ( λ )は次式により表現される。
I ) =Ε ) S (え) (1)
ここで、 S (人)は物体表面の反射関数、 Ε(入)は形状幾何学によって変わる光 源のスペクトル強度分布 (SPD)、 えは光源の波長である。
不均質な絶縁性表面からの反射は、 境界反射及び固体 (body)反射という 二つの構成要素を線形的に加えたものよりなる。 世の中における非常に多くの種 類の物体表面、 例えば衣服、 人、 壁、 塗装された金属、 プラスチック等は、 不均 質な絶縁性表面に分類される。 図 36はカラ一媒介物中にカラー顔料の分散した 表面の構造を示している。 いくつかの入射光は、 カラ一媒介物の表面と周囲の媒 体との境界で反射され、 この成分は境界反射 (I) とよばれ、 光源の色を代表す る。 他の入射光は、 複数のカラー顔料間の連続した再反射を経て、 光原色により 変更させられた表面色と呼ばれる顔料の色を伝達する固体 (body)反射 (B) とよばれる成分となる。 これらのモデルはダイク口マティックモデルとよ ばれ、 物体表面の反射関数 S ( Λ )は次式の如く表現される。
S (え) = [m ) c ) + mB(g)cB (入)] (2)
m.(g), mB(g)は、 それぞれ境界反射と固体反射とを示す基準係数であり、 ラ ィティングと撮影範囲 (vi ewing) との幾何学的関係のみに依存する。 ま た、 C , (人)、 CB (人)はそれぞれ境界反射と固体反射との光学的構成要素であり、 光源の波長(人)のみに依存する。
物体が金や銅である場合、 上述の境界反射 (I) は入射光の色を変化させる。 しかし、 銀、 アルミニウム等の金属の他、 脂肪、 油又はワックス等のカラー媒介 物等、 世の中の多くの物体の表面は、 中立境界反射 (NIR)理論にしたがい、 入射光の色を変化させないで光の上記 SPDを伝達する。 境界反射 (I) はハイ ライ ト部として表れる場合が多く、 したがって、 多くの物体の鏡面反射 (I) は 入射光の色を伝達すると考えられる。
上記境界反射がカメラに到達したとき、 撮像素子のそれぞれの要素はそれらの 上の有限の大きさで光輝を積分し、 ある点のスペクトル的観察結果 k i(x, y) は次のように求められる。
ki(x,y)=[S S SRi(A)I(X,Y3A)dAdXdY]"+b (3)
ここで、 添字の iがとる 1, 2, 3のいずれかの値は、 赤、 緑又は青にそれぞ れ対応し、 (x, y)は撮像の座標である。 (X, Y)は撮像の中心に関するワール ド座標である。 Ri (入)は、 サンプリングフィル夕の特性と関連づけられた i番 目のスペクトル的応答を示す。 ァは画像—電気変換指数であり、 bはセンサ一ォ フセット又はダークノイズと呼ばれる。 これら指数ァ及びダークノイズ bはァゥ トプヅトをァ = 1、 b= 0として確実にリニアイメージであるようにするために 調整されうる。
次に、 図 37を参照しつつ、 物体からの反射光の前記反射面における再反射 (inter-ref lect ion) について考える。 物体への入射光は表面 反射 (I)及び固体反射 (B) としてカメラ及び反射面にそれぞれ向かう。 そし て、 反射面に到達したこれら反射光は、 反射面がダイク口マティックモデルに従 うとき、 表面—表面反射 (11) 、 固体一表面反射 (BI)、 表面一固体反射 (IB)及び固体—固体反射 (BB) として再反射する。 もちろん、 反射面は N I R理論に従って光源色をそのまま反射すべきであるから、 反射面はアルミニゥ ム、 白又はグレーの樹脂又は紙等により作成されることが望ましい。 これら再反射の反射光のうち、 固体—固体反射 (BB) は非常に強度が弱いの で考慮外としても構わない。 また、 表面—固体反射 (IB) は、 反射面が光学的 にフラットであることから、 光のスペクトルを変えることはなく、 また、 表面一 表面反射 (I I) よりも小さくなつている。 したがって、 反射面の材料として、 ダイクロマティックモデルに従わないアルミニウム等を選択するか、 ダイクロマ ティックモデルに従う物体とするかに拘わらず、 再反射光の要素は同じとみなす ことができる。 ここで、 反射面に入射し再反射した反射面上のある座標における 光 C(Xn,Yn, 人)は次式により表示される。
C(Xn,Yn, λ )=SSBl(X,Y)Sn(X,Y, λ )S(X,Y, λ )Ε(Χ,Υ, Λ )dXdY ( 4 )
ここで、 図 38は、 反射面の表面における拡散鏡面反射に基づく第一のぼかし 現象の過程を表した図である。 入射光路 S 1に沿って入射した入射光は鏡面反射 の反射光路 S 1' に対して最も強度が強くなり、 これから離れるにつれて強度が 低下する曲線 G1に示すような強度分布を呈する。 また、 入射光路 S 2に沿って 入射した入射光は、 同様に鏡面反射の反射光路 S 2' に対して最も強度が強くな り、 曲線 G2に示すような強度分布を呈する。 そして、 反射光路 C' に沿った反 射光の強度は、 例えば曲線 Gl, G2と反射光路 Sn' との交差によりそれぞれ 決定される値が加算された強度となる。 上記式 (4) における B 1(X,Y)項は、 この第一のぼかし現象の関数であり、 表面の粗さのみに依存する。 一方、 上記式 (4) における Sn(X,Y,人)項は、 反射面のスペクトル的反射率を示し、 ヮ一 ルド座標及び波長人に依存している。 なお、 Sn(X,Y,人)項は、 NIRの仮定 下では 1となる。
例えば、 反射面により反射した再反射光がレンズを通して受光素子の一種であ る撮像素子に入射するとき、 反射面はレンズの近くに設置されているので、 この 再反射光はレンズによりデフォーカスされる。 反射面上の一点は、 空間的ぼかし 関数 B 2(Xn,Yn)に従って濃度を変化させる円として投影される。 図 39はこ のデフォーカスによるぼかしを表し、 撮像素子上の点に到達する再反射光 C in( X n i, Yni, 人)は次式により表示される。
Cin(Xni,Yni, λ )=SSB2(Xn,Yn)C(Xn,Yn,入) dXndYn ( 5 )
ここで、 添字 n iは例えば反射面から再反射することにより得られた参照用シ —ンの撮像素子上における各ビクセルに対応する。 この光 Cin(Xn i,Yni, 入)が例えば撮像素子上に到達したとき、 この光のスぺクトル的観察結果 kin (x, y)は先の式 (3) に鑑みて次のように求められる。
kni(x,y)=[S S S Ri( λ )Cin(Xni,Yni, λ )dAdXnidYni] +b (6)
簡略化していうと、 参照用シーンにおける各座標の RGBそれぞれの強度成分 kni(x, y)は、 上述の境界—境界反射 I Iと固体一境界反射 BIとを上記 B 1 B 2なる 2つのぼかし関数のコンボリューシヨンとして表現したものである。 主シーンにおけるハイライ ト部からの境界反射 Iの光線が直接的に撮像素子に より撮影されるとき、 多くの場合、 光線は撮像素子のダイナミックレンジを越え、 しかも小さな面積を占めるに留まる。 したがって、 ハイライ ト部には光源の情報 が含まれているにもかかわらず、 これを有効利用し難い。
これに対し、 反射面及びさらにレンズのぼかしを用いた場合には、 上記 2つの コンボリューシヨンによりハイライ ト部からの光は拡散し、 さらにダイナミック レンジが反射で減ぜられて小さくなる。 したがって、 直接像のみによりハイライ ト部を捉える場合に比べて、 反射面を用いてハイライ ト部を捉えた場合には、 ノヽ ィライ ト部を利用して、 より光源色を捉えることが容易となる。 また、 ハイライ ト部からの境界反射 Iは、 固体反射 Bに比較して輝度が高いので、 固体一境界反 射 B Iよりも支配的となる。 但し、 ハイライ ト部が殆どないようなシーンでは、 固体一境界反射 B Iが参照用シーンにおいて主シーンの補正用として用いられる。 この場合、 上記 2つのコンボリューシヨンが、 実質上、 先の GWA理論の光学的 実行に相当する。 したがって、 本発明では、 ハイライ ト部の参照による補正と G WA理論による補正とが平行して同時に行われていることとなる。
ところで、 上述した従来の第四の公報に記載の手法では、 参照用シーンの各座 標位置におけるスペクトル k n i ( x, y )と、 主シーンの各座標位置におけるス ベクトル k n ( x , y )とをマヅビングし、 各座標毎の値を用いて除算を行うこと により、 区分的手法として色補正を行っていた。
しかし、 多くの場合、 太陽光や屋内の電灯等、 光源の色が主として一つである として取り扱っても特に差し支えのないとの結論に達した。 また、 反射面を用い たことに起因する上述のコンボリューシヨンによりハイライ ト部の情報が参照用 シーン内に拡散するので、 参照用シーンの一部から全体の光源色をサンプリング することの可能性を見いだした。
したがって、 本発明では、 前記受光素子により受け入れられた参照用シーンの 反射光のうち 1ピクセル部の値又は複数ピクセル部の平均値を参照用信号として 求めることにより、 光源色を代表する一つの値 (3色の色数に対応するべクト ル) を求めている。 また、 反射面は、 主シーン又はその近傍に属する参照用シー ンからの光を反射すると共に受光素子に受光させれば足りる。 この反射面の設計 に当たっては、 主たる光の行程が主シーン又はその近傍に属する参照用シーンか らの光を反射すればよい。
そして、 デジタル又はアナログ回路により画像の補正を行うには、 例えば、 撮 像素子により撮影された主シーンの各座標位置における主信号の値を一つの参照 用信号の値 (ベクトル) によって実質的に除することにより主信号の補正を行つ ている。
本発明は、 原則として単一の光源色を代表する値を用いるグロ一バル補正方式 である。 よって、 反射面に対応する参照用画像部と主画像部との間の対応関係は 上述の従来技術よりもラフで足りるので、 キヤリブレーシヨンも非常に簡易に行 える。 また、 参照用画像部と主画像部との間の対応関係は上述の従来技術よりも ラフで足りるから、 その結果、 参照用画像部の面積を小さくしても色補正が行え るようになった。 さらに、 色補正において、 同じく参照用信号の値として一つの 値を用い全画像範囲に均一に適用でき、 実質的に各色チャンネル内で一つの値に より除算を行えば足りるので、 補正スピ一ドを非常に高速化することができるよ うになつた。
ところで、 コンピュータ一において、 除算は乗算に比較して処理負荷が非常に 高い。 しかし、 本発明によれば、 除算を行う際の分母となる参照用信号の値が各 色チャンネルにおいて一つであるため、 前記参照用信号の値 (rn, gn, b n) を分母に有する係数 (s r, s g, s b) をあらかじめ求め、 この係数 (s r, s g, sb) を前記各主信号の値 (r[x][y],g[x][y],b[x][y]) に掛け合 わせることで主信号の補正を行うように前記画像処理装置を容易に構成すること ができる。 この場合、 画像処理のスピードは飛躍的に向上するものとなる。 また、 前記各色チャンネルにおける前記各係数 (s r, s g, sb) が各色チャンネル により異なる前記参照用信号値 (rn, gn, bn) を分母に有し各色チャンネ ルで共通の他の係数 (s) を分子に有するものとして処理してもよい。
前記撮像素子又は前記受光素子から順次送られるフレーム信号のうち、 あるフ レーム信号から前記係数 (s r, s g, sb) を求め、 この係数 (s r, s g, sb) をさらに時間経過後の他のフレームから得た前記各主信号値 (r[x][y],g [x] [y] , b [χ] [y] ) に掛け合わせることで主信号の補正を行うものとして前記画像 処理装置を構成してもよい。 このとき、 前記係数 (s r, s g, sb) を複数の 他のフレームからそれぞれ得た前記各主信号値 ( r [X] [y] , g [x] [y], b [x] [y] ) に共通に掛け合わせることで主信号の補正を行えば、 前記係数の算出回数がその 分減少し、 さらに高速処理が可能となる。 このような構成は、 前記他のフレーム からの信号に前記係数 (s r3 s g, s b) を掛け合わせるためのビデオアンプ を設けることで実現できる。
上述の画像処理装置では、 前記他の係数 (s) が、 前記主信号値 (r[x][y],g [x][y],b[x][y]) がこの信号の集合における最大値とみなせる値 (rm, gm, bm) をとる場合に、 その最大値と見なせる値 (rm, gm, bm) を前記主信 号値の最大スケール値 (D) に近づけるように設定することができる。 この設定 により、 ハイライ ト部とその周囲の補正画像との極端な濃度差を低減することが できる。
また、 前記他の係数 (s) が、 あるピクセルにおける 2チャンネル内の主信号 値が前記最大スケール値 (D) に達し且つ残りの他チャンネル内の主信号値が前 記最大スケール値 (D) に達していない場合に当該ピクセルを不正ピクセルと定 義し、 当該不正ピクセルの集合における前記他チャンネル内での主信号値の最小 値とみなせる値 (rcm、 b cm) が前記最大スケール値 (D) に少なくとも達 するだけの値を有するように画像処理装置を構成してもよい。 同構成により、 不 正ピクセルの色をハイライ ト部と同様に修正し、 補正画像の不自然さをより低減 する。
実験によれば、 これはあるピクセルにおける青チャンネル内の主信号値のみが 前記最大スケール値 (D) に達し且つ残りの赤緑チャンネル内の主信号値が前記 最大スケール値 (D) に達していない場合に、 当該青チャンネルの主信号の補正 値 (be) を、 赤緑チャンネル内の補正値 (rc、 g c) の比に基づいて算出す ることが可能であることが判明した。
インターネット技術等では画像圧縮が用いられる。 圧縮は有用な色データの欠 落を生じさせるので、 本発明の画像処理装置では、 圧縮に先立った補正を適用し ている。
本発明のカメラを構成するにあたっては、 前記反射面を前記力メラの視野外に 配置することの可能な反射面移動機構を備えてもよい。 そして、 前記反射面によ り前記参照用信号値 (rn, gn, bn) を求めた後に前記反射面移動機構によ り前記反射面を前記カメラの視野外に配置した状態で主画像を撮影し、 前記参照 用信号値 (rn, gn, bn) により主信号値 ( r [x][y], g[x][y], b [x][y]) を補正するようにしてもよい。 同構成により、 撮影された画像範囲に参照用画像 部が現れるのを防ぐことが可能となる。
一方、 本発明の撮影システムにおいては、 前記撮像素子及び前記受光素子が別 体の同一特性の素子よりなり、 前記レンズをこれら撮像素子及び前記受光素子に 対応させてそれぞれ設けると共にこれら両レンズのズーミングと絞りとを連動さ せ、 前記反射面が前記レンズの焦点距離に応じてその始点の座標位置と角度とを 連続して変更するように形成すると共にこの反射面を前記レンズの最大視野内に 固定してもよい。 このとき、 前記受光素子上の補正用画像部のうち選択補正部か ら前記焦点距離に応じた前記反射面に対応するものを選択することで、 ズーミン グと参照用画像部とを可動部品無しで連携させることが可能となった。 なお、 受 光素子としては欠陥ピクセルが多く撮像素子として不適当な受光素子を用いるこ とで若干のコストダウンが可能である。 このとき、 受光素子のうち欠陥ピクセル を前記補正部の選択時に除去する座標テーブルを設けることで、 処理スピ一ドを 維持できる。
前記反射面の配置又は前記参照用信号のための前記複数ピクセルの選択により、 前記参照用シーンを主として主シーンの中央部又はその近傍に限定することがで きる。 係る構成により、 主シーンの重要な部分である中央部又はその近傍の色補 正を特に正確に行い得る。
本発明に係る撮影システムは、 画像合成時にも適用することができる。 前記力 メラを少なくとも 2台有し、 一方のカメラにおける前記補正信号値 (rc[x] [y],g c[x] [y] ,bc[x] [y] ) に対し、 他方のカメラにより得られた参照用信号値を前記各 色チヤンネル毎に実質的に掛け合わせて二次補正画像を得、 この二次補正画像を 他方のカメラの画像と合成して合成画像を得るように撮影システムを構成すると よい。 同構成により、 2つの画像は、 同じ光源色で照らされたかの如く、 自然に 組み合わされることが可能となる。
また、 コンビユー夕画像を作成する C G (コンピュータグラフィックス) 画像 作成部とこのコンピュータ画像の光源色を決定する C G光源色決定部とを有し、 前記補正信号値 (rc [x] [y] ,gc[x] [y] 3bc[x] [y] ) に対し、 C G光源色決定部によ り得られた光源色値を前記各色チャンネル毎に実質的に掛け合わせて二次補正画 像を得、 この二次補正画像を前記 C G画像作成部により作成されたコンピュータ 画像と合成して合成画像を得るものとして同撮影システムを構成してもよい。 同 構成によれば、 コンビュ一夕画像と現実の画像とを、 ごく自然な状態で、 同様に 組み合わせることが可能である。
上述のカメラにおいて、 撮像素子及び受光素子を同一特性の素子より構成する ことが望ましい。 上記式 (6 ) に示すように、 各色チャンネルの強度成分は、 あ る関数のァ乗として表現されている。 ところが、 このァは撮像素子等の特性によ り異なり、 したがって、 主信号値を参照用信号値により除する前に、 これら両者 の乗数を合わせておく必要があり、 その信号処理は複雑となる。 よって、 撮像素 子及び受光素子を同一特性の素子より構成することで、 無駄な信号処理のための ハードウェアを省略している。 なお、 同一特性の素子であっても、 ロット間で特 性のばらつきが存在し、 安価な撮像素子ではなおさらである。 しかし、 前記受光 素子を前記撮像素子の一部とすることで、 かかる問題の生じる余地はなく、 非常 に良好な補正結果をえることができる。
上述のカメラにおいて、 前記撮像素子上の画像を収めた画像ファイルを記憶す る記憶部又は前記画像を記録するフィルムの収納部を備え、 前記画像は主画像部 と全画像範囲の端に位置する参照用画像部とを備えてもよい。
また、 上述のカメラにおいて、 前記全画像範囲が四角形を呈し、 いずれかの角 部に前記参照用画像部が位置するように構成してもよい。 同構成によれば、 参照 用画像部の面積を非常に小さくすることができる。 かかる構成において、 前記反 射面が前記レンズの中心軸周りで回転可能であり、 前記反射面の位置により前記 いずれの角部に前記参照用画像部を位置させるか又は前記参照用画像部を前記全 画像範囲内に位置させないかの選択を行い得るものとしてもよい。 また、 前記主 画像部が横に細長い四角形を呈し、 前記全画像範囲の上部又は下部に前記参照用 画像部が位置するように、 いわゆるパノラマ撮影に本発明を適用することも可能 である。 上述のカメラにおいて、 前記レンズをズームレンズとし、 前記反射面が前記レ ンズの焦点距離に応じてその始点の座標位置と角度とを変更してもよい。 このと き、 前記反射面が前記レンズの焦点距離に応じてその始点の座標位置と角度とを 連続して変更するように形成し、 この反射面と前記レンズとの相対位置を前記レ ンズの焦点距離に合わせて変更する反射面移動機構を設けるとよい。
本発明は、 上記特徴に記載の画像処理装置で実現される機能を備えた I Cチッ プ又は同機能を備えた電気回路として実現することが可能である。 また、 本発明 は、 上記特徴に記載の画像処理装置で実現される機能をコンピュータに口一ドさ れることで実現するソフトウェアを記録した記録媒体として実現することも可能 である。 さらに、 上記特徴に記載の画像処理装置は、 前記画像補正が電話回線又 はィン夕ーネット等の通信回線で接続される二台のコンビュ一夕間で実現される ように構成することができる。
上記カメラにあっては、 反射面からの参照用画像が外部光により影響を受ける ことを防ぐために、 前記反射面に前記主シーン外又は前記参照用シーン外からの 光が入射することを防止する覆いを設けてもよい。 但し、 他の光源色が反射面に 入射する余地のないときは、 覆いを省略することが可能である。
本発明は、 白黒カメラ等の単一チャンネルのカメラにも適用可能である。 この とき、 本発明は画像の濃度を安定させるための撮影システムとして構成される。 そして、 レンズ、 撮像素子、 受光素子及び反射面を有し主シーンを前記撮像素子 上に撮影するカメラを備え、 前記反射面は前記カメラの視野内に配置されており、 且つ前記主シーン又はその近傍に属する参照用シーンからの光を反射すると共に 前記レンズを介して前記受光素子に受光させるものであり、 さらに、 前記受光素 子により受け入れられた参照用シーンの反射光のうち 1ピクセル部の値又は複数 ピクセル部の平均値を参照用信号値 (r n , g n, b n ) として求め、 前記撮像 素子により撮影された主シーンの各座標位置における主信号値 (r [x] [y],g [x] [y] , b [x] [y]) を前記参照用信号値 (r n , g n , b n ) によって実質的に除す ることにより主信号を補正した補正信号値 (rc[x][y]3gc[x][y],bc[x][y]) を得 る画像処理装置を備えていることを特徴とする。
ところで、 上述の議論では、 色の補正装置が画像の信号を電気的に補正する場 合について説明している。 すなわち、 撮像素子ゃ受光素子に画像が取り込まれて から後の信号処理を行っている。 一方、 CCD等の撮像素子は撮影できる明るさ に限界があり、 ハイライ ト部の周囲のピクセルはその一部が上述の如く飽和し、 画像の色補正に好ましくない影響を与えることがある。 また、 参照用シーンの反 射光が弱い場合には、 補正時にノイズが大きくなり、 色補正に同じく好ましくな い影響を与えかねない。 さらに、 デジタル処理により色補正を行うと、 補正され た画像の色はなだらかに連続するのではなく、 間欠的なギヤップを有することに なる。
そこで、 本発明では、 色の補正を光学的に行う構成を提唱する。 この場合、 前 記補正装置は、 前記参照用信号値 (rn, gn5 bn) により定まる色に対する 補色を測定する手段と、 この補色を再現し且つ前記撮像素子に達する画像の色を 変更する光学フィル夕を含む光学フィル夕手段とを備えている。 なお、 この光学 的実行の補正装置は、 前記反射面を利用した光源色測定部以外の光源色測定手法 と共に実施することができる。 例えば、 上述の Re t in ex方式、 ホワイ トパ ツチ方式、 ハイライ ト部参照及び他の光源色測定センサを利用した方式と共に実 施することができる。
前記光学フィル夕を構成するに当たっては、 基本的には前記受光素子に達する 画像の色をも変更するように配置されており、 前記補色を求める手段は前記参照 用信号値 (rn, gn, bn) のカラ一バランスが求められるカラ一バランスに できるだけ近づくように前記光学フィル夕を制御させるとよい。
前記光学フィル夕手段の具体的態様のひとつとして、 それぞれカラーバランス を異ならせた複数のプリセットフィル夕を設け、 前記補色に最も近いプリセット フィル夕の選択される構成がある。 このプリセットフィル夕は複数のものを組み 合わせて同時使用可能としてもよい。
前記光学フィル夕手段は、 媒質のポンプと、 複数色の色インクを独立して吹き 出し可能なィンキ吹き出し部と、 これら複数色のインキ及び媒質の混合物を作成 するミキサ一と、 前記光学フィル夕に相当する前記混合物を流すための透明通路 とを備えてた構成としてもよい。 また、 前記光学フィル夕手段は、 媒質のポンプ と、 複数色の色インクを独立して吹き出し可能なインキ吹き出し部と、 媒質と各 インキとを個別に混合して混合物を作成する複数のミキサ一と、 これら各混合物 を個別に通過させる前記光学フィル夕に相当する複数の透明通路とを備えた構成 としてもよい。 さらに、 前記光学フィル夕手段は、 媒質のポンプと、 複数色の色 ィンクを独立して吹き出し可能なィンキ吹き出し部と、 各ィンキ及び媒質を個別 に混合する複数のミキサーと、 これらの混合物を個別に通過させる前記光学フィ ル夕に相当する複数の透明のセルとを備えており、 各セルは、 白黒撮像素子の前 面に 1ピクセル毎の R G Bに対応させて設けられ、 同色のセル同士がプリッジパ スにより接続されている構成としてもよい。
前記光学フィル夕としては、 そのフィル夕特性を変更なものを用いてもよい。 このとき、 前記光学フィル夕手段がこのフィル夕特性の変更に伴って透過度を変 更可能な透過度変更手段を有すれば、 フィル夕特性毎の色の強度を変更すること ができる。
前記カメラは、 光を R G Bに分解するオプティカルブロックと、 R G Bそれぞ れに対応する 3つの撮像素子とを備えた例えば 3 C C Dカメラ等の場合がある。 この場合、 前記光学フィル夕がこのオプティカルブロックであり、 前記各光学フ ィル夕手段は各撮像素子に達する画像の濃度を変更させる透過度変更手段をそれ それ備えていれば、 光学的補正が可能となる。 前記各透過度変更手段は、 例えば、 互いに角度を変えることの可能な 2枚の偏光フィル夕を備えたものとすることが できる。 また、 前記各透過度変更手段は互いに角度を変えることの可能な 2枚の 偏光フィルタを備え、 2枚の偏光フィル夕のうちの一方を前記オプティカルプロ ヅクの前に共通に設け、 他の一方を各色チャンネル毎にオプティカルブロヅクの 後に個別に設けてもよい。
前記撮像素子としてフィルムを用い、 本発明をフィルムから印画紙への焼き付 け過程において実施することも可能である。 すなわち、 前記補色を測定する手段 は、 ランプと、 前記受光素子部分を通過したランプの光の色を検出する光色検出 器と、 光源色測定部と、 この光源色測定部に基づく補色測定部とを備え、 前記光 学フィル夕手段が、 前記ランプから前記フィルムを経て印画紙に至る光をさらに 通過させるフィル夕と、 このフィル夕の色を前記補色にするフィル夕変更装置と を有している構成とすることも可能である。
ところで、 前記光学フィル夕手段では、 色補正を行うまでにタイムラグを生じ る場合がある。 そこで、 この光学フィル夕手段に加えて、 前記補正装置が、 さら に前記撮像素子により撮影された主シーンの各座標位置における主信号値 (r [x] [y] , g [x] [y],b [x] [y] ) を前記各色チャンネル毎に求めた前記参照用信号値 ( r n , g n , b n) によってそれぞれ実質的に除することにより前記主信号値 を補正した補正信号値 (rc[x] [y] ,gc[x] [y] ,bc[x] [y] ) を得るための電気的補正 部を有しており、 前記電気的補正部が、 前記光学的フィル夕手段による色補正の 完了前に補正処理を過渡的に行うように構成してもよい。
このように、 本発明の上記特徴によれば、 簡易なキャリブレーションで色の不 変性を実現させ又は画像の濃度を安定させるために色を補正することの可能な撮 影システム、 並びに、 これらに用いるカメラ及び画像処理装置を提供することが 可能となった。
また、 本発明の上記特徴によれば、 主画像と参照用画像との関係が従来よりも ラフであっても足り、 したがって、 参照用画像部の面積が小さくても十分に色補 正を行うことが可能となった。
さらに、 色の補正装置を上述の如く光学的実行を伴う構成とした場合には、 シ ーンの光が強い場合にも弱い場合にも鮮明で自然な補正画像を得ることができる ようになった。
本発明の他の目的、 構成及び効果については、 以下の記載から明らかになるで あろう。 図面の簡単な説明
図 1は、 撮影システムを示すブロック図である。
図 2は、 撮影システム用カメラを示し、 同図 (a ) は側面図、 同図 (b ) は正 面図、 同図 (c ) は斜視図である。
図 3 ( a ) 〜 (c ) は主シーンと参照用シーンとの関係を説明するための全画 像範囲を示す図であり、 同図 (d ) 〜 (f ) は参照用画像部の拡大図である。 図 4は、 撮影システム用カメラの改変例を示し、 同図 (a ) は側面図、 同図 ( b ) は正面図、 同図 (c ) は斜視図である。
図 5は、 撮影システムの補正部における処理手順を示すフローチャートである。 図 6は、 図 5に連続する第二のフローチャートである。
図 7は、 図 6に連続する第三のフローチャートである。
図 8は、 図 7に連続する第四のフローチャートである。
図 9は、 図 8に連続する第五のフローチャートである。
図 1 0は、 図 9に連続する第六のフローチャートである。
図 1 1は、 主シーンと参照用シーンとのさらに他の関係を説明するための全画 像範囲を示す図である。
図 1 2は、 赤チャンネルにおけるカラ一応答の値 krとカラーヒストグラム rh[k r]との関係を示すグラフである。
図 1 3は、 赤チャンネルでの不良ピクセルにおけるカラ一応答の値 krcと不良ピ クセルにおけるカラーヒストグラム rhc[krc]との関係を示すグラフである。
図 1 4は、 パ一ソナルコンビユー夕内での参照用信号と主信号との関係を示す タイミングチャートである。 図 15は、 本発明の第二実施形態における図 2相当図である。
図 16は、. 本発明の第三実施形態における図 2相当図である。
図 17は、 本発明の第四実施形態を示すブロック図である。
図 18は、 本発明の第五実施形態を示すブロック図である。
図 19は、 本発明の第六実施形態を示すブロック図である。
図 20は、 被写体、 反射面の傾斜角及び撮像素子上の視野角の関係を示す線図 である。
図 21 (a) は、 本発明の第七実施形態を示す線図、 同図 (b) は (a) にお ける反射面移動機構の正面図である。
図 22は、 本発明の第八実施形態を示すブロック図である。
図 23 (a) 〜 (c) は、 同第八実施形態における図 2相当図、 同図 (d) は 全画像範囲を示す図である。
図 24は、 本発明の第九〜第一八実施形態に用いられる光学フィル夕を用いた 一般的モデルを示すブロック図である。
図 25は、 本発明の第 9実施形態におけるフィル夕回転機構を示し、 同図 (a) は縦断面図、 同図 (b) は正面図である。
図 26は、 本発明の第 10実施形態におけるフィルタスライド機構を示し、 同 図 (a) は縦断面図、 同図 (b) は正面図である。
図 27は、 本発明の第 1 1実施形態におけるフィル夕回転機構を示し、 同図 (a) は縦断面図、 同図 (b) は正面図である。
図 28は、 本発明の第 12実施形態を示すブロック図である。
図 29は、 本発明の第 13実施形態を示すブロック図である。
図 30は、 本発明の第 14実施形態を示し、 同図 (a) は CCDフィル夕の正 面図、 同図 (b) は同フィル夕の縦断面図である。
図 31は、 本発明の第 15実施形態を示す写真焼き付け装置のブロック図であ る。 図 3 2は、 本発明の第 1 6実施形態を示すブロック図である。
図 3 3は、 本発明の第 1 6実施形態における偏光フィル夕と液晶可変フィル夕 との関係を示す斜視図である。
図 3 4は、 本発明の第 1 7実施形態を示すオプティカルプロック周辺の機構で ある。
図 3 5は、 本発明の第 1 8実施形態を示す図 3 4の改変例である。
図 3 6は、 不均一非電導表面からのダイクロマティック反射モデルを示す図で ある。
図 3 7は、 物体からの反射光の反射面における再反射の状況を示す線図である ( 図 3 8は、 反射面の表面における拡散鏡面反射に基づく第一のぼかし現象の過 程を表した図である。
図 3 9は、 レンズのデフォーカスによるぼかしの過程を説明するための図であ
発明を実施するための最良の形態
次に、 図 1〜1 4を参照しながら、 本発明の第一の実施形態について説明する c 説明に先立ち、 本実施形態で使用する記号についてあらかじめ定義をしておく。
XMX:画像の水平方向に対するピクセル数の最大値
YMX:画像の垂直方向に対するピクセル数の最大値
NMIN:最小の反射面境界ラインの値
NMAX:最大の反射面境界ラインの値
S:ユーザー定義画像輝度係数
X:ピクセル単位での画像の水平座標
y:ピクセル単位での画像の垂直座標
rd[x] [y] ,gd[x] [y] ,bd[x] [y]:赤緑青各チャンネルでの直接画像信号値 rz[x] [y] 5gz[x] [y] ,bz[x] [y]:赤緑青各チャンネルでの零画像信号値 r[x][y],g[x][y],b[x][y]:赤緑青各チャンネルでの有効入力画像信号値 (主 信号値)
rc[x][y],gc[x][y],bc[x]Cy]:赤緑青各チャンネルでの補正画像信号値 (補正 信号値)
rn,gn,bn:赤緑青各チャンネルでの反射面平均信号値 (参照用信号値) kr,kg,kb:赤緑青各チャンネルでのカラー応答の値
krckbc:赤青各チャンネルでの不良ピクセルにおけるカラ一応答の値 rh[kr]5gh[kg],bh[kb]:赤緑青各チャンネルでの正常ピクセルのカラ一ヒス卜 グラム
rhc[kr],bhc[kb]:赤青各チャンネルでの不良ピクセルのカラーヒストグラム ϋ:不良ピクセルのヒストグラムにおけるピクセル数
i:補正に使用される反射画像におけるピクセル数
rm,gm,bm:通常ビクセルにおけるヒストグラム群の上限値
rcm,bcm:不良ピクセルにおけるヒストグラム群の開始値
ra[i],ga[i],ba[i]:反射面信号値の累積
s:比例定数
ssr,ssg,ssb:通常ピクセルヒストグラムのヒストグラム最大値に基づく比例 係数
sr,sg,sb:補正色を得るために有効入力画像信号値に掛け合わされる比例定数 scr,scb:不良ピクセルに色が現れることを排除するために必要な比例定数 C:飽和ピクセルのための最大補正信号値
まず、 図 1に示す撮影システム 1は、 カメラ 2と画像処理装置 7とを備えてい る。 カメラ 2は、 図 1, 2に示すように、 カメラ本体部 3にレンズユニット 4と 覆い 5を取り付け、 さらに覆い 5の内側に反射体 6を取り付けてある。 カメラ本 体部 3の CCD 31上にはレンズュニヅ卜 4のレンズ 41を介して画像が結像さ れ、 その画像信号が後述のパーソナルコンビユー夕一 8に送られると共にフレ一 ム平均化部 32で処理される。 フレーム平均化部 32は CCD31に入射した全 体の光量を計算し、 CCD 31での飽和ピクセルが多数発生する等、 CCD31 に入射する光量が多すぎるときは開口調節モーター 44により絞り 43を縮小さ せ、 光量が少なすぎるときは絞り 43を拡大させるように挙動する。 本実施形態 における CCD 31はカラー CCDであり、 1ピクセル当たり赤緑青の 3色のフ ィル夕を備えた 3つの受光部が存在している。 1ピクセルに割り当てられた赤緑 青 3つの受光部は、 単一の CCD素子に割り当てられる他、 図示省略するがプリ ズムを用いて 3つの CCD素子に分散され得る。
覆い 5は、 CCD 31及びレンズ 41により決定される最大視野及びその近傍 以外からの光が入射することを防ぐ。 本実施例では、 ノッチ状の反射体 6が覆い 5の内側に取り付けられ、 その内側にノッチ状のフラッ トな反射面 61を形成す る。 例えば、 0の像はレンズ 41を直接通過して CCD 31上の主撮像部 31 a に結像され、 反射面 61に入射した 0の像は反射面 61の表面で上述した第一の ぼかしを受け、 レンズ 41に反射面 61を近接させたことで第二のぼかしを受け た状態で CCD31の参照撮像部 3 lbに到達する。 図 2 (b) 及び図 3 (a) (d) に示す如く、 反射面 61からの反射光が全画像範囲 100の下角に参照用 画像部 130を形成するように、 反射体 6を全画像範囲 100の角部に対応させ て設けてある。 主画像部 110が主撮像部 31 aに対応し、 参照用画像部 130 が参照撮像部 31 bに対応する。 反射体 6の反射面後端 63の像は全画像範囲 1 00の下角周辺に位置し、 反射体 6の反射面先端 62の像は反射面捕捉部 120 と参照用画像部 130との間で拡散する。
反射体 6は、 例えばアルミニウム等により構成されている。 そして反射面 61 は平坦であり、 光を散乱反射させるように少しだけマツト状に仕上げられている もちろん、 反射面 61は白又はグレーの紙等により構成してもよく、 反射面 61 は上記 N I R理論に従う素材で構成することができる。
ここで、 図 3は説明の便宜のために、 撮影対象となるシーンと撮影された全画 像範囲 1 0 0とを重ねて表示したものであり、 主シーン 1 1 0は主画像部でもあ る。 0から反射面 6 1に入射する光は入射角と同角で反射し、 C C D 3 1に到達 する。 反射面先端 6 2表面から C C D 3 1に到達する光線の経路は上述のぼかし 作用により広がりをもちながら存在するが、 ここでは輝度の最も高い光線が通過 する主要光線経路について考える。 反射面捕捉部 1 2 0は先の反射面先端 6 2の 配向方向及び主要光線経路により決定されるものであり、 反射面捕捉部 1 2 0の 中心を通る参照主軸 1 0 1が全画像範囲 1 0 0の下辺となす主軸角 Aが 4 5度と なるように設定してある。
反射面捕捉部 1 2 0の反射面 6 1による像は全画像範囲 1 0 0の下角に参照用 画像部 1 3 0として現れる。 反射面捕捉部 1 2 0を参照用シーン 1 2 1と非利用 シーン 1 2 2とに区分するには、 例えば、 参照主軸 1 0 1に垂直な選択内境界 1 3 2と選択外境界 1 3 3とで囲まれた選択参照部 1 3 1を参照用画像部 1 3 0か ら後述の計算過程で選択すればよい。 本実施形態では、 全画像範囲 1 0 0の解像 度は、 水平方向 6 8 0、 垂直方向 4 8 0であり、 全ビクセル数はこれらを掛け合 わせた 3 2 6 4 0 0ピクセルとなる。 この場合、 反射面による参照用画像部 1 3 0のぼけた範囲の像は全体の 3 %程度に留まることがわかった。 また、 本実施形 態では、 x, yが 5 0より大きく 7 0より小さい区間を選択参照部 1 3 1の対象 とする。 もっとも、 これらの値は一例であり、 本発明はこれらの具体的値に限定 されるものではない。
もちろん、 参照用シーンは図 3 ( a ) の符号 1 2 l xに示す全画像範囲 1 0 0 の外側且つ近傍部や符号 1 2 1 yに示す全画像範囲 1 0 0を含む範囲でもよい。 本例では、 覆い 5をレンズユニット 4周りで回転させることができるので、 例え ば、 反射体 6を全画像範囲 1 0 0の上角側に移動させて、 図 3 ( c ) に示すよう に参照用シーン 1 2 1の範囲を変更してもよい。 また、 反射体 6が全画像範囲 1 0 0の外部に位置するように反射体 6を全画像範囲 1 0 0の各辺間に移動させて もよい。 図 3 ( b ) の例では、 参照主軸 1 0 1が全画像範囲 1 0 0の対角線となるよう に反射面 6 1を覆い 5に配置したものである。 また、 本例では反射面捕捉部 1 2 0の中間部を参照用シーン 1 2 1として選択している。 この場合、 例えば、 選択 内境界 1 3 4, 選択外境界 1 3 5はそれぞれ先の例よりも小さな 3 0より大きく 5 0より小さい値としてある。 図 3 ( f ) では補正用画像を得るために、 スキヤ ンライン 1 3 6 a〜cや選択点 1 3 6 dに示すように選択内境界 1 3 2及び選択 外境界 1 3 3間で部分的に参照用信号を得ることができる。 このように、 参照用 シーン 1 2 1を主シーン 1 1 0の中心部に限定することで、 主シーン 1 1 0の端 部で生じた異なる光の影響を減少させることが可能である。 全画像範囲 1◦ 0の 対角についての反射面 6 1の位置変更 ( 1 8 0度回転) のみを考慮するのであれ ば、 図 4のように覆い 5を角錐台状に構成してもよい。
次に、 画像処理装置 7を構成するパーソナルコンピュータ一 8について説明す る。 このパーソナルコンピューター 8では、 C C D 3 1よりビデオキヤプチヤー ボード 7 1を介して画像が一旦取り込まれる。 このビデオキヤプチヤーボード 7 1では、 8ビットフレームバッファを採用しており、 上述の信号値及び力ラ一応 答の値のダイナミックレンジは 0〜 2 5 5となる。 本明細書では、 ダイナミック レンジの最大値を Dと定義し、 本実施形態では D = 2 5 5となる。 ビデオキヤプ チヤ一ボード 7 1は夕イマ一により画像信号の座標を時間に換算し、 以下に示す 処理を行えるようにする。
補正部 7 2は前記反射面 6 1を利用して光源色を測定するための光源色測定部 としても働き、 この補正部 7 2では先の選択内境界 1 3 2及び選択外境界 1 3 3 により囲まれる選択参照部 1 3 1を限定するように、 映像信号として時間ゲ一卜 を設定している。 補正部 7 2では後述の補正処理が行われる。 また、 出力調整部 7 3は後述する補正部 7 2のユーザー定義画像輝度係数 Sを調整するためのもの である。
開口操作部 7 4は C C D 3 1の零調整のためにフレーム平均化部 3 2、 開口調 節モーター 44を介して絞り 43を完全に閉じると共に、 補正部 72での零調整 を制御する。 開口操作部 74による絞り 43の閉じ操作及び零調整は、 手動の他、 カメラ 2の動作開始時に少なくとも自動的に行われる。
補正部 72の出力はビデオァクセラレ一夕一 75を介してモニタ一 9に表示さ れると共に 1/076を介してカラ一プリン夕一 10より出力され、 さらに、 記 憶部 77に記憶される。 記憶部 77は固定又は脱着の可能なハードディスク、 メ モリ素子又はフレキシブルデイスク等よりなる。
次に、 図 5〜9を参照しながら、 先の光源色測定及び補正部 72における処理 手順について説明する。
図 5は、 絞り完全閉時における赤緑青各チャンネルでの零画像信号値を求める ルーチンである。 まず、 S 1において、 原点からスキャンを始めるために、 x、 yにそれぞれ 0を代入し、 S 2で開口操作部 74の操作によりフラグが立ってい るか否かについて判断する。 開口操作部 74の操作により絞り 43を完全に閉じ た場合、 フラグが立って F= 1となる。 この場合は、 零画像を求める必要ありと 判断して、 S 3でフラグをリセットするために F = 0とし、 S 4で原点における 赤緑青各チャンネルでの零画像信号値 rz[x][y],gz[x][y],bz[x][y]を求める。 そ の後、 S 5, S 7に示すように画像の水平、 垂直方向それぞれに対するピクセル 数の最大値 XMX、 YMXに達するまで、 S 6, S 8において x、 yがそれぞれ 1ピ クセルずつ増加させられ、 全画像範囲 100の全ての座標におけるカメラのダー クノイズを意味する零画像信号値 rz[x][y],gz[x][y],bz[x][y]が求められる。 図 6では、 入力信号の零調整及びヒストグラム処理が行われる。 本ルーチンで も、 S 9による座標のリセットが行われ、 S 18〜S 21による全画像範囲 10 0における全ピクセルのスキャンが行われる。 S 10では、 赤緑青各チャンネル での直接画像信号値 rd[x][y],gd[x][y],bd[x][y]が記憶される。 そして、 S 1 1 では、 ダークノイズをキャンセルするために、 赤緑青各チャンネルごとに直接画 像信号値 ] ],^ ] ],13(1[ ]^]から零画像信号値 ] ] 2 ] ] 2 [x][y]を減ずることにより、 赤緑青各チャンネルでの有効入力画像信号値 (主信 号値) r[x][y],g[x][y],b[x][y]が求められる。 なお、 カメラにおいてダークノィ ズを除去するための入力信号の零調整が既に行われている場合は、 S l〜l 1の ステツプ及び開口操作部 74を設ける必要がない。
S 12では、 赤緑青各チャンネルの直接画像信号値 rd[x][y],gd[x][y],bd[x] [y]が全て 255飽和していないか否か (255より小であるか否か) が判断され る。 飽和していない場合は、 S 13において、 赤緑青各チャンネルでのカラ一応 答の値 kr,kg,kbに、 有効入カ画像信号値 ]^] [ ]^],1) ] ]がそれぞれ入カ される。 そして、 赤緑青各チャンネルでの正常ピクセルのカラーヒストグラム rh [kr],gh[kg],bh[kb]がそれぞれ累積されていく。
赤緑青各チャンネルの直接画像信号値 rd[x][y],gd[x][y],bd[x][y]のうち少な くとも 2つが飽和している場合は、 S 14~ 17において不良ピクセルの処理が 行われる。 ここに、 不良ピクセルとは、 3色のうち赤又は青のうち一色のみ飽和 しておらず、 残りの 2色が飽和しているものをいう。
まず、 S 14の Ye sに示すように、 緑青 2チャンネルの直接画像信号値 gd [x][y],bd[x][y]が飽和しており、 赤チャンネルの直接画像信号値 rd[x][y]が飽和 していない場合には、 S 15において不良ビクセルのヒストグラムにおけるピク セル数 iiが累積され、 赤チャンネルでの有効入力画像信号値 r[x][y]が不良ビクセ ルにおけるカラ一応答の値 krcとされる。 そして、 赤チャンネルでの不良ビクセル のカラーヒストグラム rhc[krc]が累積されていく。
一方、 S 16の Ye sに示すように、 赤緑 2チャンネルの直接画像信号値 rd [x][y],gd[x][y]が飽和しており、 青チャンネルの直接画像信号値 bd[x][y]が飽和 していない場合にも、 S 17において不良ピクセルのヒストグラムにおけるピク セル数 iiが累積され、 青チャンネルでの有効入力画像信号値 b[x][y]が不良ピクセ ルにおけるカラ一応答の値 kbcとされる。 そして、 青チャンネルでの不良ピクセル のカラ一ヒストグラム bhc[kbc]が累積されていく。 図 7のルーチンでは、 通常ピクセルにおけるヒストグラム群 F 1の上限値 rm,g m,bmが求められる。 まず、 S 22において、 赤緑青各チャンネルでのカラ一応答 の値 kr,kg,kbがリセットされ、 S 25, S 26 , S 29, S 30, S 33, S 3 4に示すように、 零からダイナミックレンジ最大値の 255に至るまでルーチン が順次繰り返される。 S 23, S 24のルーチンが、 krの 1ずつ増分を伴って繰 り返されることにより、 赤チャンネルの通常ピクセルにおけるヒストグラム群の 上限値 rmが求められる。 この上限値 rm=krは、 図 12に示すように、 10よりも大 きくかつヒストグラム rhが 1000を越えているときの最も大きな krの値であ る。 同じく、 S 27, S 28, S 31, S 32のルーチンの繰り返しにより、 同 様に緑青チャンネルの通常ビクセルにおけるヒストグラム群 F 1の上限値 gm,bmが 求められる。 なお、 rffl,gm,bmの定義手順はこのようなルーチンに限られるもので はなく、 以下同様であるが、 上記 1000の値は画面サイズにより異なる値をと るかも知れない。
図 8のルーチンでは、 飽和ビクセルにおけるヒストグラム群の開始値 rcm,bcmが 求められる。 まず、 S 35において、 赤青各チャンネルでの不良ビクセルにおけ るカラー応答の値 krc,kbcがリセットされ、 S 39, S40, S 43, S44に示 すように、 零からダイナミックレンジ最大値の 255に至るまでルーチンが順次 繰り返される。 S 37, S 38のルーチンが、 krcの 1ずつ増分を伴って繰り返さ れることにより、 赤チャンネルの不良ビクセルにおけるヒストグラム群 F 2の開 始値 remが求められる。 この開始値 rcnFkrcは、 図 13に示すように、 10よりも 大きくかつヒストグラム r hが 0を越え始めたときの最も小さな krcの値である。 同じく、 S41, S 42のルーチンの繰り返しにより、 同様に青チャンネルの不 良ピクセルにおけるヒストグラム群 F 2の開始値 bcmが求められる。 なお、 S 36 で iiが零である場合、 不良ピクセルは存在しないので、 S 45において rcm,bcmは それぞれ 255となる。
図 9のルーチンでは、 赤緑青各チヤンネルでの反射面平均信号値 ra,gn,bnが求 められ、 これを利用して、 補正色を得るために有効入力画像信号値に掛け合わさ れる比例定数 sr,sg,sbが求められる。 先の図 3 ( d ) にみられるように、 参照用 画像部 1 3 0は選択参照部 1 3 1と選択内境界 1 3 2との間の部分を採用してい る。 同図では、 NMAXが 7 0であり、 NM I Nが 5 0である。 3 4 6で , y をリセットすると共に、 S 4 7で参照用画像部 1 3 0の選択条件を付し、 S 5 0 , S 5 1 , S 5 2 , 3 5 3で 、 yが 1ずつ増加して NMAXに達するまで S 4 8, S 4 9の処理が繰り返し行われる。 S 4 8では補正に使用される反射画像におけ るピクセル数 iが累積され、 S 4 9では反射面信号値の累積 ra[i] ,ga[i],ba[i]が 求められる。
S 5 4では、 反射面信号値の累積 ra[i],ga[i],ba[i]をそれぞれ iで除すること により、 赤緑青各チャンネルでの反射面平均信号値 (参照用信号値) rn,gn,bnが 求められる。 また、 赤緑青各チャンネルでの反射面平均信号値 rn,gn,bnにダイナ ミックレンジ最大値 D = 2 5 5を掛け合わせると共にそれぞれ通常ピクセルにお けるヒストグラム群の上限値 rm,gm,bmで除することにより、 通常ピクセルヒスト グラムのヒストグラム最大値に基づく比例係数 ssr,ssg,ssbが求められる。 同様に、 赤青各チャンネルでの不良ピクセルにおける反射面平均信号値 rn,bnに D = 2 5 5 を掛け合わせると共にそれぞれ不良ビクセルにおけるヒストグラム群の開始値 rc m,bcmで除することにより、 不良ピクセルに色が現れることを排除するために必要 な比例定数 scr,scbが求められる。 S 5 4の意義は、 例えば、 図 1 2, 1 3におけ る r m、 r c mを 2 5 5に近づけてフレームバッファをより有効に活用すること である。 これらの比例定数の決定により、 同時にハイライ ト部又はその近傍とそ れらの周辺部との明暗の極端な差を減少させることができる。
S 5 5では、 通常ピクセルヒストグラムのヒストグラム最大値に基づく比例係 数 ssr, ssg, ssbのうち、 最小のものと最大のものとの平均値が比例定数 sとして求 められる。 これらの比例係数 ssr, ssg, ssbのうち最大のもの又は最小のものを sと して求めてもよい。 また、 S 5 6, 5 7では不良ピクセルのヒストグラムにおけ るピクセル数 iiが 1000を越えるときは不良ピクセルが無視できない程度存在 すると判断し、 先の s及び不良ピクセルに色が現れることを排除するために必要 な比例定数 scr,scbのうち最大のものが比例係数 sとして求められる。 そして、 こ の比例係数 sをそれぞれ赤緑青各チャンネルでの反射面平均信号値 rn,gn,bnであ らかじめ除することにより、 補正色を得るために有効入力画像信号値に掛け合わ される比例定数 sr,sg,sbが求められる。 なお、 1000という値は全画像範囲の 全ピクセル数の約 0. 3%を考慮したものであるが、 その値は適宜選択が可能で ある。
図 10に示すアルゴリズムでは、 赤緑青各チャンネルでの補正画像信号値 (補 正信号値) rc[x][y],gc[x][y:], bc[x][y]が求められると共に、 ダイナミックレン ジ Dを越える値等の処理が行われる。 本ルーチンでも、 S 59による座標のリセ ッ卜が行われ、 S 68〜S 71による全画像範囲 100における全ピクセルのス キャンが行われる。 まず、 S 60では、 赤緑青各チャンネルでの有効入力画像信 号値 1" ]^] [ ]| ],1[ ]^]に対して比例定数31>,33,3ゎがそれぞれ掛け合ゎされ、 赤緑青各チャンネルでの補正画像信号値1"(; ] ]^(:[^]^],1)(; ] ]が求められ る。 この演算は乗算であるため、 従来の除算を用いていた方式に比較して、 非常 に高速な処理が可能となる。
このとき、 同一フレームから有効入力画像信号値と比例定数 sr, sg, sbとの双方 を抽出してもよい。 また、 図 14のタイミングチャート T Cに示すように、 第一、 第二参照フレーム群 I I, I 2のうちの 1フレームである第一、 第二参照フレー ム R 1 , R 2よりそれぞれ比例定数 sr,sg,sbを求め、 この比例定数 sr,sg,sbを次 の第二、 第三参照フレーム群 12, I 3それぞれにおける複数のフレームから抽 出した有効入力画像信号値 r[x] [y],g[x] [y],b[x] [y]に掛け合わせても良い。 比例 定数 sr,sg,sbの算出ル一チンがボトルネックとならず且つ処理スピードもさらに 向上する。
S 61では、 赤緑青各チャンネルでの有効入力画像信号値 r[x][y],g[x][y],b [x][y]のうち一つも 255以上のものが無い場合に、 S 62〜65のルーチンが バイパスにより省略される。 S 62で全ての赤緑青各チャンネルでの直接画像信 号値 rd[x][y],gd[x][y],bd[x][y]が 255以上の場合、 S 63で赤緑青各チャン ネルでの補正画像信号値 1^ ] ]^(3|^] ],1)0 ] ]のぅち最も大きなものが0 として求められ、 この cの値が赤緑青各チャンネルでの補正画像信号値 rc,gc,bc に再び代入される。
S 64では、 赤緑両チャンネルでの直接画像信号値 rd[x][y],gd[x][y]がそれぞ れ 255未満であり、 且つ、 青チャンネルでの直接画像信号値 bd[x][y]が 255 以上の場合、 S 65で、 青チャンネルでの補正画像信号値 beが再修正される。 こ こでは、 赤及び緑の信号値を用いて、 青の信号値を類推している。 青チャンネル での補正画像信号値 beは、 赤緑両チヤンネルでの直接画像信号値 rd[x][y],gd[x] [y]の差分の半分を緑チャンネルでの直接画像信号値 gd[x][y]に加えたものである c 発明者の実験によれば、 この類推手法は非常に良い結果を得ている。
S 66では、 赤緑青各チャンネルでの補正画像信号値 rc[x][y],gc[x][y],bc [x][y]が 255を越える場合には 255を代入し、 0未満の場合には 0を代入し ている。 その後、 S 67で以上全ての修正が選択的に加えられた赤緑青各チャン ネルでの補正画像信号値 rc[x][y],gc[x][y],bc[x][y]が出力される。 そして、 S 68, S 70において、 全画像範囲 100に対する全てのスキャンが完了したと ころで、 全てのルーチンが終了する。
上述の画像処理装置で実現される各機能は、 フレキシブルディスク、 ハードデ イスク、 CD— ROM等の記録媒体に記録されたソフトウエアをコンピュータに ロードさせることで実現することが可能である。 もちろん、 同機能は、 単数若し くは複数の I Cチップ又は電気回路により実現することも可能である。
ここで、 図 1 1を参照しながら、 本実施形態における反射面 61, 主シーン 1 10, 選択参照部 131の改変例について説明する。
上述の例では反射面 61が平面であつたが、 この反射面 61を凸曲面とするこ とで、 図 1 1 (a) に示すように、 参照用シーン 121 aを選択参照部 131 a の割に大きく設定することができる。 また、 反射面 61を全画像範囲 100の角 に対応させたノッチ状とする代わりに全画像範囲 100の横端に細長く配置する ことで、 同 (b) に示すように、 縦に細長い選択参照部 131 bを設定すること ができる。
同 ( c) では、 全画像範囲 100の下側に配置した 100 aの一部に選択参照 部 13 1 cを設定し、 参照用シーン 121 cから照明色を求めている。 さらに、 同 (d) では反射面 61を同 (a) と同様に凸曲面とすることで、 選択参照部 1 31 dの横幅よりも広い幅の参照用シーン 121 dから照明色を求めている。 な お、 同 (c) (d) では、 全画像範囲 100に対応する CCD 3 1の下側に、 こ の CCD 31とは別に 100 aに対応する第二 CCD 33を設けている。
同 ( e ) では全画像範囲 100の上下に横長の選択参照部 131 e, 131 e を設定し、 中央部の参照用シーン 121 eからいずれかの選択参照部 131 eに 照明色を集めている。 同改変例は、 画像を横長のパノラマ画像として撮影する場 合を想定している。 但し、 選択参照部 13 1 e, 13 1 eに像を得るために通常 のパノラマ撮影のように撮影範囲の一部を隠すのではなく、 ファインダ一に現れ る画像のみが横長となるように、 ファインダ一の一部のみを隠している。 なお、 図 1 1の各例では、 C CD素子上の参照用シーン 121と選択参照部 131との 関係について説明したが、 撮像素子としてフィルムを利用した場合でも同様の関 係が成立する。
次に、 本発明のさらに他の実施形態について以下説明する。 なお、 上記第一実 施形態と同様の部材には同様の符号を付してある。
図 15に示す第二実施形態では、 CCD 31の主撮像部 3 l aから送られる主 画像がアナログ又はデジタルのビデオアンプ 79により直接的に色補正され、 モ 二夕装置 1 1に映し出される。 補正部 72における比例定数 sr,sg,sbの算出は、 i l 4の第一、 第二参照フレーム R l, R 2を用いて行われ、 これらが時間経過 後の第一、 第二参照フレーム群 I 2, I 3を補正する際に使用される。 出力調整 部 7 3はビデオアンプ 7 9からの出力調整を行う操作部である。 同構成によれば、 主画像の補正がビデオレート処理スピードで行われる利点がある。 なお、 主画像 と参照画像とを同一のフレームから抽出して詳細な補正を行った画像は、 ビデオ ァクセラレーター 7 5を介してビデオレコーダー 1 2に録画することも可能であ る。
図 1 6に示す第三実施形態では、 撮像素子として化学剤を使用したカラーフィ ルム 3 7、 例えば銀塩フィルムを用いている点が異なる。 すなわち、 本発明にお いて、 撮像素子、 受光素子の色チャンネルは形状的に分離しているものではなく、 化学的物性変化により複数の色チャンネルを構成するものであってもよい。 カラ —フィルム 3 7はフィルム収納部 3 6内に着脱可能に収納されている。
レンズ 4 1からの入射光はプリズム 3 4により分離されてカラーフィルム 3 7 に到達すると共に受光素子 3 5にも到達する。 受光素子 3 5はフレーム平均化部 3 2に画像のデータを伝達し、 絞り 4 3, 開口調節モー夕一 4 4が制御される。 本実施形態においては、 カメラ 2とは別体の画像処理装置 7がパーソナルコンビ ユー夕一 8とフィルムスキャナ 1 6とを有している点が異なる。 現像されフィル ムスキャナ 1 6にセットされたカラ一フィルム 3 7から主画像及び参照画像を含 む画像データ一がスキャンされ、 1 /0 7 6に送られる。 その画像信号は、 上記 他の実施形態と同様に処理される。
図 1 7に示す第四実施形態では、 一方の画像処理装置 7に接続したカメラ 2か ら他方の第二パーソナルコンピュータ一 1 3に接続したモニター 9に映像を通信 により送信するシステムを示している。 上記他の実施形態と同様に処理され得ら れた補正画像が画像圧縮部 8 1により J P E G等の手法により画像圧縮される。 本実施形態によれば、 画像圧縮後の補正を実行した場合に比べて、 色データーが 一部欠落することはないので、 良好な補正結果が期待できる。
補正及び圧縮後の画像信号は、 通信用端末 1 4及び通信用端末 1 5並びにィン 夕ーネット又は電話回線を通じて電送され、 画像処理部 8 2及びビデオァクセラ レーター 7 5を経てこの画像がモニタ一 9に表示される。 なお、 これらの構成は 2台のコンピューターに相互に設けられることで、 双方向通信が可能である。 図 1 8に示す第五実施形態では、 第一、 第二カメラ 2 a, 2 bからそれぞれ A、 B画像 S a, S bがそれぞれ撮影され、 ビデオキヤプチヤーボード 7 1、 7 1に 取り込まれる。 例えば、 A画像 S aはスタジオ撮影されたアナウンサーの像等で あり、 B画像 S bは夕焼け空の屋外風景画像等である。 A画像 S aは上述の処理 手順に従って補正部 7 2で色補正される。 一方 B画像 S bからはシーン光算出部 8 3を介して B画像 S bのシーンにおける光源色が反射面の作用により求められ る。 そして、 第二補正部 8 4により色補正された A画像 S aに対して光源色が掛 け合わされて二度目の色補正がなされた後、 画像合成部 8 5において B画像 S b と画像合成され、 モニター 9を介して自然な色合いの A、 B画像 S a bが表示さ れる。
図 1 9に示す第六実施形態では、 第五実施形態とは異なり、 B画像 S bにコン ビュー夕グラフィックス画像を用いている。 この B画像 S bは C G画像作成部 8 6を介してモニタ一 9により表示可能である。 また、 C G画像作成部 8 6におけ る仮想の光源色が C G光源決定部 8 7により求められ、 これが第二補正部 8 4に おいて補正後の A画像 S aに掛け合わされ、 二回目の色補正が行われる。 このよ うにして二度の色補正を行われた A画像 S aは画像合成部 8 5において B画像 S bと画像合成され、 モニタ一 9を介してコンピュータグラフィックの風景に自然 に人物のとけ込んだ A、 B画像 S a bが求められる。 なお、 第五、 第六実施形態 における第一、 第二の色補正のための光源色を求めるに際しては、 上述の反射面 に限らず、 ホワイ トパッチ等他の手法を用いても構わない。
図 2 0、 2 1に示す第七実施形態では、 レンズ 4 1がズームレンズとして構成 され、 その焦点距離の変更に伴って反射面 6 1の位置と角度とが変更される。 図 2 0はその決定原理を示すものである。 まず、 最大視野 V Fは C C D 3 1とレン ズ 4 1とによって決定される。 反射面 61の反射面後端 63は最大視野 VF上の 適当な位置に決定される。 その後、 次の関係に従って、 反射面 6 1の反射面角 A nが決定される。
撮像素子面 Fdは CCD 3 1表面の平面、 反射位置頂点面 Fnは反射面 6 1上 の反射点を通る撮像素子面 Fdに平行な面、 被写体面 Foは被写体 0を通る撮像 素子面 Fdに平行な平面である。 まず、 反射位置頂点面 Fnの左側について反射 角 A sと他の角との関係を考えると次式が成立する。
A s =7Γ- An- A o ( 7 )
また、 反射面 6 1の下側について考えると、 次式が成立する。
2 As =7T-Ad-Ao (8)
そして、 これら両式を反射角 Asについて整理すると、 次の関係が成り立つ。
7T-An-A o - (π-Αά-Αο) /2 (9)
この式を反射面角 Anについて整理し、 次式を得る。
An = 7T/2+Ad/2~Ao/2 ( 10)
ここで、 被写体角 Aoは被写体 0の位置により殆ど変化しないので Ao/2は 定数とみることができる。 反射面角 Anは視野角 Adにより定まり、 視野角 Ad は最大視野 VFの位置により定まる。 よって、 反射面 6 1の反射面後端 63と視 野角 Adとはレンズ 4 1の焦点距離により一意的に定まる。
ここで、 図 2 1 (a) (b) により反射面 63と反射面角 Anとを連続的に変 更させた反射面 6 1を備えたカメラ 2について説明する。 レンズ 41が図 2 1 (a) の実線で示す位置にある場合、 反射面 6 1の一部である反射面 6 1 aは反 射面後端 63 aと反射面角 An 1とにより決定される。 また、 レンズ 41, が焦 点距離が少し長くなつた一点鎖線の位置にある場合、 反射面 61 bの反射面後端 63 bは反射面後端 63 aよりも少しレンズ 4 1より離れる側に移動し、 反射面 角 An2は反射面角 An 1よりも大きくなる。 反射面 6 1の反射面先端線、 後端 線 62 L, 63 Lに沿って反射亜面先端、 後端 62 a, 62 b, 63 a, 63 b がそれぞれ配置され、 これら反射面先端線、 後端線 6 2 L, 6 3 Lの間に反射面 6 1 a , 6 1 bが位置することとなる。
このような連続的変化を有する反射面 6 1の反射体 6は、 反射面移動機構 6 5 をなす支持棒 6 6に連結されると共に第一枢軸 6 6 a周りでレンズ 4 1の執心軸 にほぼ直交する軸周りで揺動可能である。 さらに、 支持棒 6 6の根本は第一枢軸 6 6 aを介して基礎部材 6 7に支持され、 さらにカメラ本体部 3に対して第一枢 軸 6 6 aに直交する第二枢軸 6 7 a周りで揺動可能に支持される。 また、 覆い 5 には反射体 6を挿入するための開口 5 aが先の実施例の如く全画像範囲 1 0 0の 角部に対応させて形成されている。 また、 カメラ 2には C C D 3 1に対する画像 の取り込みと連動するストロボ 2 1を設けてある。
図 2 1に示すカメラ 2の使用に際しては、 レンズ 4 1の焦点距離に合わせて適 切な反射面 6 1 a, 6 1 b等が選択されるように、 第一枢軸 6 6 a周りで反射体 6が揺動する。 また、 最大視野外からの光を遮るように、 フラップ 5 aが適当な 位置まで揺動する。 スチル撮影の場合は、 この状態でまずストロボ 2 1がー度点 灯し、 C C D 3 1を介して上述の参照用シーン 1 2 1が取り込まれる。 次に、 第 二枢軸 6 7 a周りで支持棒 6 6が外側に揺動して反射面 6 1がレンズュ二ット 4 の視野外に移動し、 再びストロボ 2 1が点灯して主シーン 1 1 0が撮影される。 そして、 これら参照用シーン 1 2 1と主シーン 1 1 0とを用いて上述の色補正を 行う。 なお、 ビデオ撮影の場合はストロボ 2 1は不要である。 また、 支持棒 6 6 を第一枢軸 6 6 a周りで揺動させて、 反射面 6 1をレンズュニット 4の視野外に 移動させてもよい。
図 2 2、 2 3に示す第八実施形態では、 受光素子である第三 C C D 3 8が先の 第一 C C D 3 1とは別体に設けられ、 ズームレンズユニット 4、 4が第一、 第三 C C D 3 1, 3 8にそれぞれ設けられている。 各レンズユニット 4, 4の絞り 4 3 , 4 3及び開口調節モーター 4 4, 4 4は第一 C C D 3 1に連動するフレーム 平均化部 3 2によって共通に制御される。 また、 レンズ 4 1, 4 1の焦点距離も 両レンズにおいて連動する。 各第一、 第三 CCD31, 38に対しては、 第一、 第二ビデオキヤプチヤーボード 7 lx, 71 yがそれぞれ設けられている。 第三 CCD 38が第一 CCD 31と同種の素子であり、 第一 CCD 31よりも 不良ピクセルの多い点のみが異なる。 第三 CCD 38に不良ピクセルの多いロッ トを使用できるのは、 反射面 61を用いた参照用シーンから光源色を捉えれば足 りるからである。 そして、 あらかじめ検査により把握した不良ピクセルの位置を 71 zに記憶させ、 補正部 72における光源色の算出時に不良ビクセルを除外し ている。
第三 C C D 38側の覆い 5内には環状の反射体 6が取り付けられている。 この 反射体 6は、 反射面 61の上記反射面角 A n及び反射面後端 63を連続的にレン ズ 41の焦点距離に合わせてあらかじめ変化させたものである。 例えば符号 61 aに示す反射面 61に反射した参照用シーンは第三 C CD 38上の選択参照部 3 8alに像を形成し、 符号 6 lbに示す 61に反射した参照用シーンは第三 C C D 38上の選択参照部 38 a 2に像を形成する。 このように、 連続した反射面 6 1により全画像範囲 100上に撮影された参照用画像部 130のうち、 適当な参 照部 137 a, 137 bを選択することで、 レンズ 41の焦点距離に応じた適切 な参照用シーンを選択することができ、 主シーンの色補正を正確に行うことが可 能となる。
次に、 図 24〜35を参照しながら、 光学的補正装置を用いた構成について説 明する。 特に断りがなく矛盾が生じない限り、 図示していない部材も上記各実施 形態と同様であるが省略されており、 例えば絞り 43は図示しないフレーム平均 化部 32, 開口調節モー夕一 44により制御される。
図 24は第九〜第一八実施形態に用いられる光学フィル夕を用いた一般的モデ ルを示すブロック図である。 画像処理装置 151は、 CCD 31からの信号を並 列的に受け入れる画像処理部 152及び光源色測定部 153を含んでいる。 画像 処理部 152の基本構成は上述の各実施形態のものと近似していているが、 光源 色測定部及び補正部を含んでいない点が異なる。 画像処理部 152へ受け入れら れた信号はカメラ出力 3 aへ出力され、 モニタ等に接続される。
参照撮像部 31 b及び光源色測定部 153により求められた光源色の出力は補 色測定部 154に受け入れられ、 ここで光源色の補色が求められる。 参照撮像部 31 b等により求められた光源色の RGB成分の強度をそれぞれ Rn, Gn5 B nとし、 補色の RGB成分の強度をそれぞれ Rc, Gc, Beとすれば、 一般的 に次の関係が成り立つ。
C=RnRc=GnGc=BnB c
但し、 Cは定数である。
そして、 Rc/Gc二 Gn/Rn、 R c/B c =B n/Rnなる関係より、 補 色の RGB成分のカラ一バランス R c, Gc, Beが求まる。
色制御手段 155は、 補色測定部 154により求められた補色を第一〜第三位 置 P 1~3のいずれかにおいてフィル夕として実現する。 色制御手段 155の具 体的手段は以下の各実施形態で示されるが、 そのフィル夕の設置位置は第一〜第 三位置 P 1〜3のいずれとしてもよい。 レンズュニット 4において示されるレン ズ 41はバーチャルなレンズであり、 実際には複数枚のレンズでレンズ 41が構 成されるため、 この複数枚のレンズ間にフィル夕を設置してもよい。
第一〜第三位置 P 1〜3のいずれかに設置されるフィル夕は、 撮影視野 (vi ewing) 及び反射面 61からの光の双方を透過させて主撮像部 31 a及び参 照撮像部 31 bに到達させる。 光源色測定部 153は、 参照撮像部 31わにより 検出された前記参照用信号値 (rn, gn, bn) のカラ一パランスが求められ るカラ一バランスにできるだけ近づくように、 前記光学フィル夕をフィードバヅ ク制御する。 すなわち、 光源色測定部 153は、 光源色を求めてこの光源色を白 色に近づける作用と、 これに加えさらに白色光とは異なる求められるカラーバラ ンスを前記参照用信号値 (rn, gn, bn) が有するように、 フィードバック 制御を行う。 すなわち、 本発明は、 最終的に光源色が白色光であるように補正す る以外の場合でも、 内在的に光源色が白色光であるように補正する作用が含まれ ているものとする。 補正の最終目標値は加色混合の理論により定められるに過ぎ ないからである。
図 2 5に示す第九実施形態は、 色制御手段 1 5 5の一例であるフィルタ回転機 構 1 6 0を示す。 このフィル夕回転機構 1 6 0では、 軸 1 6 1周りでモ一夕一 1 6 2によりステップ的に回転される円盤 1 6 3に複数の貫通孔を設けている。 そ して、 この貫通孔にカラ一バランスがそれぞれ異なる複数のプリセットフィル夕 1 6 4 a〜hを設けたものである。 これらプリセットフィル夕 1 6 4 a〜hの特 性は色温度にあわせて選ぶことができ、 例えば、 昼光では色温度 5 5 0 0 Kであ り、 タングステンタイプの人工光では色温度は 3 2 0 0 K程度に設定される。 補 色の有する色温度に最も近い色温度を有するプリセットフィル夕 1 6 4 a〜hが 選択される。
図 2 6に示す第十実施形態は、 色制御手段 1 5 5の一例であるフィルタスライ ド機構 1 7 0を示す。 このフィルタスライ ド機構 1 7 0では、 C C D 3 1やレン ズ 4 1の光軸に直交する X y方向に図示しない駆動部材で移動可能なフィル夕支 持板 1 7 1と、 このフィル夕支持板 1 7 1に形成した貫通孔にそれぞれ設けられ る複数のプリセットフィル夕 1 7 2 a〜iとを備えている。 同実施形態でも、 先 の実施形態と同様に、 適切な色温度のプリセットフィル夕 1 7 2 a〜iが選択さ れる。
上記第九及び第十実施形態はそれぞれ二枚以上の軸 1 6 1又はフィル夕支持板
1 7 1を組み合わせて用いることができる。 この場合、 いくつかの貫通孔にはフ ィルターを設けなくてもよい。 これにより、 フィル夕一を複数組み合わせて用い ることもできる。
フィル夕一を複数組み合わせて用いることのできる構成としては、 図 2 7に示 す第十一実施形態のフィル夕回転機構 1 8 0が考えられる。 同実施形態では、 軸 1 8 1周りでモ一夕一 1 8 2によりステップ的に揺動されるように複数のプリセ ットフィル夕 1 8 3 a〜fが支持されている。
図 2 8に示す第十二実施形態では、 色制御手段 1 5 5に相当する液体を用いた 光学フィル夕手段として液体フィル夕システム 1 9 0が提供される。 この液体フ ィル夕システム 1 9 0において、 タンク 1 9 1に蓄えられた水又は油等の媒質は ポンプ 1 9 2によりミキサー 1 9 3へ送られる。 ポンプ 1 9 2はダイヤフラム型 のボンピング等、 ごく僅かな量の液体を送り出すことができる簡素な構成のもの で足りる。 カラ一コントローラ 1 9 4は補色測定部 1 5 4からの情報に基づいて、 ィンキ吹出部 1 9 5 a ~ cのそれぞれからのィンキの吹き出し量を制御する。 ィンキ吹出部 1 9 5 a〜cはシアン、 マゼン夕又はイェロー (C MY ) のィン キを貯留している。 これらのインキは、 例えばそれぞれアシッドブル一 # 2 5, ァシヅドレツド # 2 8 9、 ァシッドイエロ一 # 2 3を用いて調合することができ る。 インキの色は R G Bとすることも可能であるが、 撮像素子のフィル夕一等が 通常 R G Bであり、 この液体フィル夕システム 1 9 0は補色を求めることが目的 であるから、 C M Yのインキを用いることが望ましい。
インキ吹出部 1 9 5 a〜cから吹き出したインキはミキサー 1 9 3で媒質と混 合され、 透明通路 1 9 6に送られる。 この透明通路 1 9 6は透明なガラス板を非 常に小さな隙間を隔てて重ね合わせて薄い通路を形成したものであり、 内部を流 れるインキの混合物がフィル夕として作用する。 透明通路 1 9 6を通過した混合 物は排出口 1 9 7を介して排出される。 図示省略するが、 レンズ 4は実際には複 数枚のレンズを組み合わせてなるので、 組合せを構成するレンズ間の空間を透明 通路 1 9 6としてもよい。 なお、 ィンキの漂白剤等を混合するトリートメント手 段 1 9 8を設けて媒質をフィードバックしてもよい。
図 2 9に示す第十三実施形態は、 先の第十二実施形態の改変例である。 本実施 形態では、 3つのインキ吹出部 1 9 5 a〜cに対し、 3つのミキサー 1 9 3 a〜 c及び 3つの透明通路 1 9 6 a〜cがそれぞれ互いに混合し合わないように独立 に設けられている。 各色チャンネルのフィル夕の特性はィンキの濃度により変更 される。
図 3 0に示す第十四実施形態は、 カラー C C D等 C C D 3 1の表面に存在する C C Dフィル夕 2 0 0の色を変更するシステムを示す。 この C C Dフィル夕 2 0 ◦は、 隔壁 2 0 1により各セル 2 0 2を仕切っている。 セル 2 0 2はピクセル 2 0 3の R G B各色チャンネルに対応させて設けてある。 また、 同じ色チャンネル のセル 2 0 2同士がプリッジパス 2 0 4により連通されている。 赤流入路 2 0 5 r、 緑流入路 2 0 5 g、 青流入路 2 0 5 bはそれぞれ第十三実施形態のミキサー 1 9 3 a〜c如きものに接続される。 赤流入路 2 0 5 r、 緑流入路 2 0 5 g、 青 流入路 2 0 5 bにより供給された媒質インキ混合物は各セル 2 0 2を通過してフ ィル夕として作用すると共に、 赤流入路 2 0 5 r、 緑流入路 2 0 5 g、 青流入路 2 0 5 bを介して排出される。
図 3 1に示す第十五実施形態は、 撮像素子としてカラーフィルム 3 7を用い、 印画紙 2 1 3に対するプリントを行う場合の色補正に関する。 ランプ 2 1 1は色 補正用のフィル夕 2 1 2を介して光をカラーフィルム 3 7に投光し、 印画紙 2 1 3にカラーフィルム 3 7の像を焼き付ける。 光色センサ 2 1 4及び光源色測定部 2 1 5は参照撮像部 3 7 bから撮影時の光源色を求める。 補色測定部 2 1 6はこ の光源色の補色を求めフィル夕交換装置 2 1 7を制御してフィル夕 2 1 2の色を 変更する。 フィル夕 2 1 2及びフィル夕交換装置 2 1 7を含む色制御手段 1 5 5 は、 上述又は以下の実施形態で示したいずれかの構成を用いることができる。 図 3 2に示す第十六実施形態は液晶可変フィル夕システム 2 2 0に関し、 C C D 3 1が白黒 C C D等であり、 色制御手段 1 5 5として液晶可変フィル夕 2 2 3 及び明暗度可変フィル夕 2 2 4が用いられる。 この液晶可変フィル夕 2 2 3はフ ィル夕の特性、 すなわち色チャンネルを R G B等に切り替えることが可能である L C T F (Liquid Crystal Tunable Filter) を用いることができる。 すなわち、 液晶可変フィル夕 2 2 3の色を微少時間間隔で変更してカラ一画像を撮影するも のであり、 各フィル夕特性毎に明暗度可変フィル夕 2 2 4の明暗度を変更するこ とで、 実質的に補色フィル夕を構成することができる。
明暗度可変フィル夕 224の一例としては、 図 33に示すように、 レンズュニ ット 4の光軸に垂直に二枚の第一, 第二偏光フィル夕 224 a, bを設け、 これ らの相対角を変更させる構成を採用することができる。 その他、 明暗度可変フィ ル夕 224としては、 明暗度の異なるニュートラルグレイの NDフィル夕を複数 枚切り替えて用いることができる。
図 33に示す第十七実施形態は 3 CCDカメラ 230に関し、 レンズュニット 4から入射した光をォプティカルブロック 231のプリズム 232で RGBに分 光し、 白黒 CCD素子である 3つの赤 CCD 233 r、 緑 CCD 233 g、 青 C CD 233 bのそれぞれに画像を投影する。 各赤 CCD 233 r、 緑 CCD 23 3 g、 青 CCD233 bとオプティカルブロック 23 1との間にはそれぞれ赤明 暗度可変フィル夕 234 , 青明暗度可変フィル夕 235, 緑明暗度可変フィル夕 236が設けられ、 実質的に補色フィル夕を形成するように、 これらの明暗度を 個別に変更可能としてある。 各赤明暗度可変フィル夕 234, 青明暗度可変フィ ル夕 235, 緑明暗度可変フィル夕 236は、 先の実施形態同様、 それぞれ第一, 第二偏光フィル夕 234 a, b, 235 a, b, 236 a, bを有している。 なお、 ハイライ ト等の入射状況を調節する目的であれば、 第一, 第二偏光フィル 夕 234 a, b, 235 a, b, 236 a, bの全てを回転制御することが望ま しい。
図 35に示す第十八実施形態は、 先の第十七実施形態の改変例である。 本実施 形態では、 ひとつの第一偏光フィル夕 237をオプティカルブロック 231の前 段、 例えばレンズユニット 4の採光側に取り付け、 他の第二偏光フィル夕 234 b, 235 b, 236 bを各色チャンネルに対応させて設けてある。 ハイライ ト 等の光量は第一偏光フィル夕 237で調節でき、 各チャンネルの明暗度は、 第二 偏光フィルタ 234 b, 235 b, 236 bをオプティカルブロック 231に対 し回転させることで独立して調節することができる。 最後に、 本発明のさらに別の実施形態の可能性について言及する。
上記各実施形態では、 R G B 3色チャンネルを有するカラ一カメラについて本 発明を説明した。 しかし、 本発明は R G B 3色チャンネル以外の複数チャンネル を有するカラーカメラ又は可視光を撮影する白黒カメラや非可視光である赤外線 等を撮影する赤外線カメラ等の単一チャンネルカメラについても適用可能である このとき、 有効入力画像色値を反射面平均色値で除した値に乗ずる係数 sは定数 でなければならない。 なお、 色チャンネルとして、 可視光チャンネル及び赤外線 等の非可視光チャンネルを含む 2チャンネル構成とすることも可能である。 上記各実施形態では、 反射面 6 1を平面、 凸面又は凹面として形成した。 しか し、 この反射面はメッシュ状でもよく、 小さな半球面状でもよい。
上記第一二〜一四に示す実施形態では、 R G Bまたは C M Yの全てについて制 御を行った。 しかし、 3色の内 2色についてのみ制御を行うようにしても色補正 は可能である。 なお、 制御を行わない色チャンネルについては、 N Dフィルター を介在させ、 絞り 4 3により実質的に荒い制御が可能であるように構成すること も可能である。
上記実施形態では、 撮像素子として C C D素子やカラ一フィルムを用いた。 し かし、 撮像素子としては、 これに限らず、 例えば、 ビジコン等を用いても良い。 また、 受光素子にはフォトダイオード等を用いることも可能である。
上記実施形態は、 互いに矛盾しない限り、 複数のものをそれぞれ組み合わせて 実施することが可能である。 また、 いずれの実施形態も、 ビデオカメラ又はスチ ルカメラとして実施することができる。 特に、 上記第九〜一四及び第一六〜一八 の実施形態は、 上記第一〜八の実施形態と組み合わせることで、 双方の利点を生 かすことができる。 すなわち、 上記第一〜八の実施形態は処理時間が非常に迅速 であるため、 撮影対象補足当初に有効であり、 上記第九〜一四及び第一六〜一八 の実施形態による補正をその後行うことで、 より精密な色補正を行うことが可能 となる。 上記第五実施形態では、 A画像 S aはスタジオ撮影されたアナウンサーの像等 であり、 B画像 S bは夕焼け空の屋外風景画像等であった。 また、 上記第六実施 形態では、 A画像 S aは第五実施例同様にスタジオ撮影されたアナウンサーの像 等であつたが、 B画像 S bにコンビユー夕グラフィックス画像を用いている点が 異なった。 しかし、 A画像 S aを風景とし、 B画像 S bをアナウンサーの肖像等 としてもよい。 また、 頭部又は顔のみを入れ替えて合成画像を作成する際に、 本 発明に係る色補正を実施してもよい。 例えば、 肖像等である A画像 S aのうち人 物の頭部又は顔部分のみを切り出す。 一方、 B画像 S bとして、 被服を着用した モデルの撮影画像から頭部を除去し、 又は、 髪型等の参考となる頭部の撮影画像 のうちからモデルの髪型のみを残して顔を除去したものを用いる。 そして、 A画 像と B画像とを上述の色補正後に合成することで、 統一された照明状況下におい て、 被服や髪型等が本人に似合うか否かを自然な色合いの合成画像により判断す ることが可能となった。 産業上の利用可能性
本発明は、 撮影された物体の色を補正し又は画像の濃度を安定させるための撮 影システム、 並びに、 これらに用いるカメラ及び画像処理装置に関する。 本発明 は、 カメラの撮像素子が複数の色チヤンネルを有するカラ一カメラの色補正に適 用されるが、 白黒カメラ等の単一チャンネルのみのカメラにも適用することがで ぎる。

Claims

請求の範囲
1. 画像の色を補正するための撮影システムであって、 レンズ (41) 、 撮像素 子 ( 31, 37) 、 受光素子 (31, 33, 37, 38) 及び反射面 ( 61 ) を 有し主シーン (1 10) を前記撮像素子 (31, 37) 上に撮影するカメラ
( 2 ) を備え、 前記撮像素子 (31, 37)及び前記受光素子 (31, 33, 3 7, 38) は複数の色チャンネルを有し、 前記反射面 (61) は前記カメラ (2) の視野内に配置されており、 且つ前記主シーン (1 10) 又はその近傍に 属する参照用シーン ( 121 , 121 a〜e) からの光を反射すると共に前記レ ンズ (41) を介して前記受光素子 (31, 33, 37, 38) に受光させるも のであり、 さらに、 前記受光素子 (31, 33, 37, 38) により受け入れら れた参照用シーン ( 121, 121 a〜e) の反射光のうち 1ピクセル部 ( 13 6 d) の値又は複数ピクセル部 ( 131, 131 a〜e、 136 a〜c) の前記 各色チャンネル毎における平均値を参照用信号値 (rn, gn, bn) として求 める光源色測定部 (72, 153) と、 この参照用信号値 (rn, gn, bn) により画像の色を補正する補正装置 (72) とを備えている。
2. 請求項 1に記載の撮影システムであって、 前記補正装置が、 前記撮像素子 (31, 37) により撮影された主シーン (1 10) の各座標位置における主信 号値 (r[x][y]3 [x][y],b[x][y]) を前記各色チャンネル毎に求めた前記参照 用信号値 (rn, gn, bn) によってそれぞれ実質的に除することにより前記 主信号値を補正した補正信号値 (rc[x][y],gc[x][y],bc[x][y]) を得るための補 正部 (72) である。
3. 請求項 2に記載の撮影システムに用いられる画像処理装置であって、 これは 前記参照用信号値 (rn, gn, bn) を分母に有する係数 (s r, s g, s b) あらかじめ求め、 この係数 (s r, s g, sb) を前記各主信号値 (r[x] [y],g[x][y]5 [x][y]) に掛け合わせることで主信号の補正を行うものである。
4. 請求項 3に記載の画像処理装置であって、 これは前記各色チャンネルにおけ る前記各係数 (s r, s g, sb) が各色チャンネルにより異なる前記参照用信 号値 (rn, gn, bn) を分母に有し各色チャンネルで共通の他の係数 (s) を分子に有しているものである。
5. 請求項 4に記載の画像処理装置であって、 これは前記撮像素子 (3 1, 3 7) 又は前記受光素子 (3 1, 33, 37, 38) から順次送られるフレーム信 号のうち、 あるフレーム信号から前記係数 (s r, s g, sb) を求め、 この係 数 (s r, s g, s b) をさらに時間経過後の他のフレームから得た前記各主信 号値 (r[x][y],g[x][y],b[x][y]) に掛け合わせることで主信号の補正を行う ものである。
6. 請求項 5に記載の画像処理装置であって、 これは前記係数 (s r, s g, s b) を複数の他のフレームからそれぞれ得た前記各主信号値 (r [x][y],g[x] [y] , b [x] [y] ) に共通に掛け合わせることで主信号の補正を行うものである。
7. 請求項 5に記載の画像処理装置であって、 これは前記他のフレームからの信 号に前記係数 (s r, s g, sb) を掛け合わせるためのビデオアンプ (79) を有している。
8. 請求項 4に記載の画像処理装置であって、 前記他の係数 (s) は、 前記主信 号値 (r[x][y],g[x][y],b[x][y]) がこの信号の集合における最大値とみなせ る値 (rm, gm, bm) をとる場合に、 その最大値と見なせる値 (rm, gm, bm) を前記主信号値の最大スケール値 (D) に近づけるものである。
9. 請求項 4に記載の画像処理装置であって、 前記他の係数 (s) は、 あるピク セルにおける 2チャンネル内の主信号値が前記最大スケール値 (D) に達し且つ 残りの他チャンネル内の主信号値が前記最大スケール値 (D) に達していない場 合に当該ピクセルを不正ピクセルと定義し、 当該不正ピクセルの集合における前 記他チャンネル内での主信号値の最小値とみなせる値 (r cm、 bcm) が前記 最大スケール値 (D) に少なくとも達するだけの値を前記他の係数 (s) は有し ている。
10. 請求項 2に記載の撮影システムに用いられる画像処理装置であって、 これ はあるピクセルにおける青チャンネル内の主信号値のみが前記最大スケ一ル値
(D) に達し且つ残りの赤緑チヤンネル内の主信号値が前記最大スケール値 (D) に達していない場合に、 当該青チャンネルの主信号の補正値 (b e) を、 赤緑チャンネル内の補正値 (r c、 g c) の比に基づいて算出するものである。
1 1. 請求項 2に記載の撮影システムに用いられる画像処理装置であって、 これ はさらに前記主信号の圧縮装置 (8 1) を有しており、 前記主信号を前記補正後 に圧縮するものである。
12. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記反射面 (6 1) を前記カメラ (2) の視野外に配置することの可能な反射面移動機構 (65) を備えている。
13. 請求項 1に記載の撮影システムであって、 前記反射面 (6 1) を前記カメ ラ (2) の視野外に配置することの可能な反射面移動機構 (65) を備え、 前記 反射面 (6 1) により前記参照用信号値 (rn, gn, bn) を求めた後に前記 反射面移動機構 (65) により前記反射面 (6 1) を前記カメラ (2) の視野外 に配置した状態で主画像を撮影し、 前記参照用信号値 (rn, gn, bn) によ り主信号値 (r[x][y]3g[x][y],b[x][y]) を補正するものである。
14. 請求項 1に記載の撮影システムであって、 前記撮像素子 (3 1) 及び前記 受光素子 (38) が別体の同一特性の素子よりなり、 前記レンズ (41, 4 1) をこれら撮像素子 (31) 及び前記受光素子 (38) に対応させてそれぞれ設け ると共にこれら両レンズ (4 1, 41) のズーミングと絞りとを連動させ、 前記 反射面 (6 1) が前記レンズ (41) の焦点距離に応じてその始点の座標位置と 角度とを連続して変更するように形成すると共にこの反射面 (6 1) を前記レン ズ (41) の最大視野内に固定し、 前記受光素子 (38) 上の補正用画像部 ( 1 30) のうち選択補正部 ( 1 37 a, 137 b) から前記焦点距離に応じた前記 反射面 (6 1 a, 6 1 b) に対応するものを選択する。
15. 請求項 14に記載の撮影システムであって、 前記受光素子 (38) のうち 欠陥ピクセルを前記選択補正部 ( 137 a, 137b) の選択時に除去する座標 テーブルを有している。
16. 請求項 1に記載の撮影システムであって、 前記反射面の配置又は前記参照 用信号のための前記複数ビクセルの選択により、 前記参照用シーンを主として主 シーンの中央部又はその近傍に限定してある。
17. 請求項 2に記載の撮影システムであって、 前記カメラを少なくとも 2台有 し、 一方のカメラにおける前記補正信号値 (rc[x][y],gc[x][y]3bc[x][y]) に対 し、 他方のカメラにより得られた参照用信号値を前記各色チャンネル毎に実質的 に掛け合わせて二次補正画像を得、 この二次補正画像を他方のカメラの画像と合 成して合成画像を得るものである。
18. 請求項 2に記載の撮影システムであって、 コンビュ一夕画像を作成する C G画像作成部 (86) とこのコンピュータ画像の光源色を決定する CG光源色決 定部 (87) とを有し、 前記補正信号値 (rc[x][y],gc[x][y],bc[x][y]) に対し、 CG光源色決定部 (87) により得られた光源色値を前記各色チャンネル毎に実 質的に掛け合わせて二次補正画像を得、 この二次補正画像を前記 C G画像作成部
(86) により作成されたコンピュータ画像と合成して合成画像を得るものであ 。
19. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記撮像素 子 ( 31, 37) 及び前記受光素子 (31, 33, 37, 38) が同一特性の素 子よりなるものである。
20. 請求項 19に記載のカメラであって、 前記受光素子 (31, 37) が前記 撮像素子 (31, 37) の一部である。
21. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記撮像素 子 (31, 37) 上の画像を収めた画像ファイルを記憶する記憶部 (77) 又は 前記画像を記録するフィルム (37) の収納部 (36) を有しており、 前記画像 は主画像部 (110) と全画像範囲 (100) の端に位置する参照用画像部 ( 1 30) とを備えている。
22. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記全画像 範囲 ( 100) が四角形を呈し、 いずれかの角部に前記参照用画像部 (130) が位置している。
23. 請求項 22に記載のカメラであって、 前記反射面 (61) が前記レンズ (41) の中心軸周りで回転可能であり、 前記反射面 (61) の位置により前記 いずれの角部に前記参照用画像部 (13) を位置させるか又は前記参照用画像部 (130) を前記全画像範囲 (100) 内に位置させないかの選択を行い得るも のである。
24. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記主画像 部が横に細長い四角形を呈し、 前記全画像範囲 (100) の上部又は下部に前記 参照用画像部が位置している。
25. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記レンズ (41) がズームレンズであり、 前記反射面 (61) が前記レンズ (41) の焦 点距離に応じてその始点の座標位置と角度とを変更するものである。
26. 請求項 1に記載の撮影システムに用いられるカメラであって、 前記反射面 (61) が前記レンズ (41) の焦点距離に応じてその始点の座標位置と角度と を連続して変更するように形成してあり、 この反射面と前記レンズとの相対位置 を前記レンズ (41) の焦点距離に合わせて変更する反射面移動機構 (65) を 有している。
27. 請求項 3〜 11に記載の画像処理装置又は 13〜 18に記載の撮影システ ムのいずれかで実現される機能を備えた I Cチップ又は同機能を備えた電気回路。 28. 請求項 3〜 11に記載の画像処理装置又は 13〜 18に記載の撮影システ ムのいずれかで実現される機能をコンピュータにロードされることで実現するソ フトウエアを記録した記録媒体。
29. 請求項 3〜 1 1のいずれかに記載の画像処理装置又は 13〜 18のいずれ かに記載の撮影システムであって、 前記画像補正が電話回線又はイン夕一ネット 等の通信回線で接続される二台のコンピュータ間で実現されるように構成されて いる。
30. 請求項 13又は 19〜25のいずれかに記載のカメラであって、 前記反射 面に前記主シーン外又は前記参照用シーン外からの光が入射することを防止する 覆いを設けてある。
31. 画像の濃度を安定させるための撮影システムであって、 レンズ (41) 、 撮像素子 (31, 37) 、 受光素子 (31, 33, 37, 38) 及び反射面 ( 6
1) を有し主シーン ( 1 10) を前記撮像素子 (31, 37) 上に撮影するカメ ラ (2) を備え、 前記反射面 (61) は前記カメラ (2) の視野内に配置されて おり、 且つ前記主シーン (1 10) 又はその近傍に属する参照用シーン (121,
121 a〜e) からの光を反射すると共に前記レンズ (41) を介して前記受光 素子 (31, 33, 37) に受光させるものであり、 さらに、 前記受光素子 (3
1, 33, 37, 38) により受け入れられた参照用シーン (121, 121 a 〜e) の反射光のうち 1ピクセル部 ( 136 d) の値又は複数ビクセル部 ( 13
1, 131 a〜e、 136 a〜c ) の平均値を参照用信号値 ( r n, gn, b n) として求め、 前記撮像素子 (31) により撮影された主シーン (1 10) の 各座標位置における主信号値 (r[x][y]3g[x][y],b[x][y]) を前記参照用信号 値 (rn, gn, bn) によって実質的に除することにより主信号を補正した補 正信号値 (rc[x][y],gc[x][y],bc[x][y]) を得る画像処理装置 (7) を備えてい o
32. 請求項 31に記載の撮影システムに用いられるカメラであって、 前記カメ ラの撮像素子は可視光又は非可視光を感知するものである。
33. 請求項 2に記載の撮影システムであって、 前記補正装置が、 前記参照用信 号値 (rn, gn, bn) により定まる色に対する補色を測定する手段と、 この 補色を再現し且つ前記撮像素子に達する画像の色を変更する光学フィル夕を含む 光学フィルタ手段とを備えている。
3 4 . 請求項 3 3に記載の撮影システムであって、 前記光学フィル夕は前記受光 素子に達する画像の色をも変更するように配置されており、 前記補色を求める手 段は前記参照用信号値 (r n , g n , b n ) のカラーバランスが求められるカラ —バランスにできるだけ近づくように前記光学フィル夕を制御する。
3 5 . 請求項 3 3に記載の撮影システムであって、 前記光学フィル夕手段はそれ ぞれカラ一バランスを異ならせた複数のプリセットフィル夕を有しており、 前記 補色に最も近いプリセットフィル夕が選択される。
3 6 . 請求項 3 5に記載の撮影システムであって、 前記プリセットフィル夕は複 数のものを組み合わせて同時使用が可能である。
3 7 . 請求項 3 3に記載の撮影システムであって、 前記光学フィル夕手段は、 媒 質のポンプと、 複数色の色ィンクを独立して吹き出し可能なィンキ吹き出し部と、 これら複数色のィンキ及び媒質の混合物を作成するミキサ一と、 前記光学フィル 夕に相当する前記混合物を流すための透明通路とを備えている。
3 8 . 請求項 3 3に記載の撮影システムであって、 前記光学フィル夕手段は、 媒 質のポンプと、 複数色の色ィンクを独立して吹き出し可能なィンキ吹き出し部と、 媒質と各インキとを個別に混合して混合物を作成する複数のミキサーと、 これら 各混合物を個別に通過させる前記光学フィル夕に相当する複数の透明通路とを備 えている。
3 9 . 請求項 3 3に記載の撮影システムであって、 前記光学フィル夕手段は、 媒 質のポンプと、 複数色の色ィンクを独立して吹き出し可能なィンキ吹き出し部と、 各ィンキ及び媒質を個別に混合する複数のミキサーと、 これらの混合物を個別に 通過させる前記光学フィル夕に相当する複数の透明のセルとを備えており、 各セ ルは、 白黒撮像素子の前面に 1ピクセル毎の R G Bに対応させて設けられ、 同色 のセル同士がプリッジパスにより接続されている。
40. 請求項 33に記載の撮影システムであって、 前記光学フィルタはそのフィ ル夕特性を変更であり、 前記光学フィル夕手段がこのフィルタ特性の変更に伴つ て透過度を変更可能な透過度変更手段を有している。
41. 請求項 33に記載の撮影システムであって、 前記カメラは、 光を RGBに 分解するオプティカルプロックと、 RGBそれぞれに対応する 3つの撮像素子と を備え、 前記光学フィル夕がこのオプティカルブロックであり、 前記各光学フィ ル夕手段は各撮像素子に達する画像の濃度を変更させる透過度変更手段をそれぞ れ備えている。
42. 請求項 40又は 41のいずれかに記載の撮影システムであって、 前記各透 過度変更手段は互いに角度を変えることの可能な 2枚の偏光フィル夕を備えてい る。
43. 請求項 41に記載の撮影システムであって、 前記各透過度変更手段は互い に角度を変えることの可能な 2枚の偏光フィル夕を備え、 2枚の偏光フィル夕の うちの一方は前記ォプティカルプ口ックの前に共通に設けられ、 他の一方は各色 チャンネル毎にオプティカルブロックの後に個別に設けられる。
44. 請求項 33に記載の撮影システムであって、 前記撮像素子がフィルム (3 7)であり、 前記補色を測定する手段は、 ランプと、 前記受光素子部分を通過し たランプの光の色を検出する光色検出器と、 光源色測定部と、 この光源色測定部 に基づく補色測定部とを備え、 前記光学フィル夕手段は、 前記ランプから前記フ ィルムを経て印画紙に至る光をさらに通過させるフィル夕と、 このフィル夕の色 を前記補色にするフィル夕変更装置とを有している。
45. 請求項 33〜41又は 43, 44のいずれかに記載の撮影システムであつ て、 前記補正装置が、 さらに前記撮像素子 (31, 37) により撮影された主シ ーン (110) の各座標位置における主信号値 (r[x][y]3g[x][y],b[x][y]) を前記各色チャンネル毎に求めた前記参照用信号値 (rn, gn, bn) によつ てそれぞれ実質的に除することにより前記主信号値を補正した補正信号値 (rc [x][y]3gc[x][y],bc[x][y]) を得るための電気的補正部 (72) を有しており、 前記電気的補正部は、 前記光学的フィル夕手段による色補正の完了前に補正処理 を過渡的に行う。
PCT/JP2000/006294 1999-09-17 2000-09-14 Systeme de saisie d'images, processeur d'images et camera associee WO2001022737A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020027003548A KR20020032595A (ko) 1999-09-17 2000-09-14 촬영시스템, 화상처리장치 및 카메라
AU73130/00A AU7313000A (en) 1999-09-17 2000-09-14 Image pickup system, image processor, and camera
CA002385173A CA2385173A1 (en) 1999-09-17 2000-09-14 Image capturing system, image processing system, and camera
JP2001525971A JP3796174B2 (ja) 1999-09-17 2000-09-14 撮影システム並びに画像処理装置及びカメラ
EP00961007A EP1220547A4 (en) 1999-09-17 2000-09-14 IMAGE ENTRY SYSTEM, IMAGE PROCESSOR AND CAMERA THEREFOR
US10/088,263 US20050117045A1 (en) 1999-09-17 2001-09-04 Image pickup system, image processor, and camera

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP11/263872 1999-09-17
JP26387299 1999-09-17
JP2000/29678 2000-02-07
JP2000029678 2000-02-07

Publications (1)

Publication Number Publication Date
WO2001022737A1 true WO2001022737A1 (fr) 2001-03-29

Family

ID=26546236

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/006294 WO2001022737A1 (fr) 1999-09-17 2000-09-14 Systeme de saisie d'images, processeur d'images et camera associee

Country Status (8)

Country Link
US (1) US20050117045A1 (ja)
EP (1) EP1220547A4 (ja)
JP (1) JP3796174B2 (ja)
KR (1) KR20020032595A (ja)
CN (1) CN1284381C (ja)
AU (1) AU7313000A (ja)
CA (1) CA2385173A1 (ja)
WO (1) WO2001022737A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011151707A (ja) * 2010-01-25 2011-08-04 Ihi Corp 画像撮影装置
KR101470019B1 (ko) 2008-12-26 2014-12-05 엘지이노텍 주식회사 이미지센서의 불량 픽셀 검출 및 보정 방법

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP3801616B2 (ja) * 2003-05-29 2006-07-26 松下電器産業株式会社 撮像装置
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
KR20050090803A (ko) * 2004-03-10 2005-09-14 삼성전자주식회사 디지털 캠코더의 광학필터 절환 장치
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP4849829B2 (ja) * 2005-05-15 2012-01-11 株式会社ソニー・コンピュータエンタテインメント センタ装置
WO2007040170A1 (ja) * 2005-10-04 2007-04-12 Matsushita Electric Industrial Co., Ltd. 車載撮像装置
JP4708192B2 (ja) * 2006-01-10 2011-06-22 パナソニック株式会社 動的なカメラ色補正装置およびそれを用いた映像検索装置
US7712903B2 (en) * 2006-01-26 2010-05-11 Fuji Xerox Co., Ltd. Remote instruction system, remote instruction method and program product for remote instruction
US8976174B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation
US8976173B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
KR100828194B1 (ko) * 2006-11-16 2008-05-08 주식회사 윤텔 디지털 화상의 경계 흐림을 판단하는 장치와 방법 및 이를이용한 이미지 처리 시스템
US7760912B2 (en) * 2007-08-01 2010-07-20 Tandent Vision Science, Inc. Image segregation system with method for handling textures
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
JP5123137B2 (ja) * 2008-01-22 2013-01-16 株式会社リコー 撮像装置および撮像方法
CN102016877B (zh) 2008-02-27 2014-12-10 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US8260050B2 (en) * 2008-12-05 2012-09-04 Tandent Vision Science, Inc. Test bed for optimizing an image segregation
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8139850B2 (en) * 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Constraint generation for use in image segregation
US20100142846A1 (en) * 2008-12-05 2010-06-10 Tandent Vision Science, Inc. Solver for image segregation
US8139867B2 (en) * 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Image segregation system architecture
JP5648483B2 (ja) * 2009-01-27 2015-01-07 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
JP5229148B2 (ja) * 2009-07-28 2013-07-03 ソニー株式会社 撮像素子、撮像装置、信号処理方法及びプログラム
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
US10842144B2 (en) * 2011-05-13 2020-11-24 The Climate Corporation Method and system to map biological pests in agricultural fields using remotely-sensed data for field scouting and targeted chemical application
US9060110B2 (en) * 2011-10-07 2015-06-16 Canon Kabushiki Kaisha Image capture with tunable polarization and tunable spectral sensitivity
TWI502549B (zh) * 2012-02-20 2015-10-01 Univ Nat Kaohsiung Applied Sci 元件影像檢測方法及其系統
US9299118B1 (en) * 2012-04-18 2016-03-29 The Boeing Company Method and apparatus for inspecting countersinks using composite images from different light sources
KR101767093B1 (ko) * 2012-12-14 2017-08-17 한화테크윈 주식회사 색감 복원 방법 및 장치
CN103402102B (zh) * 2013-07-17 2015-12-09 广东欧珀移动通信有限公司 双摄像头摄像系统及其白平衡调节的方法与装置
CN104754313B (zh) * 2013-12-31 2017-09-29 联想(北京)有限公司 一种图像获取方法及电子设备
JP6303545B2 (ja) * 2014-01-29 2018-04-04 株式会社リコー 計測装置、投影装置、計測方法、及びプログラム
US9186909B1 (en) * 2014-09-26 2015-11-17 Intel Corporation Method and system of lens shading color correction using block matching
JP6766495B2 (ja) * 2016-07-21 2020-10-14 富士通株式会社 プログラム、コンピュータ及び情報処理方法
CN109789706B (zh) * 2016-09-27 2021-03-26 惠普发展公司,有限责任合伙企业 用于自动油墨混合检测的打印图案及其算法
JP6590895B2 (ja) * 2017-11-20 2019-10-16 キヤノン株式会社 画像形成装置及び画像形成方法
CN110324503B (zh) * 2018-03-30 2021-03-09 富士施乐实业发展(中国)有限公司 用于复合机的输稿器的控制方法及控制装置
CN109862337B (zh) * 2019-04-09 2022-02-22 歌尔股份有限公司 投影光学系统色彩校正方法、装置及计算机可读存储介质
CN110262041A (zh) * 2019-07-11 2019-09-20 Oppo广东移动通信有限公司 一种增强现实显示方法及设备
CN114640832A (zh) * 2022-02-11 2022-06-17 厦门聚视智创科技有限公司 一种投影图像的自动校正方法
CN114331916B (zh) * 2022-03-07 2022-07-22 荣耀终端有限公司 图像处理方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62104389A (ja) * 1985-10-31 1987-05-14 Nippon Tv Housoumou Kk カラ−テレビカメラのホワイトバランス調整方式
JPS63305226A (ja) * 1987-06-05 1988-12-13 Seiko Epson Corp 光センサ
JPH03254727A (ja) * 1990-03-02 1991-11-13 Canon Inc 画像撮影装置
JPH05122708A (ja) * 1991-10-29 1993-05-18 Sony Corp 電子カメラ
WO1998027744A1 (fr) * 1996-12-17 1998-06-25 Nature Technology Co., Ltd. Systeme d'imagerie

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0263295B1 (en) * 1986-09-09 1994-06-08 Fuji Photo Film Co., Ltd. Electronic still camera for compensating color temperature dependency of color video signals
JPH0215793A (ja) * 1988-07-01 1990-01-19 Fuji Photo Film Co Ltd 白バランス調節装置
US6072526A (en) * 1990-10-15 2000-06-06 Minolta Co., Ltd. Image sensing device that can correct colors corresponding to skin in a video signal
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JPH07104371A (ja) * 1993-10-07 1995-04-21 Fuji Photo Optical Co Ltd ホワイトバランス指標写し込み機構付カメラ
US6070018A (en) * 1995-04-07 2000-05-30 Nikon Corporation Camera with color data display
JPH095822A (ja) * 1995-06-22 1997-01-10 Nikon Corp 表示装置、カメラ及び測色装置
US5822625A (en) * 1997-02-19 1998-10-13 Eastman Kodak Company Hybrid electronic-film camera
JP4239234B2 (ja) * 1998-04-16 2009-03-18 株式会社ニコン 電子スチルカメラ
US6215962B1 (en) * 1999-04-12 2001-04-10 Sony Corporation Illumination detecting camera
US6864911B1 (en) * 2000-10-26 2005-03-08 Hewlett-Packard Development Company, L.P. Linkable digital cameras for an image capture system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62104389A (ja) * 1985-10-31 1987-05-14 Nippon Tv Housoumou Kk カラ−テレビカメラのホワイトバランス調整方式
JPS63305226A (ja) * 1987-06-05 1988-12-13 Seiko Epson Corp 光センサ
JPH03254727A (ja) * 1990-03-02 1991-11-13 Canon Inc 画像撮影装置
JPH05122708A (ja) * 1991-10-29 1993-05-18 Sony Corp 電子カメラ
WO1998027744A1 (fr) * 1996-12-17 1998-06-25 Nature Technology Co., Ltd. Systeme d'imagerie

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1220547A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470019B1 (ko) 2008-12-26 2014-12-05 엘지이노텍 주식회사 이미지센서의 불량 픽셀 검출 및 보정 방법
JP2011151707A (ja) * 2010-01-25 2011-08-04 Ihi Corp 画像撮影装置

Also Published As

Publication number Publication date
KR20020032595A (ko) 2002-05-03
CN1284381C (zh) 2006-11-08
CA2385173A1 (en) 2001-03-29
AU7313000A (en) 2001-04-24
US20050117045A1 (en) 2005-06-02
EP1220547A1 (en) 2002-07-03
EP1220547A4 (en) 2005-09-21
JP3796174B2 (ja) 2006-07-12
CN1375166A (zh) 2002-10-16

Similar Documents

Publication Publication Date Title
WO2001022737A1 (fr) Systeme de saisie d'images, processeur d'images et camera associee
JP4865038B2 (ja) 顔検出と肌の色合いの情報を用いたデジタル画像処理
US8803994B2 (en) Adaptive spatial sampling using an imaging assembly having a tunable spectral response
US7920172B2 (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
US8619179B2 (en) Multi-modal image capture apparatus with a tunable spectral response
US8830348B2 (en) Imaging device and imaging method
US7548260B2 (en) Identification photo system and image processing method which automatically corrects image data of a person in an identification photo
US8212890B2 (en) Imaging device and imaging method
CN109005364A (zh) 成像控制方法、装置、电子设备以及计算机可读存储介质
CN108712608A (zh) 终端设备拍摄方法和装置
US20050046703A1 (en) Color calibration in photographic devices
JP4156893B2 (ja) 画像処理装置、方法及びプログラム
CN108632512A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
WO2012024163A2 (en) Image capture with identification of illuminant
CN108683863A (zh) 成像控制方法、装置、电子设备以及可读存储介质
CN113676628A (zh) 多光谱传感器、成像装置和图像处理方法
US20120127335A1 (en) Image capture with region-based adjustment of contrast
US8654210B2 (en) Adaptive color imaging
JPH07288826A (ja) フィルム画像再生装置
CN109005363A (zh) 成像控制方法、装置、电子设备以及存储介质
JPH07131718A (ja) 画像合成装置
JP2010021791A (ja) 撮像装置、その画像処理方法及びプログラム
US8488039B2 (en) Digital image processing apparatus capable of displaying color distribution chart and method of operating the same
CN109300186B (zh) 图像处理方法和装置、存储介质、电子设备
CN110460783B (zh) 阵列摄像模组及其图像处理系统、图像处理方法和电子设备

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref country code: JP

Ref document number: 2001 525971

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 2385173

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2000961007

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 008129614

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020027003548

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020027003548

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10088263

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000961007

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2000961007

Country of ref document: EP