WO2007020760A1 - 画像処理方法、画像処理システムおよび画像処理プログラム - Google Patents

画像処理方法、画像処理システムおよび画像処理プログラム Download PDF

Info

Publication number
WO2007020760A1
WO2007020760A1 PCT/JP2006/313885 JP2006313885W WO2007020760A1 WO 2007020760 A1 WO2007020760 A1 WO 2007020760A1 JP 2006313885 W JP2006313885 W JP 2006313885W WO 2007020760 A1 WO2007020760 A1 WO 2007020760A1
Authority
WO
WIPO (PCT)
Prior art keywords
light source
imaging
image processing
images
luminance
Prior art date
Application number
PCT/JP2006/313885
Other languages
English (en)
French (fr)
Inventor
Satoshi Sato
Kunio Nobori
Katsuhiro Kanamori
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/922,013 priority Critical patent/US7609892B2/en
Priority to CN2006800202793A priority patent/CN101326545B/zh
Priority to JP2007530926A priority patent/JP4113570B2/ja
Publication of WO2007020760A1 publication Critical patent/WO2007020760A1/ja
Priority to US12/557,555 priority patent/US7961940B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2433Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Definitions

  • Image processing method image processing system, and image processing program
  • the present invention relates to image capturing and image processing when assuming a general living space such as in a home.
  • Non-Patent Document 1 the brightness of an object that is observed in an outdoor environment changes drastically as the color of the observed object is blocked by direct sunlight from the sky component and clouds that do not vary with time. It is considered to be composed of a direct sunlight component.
  • the background subtraction method is used to detect moving objects, the detection of moving objects can be detected without being affected by shadows or brightness changes of the light source by estimating the mixing ratio of the direct sunlight component with a large temporal change. Realize.
  • Non-Patent Document 2 a plurality of images whose light source positions are changed are used to create a linearized image that is a composite image that includes only specular reflection and shadows, but only diffuse reflection. By using such a linear image, image processing that is not affected by specular reflection is realized.
  • Non-Patent Document 1 Akihiro Okumura, Yoshio Iwai, Masahiko Taniuchi “Detection of moving objects in the outdoors —Measures against lighting fluctuations and shadows", Image recognition 'understanding symposium (MIRU2000), vol.II, p p.307-312, 2000
  • Non-Patent Document 2 Ikui Ikunori, Fukui Kotaro, Mukaikawa Yasuhiro, Takenaga Takeshi “Linearization of images based on optical phenomenon classification", IPSJ Journal, vol.44, no. SIG5 (CVIM6) , pp.11-21, 200 3
  • Non-Patent Document 1 in order to estimate the total sky light component and the solar direct light component, two or more images that differ only in the brightness of the solar direct light component are required. In Non-Patent Document 2, four or more images with different light source positions are required.
  • a plurality of images having different brightness and position of the light source are referred to as “light source fluctuation images” in the present specification.
  • light source fluctuation images Normally, in order to capture such a light source fluctuation image, it has been necessary to change the position and brightness of the light source and to capture the image in synchronization with the change.
  • this method requires synchronization between the light source and the camera, causing problems when the system becomes large and the imaging cost increases.
  • FIG. 36 shows an example of a conventional imaging system for capturing a light source fluctuation image.
  • the subject 201 and the imaging device 202 are fixed, and a rail 203 is stretched around the subject 201.
  • the light source 204 can be fixed at various positions on the rail 203.
  • the imaging device 202 can capture a light source fluctuation image by performing imaging in synchronization with a change in position or luminance of the light source 204.
  • the rail 203 that covers the subject 201 needs to be arranged, the system becomes very large and powerful. In particular, when the subject 201 is a large object, installation of the system becomes extremely difficult.
  • the imaging apparatus 202 needs to perform imaging in synchronization with a change in the position of the light source 204 and a change in luminance, the control becomes complicated and the time required for imaging increases.
  • the position information of the light source may be unknown.
  • the photographer or the imaging robot 205 sets the light source 204 at the operating unit. It is also possible to take an image with the imaging device 202 while holding it in a hand and moving the light source 204. However, this requires a complicated operation of moving the light source with the camera position fixed, and there is still a problem that the time required for imaging increases.
  • an object of the present invention is to make it possible to acquire a so-called light source fluctuation image in a simple facility in image processing.
  • the present invention performs imaging multiple times for the same subject under imaging conditions that allow the imaging device to capture a plurality of images with different light source conditions under a light source whose luminance changes with time.
  • the image processing is performed using a plurality of captured images.
  • a plurality of images are captured by setting an imaging condition that allows a plurality of images with different light source conditions to be captured by the imaging device using a light source whose luminance changes with time. Image.
  • a so-called light source fluctuation image can be easily acquired without requiring a large-scale system or complicated operation.
  • a plurality of corresponding points in a plurality of captured images are obtained by imaging the same subject a plurality of times under a light source whose luminance changes with time. Each time the brightness value is detected, and the time change of the brightness value at each corresponding point is used to judge whether the light source status of multiple images is different from each other. The image is retained as the light source variation image, while other images are discarded.
  • a plurality of images are captured by the imaging device using a light source whose luminance changes with time. Then, using the temporal change of the luminance value of each corresponding point in the plurality of images, only images having different light source conditions are held as light source fluctuation images. As a result, a so-called light source fluctuation image can be easily acquired without requiring a large-scale system or a complicated operation.
  • the invention's effect [0017]
  • a general living environment such as a home
  • image processing By using such an image, it is possible to perform image processing that is not affected by shadows or changes in luminance of the light source even in a general living environment.
  • FIG. 1 is a diagram showing a configuration for realizing an image processing method according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart showing processing of the image processing method according to the first embodiment of the present invention.
  • FIG. 3 is a conceptual diagram for explaining the influence of a light source that causes a change in luminance.
  • FIG. 4 is a diagram showing luminance values observed in the situation of FIG.
  • FIG. 5 is a diagram showing a case where imaging timing is set at random in the situation of FIG. 3.
  • FIG. 6 is a diagram for explaining the behavior of a shadow when there are a plurality of light sources.
  • FIG. 7 is a conceptual diagram showing the relationship between optical reflections of diffuse reflection, specular reflection, and shadow.
  • FIG. 8 is a conceptual diagram showing the relationship between the light source, the imaging device, and the normal direction of the subject.
  • FIG. 9 is a graph showing a criterion of area division based on optical characteristics.
  • FIG. 10 is a diagram for explaining a light emission pattern of a fluorescent lamp.
  • FIG. 11 is a diagram for explaining a light emission pattern of a fluorescent lamp.
  • FIG. 12 is a diagram showing an example of an image processing result obtained in the first embodiment of the present invention.
  • FIG. 13 shows an example of region segmentation based on the optical characteristics obtained by using the result of FIG.
  • FIG. 14 is a flowchart showing another example of processing of the image processing method according to the first embodiment of the present invention.
  • FIG. 15 is an example of the image processing result obtained in the first embodiment of the present invention.
  • FIG. 16 is a flowchart showing processing of an image processing method according to the second embodiment of the present invention.
  • FIG. 17 is a conceptual diagram for explaining a method for estimating a light source color vector.
  • FIG. 18 is a flowchart showing a flow of light source color vector estimation processing in the second embodiment of the present invention.
  • FIG. 19 is a diagram showing a configuration for realizing an image processing method according to the third embodiment of the present invention.
  • FIG. 20 is a flowchart showing processing of an image processing method according to the third embodiment of the present invention.
  • FIG. 21 is a conceptual diagram showing a case where imaging is performed at an imaging timing synchronized with a luminance change of the light source.
  • FIG. 22 is a diagram showing observed luminance values in the situation of FIG.
  • FIG. 23 is a conceptual diagram showing a case where imaging is performed with a sufficiently long exposure time with respect to a luminance change of a light source.
  • FIG. 24 is a diagram showing observed luminance values in the situation of FIG.
  • FIG. 25 is a diagram showing an example of luminance change in a subject when the luminance change width of the light source is large.
  • FIG. 26 is a diagram showing an example of luminance change in a subject when the width of luminance change of the light source is small.
  • FIG. 27 is a conceptual diagram showing an example in which the imaging interval is set longer than the blinking interval of the light source.
  • FIG. 28 is a diagram showing an example of the image processing result obtained in the third embodiment of the present invention.
  • FIG. 29 is a flowchart showing another example of the process of the image processing method according to the third embodiment of the present invention.
  • FIG. 30 is a conceptual diagram for explaining the relationship between the distance of the light source power and the luminance change width and the region division based on the relationship.
  • FIG. 31 is a conceptual diagram for explaining the relationship between the distance of the light source power and the luminance change width and the region division based on the relationship.
  • FIG. 32 is a flowchart showing processing of an image processing method according to the fourth embodiment of the present invention.
  • FIG. 33 is a conceptual diagram showing a case where imaging is performed randomly using a light source whose luminance changes with time.
  • FIG. 34 is a diagram showing a configuration for realizing an image processing method according to the fifth embodiment of the present invention.
  • FIG. 35 is a flowchart showing processing of an image processing method according to the fifth embodiment of the present invention.
  • FIG. 36 is a diagram showing a configuration of a conventional imaging system for capturing an image in which the luminance and position of a light source are changed.
  • FIG. 37 is a diagram illustrating a conventional imaging method for capturing an image in which the luminance and position of a light source have changed.
  • the same subject is captured under imaging conditions that allow the imaging device to capture a plurality of images having different light source conditions under a light source whose luminance changes with time.
  • An image processing method comprising a step of performing at least one of the above.
  • the same subject is photographed under an imaging condition in which a plurality of images with different light source conditions can be captured by an imaging device under a light source whose luminance changes with time.
  • An image processing method for estimation is provided.
  • the light source has a periodically changing luminance
  • the imaging condition is set to a sufficiently short exposure time with respect to the luminance changing period of the light source.
  • the image processing method according to the first or second aspect, wherein the light source is a fluorescent lamp, an LED, or a display.
  • the imaging condition is at least one of an exposure time, an imaging timing, and an imaging period.
  • the first or second aspect includes the steps of acquiring light source information of the light source and determining the imaging condition based on the acquired light source information.
  • An image processing method is provided.
  • the image processing method is at least one of a luminance change period, a luminance change width, and position information of the light source. To do.
  • the same subject is photographed under an imaging condition in which a plurality of images with different light source conditions can be captured by an imaging device under a light source whose luminance changes with time.
  • the brightness change range for each point An image processing method is provided that includes: a step of dividing the region based on a distance from the light source using the luminance change width obtained for each corresponding point.
  • an imaging step of imaging the same subject a plurality of times by an imaging device under a light source whose luminance changes with time, and imaging is performed in the imaging step.
  • the light source statuses of the plurality of images are mutually determined by using a luminance change detecting step for detecting a time change of the luminance value and a time change of the luminance value of each corresponding point.
  • An image having an image determination step of determining whether or not the power is different and holding an image of a different light source state among the plurality of images as a light source fluctuation image, while discarding the other images Provide processing methods.
  • the image processing method according to the ninth aspect, further comprising a light source control step of controlling the luminance of the light source so as to change with time by a light source control device.
  • an image processing system includes an imaging device that performs image processing and an image processing device that performs image processing using a plurality of images captured by the imaging device.
  • an imaging device can capture a plurality of images with different light source conditions under a light source whose luminance changes with time.
  • the computer executes an imaging step of performing imaging multiple times on the same subject, and an image processing step of performing image processing using the plurality of images captured in the imaging step.
  • the image processing step is estimated by detecting a temporal change in luminance from the plurality of images, and estimating a shadow area in the plurality of images using the detected temporal change in luminance.
  • an imaging device can capture a plurality of images with different light source conditions under a light source whose luminance changes with time. Under the condition, the computer executes an imaging step of performing imaging multiple times on the same subject, and an image processing step of performing image processing using the plurality of images captured in the imaging step. The image processing step provides what estimates the color vector of the light source.
  • FIG. 1 is a diagram showing a configuration for realizing an image processing method according to the first embodiment of the present invention.
  • a subject OB is illuminated by a plurality of light sources 11 whose luminance changes with time, and is continuously imaged a plurality of times by an imaging device 20 such as a camera.
  • imaging conditions such as exposure time, imaging timing, and imaging cycle are set so that a plurality of images with different light source conditions can be captured.
  • the plurality of captured images are sent to the image processing device 30, and image processing such as shadow area estimation is executed by the image processing device 30.
  • the imaging device 20 and the image processing device 30 constitute an image processing system according to the present invention.
  • FIG. 2 is a flowchart showing processing of the image processing method according to the present embodiment.
  • the imaging apparatus 20 shown in FIG. 1 has a subject position OB irradiated to a plurality of light sources 11 whose luminance changes with time, and an exposure time shorter than the luminance change period of the light source 11 as an imaging condition. Then, imaging is performed a plurality of times (step S11). The plurality of images captured in this way have different light source conditions in time series.
  • the image processing device 30 detects a luminance temporal change from a plurality of captured images (step S12), and estimates a shadow region in the image using the detected luminance temporal change (step S13).
  • step S14 area division based on optical characteristics is performed (step S14).
  • Step S11 corresponds to the imaging step
  • steps S12 to S14 correspond to the image processing step.
  • step S11 a plurality of lights whose positions are fixed and whose luminance changes with time.
  • the subject OB irradiated to the source 11 is imaged a plurality of times by the imaging device 20 using an exposure time shorter than the luminance change period of the light source 11 as an imaging condition.
  • Examples of the light source 11 used in the present embodiment include a fluorescent lamp.
  • Fluorescent lamps are widely used as domestic light sources.
  • the principle of fluorescent light emission is as follows. When a voltage is applied across the lamp, the electrons emitted from the electrode are accelerated and collide with mercury. Mercury excited by the collision generates ultraviolet light, which is converted into visible light by a phosphor. From such a principle, in an AC drive fluorescent lamp, light emission and dimming are repeated according to the AC frequency, and as a result, a change in luminance occurs with time.
  • the flickering frequencies of fluorescent lamps are 100 Hz and 120 Hz, respectively, which are not normally observed by the human eye.
  • the exposure time is set shorter than the blinking cycle of the fluorescent lamp and the imaging timing (imaging cycle) is set so as to be shifted from the blinking frequency
  • the object is stationary and the camera position is fixed.
  • an image whose luminance changes with time is captured.
  • Such luminance change is known as flicker, and the conventional power has been considered as a big problem in image processing (see, for example, JP-A-2-135986).
  • the flicker which is considered to be an obstacle to image processing, is used in reverse, so that the so-called light source status such as the brightness and position of illumination, which has been very difficult to acquire, is different. Light source fluctuation Images are easily captured.
  • FIG. 3 is a graph for explaining the occurrence of flicker, and shows a luminance change A1 at a certain point of the subject under fluorescent lamp illumination.
  • the vertical axis represents luminance
  • the horizontal axis represents time.
  • A2 is the imaging timing (time tal to tall)
  • A3 is the exposure time.
  • the observed luminance value A4 varies with time. That is, the actually captured luminance value A4 is obtained as an integral value of the luminance change A1 at the exposure time A3 at each imaging time tal to tall.
  • the exposure time can be set to a time sufficiently short with respect to the luminance change period of the light source, it is possible to take an image whose luminance changes with time.
  • Ordinary fluorescent lamps have brightness fluctuations with a period twice that of the AC frequency.
  • the blinking frequency of the fluorescent lamp is 100 Hz in eastern Japan and 120 Hz in western Japan, so the exposure time can be reduced to lZlOOsec.
  • it may be set to a sufficiently short time, for example 2 msec, relative to lZl20 sec.
  • the exposure time can be set to the fastest shutter speed of the camera, for example, lmsec.
  • the imaging timing A5 is preferably set, for example, at random (time tbl to tbl l) so as not to coincide with the phase of the luminance variation A1 of the light source.
  • This may be set by a program using random number generation, for example.
  • a luminance value A6 is obtained.
  • the force described by taking a fluorescent lamp as an example of the light source 11 is not limited to the fluorescent lamp.
  • an LED or a display may be used as the light source 11.
  • LED lighting has been spreading rapidly in recent years due to its brightness and long life. Even in the home, it has the potential to replace the fluorescent lamps that are currently widely used, and recently, products such as “LED-based downlights” have been sold.
  • V so-called visible light communication, which sends data by blinking LED light sources at a speed that is too weak for the human eye (for example, “Shinichiro Haruyama,“ Visible Light Communication ” , Journal of the Institute of Electronics, Information and Communication Engineers, Journal A, vol. J86-A, No. 12, pp. 1284-1291, 2003 ”).
  • the exposure time of the imaging device 20 shorter than the blinking cycle of the LEDs, it is possible to capture a so-called light source fluctuation image in which the luminance changes with time. That is, the image processing method of the present embodiment can be realized in the same manner even when the current mainstream fluorescent lamp illumination is replaced with LED illumination in the future.
  • liquid crystal displays and cathode ray tube displays connected to a personal computer are rewritten with a vertical synchronization frequency of about 60 Hz.
  • the brightness of the screen changes at a period corresponding to the vertical synchronization frequency. For this reason, even when these displays are used as the light source 11, a plurality of images with different light source conditions can be taken in the same manner.
  • the plasma display displays gradation by combining a plurality of subfield images having different luminance (for example, “Taku Tokunaga, Hideto Nakamura, Masahiro Suzuki, Nobuhiko Saegusa,“ AC type PDP Development of a new driving method of ", PIONEER R & D, vol. 11, No. 1, pp. 17-23, 2003”)
  • each pixel originally undergoes binary fluctuations of ON-OFF.
  • the plasma display can be treated as a light source with a collection of pixels. For this reason, even when a still image is displayed, the luminance changes with time by changing the exposure timing. Therefore, even when a plasma display is used as the light source 11, a plurality of images with different light source conditions can be taken in the same manner.
  • step S12 the temporal change in luminance at each corresponding point is detected from a plurality of images captured by the imaging device 20 in step S11 and having different light source conditions.
  • the image processing device 30 may detect a luminance change for each pixel in the plurality of captured images.
  • the position of the imaging device 20 need not be fixed. For example, when the camera moves, it is only necessary to track feature points on an image, identify corresponding points between a plurality of images, and detect a luminance change at the corresponding points.
  • Such feature point extraction and feature point tracking methods include, for example, Harris operator and KLT (Kanade- Lucas- Tomasi) Feature Tracker (“jianbo Sni and Carlo lomasi. Good features to frack. IEEb and onfer ence on Computer Vision and Pattern Recognition, pp.593-600, 1994 ”).
  • step S12 the object detected by the image processing device 30 does not necessarily have to be a luminance change on the image. For example, it would be a good idea to detect changes in color vector information such as the RGB value of each corresponding point on the image.
  • step S13 the shadow area in the image is estimated using the time change information of the luminance detected in step S12.
  • the luminance value of the shadow region is zero.
  • the shadow region can be estimated by dividing the region using the luminance value as a threshold value.
  • light does not reach from a certain light source. Although it becomes a shadow, there are many areas where the brightness value does not become zero because the other light source reaches the light.
  • Such a shadow region is very difficult to estimate by a method that simply uses a threshold as described above.
  • FIG. 6 is a diagram showing a shadow region when there are a plurality of light sources.
  • two light sources Al la and light source Bl lb irradiate the object OB.
  • the imaging device 20 images the object OB with its upward force.
  • shadow area A a shadow is generated because light from light source Al ia does not reach. If only the light source Alia illuminates the subject OB, the brightness value of the shadow area A is 0, but the light from the light source Bl lb actually arrives. Also, in the shadow area B, if only the light source Bl lb illuminates the subject OB, the brightness value becomes 0. Actually, the light from the light source Alia arrives.
  • the luminance values of shadow areas A and B do not become zero. That is, it becomes difficult to estimate the shadow area.
  • the light source Alla and the light source B ib are LED light sources and are blinking at different frequencies.
  • the angular frequency of blinking of light source Al la and light source Bl lb is ⁇ ,
  • a B is represented by the following equation.
  • the luminance value I at the pixel p on the captured image changes with time as follows.
  • the shadow region estimation method of the present embodiment is not only applicable to a light source whose luminance changes continuously.
  • the present invention can be applied even to a light source in which discontinuous luminance changes such as ON and OFF are repeated.
  • FIG. 6 it is assumed that the light source Al la and the light source Bl lb repeat ON and OFF. In this case, it is assumed that after both the light source Alla and the light source Bllb are turned on, only the light source Alia is turned off. At this time, in the shadow area A in which the shadow is generated by the light source Alia, the light from the light source Alla originally arrives and should not be changed even if the light source Alla is turned off. On the other hand, in the shadow area B and the areas C, D, and E, the incident light decreases as the light source Alia is turned off, so that the luminance value decreases.
  • the shadow area B in which the shadow is generated by the light source B does not change, but the luminance value decreases in the shadow area A and the areas C, D, and E. Furthermore, when the light source Alia is turned on, the brightness value of the shadow area A does not change, but the brightness value of the shadow area B and areas C, D, and E increases. Therefore, the shadow area can be estimated from the change in luminance of the image.
  • the force described in the case of two light sources is, of course, the number of light sources may be three or more. Also, as mentioned above, to use the frequency of each light source Even if two or more light sources are turned on at the same time, it does not matter if the image is taken. At this time, the frequency of the luminance change of the light source that repeatedly flickers at the same timing may be the same. This is particularly important in the home. There are many cases in the home where multiple lights of the same type are installed. When illumination is performed by a plurality of fluorescent lamps, as described later, these light sources can be considered as illumination in which light sources having different phases of luminance change alternately blink. For this reason, the fact that the same processing can be performed even for light sources that repeatedly blink at the same frequency means that the present embodiment can be applied without installation costs to fluorescent lighting that is currently mainstream. High value.
  • step S14 the image processing device 30 performs, for example, linearity of the image using the estimation result of the shadow area obtained in step S13.
  • linearity of the image will be described.
  • a method using a camera is widely used for recognizing the position and orientation of a subject and detecting motion. This is because, for example, pattern matching, optical flow detection, feature point extraction, etc. for images captured by a camera! / Realized by applying different image processing methods.
  • image processing technology is effective for noise-free images, but there is a problem that sufficient reliability cannot be obtained for images taken in a general environment such as a home.
  • IPSJ Research Report C VIM, 2003 -CVIM- 141, pp. 17— 23, 2003 " This is because normal image processing assumes an object with only diffuse reflection, but in reality, it depends on the color information and edge information of the image data due to the effects of specular reflection and shadows. The main reason is that it changes drastically.
  • Image linearization is an image processing technique that uses multiple images taken while changing the position of the light source to synthesize a linearized image with only diffuse reflection components without specular reflection or shadows. (For example, see Non-Patent Document 2). In addition, segmentation based on optical characteristics is performed. This method will be described in detail.
  • FIG. 7 is a diagram illustrating the relationship between optical reflections such as diffuse reflection, specular reflection, and shadow.
  • the brightness of an object is expressed as the sum of a diffuse reflection component and a specular reflection component.
  • I d n-s (Equation 3) where n is the product of the normal vector N on the object surface and diffuse reflectance (albedo), and s is the product of the light source direction unit vector L and the light source illuminance. Represent ( Figure 8).
  • the shadows are a ttached shadow that occurs because the normal of the object does not face the light source direction, and a cast shadow that occurs when light is shielded by another object. Divided into types. If there is no influence of ambient light or mutual reflection, the brightness of both is zero. However, in (Equation 3), the attached shadow has a negative value and the cast shadow has a positive value.
  • This linearized image is a composite image with only diffuse reflection components that satisfies the Lambertian model. However, since the actual image includes shadows and light source reflections, (Equation 4) is not satisfied. Therefore, in Non-Patent Document 2, RANSAC captures multiple images with different light source directions. (See “MA Fischler and RC Bolles,” Random Sample Consensus: A Paradigm for Mo del Fitting with Applications to Image Analysis and Automated Cartography ", Communications of the ACM, Volume 24, Issue 6, pp. 381-395) By using, three images with only diffuse reflection components satisfying (Equation 4) are created. An image with only the diffuse reflection component created in this way is called a base image. By applying the base image to Shashua's method, a linear image corresponding to the light source condition of the captured image can be created. In other words, the linearized image is expressed by the following equation.
  • the linearized image generated in this way is an image in an ideal state in which no specular reflection occurs. Therefore, image processing that is not affected by specular reflection or shadow can be realized by performing image processing using this linearized image.
  • step S14 it is irrelevant to perform region division based on optical characteristics using the linear image obtained as described above.
  • the luminance value of the pixel in the input image k is i and the luminance value of the corresponding linearized image is i, diffuse reflection, specular surface k (p) k (p)
  • T and Ts are threshold values.
  • Equation 7A ( P ) e Shdw indicates that the pixel p of the k-th image is estimated to be a shadow region by the shadow region estimation step SI3.
  • image processing based on optical characteristics can be performed even in a general living environment, which is difficult with conventional image linearization.
  • FIG. 10 (b) is a graph schematically showing the luminance change of each of the fluorescent lamps 41 to 43 in the illumination of FIG. 10 (a).
  • B 1, B2, and B3 indicate the luminance changes of the fluorescent lamps 41, 42, and 43 in FIG. 10 (a), respectively.
  • the two outer fluorescent lamps 41 and 43 repeat blinking in the same phase.
  • the fluorescent lamp 42 in the center repeats blinking with phase inversion.
  • the illumination in Fig. 10 (a) is considered to be two types of light sources that, as shown in Fig. Ll (a) and (b), have different light emission positions and repeat blinking alternately. be able to.
  • a plurality of images with different light source conditions can be easily captured by the above-described method. Therefore, in the case of illumination incorporating a plurality of fluorescent lamps, the linearity of the image can be realized at low cost.
  • FIG. 12 is a diagram showing an example of the image processing result obtained in the present embodiment.
  • (a) is an input image obtained by photographing the subject OB in the configuration of FIG. 6, and
  • (b) is a graph showing luminance time changes in pixels A and B in the shadow area and pixel P in the diffuse reflection area.
  • FFT Fast Fourier Transform
  • the image processing method according to the present embodiment is also effective when the shape of the subject OB is estimated in the image processing apparatus 30. This will be explained using the method of using Photometric Stereo as an example.
  • Photometric Stereo is a method for estimating the normal direction and reflectance of a subject using three or more light source fluctuation images picked up by different light source direction forces. For example, in ⁇ H. Hayakawa, Photometric Stereo under a light source witn arbitrary motion, Journal of the Optical Society of America A, vol.11, pp.3079-89, 1994 '' By acquiring points with the same rate as known information and using it as a constraint condition, a method for estimating the following parameters even if the position information of the light source is unknown is described.
  • Object shape information and optical information Normal direction and reflectance of each point on the image
  • Light source information Light source direction and illuminance
  • FIG. 14 is a flowchart showing another example of the process of the image processing method according to the present embodiment.
  • steps that are the same as those in the flowchart of FIG. 2 are given the same reference numerals, and detailed descriptions thereof are omitted.
  • Steps S12 to S15 correspond to image processing steps.
  • the light source fluctuation image is acquired by the above-described method, and a linearized image is synthesized (steps 311 to 314). Then, using the synthesized linearized image, information on the subject and the light source is acquired (step S15). This process will be described in detail.
  • a linearized image synthesized from the light source fluctuation image is expressed by a luminance matrix I as shown in the following equation.
  • the image size is p pixels, and the number of captured images is f.
  • R, N, M, T, S, and L are the surface reflection matrix, surface normal matrix, and light source direction row, respectively.
  • a column, a light source luminance matrix, a surface matrix, and a light source matrix are shown.
  • R and n are the surface reflectance and surface normal, and t and m are the light source luminance and the light source direction unit vector, respectively.
  • Each element of the matrix S represents the product of the surface reflectance and the surface normal at each point on the screen from (Equation 10). In other words, the square of each element of the matrix S indicates the square of the surface reflectance at each point on the screen.
  • Equation 15 is uniquely solved. It can be seen that the number of constraint formulas necessary for the adjustment, that is, the number of points P ′ that are stiff when the reflectance is equal, should be at least 6 points. (Equation 14) can be easily solved by performing singular value decomposition.
  • a plurality of images are captured using a light source, for example, a fluorescent lamp, having a multi-valued luminance change over a known subject with equal reflectance and six or more pixels. Then, by performing linear image processing of the images using the plurality of images, it is possible to decompose (Equation 10) and obtain the following information as a result.
  • a light source for example, a fluorescent lamp, having a multi-valued luminance change over a known subject with equal reflectance and six or more pixels.
  • Object shape information and optical information Normal direction and reflectance of each point on the image
  • Light source information Light source direction and illuminance
  • FIG. 15 is a diagram showing an example of the image processing result obtained in the present embodiment.
  • (a), (b) and (c) are the same as those in FIG. 12, and detailed description thereof is omitted here.
  • the shape of the subject OB can be estimated as shown in FIG. 15 (d).
  • the reflectance of the subject, the direction of the light source, the illuminance, and the like can be estimated, but the illustration is omitted.
  • a plurality of images with different light source conditions can be easily obtained under a light source whose luminance changes with time. Then, using this image, it is possible to estimate a shadow area, generate a linearized image, divide an area based on optical characteristics, estimate the shape of a subject, acquire light source information, and the like.
  • FIG. 16 is a flowchart showing the processing of the image processing method according to the second embodiment of the present invention.
  • steps common to the image processing method of the first embodiment shown in FIG. 2 are given the same reference numerals, and detailed description thereof is omitted here.
  • Steps S12 and S21 correspond to image processing steps.
  • the configuration in the present embodiment is the same as the configuration in the first embodiment shown in FIG.
  • the shadow region estimation step S 13 is not performed, and the light source color vector is estimated instead of step S 14 (step S 21).
  • step S 21 the light source color vector is estimated instead of step S 14 (step S 21).
  • the brightness of an object is expressed as the sum of a diffuse reflection component and a specular reflection component. Therefore, the color vector S of pixel p on the image is the diffuse reflection component
  • Equation 16 It is expressed by (Equation 16) as the sum of the color vector S d and the specular reflection component color vector S s .
  • ⁇ , and ⁇ are the angle between the normal direction vector N of the subject and the unit vector L of the light source direction, and the angle between the normal direction vector N of the subject and the unit vector V of the imaging direction, as shown in FIG. Show.
  • the color vectors at time t, m ( ⁇ , ⁇ , t) and m ( ⁇ , ⁇ , t) are si di for the i-th light source.
  • the reason why the observed value is a function of time t is that, as described above, the brightness of the light source changes with time t because of the blinking of the light source. However, with this time variation, only the color-stable scalar changes.
  • the color vector S (t) observed at another point p ′ on the image is also the light source color vector.
  • FIG. 17 is a diagram showing this relationship.
  • the RGB value of each point is used as a color vector.
  • Gl and G2 are planes showing color vector sets on the RGB space when the luminance at points p and p ′ changes with time, respectively.
  • this corresponds to the light source color vector SL common to both planes Gl and G2.
  • the light source color vector can be estimated by using the light source that repeatedly flickers.
  • an example of specific processing will be shown.
  • FIG. 18 is a flowchart showing an example of the flow of processing for estimating a light source color vector.
  • step S12A corresponds to step S12 in FIG.
  • the imaging device 20 captures a plurality of images (light source fluctuation images) with different light source conditions (step Sl l).
  • the plurality of captured images are given to the image processing device 30.
  • the image processing device 30 detects a change in luminance with time by detecting a change in RGB value for each pixel (step S12A).
  • a certain pixel on the image is selected (step S211), and RGB values at all imaging times corresponding to the pixel are plotted in the RGB space (step S212).
  • Principal component analysis is performed on the sampling point set thus plotted, and the first and second principal components are extracted (step S213). From equation (18), the two main components spanned plane obtained in this manner, if noise is not present, it can be seen equal to the light source color vector SL and object-specific color vector SP d and spanned plane.
  • two or more images are given to the image processing device 30.
  • the image processing device 30 detects a change in luminance with time by detecting a change in RGB value for each
  • step S214 If the elementary principal component analysis process has not been completed yet (No in step S214), another pixel on the image is selected (step S215), and the principal component analysis is performed on the selected pixel. On the other hand, if the principal component analysis has been completed for two or more pixels (Yes in step S214), the intersection line of the space spanned by the two principal components for each pixel is obtained, and this is calculated as the light source color vector (light source RGB value) (step S216).
  • the imaging device 20 is not limited to this, for example, a spectroluminance meter having a higher dimensionality or the like. Even if you use it, it's powerless.
  • a light source having a fixed position such as a fluorescent lamp, a plurality of light sources whose luminance changes with time, and the same light source color vector is used.
  • a light source color vector By capturing multiple images with a sufficiently short exposure time with respect to the luminance change period and detecting the luminance change, it is possible to easily estimate the light source color vector without requiring complex equipment.
  • FIG. 19 is a diagram showing a configuration for realizing an image processing method according to the third embodiment of the present invention. 19, components common to those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted here. The difference from the configuration in FIG. 1 is that the imaging condition of the imaging device 20 is controlled according to the imaging condition determined by the image processing device 30. An image control device 40 is provided.
  • FIG. 20 is a flowchart showing processing of the image processing method according to the present embodiment.
  • light source information is detected before actual imaging (step S35), and optimal imaging conditions are set using this light source information (steps S31 to S34).
  • Step 35 corresponds to the imaging step
  • steps S36 to S38 correspond to the image processing step.
  • a moving object is detected as image processing will be described.
  • the imaging device 20 captures a plurality of images with an exposure time shorter than the luminance change period of the light source 11 (step S31).
  • the image processing device 30 detects light source information in the imaging environment from the captured image (step S32). Specifically, for example, the luminance change period of the light source 11 whose luminance changes with time is detected.
  • the luminance change period of the light source 11 whose luminance changes with time is detected.
  • a fluorescent lamp is used as the light source 11 will be described as an example.
  • the light source itself may be imaged with a camera, and the light source information may be detected from the brightness change. Further, it does not matter if the light source information is separately notified to the image processing apparatus 30 using a communication means. Such processing is effective when the above-described visible light communication is used. In other words, when an LED light source is used, the light source may communicate light source information by periodically modulating the luminance over time.
  • step S33 the imaging conditions of the imaging device 20, such as the exposure time, imaging timing, and imaging cycle, are set so that a plurality of images with different light source conditions can be captured.
  • FIG. 23 when imaging is performed with an exposure time C5 that is sufficiently long with respect to the luminance change C1 of the light source (imaging timing C6), a luminance value C7 as shown in FIG. 24 is observed. .
  • the exposure time C5 when the exposure time C5 is long enough for the luminance change C1 of the light source, it works as an integral effect S smoothing process for the luminance change C1, and the observed luminance value C7 hardly changes. I understand that.
  • step S33 an imaging cycle different from the luminance change cycle of the light source detected in step S32 and an exposure time sufficiently short with respect to the luminance change cycle of the light source are set.
  • the imaging period Ts is set so as to satisfy the following relational expression with respect to the luminance change period T1 of the light source.
  • a is any positive integer. This may be set as follows, for example.
  • a a and b are arbitrary positive integers, and c is all positive integers.
  • step S33 in order to determine the imaging conditions such as the exposure time and the imaging timing, it is possible to use the brightness of the light source, the distance between the subject and the light source, the distance between the light source and the imaging device, and the like. It does n’t turn. In this regard, consideration will be given to considering the width of the luminance change.
  • FIG. 25 and FIG. 26 are graphs showing an example of luminance change at a certain point of the subject under fluorescent lamp illumination.
  • FIG. 25 shows the case where the width of the luminance change D1 of the light source is sufficiently large
  • FIG. 26 shows the case where the width of the luminance change D5 of the light source is sufficiently small.
  • the luminance values El and E2 on the vertical axis and the times tdl to tdl l (imaging timing D2) on the horizontal axis indicate the same luminance value and the same time, respectively.
  • D3 is the exposure time
  • black dots D4 and D6 are the observed luminance values.
  • Fig. 25 and Fig. 26 if they are imaged at the same imaging timing D2, they are observed because the widths of luminance changes Dl and D5 of the light source are different.
  • the luminance values D4 and D6 are very different.
  • the width of the luminance change D1 is sufficiently wide, a plurality of images with sufficiently changed luminance values can be captured.
  • the width of the luminance change D5 since the width of the luminance change D5 is small, the difference in luminance among the plurality of images is not so large. In this case, it can be said that it is sufficient to double the imaging interval and, for example, only take images at times tdl, td3, td5, td7, td9, and tdl l.
  • the luminance change width of the subject depends on the distance between the light source and the subject. For this reason, if the subject is sufficiently close to the light source, it is determined that the amount of light is sufficient, and the imaging interval is shortened. If the subject is sufficiently far from the light source, it is determined that the amount of light is small, and the imaging interval is reduced. Even if it is made longer, it does not help.
  • the imaging condition set in this way is not limited to the imaging interval.
  • the exposure time can be set similarly. If the amount of light is small, the image will be buried in noise such as dark current and the S / N ratio will deteriorate. However, it is known that the signal-to-noise ratio improves if the exposure time can be extended. Therefore, if the subject is sufficiently close to the light source, the light amount is judged to be sufficient, and the exposure time is shortened.If the subject is sufficiently far from the light source, the light amount is judged to be small, and the exposure time is determined. If you make it longer,
  • the imaging control device 40 sets the imaging condition of the imaging device 20 in accordance with the imaging condition determined in step S33 (step S34).
  • the imaging device 20 performs imaging a plurality of times in time series according to the set imaging conditions (step S35). As described above, since the exposure time and the imaging timing are set based on the luminance change period of the light source, the plurality of captured images are images with different light source conditions.
  • the optimal imaging conditions are set for the imaging in step S35.
  • the exposure time of the imaging device 20 may be set sufficiently shorter than the luminance change of the light source.
  • the exposure time is shortened too much, the effect of the dark current of the image will increase and the SN ratio of the captured image will deteriorate. Since it is desirable that the image for image processing has a high S / N ratio, optimizing the imaging conditions as in this embodiment has a great effect.
  • step S36 the image processing device 30 detects the temporal change in luminance from the plurality of images captured in step S35, as described above.
  • moving objects are detected using the background subtraction method.
  • a background image is synthesized by estimating the mixing rate described later from the luminance change over time (step S37), and a moving object is detected by comparing the background image with the image captured in step S35 (step S35). S38).
  • Non-Patent Document 1 the brightness of a captured image is separated into a light source component that does not change with time and a light source component whose brightness changes abruptly, and the mixing ratio is estimated to estimate the light source during processing. Create a background image according to the situation. This makes it possible to detect moving objects that are not affected by shadows or brightness changes of the light source. Specifically, in the outdoor environment, the color of the observed object is the direct sky light L1 that does not cause time fluctuations and the direct sunlight that the sun's direct light is blocked by clouds and the brightness changes drastically. Considering that it is composed of component L2, the background image is synthesized accurately by estimating the mixing ratio as shown in (Equation 21).
  • R, G, B are the R, G, B component images of the captured image
  • R, G are the R, G, B component images
  • R, G, B shows R, G and B component images for component L2.
  • the K represents the mixing ratio of each component image.
  • the light source that does not vary with time is the whole sky light component Ll, and the light source whose brightness changes abruptly is the solar direct light component L2.
  • This is not limited to the outdoor environment.
  • a fluorescent lamp is used as illumination in the home, and this fluorescent lamp illumination can be considered as a light source component L2 whose brightness changes.
  • this fluorescent lamp illumination can be considered as a light source component L2 whose brightness changes.
  • Images must be taken. Usually, in order to estimate such parameters, in order to improve accuracy and reliability, a plurality of data is used and the least squares method or the maximum likelihood estimation method is used. It is desirable that the data used at this time should have a sufficiently wide variation and no bias without sampling bias.
  • a light source whose luminance changes with time such as a fluorescent lamp
  • FIG. 28 is a diagram showing an example of the image processing result obtained in the present embodiment.
  • (a) is an input image (step S31) obtained by photographing the subject OB in the configuration of FIG. 6,
  • (b) is a schematic diagram of detected light source information (step S32), and
  • the blinking frequency of the light source is obtained by performing frequency analysis such as FFT (Fast Fourier Transform) on the luminance time change.
  • the optimal imaging condition is determined for the blinking frequency force of the light source thus obtained (step S33), and after setting it to the imaging device 20 (step S34), the subject OB is imaged again (step S35). This result As a result, an input image as shown in FIG. 28 (c) is obtained.
  • the latest captured image includes a moving object OB1.
  • a background image suitable for the current light source environment as shown in FIG. 28 (e) is synthesized (steps S36 and S37). Then, by performing a difference process between the image in FIG. 28 (d) and the composite background image in FIG. 28 (e), the moving object OB1 can be detected as shown in FIG. 28 (f).
  • the light source information detected in step S32 is not limited to the luminance change period of the light source.
  • the luminance change width and the light source position information may not be used.
  • FIG. 29 is a flowchart showing another example of the process of the image processing method according to the present embodiment.
  • image processing image segmentation for linearization processing is performed.
  • steps that are the same as in the flowchart of FIG. 20 are given the same reference numerals, and detailed descriptions thereof are omitted.
  • step S39 for performing region segmentation is executed after the time change in luminance is detected in step S36. Steps S36 and S39 correspond to image processing steps.
  • the linearization processing of the image assumes that the light source is a parallel light source.
  • a parallel light source is a point light source placed at infinity.
  • sunlight can be considered as a parallel light source.
  • fluorescent lamps in the home, etc. emit light in a wide direction, so they can be considered as a set of proximity point light sources.
  • a method of dividing an image is known (for example, “Satoshi Sato, Kazutoshi Takada, Toshio Toshio,“ "Study on Image Linearity in Japan”, Information Processing Society of Japan Research Report 2004—CVI M-145, pp. 151-156, 2004).
  • an image is divided into processing regions, and image linearization is performed for each processing region. Also, processing is performed in processing regions where linearization is difficult by utilizing the fact that there is a strong correlation in the linearization coefficient group between regions. Furthermore, the base image is synthesized while changing the region division method. By doing so, it is possible to perform linear alignment of images even under close-up illumination.
  • FIG. 30 (a) it is assumed that the imaging device 20, the light source 11, and the subject OB are installed, and the luminance of the light source 11 changes with time.
  • Figure 30 (b) shows the image taken at this time.
  • the light source 11 emits light from the right front side. Therefore, the pixel C on the right side of the subject is closer to the light source 11 than the pixel D on the left side.
  • Figure 31 (a) shows the luminance changes Lc and Ld for pixel C and pixel D. From Fig. 31 (a), it can be seen that pixel C and pixel D have significantly different luminance change widths. In other words, the luminance change depends on the distance between the light source and the object, and the change width is large when the distance is short, and the change width is small when the distance is long.
  • FIG. 31 (b) is a diagram showing the result of region segmentation on the image of FIG. 30 (b).
  • the light source information detected in step S32 is not limited to information relating to the luminance change of the light source. For example, it does not matter if a color vector of a light source that changes with time is detected.
  • the image signal is decomposed into an RGB signal through a prism, power filter, etc., and then converted into an electric signal by a photoelectric conversion element. It is detected as a qi signal.
  • the detected luminance value is the product of the characteristics of the prism and color filter and the color vector of the incident light on the camera. That is, when the color vector of the incident light changes with time, the luminance value of the subject also changes with time. As a result, an image in which the luminance value of the light source changes with time can be captured.
  • FIG. 32 is a flowchart showing processing of an image processing method according to the fourth embodiment of the present invention.
  • steps common to the image processing method of the first embodiment shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted here.
  • the configuration according to the present embodiment is the same as the configuration of the first embodiment shown in FIG.
  • step S41 the image processing device 30 detects in step S12 whether or not the light source conditions of the plurality of images taken in step S11 are different from each other. Judgment is made using the temporal change in the luminance value of each corresponding point. Then, among the plurality of images, an image having a different light source condition is held as a light source fluctuation image (step S42), and the other images are discarded (step S43). Then, image processing is performed using the held light source fluctuation image (not shown).
  • Step S11 corresponds to the imaging step
  • step S12 corresponds to the brightness change detection step
  • steps S41 to S43 correspond to the image determination step.
  • FIG. 33 is a diagram showing a change in luminance value when a light source whose luminance changes with time is used.
  • E1 is the luminance change at one point of the subject
  • E2 and E3 are the imaging timing and exposure time of the imaging device 20, respectively.
  • E4 is the observed luminance value.
  • the image is captured in the same phase with respect to the blinking of the light source, such as the times te'6 and te'7, an image with the same luminance value E4 may be captured.
  • step S41 an image captured in the same phase with respect to such blinking of the light source is detected and excluded from the plurality of captured images. This can be done by observing the brightness change of one or more points on the image detected in step S12. .
  • a method is described in which m pixels are selected from the image and the change in the image is detected using the luminance value.
  • the luminance value at point m of the kth image is considered as a vector as follows.
  • the kth image detected by S 12 is evaluated according to the following evaluation function Ev (i ')
  • the light source variation image thus obtained may be subjected to processing such as image linearization, light source color vector estimation, background subtraction method, and the like as described in the above embodiments.
  • FIG. 34 is a diagram showing a configuration for realizing an image processing method according to the fifth embodiment of the present invention.
  • the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted here.
  • the difference from the configuration in FIG. 1 is that a light source control device 50 for controlling a plurality of light sources 11 whose luminance changes with time is provided.
  • FIG. 35 is a flowchart showing processing of the image processing method according to the present embodiment. 35, steps common to the flowchart of FIG. 32 in the fourth embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • step S51 for further controlling the temporal variation of the luminance of the light source 11 is provided.
  • step S51 an environment in which the brightness and position of the light source 11 are changed is generated by controlling the light source 11.
  • the imaging device 202 captures a light source fluctuation image in which the position and luminance of the light source have changed by performing imaging in synchronization with the luminance change of the light source 204. It was.
  • the light source 11 whose luminance changes with time is used, and the imaging device 20 does not synchronize with the change of the light source 11 and performs imaging at random.
  • the light source fluctuation image obtained in this way may be subjected to processing such as image linearization, light source color vector estimation, background subtraction method and the like as described in the above embodiments.
  • the temporal variation of the light source is controlled, and the difference in the light source status in the captured image is detected.
  • the ability to acquire a light source fluctuation image can be obtained without considering the imaging timing. For this reason, even in a general living environment, image processing can be performed without being affected by changes in the brightness of shadows or light sources.
  • the image processing according to each of the above-described embodiments can be executed by causing a computer to execute a program.
  • so-called light source fluctuation images can be easily obtained without requiring complicated control such as synchronization processing and without requiring large-scale equipment. Therefore, it is particularly effective for information acquisition for digital eve, etc., and for models in general living environments where the environment is complex such as in the home. It is also effective when capturing a light source fluctuation image of a large subject.
  • the present invention it is possible to perform image processing without being affected by shadows caused by a plurality of light sources and changes in luminance of the light sources, which are problematic in a general living environment. For this reason, it is useful as an image processing apparatus, authentication apparatus, etc. for robots and automobiles in general living environments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

 蛍光灯など輝度が時間的に変化する光源下において、光源状況が異なる複数の画像が撮像可能となる撮像条件で、複数の画像を撮像する(S11)。撮像した複数の画像から輝度の時間変化を検出し(S12)、この輝度の時間変化を用いて影領域を推定し(S13)、線形化画像の合成や光学特性に基づく領域分割などの画像処理を行う(S14)。

Description

明 細 書
画像処理方法、画像処理システムおよび画像処理プログラム
技術分野
[0001] 本発明は、例えば家庭内などの一般生活空間を想定した場合における、画像撮像 および画像処理に関するものである。
背景技術
[0002] 今日、家庭内などの一般生活環境において、物理支援ロボットの実用化が望まれ ている。このようなロボットを実用化するためには、対象物の位置や姿勢の検出、対 象物の認識、対象物の動き検出、環境の認識等の処理が必要である。
[0003] このような処理を行うために、従来から、カメラを用いる方法が広く用いられて 、る。
これは、カメラで撮像された画像に対し、例えばパターンマッチングやオプティカルフ ロー検出、特徴点抽出といった画像処理を適用することによって、実現される。
[0004] 家庭内のような一般生活環境では、光源変動による鏡面反射'影の影響によって、 これらの画像処理の精度や検出率が劣化することが知られている。そこで、例えば画 像の線形化など、 2色性反射モデルや Lambertianモデルと!/、つた反射モデルを利用 した、光源変動の影響にロバストな画像処理が研究されている(例えば、非特許文献 1, 2)。
[0005] 非特許文献 1では、屋外環境にぉ 、て、観測される物体の色は、時間変動が生じ ない全天空光成分と、雲によって太陽直射光が遮られ、明るさが急激に変化する太 陽直射光成分とから成るものと考える。そして、移動物体を検出するために背景差分 法を行う際、時間変化が大きい太陽直射光成分の混合率を推定することにより、影や 光源の輝度変化の影響を受けな 、移動物体の検出を実現して 、る。
[0006] 非特許文献 2では、光源位置が変化した複数枚の画像を利用し、鏡面反射や影を 含まな 、拡散反射のみの合成画像である線形化画像を作成する。このような線形ィ匕 画像を利用することによって、鏡面反射の影響を受けない画像処理が実現される。 非特許文献 1 :奥村晃弘,岩井儀雄,谷内田正彦 "屋外における移動物体の検出 —照明変動と影への対策一",画像の認識'理解シンポジウム (MIRU2000), vol.II, p p.307-312, 2000
非特許文献 2 :石井育規,福井孝太郎,向川康博,尺長健"光学現象の分類に基づ く画像の線形化",情報処理学会論文誌, vol.44, no. SIG5 (CVIM6), pp.11-21, 200 3
発明の開示
発明が解決しょうとする課題
[0007] このような光学モデルを利用した画像処理手法の多くは、光源の位置や輝度が異 なった複数枚の画像を必要とする。例えば、非特許文献 1では、全天空光成分と太 陽直射光成分を推定するために、太陽直射光成分の輝度のみが異なった 2枚以上 の画像が必要である。また、非特許文献 2では、光源位置が異なった 4枚以上の画像 が必要である。
[0008] このような光源の輝度や位置が異なった複数枚の画像を、本願明細書では「光源 変動画像」と呼ぶ。通常、このような光源変動画像を撮像するためには、光源の位置 や輝度を変更し、その変更に同期させて画像を撮像する必要があった。ところがこの 方法では、光源とカメラとの間で同期を取る必要があり、システムが大規模になり、撮 像コストが増大するといつた問題があった。
[0009] 図 36は光源変動画像を撮像するための従来の撮像システムの例である。まず、被 写体 201と撮像装置 202を固定し、被写体 201の周りにレール 203を張り巡らす。光 源 204はレール 203上の様々な位置に固定することができる。撮像装置 202は光源 204の位置変化または輝度変化に同期して撮像を行うことによって、光源変動画像 を撮像することができる。しカゝしこのシステムでは、被写体 201を覆うレール 203を配 置する必要があるため、システムが非常に大が力りなものになってしまう。特に被写体 201が大きい物である場合、システムの設置は極めて困難になる。また、撮像装置 2 02は光源 204の位置変化や輝度変化に同期して撮像を行う必要があるため、制御 が複雑になり、撮像に要する時間も大きくなつてしまう。
[0010] 最近では、大仏や建物などをデジタルアーカイブとして記録するために、または、ォ フィス内や家庭内の環境をコンピュータグラフィック (CG)として表示するために、光 源の位置や輝度が変化した複数枚の画像を撮像する必要があることがある。このよう に被写体が非常に大きい場合、図 36の方法では撮像が非常に困難になる。
[0011] また、光源の位置情報が未知でも構わな 、画像処理 (例えば、画像の線形化)を行 う場合、図 37のように、撮像者または撮像ロボット 205が、光源 204を稼動部である 手に持ち、光源 204を移動させながら撮像装置 202によって撮像を行うことも可能で ある。ところが、カメラの位置を固定した状態で光源を動かす、という複雑な操作が必 要であり、やはり、撮像に要する時間が大きくなるという問題があった。
[0012] 前記の問題に鑑み、本発明は、画像処理において、いわゆる光源変動画像を、簡 易な設備において、取得可能にすることを課題とする。
課題を解決するための手段
[0013] 本発明は、輝度が時間的に変化する光源下において、撮像装置によって、光源状 況が異なる複数の画像が撮像可能となる撮像条件で、同一の被写体について、複数 回、撮像を行い、撮像された複数の画像を用いて、画像処理を行うものである。
[0014] 本発明によると、輝度が時間的に変化する光源を利用して、撮像装置によって、光 源状況が異なる複数の画像が撮像可能となる撮像条件を設定して、複数の画像を撮 像する。これによつて、いわゆる光源変動画像が、大規模なシステムや複雑な操作を 必要とすることなぐ容易に取得できる。
[0015] また、本発明は、輝度が時間的に変化する光源下において、撮像装置によって、 同一の被写体について、複数回、撮像を行い、撮像された複数の画像における複数 の対応点にっ 、てそれぞれ輝度値の時間変化を検出し、各対応点の輝度値の時間 変化を用いて、複数の画像の光源状況が互いに異なっている力否かを判断し、光源 状況が異なって!/ヽる画像を光源変動画像として保持する一方、それ以外の画像を破 棄するものである。
[0016] 本発明によると、輝度が時間的に変化する光源を利用して、撮像装置によって、複 数の画像を撮像する。そして、複数の画像における各対応点の輝度値の時間変化を 用いて、光源状況が異なっている画像のみを、光源変動画像として保持する。これに よって、いわゆる光源変動画像が、大規模なシステムや複雑な操作を必要とすること なぐ容易に取得できる。
発明の効果 [0017] 本発明によると、例えば家庭内のような一般生活環境において、非常に簡単な装 置で、光源の位置や輝度が異なった ヽゎゆる光源変動画像を容易に撮像することが できる。このような画像を利用することによって、一般生活環境においても、影や光源 の輝度変化の影響を受けない画像処理を行うことができる。
図面の簡単な説明
[0018] [図 1]図 1は、本発明の第 1の実施形態に係る画像処理方法を実現するための構成 を示す図である。
[図 2]図 2は、本発明の第 1の実施形態に係る画像処理方法の処理を示すフローチヤ ートである。
[図 3]図 3は、輝度変化が生じる光源の影響について説明するための概念図である。
[図 4]図 4は、図 3の状況において観測される輝度値を示す図である。
[図 5]図 5は、図 3の状況において、撮像タイミングをランダムに設定した場合を示す 図である。
[図 6]図 6は、光源が複数存在する場合の影の振る舞いについて説明するための図 である。
[図 7]図 7は、光学現象である拡散反射、鏡面反射および影の関係を示す概念図で ある。
[図 8]図 8は、光源と撮像装置、被写体の法線方向の関係を示す概念図である。
[図 9]図 9は、光学特性に基づく領域分割の基準を示すグラフである。
[図 10]図 10は、蛍光灯の発光パターンを説明するための図である。
[図 11]図 11は、蛍光灯の発光パターンを説明するための図である。
[図 12]図 12は、本発明の第 1の実施形態において求められた画像処理結果の一例 を示す図である。
[図 13]図 13は、図 12の結果を利用して得られた、光学特性に基づく領域分割の例 である。
[図 14]図 14は、本発明の第 1の実施形態に係る画像処理方法の処理の他の例を示 すフローチャートである。
[図 15]図 15は、本発明の第 1の実施形態において求められた画像処理結果の一例 を示す図である。
[図 16]図 16は、本発明の第 2の実施形態に係る画像処理方法の処理を示すフロー チャートである。
[図 17]図 17は、光源色ベクトルの推定方法を説明するための概念図である。
[図 18]図 18は、本発明の第 2の実施形態における光源色ベクトルの推定処理の流れ を示すフローチャートである。
[図 19]図 19は、本発明の第 3の実施形態に係る画像処理方法を実現するための構 成を示す図である。
[図 20]図 20は、本発明の第 3の実施形態に係る画像処理方法の処理を示すフロー チャートである。
圆 21]図 21は、光源の輝度変化に同期した撮像タイミングで撮像を行う場合を示す 概念図である。
[図 22]図 22は、図 21の状況において、観測された輝度値を示す図である。
[図 23]図 23は、光源の輝度変化に対して十分に長い露光時間で撮像を行う場合を 示す概念図である。
[図 24]図 24は、図 23の状況において、観測された輝度値を示す図である。
[図 25]図 25は、光源の輝度変化の幅が大きい場合の、被写体における輝度変化の 例を示す図である。
[図 26]図 26は、光源の輝度変化の幅が小さい場合の、被写体における輝度変化の 例を示す図である。
[図 27]図 27は、撮像間隔を光源の明滅間隔よりも長く設定した例を示す概念図であ る。
[図 28]図 28は、本発明の第 3の実施形態において求められた画像処理結果の一例 を示す図である。
[図 29]図 29は、本発明の第 3の実施形態に係る画像処理方法の処理の他の例を示 すフローチャートである。
[図 30]図 30は、光源力ゝらの距離と輝度変化幅との関係とそれに基づいた領域分割を 説明するための概念図である。 [図 31]図 31は、光源力ゝらの距離と輝度変化幅との関係とそれに基づいた領域分割を 説明するための概念図である。
[図 32]図 32は、本発明の第 4の実施形態に係る画像処理方法の処理を示すフロー チャートである。
[図 33]図 33は、輝度が時間的に変化する光源を用いて、撮像をランダムに行った場 合を示す概念図である。
[図 34]図 34は、本発明の第 5の実施形態に係る画像処理方法を実現するための構 成を示す図である。
[図 35]図 35は、本発明の第 5の実施形態に係る画像処理方法の処理を示すフロー チャートである。
[図 36]図 36は、従来の、光源の輝度や位置が変化した画像を撮像するための撮像 システムの構成を示す図である。
[図 37]図 37は、従来の、光源の輝度や位置が変化した画像を撮像するための撮像 方法を示す図である。
符号の説明
[0019] 11, 11a, l ib 光源
20 撮像装置
30 画像処理装置
40 撮像制御装置
50 光源制御装置
OB 被写体
発明を実施するための最良の形態
[0020] 本発明の第 1態様では、輝度が時間的に変化する光源下において、撮像装置によ つて、光源状況が異なる複数の画像が撮像可能となる撮像条件で、同一の被写体に っ 、て複数回撮像を行う撮像ステップと、前記撮像ステップにお 、て撮像された複数 の画像を用いて画像処理を行う画像処理ステップとを備え、前記画像処理ステップ は、前記複数の画像から輝度の時間変化を検出するステップと、検出した輝度の時 間変化を用いて、前記複数の画像中における影領域を推定するステップと、推定さ れた前記影領域の情報と、前記複数の画像とを用いて、線形化画像の生成、光学特 性に基づく領域分割、前記被写体の形状情報推定、前記被写体の光学情報推定、 および光源情報推定のうち少なくともいずれか 1つを行うステップとを備えた画像処 理方法を提供する。
[0021] 本発明の第 2態様では、輝度が時間的に変化する光源下において、撮像装置によ つて、光源状況が異なる複数の画像が撮像可能となる撮像条件で、同一の被写体に っ 、て複数回撮像を行う撮像ステップと、前記撮像ステップにお 、て撮像された複数 の画像を用いて、画像処理を行う画像処理ステップとを備え、前記画像処理ステップ は、前記光源の色ベクトルを推定するものである画像処理方法を提供する。
[0022] 本発明の第 3態様では、前記光源は、輝度が周期的に変化するものであり、前記 撮像条件として、前記光源の輝度変化周期に対して十分に短い露光時間を設定す る前記第 1または第 2態様の画像処理方法を提供する。
[0023] 本発明の第 4態様では、前記光源は、蛍光灯、 LEDまたはディスプレイである前記 第 1または第 2態様の画像処理方法を提供する。
[0024] 本発明の第 5態様では、前記撮像条件は、露光時間、撮像タイミングおよび撮像周 期のうちの少なくともいずれ力 1つである前記第 1または第 2態様の画像処理方法を 提供する。
[0025] 本発明の第 6態様では、前記光源の光源情報を取得するステップと、取得された光 源情報を基にして前記撮像条件を決定するステップとを備えた前記第 1または第 2態 様の画像処理方法を提供する。
[0026] 本発明の第 7態様では、前記光源情報は、前記光源の輝度変化周期、輝度変化 幅および位置情報のうちの少なくともいずれか 1つである前記第 6態様の画像処理方 法を提供する。
[0027] 本発明の第 8態様では、輝度が時間的に変化する光源下において、撮像装置によ つて、光源状況が異なる複数の画像が撮像可能となる撮像条件で、同一の被写体に ついて、複数回、撮像を行う撮像ステップと、前記撮像ステップにおいて撮像された 複数の画像を用いて、画像処理を行う画像処理ステップとを備え、前記画像処理ス テツプは、前記複数の画像における複数の対応点にっ 、てそれぞれ輝度の変化幅 を求めるステップと、前記各対応点について求めた輝度変化幅を用いて、前記光源 との距離に基づいた領域分割を行うステップとを備えた画像処理方法を提供する。
[0028] 本発明の第 9態様では、輝度が時間的に変化する光源下において、撮像装置によ つて、同一の被写体について複数回撮像を行う撮像ステップと、前記撮像ステップに おいて撮像された複数の画像における複数の対応点について、それぞれ、輝度値 の時間変化を検出する輝度変化検出ステップと、前記各対応点の輝度値の時間変 化を用いて、前記複数の画像の光源状況が互いに異なっている力否かを判断し、前 記複数の画像のうち、光源状況が異なって ヽる画像を光源変動画像として保持する 一方、それ以外の画像を破棄する画像判断ステップとを備えた画像処理方法を提供 する。
[0029] 本発明の第 10態様では、前記光源の輝度を、光源制御装置によって、時間的に 変化するように制御する光源制御ステップを備えた前記第 9態様の画像処理方法を 提供する。
[0030] 本発明の第 11態様では、輝度が時間的に変化する光源下において、光源状況が 異なる複数の画像が撮像可能となる撮像条件で、同一の被写体にっ 、て複数回撮 像を行う撮像装置と、前記撮像装置によって撮像された複数の画像を用いて画像処 理を行う画像処理装置とを備えた画像処理システムを提供する。
[0031] 本発明の第 12態様では、コンピュータに画像処理を実行させるプログラムとして、 輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる複 数の画像が撮像可能となる撮像条件で、同一の被写体にっ ヽて複数回撮像を行う 撮像ステップと、前記撮像ステップにおいて撮像された複数の画像を用いて、画像処 理を行う画像処理ステップとをコンピュータに実行させるものであり、前記画像処理ス テツプは、前記複数の画像から輝度の時間変化を検出するステップと、検出した輝度 の時間変化を用いて、前記複数の画像中における影領域を推定するステップと、推 定された前記影領域の情報と、前記複数の画像とを用いて、線形化画像の生成、光 学特性に基づく領域分割、前記被写体の形状情報推定、前記被写体の光学情報推 定、および光源情報推定のうち少なくともいずれ力 1つを行うステップとを備えたもの を提供する。 [0032] 本発明の第 13態様では、コンピュータに画像処理を実行させるプログラムとして、 輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる複 数の画像が撮像可能となる撮像条件で、同一の被写体にっ ヽて複数回撮像を行う 撮像ステップと、前記撮像ステップにおいて撮像された複数の画像を用いて、画像処 理を行う画像処理ステップとをコンピュータに実行させるものであり、前記画像処理ス テツプは、前記光源の色ベクトルを推定するものであるものを提供する。
[0033] 以下、本発明の実施の形態について、図面を参照しながら説明する。
[0034] (第 1の実施形態)
図 1は本発明の第 1の実施形態に係る画像処理方法を実現するための構成を示す 図である。図 1において、被写体 OBは、輝度が時間的に変化する複数の光源 11に よって照明されており、カメラなどの撮像装置 20によって、複数回、連続して撮像さ れる。このとき、光源状況が異なる複数の画像が撮像可能となるように、露光時間、撮 像タイミング、撮像周期などの撮像条件が設定される。撮像された複数の画像は画 像処理装置 30に送られ、画像処理装置 30によって、影領域推定などの画像処理が 実行される。撮像装置 20および画像処理装置 30によって、本発明に係る画像処理 システムが構成されて 、る。
[0035] 図 2は本実施形態に係る画像処理方法の処理を示すフローチャートである。図 1〖こ 示した撮像装置 20は、位置が固定した、輝度が時間的に変化する複数の光源 11に 照射された被写体 OBを、光源 11の輝度変化周期よりも短い露光時間を撮像条件と して、複数回撮像する (ステップ S 11)。このようにして撮像された複数の画像は、光 源状況が時系列的に異なっている。画像処理装置 30はまず、撮像された複数の画 像から輝度の時間変化を検出し (ステップ S12)、検出した輝度時間変化を用いて、 画像中の影領域を推定する (ステップ S13)。さらに、推定した影領域の情報を用い て、画像の線形化を実施し、鏡面反射や影を含まない拡散反射成分のみの線形ィ匕 画像を合成する。または、光学特性に基づく領域分割を行う(ステップ S 14)。ステツ プ S 11が撮像ステップに対応し、ステップ S12〜S 14が画像処理ステップに対応して いる。これらの処理を、順に詳しく説明する。
[0036] まず、ステップ S11において、位置が固定した、輝度が時間的に変化する複数の光 源 11に照射された被写体 OBを、撮像装置 20によって、光源 11の輝度変化周期より も短い露光時間を撮像条件として、複数回撮像する。
[0037] 本実施形態において用いられる光源 11として、例えば蛍光灯が挙げられる。蛍光 灯は、家庭内の光源として広く用いられている。蛍光灯の発光の原理は次のとおりで ある。ランプ両端に電圧を印加すると、電極から放出された電子が加速されて水銀と 衝突する。衝突によって励起された水銀は紫外線を発生し、その紫外線が蛍光体で 可視光に変換される。このような原理から、交流駆動の蛍光灯ではその交流周波数 に応じて発光と減光とが繰り返され、この結果、輝度に時間変化が生じる。
[0038] 交流周波数は、東日本で 50Hz、西日本で 60Hzであるため、蛍光灯の明滅周波数 はそれぞれ 100Hz、 120Hzとなり、人間の目では通常は観測されない。
[0039] しかし、露光時間を蛍光灯の明滅周期よりも短くし、撮像タイミング (撮像周期)を明 滅周波数とずらすように設定すると、たとえ対象物が静止し、かつ、カメラ位置が固定 であっても、輝度が時間的に変化する画像が撮像される。このような輝度変化はフリ ッカーとして知られており、従来力も画像処理においては、大きな問題と考えられて いた (例えば、特開平 2— 135986号を参照)。これに対して本実施形態では、画像 処理の障害と考えられているフリッカーを逆に利用することによって、従来、取得が非 常に困難であった、照明の輝度や位置などの光源状況が異なるいわゆる光源変動 画像を、容易に撮像できるようにしている。
[0040] 図 3はフリッカーの発生を説明するためのグラフであり、蛍光灯照明下での被写体 のある一点の輝度変ィ匕 A1を示している。縦軸は輝度、横軸は時間である。また、 A2 は撮像タイミング(時間 tal〜tal l)、 A3は露光時間である。このとき、図 4のように、 観測される輝度値 A4は時間によって変化する。すなわち、実際に撮像される輝度値 A4は、各撮像時刻 tal〜tal lでの露光時間 A3における輝度変化 A1の積分値とし て求められる。
[0041] そこで、露光時間を光源の輝度変化周期に対して十分短い時間に設定して撮像を 行うことによって、輝度が時間的に変化する画像を撮影することができる。通常の蛍 光灯は、交流周波数の 2倍の周期で輝度変動が生じる。すなわち、蛍光灯の明滅周 波数は、東日本で 100Hz、西日本で 120Hzであるから、露光時間を、 lZlOOsecま たは lZl20secに対して十分に短い時間、例えば 2msecに設定すればよい。また、 露光時間はカメラの最速シャッタースピード、例えば lmsecに設定しても力まわな 、。
[0042] また図 5に示すように、撮像タイミング A5は、光源の輝度変ィ匕 A1の位相と一致しな いように、例えば、ランダムに設定するのが好ましい(時間 tbl〜tbl l)。これは例え ば、乱数発生を利用したプログラムなどにより設定すればよい。この結果、輝度値 A6 が得られる。
[0043] なおここでは、光源 11として蛍光灯を例にとって説明した力 もちろん、光源 11は 蛍光灯に限られるものではない。例えば、 LEDやディスプレイを光源 11として利用し てもかまわない。
[0044] LED照明は、その明るさや高寿命性から、近年、急速に広がってきている。家庭内 でも、現在広く用いられている蛍光灯に置き換わる可能性を秘めており、最近では「L EDベースダウンライト」などの商品も販売されている。さらに、 LED光源を人間の目 ではわ力もな 、ほどの速度で点滅させてデータを送信する、 V、わゆる可視光通信の 研究も始まっている (例えば、「春山真一郎, "可視光通信",電子情報通信学会論 文誌 A, vol. J86-A, No. 12, pp. 1284—1291, 2003」を参照)。このため、撮 像装置 20の露光時間を LEDの点滅周期よりも短くすることによって、輝度が時間的 に変化する、いわゆる光源変動画像を撮像することができる。すなわち、本実施形態 の画像処理方法は、将来、現在主流の蛍光灯照明が LED照明に置き換わった場合 においても、同様に実現できる。
[0045] また、最近では、デジタルビデオカメラなどにおいて、通常は画像出力用として用い られる液晶モニターをライトパネルとして利用する、「0Luxカラーナイトビュー」と呼ば れる技術が搭載されている。このようなビデオカメラを利用する場合にも、上述の処理 は大変有効である。
[0046] また、ノ ソコンに接続された液晶ディスプレイやブラウン管ディスプレイは、垂直同 期周波数 60Hz程度で画面の書き換えが行なわれている。言い換えると、垂直同期 周波数に対応する周期で画面の輝度が変化している。このため、これらのディスプレ ィを光源 11として利用した場合でも、同様にして、光源状況が異なる複数の画像を 撮像することができる。 [0047] また、プラズマディスプレイは、輝度が異なる複数のサブフィールド画像の組合せに よって階調を表示しているため(例えば、「徳永勉,中村英人,鈴木雅博,三枝信彦, "AC型 PDPの新駆動法の開発", PIONEER R&D, vol. 11, No. 1, pp. 17— 23, 2003」を参照)、本来、各画素は ON— OFFの 2値変動を行っている。しかし、 各画素は非常に小さいため、プラズマディスプレイは、画素が集まった光源として扱 える。このため、静止画を表示している場合であっても、露光タイミングを変化させるこ とによって、輝度が時間的に変化する。したがって、プラズマディスプレイを光源 11と して利用した場合でも、同様にして、光源状況が異なる複数の画像を撮像することが できる。
[0048] 図 2に戻り、ステップ S12において、ステップ S11で撮像装置 20によって撮像され た、光源状況が異なる複数の画像から、各対応点における輝度の時間変化を検出 する。ここで、撮像装置 20の位置が固定されている場合、画像処理装置 30は、撮像 された複数の画像において、画素ごとに輝度変化を検出すればよい。
[0049] なお、本実施形態では、撮像装置 20の位置が固定されて 、る必要はな 、。例えば 、カメラが移動する場合、画像上の特徴点を追跡し、複数の画像間での対応点を特 定し、この対応点での輝度変化を検出すればよい。このような特徴点抽出や特徴点 追跡の手法としては、例えば、 Harrisオペレータや KLT (Kanade- Lucas- Tomasi) Fe ature Tracker (「jianbo Sni and Carlo l omasi. Good f eatures to frack. IEEbし onfer ence on Computer Vision and Pattern Recognition, pp.593- 600, 1994」を参照)など が知られている。
[0050] また、ステップ S 12において、画像処理装置 30が検出する対象は、必ずしも、画像 上の輝度変化でなくても力まわない。例えば、画像上の各対応点の RGB値といった 色ベクトル情報の変化を検出するようにしても力まわな 、。
[0051] そしてステップ S 13にお 、て、ステップ S 12で検出した輝度の時間変化情報を用 ヽ て、画像内の影領域の推定を行う。
[0052] ここで、光源が単一の点光源であり、かつ外光が存在しない場合、影領域の輝度値 は 0となる。このような場合、輝度値を閾値として領域分割することにより、影領域を推 定することができる。しかし、光源が複数存在する場合、ある光源からは光が届かず 影になるが、別の光源力もは光が届くため輝度値が 0にならないという領域が、数多く 存在する。このような影領域に関しては、上述したような単に閾値を利用する手法で は、推定が非常に困難である。
[0053] 図 6は光源が複数存在する場合における影領域を示す図である。図 6において、被 写体 OBに対して、 2個の光源 Al la、光源 Bl lbが光を照射している。撮像装置 20 は被写体 OBをその上方力 撮像している。まず、影領域 Aでは、光源 Al iaからの 光が届かないために影が生じている。仮に、光源 Al iaのみが被写体 OBを照らして いる場合には、影領域 Aの輝度値は 0となるが、実際には光源 Bl lbからの光が届い ている。また、影領域 Bでは、仮に、光源 Bl lbのみが被写体 OBを照らしている場合 、輝度値は 0になる力 実際には光源 Al iaからの光が届いている。このように、 2個 の光源 Al la、光源 Bl lbが点灯している場合、影領域 A、 Bともに輝度値は 0になら ない。すなわち、影領域の推定が困難になる。
[0054] ここで、光源 Al la、光源 B l ibは LED光源であり、互いに異なる周波数で点滅し ているものと仮定する。光源 Al la、光源 Bl lbの点滅の角周波数をそれぞれ ω 、
A
ω 、 I
Bとすると、その輝度 I
A Bはそれぞれ次の式で表される。
[数 1]
IA = EA cosfi)At) (式 l )
Figure imgf000015_0001
ここで、 E 、Eは光源 Al ia、光源 Bl lbにおける輝度の振幅の大きさ、 tは時間、 Θ
A B
は光源 Al la、光源 Bl lbの点滅の位相差を示している。ここで、撮影環境内では
B
光源 Al la、光源 Bl lb以外に光源は存在しないと仮定すると、撮影画像上の画素 p での輝度値 Iは次のように時間的に変化する。
P
[数 2]
IP = E cos^ )+ EpB cos(6 + ΘΒ ) (式 2 ) ここで、 E 、E はそれぞれ、画素 pにおける光源 Al ia、光源 Bl lbの寄与度を表
A B
現した定数であり、画素 pの法線方向、各光源からの光の入射角、各光源から被写 体 OBまでの距離、 E 、 Eおよび反射率などに依存する。 [0055] さらに、ステップ S12において検出した各画素における輝度の時系列データに対し て FFT(Fast Fourier Transform)を行うと、(式 2)から、光源 Al iaと光源 Bl lbの輝 度変化に対応した周波数成分が求まる。図 6において、領域 C, D, Eのように 2個の 光源 Al la、光源 Bl lbの両方力 光が届いている領域では、この 2つの周波数成分 がいずれも検出される。一方、光源 Al iaによって影が生じている影領域 Aでは、(式 2)において、
E =0
PA
となるため、一方の周波数成分しか検出されない。同様に、光源 Bl lbによって影が 生じている影領域 Bでは、(式 2)において、
E =0
PB
となるため、やはり一方の周波数成分しか検出されない。すなわち、画像の各点ごと に周波数解析を行い、検出されるスペクトルの個数をカウントし、その個数が少ない 領域を、画像上の影領域として推定することができる。
[0056] もちろん、本実施形態の影領域推定の手法は、輝度が連続的に変化する光源にし か適用できないものではない。例えば、 ONと OFFを繰り返すような不連続的な輝度 変化が生じる光源であっても、適用することができる。
[0057] 図 6において、光源 Al la、光源 Bl lbが ONと OFFを繰り返すものと仮定する。こ の場合、光源 Al la、光源 Bl lbが両方とも点灯していた後、光源 Al iaのみが消灯 されたとする。このとき、光源 Al iaによって影が生じている影領域 Aでは、光源 Al l aからの光は元々届 ヽて ヽな 、ため、光源 Al laが消灯されても輝度値は変化しな ヽ 。一方、影領域 Bおよび領域 C, D, Eは光源 Al iaの消灯に伴い、入射光が減るた め、輝度値が下がる。また、光源 Bl lbのみが消灯された場合は、光源 Bによって影 が生じている影領域 Bの輝度値は変化しないが、影領域 Aおよび領域 C, D, Eでは 輝度値が下がる。さら〖こ、光源 Al iaが点灯された場合も、影領域 Aの輝度値は変化 しないが、影領域 Bおよび領域 C, D, Eは輝度値が上がる。したがって、画像の輝度 変化から、影領域を推定することができる。
[0058] なお、ここでは、光源が 2個の場合について説明した力 もちろん、光源の個数は 3 個以上であってもかまわない。また、上述のように、各光源の周波数を利用するため 、光源が 2つ以上同時に点灯している状態で撮像を行うようにしても力まわない。この とき、同じタイミングで明滅を繰り返す光源の、輝度変化の周波数が同じであってもか まわない。これは、家庭内において特に重要である。家庭内では、同じ型式の照明が 複数個取り付けられる場合が多々ある。複数本の蛍光灯が発光する照明である場合 、後述するように、これらの光源は、輝度変化の位相が異なる光源が交互に明滅を繰 り返す照明と考えることができる。このため、同じ周波数で明滅を繰り返す光源に対し ても同様の処理が行えるということは、現在主流である蛍光灯照明において、本実施 形態を設置コストなしで適用できるということであり、非常に利用価値が高い。
[0059] そしてステップ S14において、画像処理装置 30は、ステップ S 13で求められた影領 域の推定結果を用いて、例えば画像の線形ィ匕を行う。ここで、画像の線形化につい て説明する。
[0060] 被写体の位置や姿勢の認識、および動きの検出を行うために、カメラを用いる方法 が広く用いられている。これは、カメラで撮像された画像に対し、例えばパターンマツ チングゃオプティカルフロー検出、特徴点抽出と!/ヽつた画像処理方法を適用すること によって実現される。このような画像処理技術は、ノイズのない画像に対しては有効 であるが、家庭のような一般環境で撮像された画像に対しては十分な信頼性'精度 が得られないといった問題があった (例えば、「阪野貴彦、池内克史, "移動カメラに よる時空間画像を用いた車両力 のスぺキユラ除去",情報処理学会 研究報告 C VIM, 2003 -CVIM- 141, pp. 17— 23, 2003」を参照)。これは、通常の画像 処理が拡散反射のみの物体を仮定しているのに対して、実際には、鏡面反射や影の 影響により画像データの色情報やエッジ情報力 Sカメラ位置や光源位置によって大きく 変化してしまうことが、主な原因である。
[0061] このため、画像処理を行う前処理として、鏡面反射や影領域を補正することが行わ れる。画像の線形化とは、光源の位置を変更しながら撮像した複数枚の画像を利用 して、鏡面反射や影の存在しない、拡散反射成分のみの線形化画像を合成する画 像処理手法である (例えば非特許文献 2を参照)。さらに、光学特性に基づいた領域 分割を行う。この手法について詳述する。
[0062] 図 7は光学現象である拡散反射、鏡面反射および影の関係を示す図である。ここで 、いわゆる 2色性反射モデルを仮定すると、物体の輝度は、拡散反射成分と鏡面反 射成分との和として表現される。また、 Lambertianモデルによれば、拡散反射成分の 輝度値 I
dは次の式で表現される。
[数 3]
Id = n - s (式 3 ) ここで、 nは物体表面の法線方向ベクトル Nと拡散反射率 (albedo)との積であり、 sは 光源方向単位ベクトル Lと光源照度との積を表す (図 8)。
[0063] また図 7に示すように、影は、物体の法線が光源方向を向いていないために生じる a ttached shadowと、他の物体により光が遮蔽されることによって生じる cast shadowとの 2種類に分けられる。環境光や相互反射の影響がない場合、両者とも輝度は 0になる 。しかし、(式 3)では、 attached shadowは負の値となり、 cast shadowは正の値となる。
[0064] ここで、 Shashuaは、平行光源、完全拡散反射面を仮定することによって、光源方向 の異なる 3枚の画像の線形結合によって任意の光源方向の画像が表現できることを 不した (「Shashua A., Geometry and Photometry in 3D Visual Recognition , P.D. th esis, Dept. Brain and Cognitive Science, MIT, 1992」)。すなわち、光源方向が異な る 3枚の画像をベクトル表現したものを I , I , Iとすると、任意の方向の画像 Iは次式
1 2 3 k のように線形結合によって表現できる。
I K + C I3 (式 4 ) ここで、
[数 4A] ck = k cic \
を画像 Iに対する線形化係数組と呼ぶ。このように、線形和で作成された画像を線形 k
化画像と呼ぶ。この線形化画像は、 Lambertianモデルを満たす、拡散反射成分のみ の合成画像である。しかし、実画像は影や光源反射を含むため、(式 4)を満たさない 。そこで、非特許文献 2では、光源方向の異なる複数枚の画像を撮像し、 RANSAC (「M. A. Fischler and R. C. Bolles, "Random Sample Consensus: A Paradigm for Mo del Fitting with Applications to Image Analysis and Automated Cartography", Comm unications of the ACM, Volume 24, Issue 6, pp. 381- 395」を参照)を利用することで 、(式 4)を満たす拡散反射成分のみの 3枚の画像を作成する。こうして作成した拡散 反射成分のみの画像を、基底画像と呼ぶ。基底画像を Shashuaの方法に適用するこ とによって、撮像画像の光源状況に対応する線形ィ匕画像を作成することができる。つ まり、線形化画像は次式で示される。
[数 5] lk = c^I, + ckl2 + ckI3 (式 5 ) ただし、 I 4ま入力画像 kにおける線形ィ匕画像、 I B, I B, I Bはそれぞれ上述の方法で k 1 2 3
作成した 3枚の基底画像である。このように生成された線形化画像は、鏡面反射が生 じていない、理想状態での画像である。このため、この線形化画像を用いて画像処理 を行うことによって、鏡面反射や影の影響を受けない画像処理を実現することができ る。
また、ステップ S 14において、上述のようにして求まった線形ィ匕画像を用いて、光学 特性に基づく領域分割を行っても力まわない。ここで、入力画像 kにおける画素 の 輝度値を i 、これに対応する線形化画像の輝度値を i しとすると、拡散反射、鏡面 k(p) k(p)
反射、 cast shadow, attached shadowは次の関係式に従って、図 9のように分類するこ とができる。 T, Tsは閾値である。
[数 6]
(式 6 )
Figure imgf000019_0001
ここで、(式 6)は単一光源を仮定しているため、 cast shadow領域と attached shadow 領域を、閾値 Tsを利用して、影として分類している。しかし、一般生活空間のような光 源が複数存在する環境では、このような閾値を利用した影領域の分類は非常に難し い。一方、本実施形態の画像処理方法では、上述の手法により、影領域の推定がす でに行われているため、拡散反射、鏡面反射、 cast shadow, attached shadowは次の 関係式に従って分類できる。
[数 7]
Figure imgf000020_0001
ここで、
[数 7A] (P) e Shdw は、影領域推定ステップ S I 3によって、 k枚目の画像の画素 pが影領域と推定された ことを示している。このように、本実施形態では、従来の画像の線形化では困難であ つた一般生活環境においても、光学特性に基づく画像処理が可能となる。
[0066] また、上述したように、従来では、光源状況が異なる複数の画像 (光源変動画像)を 得るためには、図 36のような非常に大が力りな撮像システムを利用したり、または図 3 7のような複雑な操作を行ったりする必要があった。これに対して本実施形態では、 輝度変化がある光源を利用して、きわめて簡易な構成によって、光源変動画像を取 得することができる。ここでは、 3本の蛍光灯力もなる照明を利用する場合を例にとつ て、この点を説明する。
[0067] いま、図 10 (a)に模式的に示した 3本の蛍光灯 41 , 42, 43からなる照明によって、 被写体を照らすものとする。複数本の蛍光灯を内蔵する照明の場合、蛍光灯のちら つきを抑えるために、発光タイミングの位相を蛍光灯ごとにずらしているものが多い。 図 10 (b)は図 10 (a)の照明における各蛍光灯 41〜43の輝度変化を模式的に示す グラフである。図 10 (b)において、 B l , B2, B3はそれぞれ図 10 (a)における蛍光灯 41 , 42, 43の輝度変ィ匕を示している。
[0068] 図 10 (b)から、外側の 2本の蛍光灯 41 , 43は同一位相で明滅を繰り返しているの に対して、中央の蛍光灯 42は位相反転して明滅を繰り返していることが分かる。この ことから、図 10 (a)の照明は、擬似的に、図 l l (a)、(b)に示すような、発光位置が異 なり、かつ、交互に明滅を繰り返す 2種類の光源と考えることができる。このため、上 述した手法によって、光源状況が異なる複数の画像を簡単に撮像することができる。 したがって、複数本の蛍光灯を内蔵する照明の場合、画像の線形ィ匕を低コストで実 現することができる。
[0069] 図 12は本実施形態において求められた画像処理結果の一例を示す図である。同 図中、(a)は図 6の構成において被写体 OBを撮影した入力画像、(b)は影領域内の 画素 A, Bおよび拡散反射領域内の画素 Pにおける輝度時間変化を示すグラフであ る。この輝度時間変化に対して FFT (Fast Fourier Transform)などの周波数解析を 行うと、画素 A, Bの輝度時間変化はそれぞれ単一の周波数し力含まないが、画素 P の輝度時間変化は複数の周波数が重なり合つていることが分かる。このことから、画 素 A, Bは影領域である力 画素 Pは影領域ではないと推定される。この処理を全て の画素に対して行うと、図 12 (c)のような影領域が推定される。そして、この推定結果 と(式 7)の関係式を利用することによって、図 12 (d)に示すような線形化画像を合成 することができる。また、図 12の結果を利用して、図 13に示すような光学特性に基づ く領域分割を行うことができる。
[0070] さらに、本実施形態に係る画像処理方法は、画像処理装置 30にお 、て、被写体 O Bの形状推定を行う場合にも効果的である。これを、 Photometric Stereoを利用する 手法を例にとって説明する。
[0071] Photometric Stereoは、異なる光源方向力ゝら撮像された 3枚以上の光源変動画像を 用いて、被写体の法線方向と反射率を推定する手法である。例えば、「H. Hayakawa, Photometric Stereo under a light source witn arbitrary motion , Journal of the Opt ical Society of America A, vol.11, pp.3079- 89, 1994」では、画像上で 6点以上の反 射率が等しい点を既知情報として取得し、拘束条件として利用することによって、光 源の位置情報は未知であっても、以下のパラメータを推定する手法が説明されてい る。
•被写体の形状情報と光学情報:画像上の各点の法線方向と反射率 •光源情報:光源方向と照度
[0072] この手法は、一般的に拡散反射成分のみの被写体にし力利用できず、影や鏡面反 射成分が存在する被写体では正確な推定値が求まらな 、ことが知られて 、る。この ため、上述したような画像の線形化処理を前処理として行い、影や鏡面反射成分を 含まない拡散反射成分のみの画像である線形化画像を合成した後、 Photometric St ereoを行うことによって、正確な推定値が求まるものと考えられる。ここでは、画像の線 形化処理と Photometric Stereoとを融合した処理を行い、上のパラメータを推定する 手法を説明する。
[0073] 図 14は本実施形態に係る画像処理方法の処理の他の例を示すフローチャートで ある。図 14において、図 2のフローチャートと共通のステップについては、同一の符 号を付してその詳細な説明を省略する。ステップ S 12〜S 15が画像処理ステップに 対応している。
[0074] まず、上述した手法によって、光源変動画像を取得し、線形化画像を合成する (ス テップ311〜314)。そして、合成した線形化画像を用いて、被写体と光源の情報を 取得する (ステップ S 15)。この処理を詳述する。
[0075] 光源変動画像から合成した線形化画像を、次式のように輝度行列 Iで表現する。
[数 8]
1 id) · · · I 0)
(式 8 )
Z Hp) · · · I f(p) ただし、 i1 は m枚目の入力画像に対する線形ィ匕画像の画素 nの輝度値を示して ' m (n)
る。また、画像のサイズは p画素、撮像した画像枚数は f枚である。ここで、画像の線 形化処理を考える。(式 5)、(式 8)より、以下の関係が求まる。
[数 9] I = B C (式 9 )
Figure imgf000023_0001
ところで、(式 3)より、(式 8)は以下のように表現される。
[数 10]
I = R N M T = S L (式 1 0 )
Figure imgf000023_0002
ここで、 R, N, M, T, S, Lはそれぞれ表面反射行列、表面法線行列、光源方向行 列、光源輝度行列、表面行列、光源行列を示している。また、 r、 nは表面反射率、表 面法線を、 t、 mは光源輝度、光源方向単位ベクトルをそれぞれ示している。
[0076] (式 9)、(式 10)より、以下の関係が成り立つ。
[数 11]
S = B . A (式 1 1 )
[数 12]
L = A 1 C (式 1 2 ) ここで、 Aは 3x3行列である。つまり、行列 Aを推定することにより、 Photometric Stere oと同様の処理が行なえる。以下、この行列 Aを推定することを考える。
[0077] 行列 Sの各要素は(式 10)より、画面上の各点における表面反射率と表面法線の積 を表している。つまり、行列 Sの各要素の自乗は画面上の各点における表面反射率 の自乗を示している。
[0078] ここで、画素 k (k= l, ·ρ' )の反射率が等しいものとすると、その反射率を相対的 に 1と考えることができ、次の関係が成り立つ。
[数 13]
(Arbk )2
Figure imgf000024_0001
P ' (式 1 3 ) ここで、
[数 14]
AAr (式 1 4 ) とすると、
[数 15] bk rDbk = 1 (式 1 5 ) となり、(式 13)は (式 15)の行列 Dを推定すればよいことになる。
[0079] ここで、(式 14)より行列 Dが対称行列であることに着目すると、(式 15)を一意に解 くために必要な拘束式の数、すなわち反射率が等しいとわ力つている点の数 P'は最 低 6点でよいことが分かる。また、(式 14)は特異値分解を行うことによって、簡単に解 くことができる。
[0080] 以上のことから、反射率が等し 、6点以上の画素が既知な被写体にぉ 、て、輝度 変化が多値である光源、例えば蛍光灯を利用して複数枚の画像を撮像し、その複数 の画像を利用して画像の線形ィ匕処理を行うことによって、(式 10)の分解を行い、結 果として以下の情報を得ることができる。
•光学特性に基づく領域分割(拡散反射、鏡面反射、 Attached Shadow, Cast Shad ow)
•被写体の形状情報と光学情報:画像上の各点の法線方向と反射率
•光源情報:光源方向と照度
[0081] 図 15は本実施形態において求められる画像処理結果の一例を示す図である。同 図中、(a) , (b) , (c)は図 12と共通であり、ここでは詳細な説明を省略する。そして、 図 15 (c)に示すような影領域の推定結果と上述の手法を利用することによって、図 1 5 (d)に示すように被写体 OBの形状を推定することができる。もちろん、被写体の反 射率や光源方向と照度等も推定できるが、図示は省略する。
[0082] 以上のように本実施形態によると、一般生活環境においても、輝度が時間的に変 化する光源下にお ヽて、光源状況が異なる複数の画像を容易に得ることができる。 そして、この画像を用いて、影領域を推定し、線形化画像の生成や光学特性に基づ く領域分割、被写体の形状推定、光源情報の取得などを行うことができる。
[0083] (第 2の実施形態)
図 16は本発明の第 2の実施形態に係る画像処理方法の処理を示すフローチャート である。図 16において、図 2に示す第 1の実施形態の画像処理方法と共通のステツ プについては、同一の符号を付しており、ここではその詳細な説明は省略する。ステ ップ S12, S21が画像処理ステップに対応している。また、本実施形態における構成 は図 1に示す第 1の実施形態の構成と同様であり、説明は省略する。
[0084] 本実施形態では、影領域推定ステップ S 13を行わず、またステップ S 14に代えて、 光源色ベクトルの推定を行う(ステップ S21)。ここでは、 2色性反射モデルを利用して 、光源色ベクトルの推定を行う例を説明する。
[0085] 近年のコンピュータビジョン研究では、形状と 、つた幾何的な特徴のみではなぐ光 の物理法則を考慮した画像処理の研究が進んでいる。その中で、画像を撮像した際 の光源色ベクトルの推定が重要である。これは、例えば、デジタルアーカイブなどに おいて、様々な光源環境での物体の見えの変化を表示する際などに有効である。
[0086] ここでは、撮像装置 20として RGBカラーカメラを利用し、蛍光灯の明滅から、光源 色ベクトルを推定する方法を詳述する。
[0087] 2色性反射モデルを仮定すると、物体の輝度は、拡散反射成分と鏡面反射成分と の和として表現される。そのため、画像上の画素 pの色ベクトル Sは、拡散反射成分
P
色ベクトル Sdと鏡面反射成分色ベクトル Ssとの和として (式 16)で表される。
P P
[数 16]
Sp = Sp d + S; (式 1 6 ) ところで、鏡面反射は入射光の物体表面での反射であると考えられるため、鏡面反 射成分色ベクトル Ssは光源色ベクトル SLと同一またはこれが減衰したものとみなせ
P
る。また、拡散反射成分色ベクトル sdは内部反射により生じた色ベクトルであるため
P
、物体固有の色ベクトル SPdに依存するものである。そのため、(式 16)は次のように
P
書き換免られる。
[数 17]
Sp = ms {Θ, (p)SL + md {0)SPp d (式 1 7 ) ここで、 m ( 0 , φ )、 m ( θ )はそれぞれ鏡面反射成分、拡散反射成分の重み、また
S d
、 θ、 φは図 8に示したとおり、それぞれ、被写体の法線方向ベクトル Nと光源方向単 位ベクトル Lとの角度、被写体の法線方向ベクトル Nと撮像方向単位ベクトル Vとの角 度を示している。
[0088] ここで、図 10に示したような複数本の蛍光灯を内蔵する照明を利用することを考え る。上述のように、このような光源を利用すると、光源状況が異なる画像を簡単に撮像 することができる。 [0089] さらに、蛍光灯の場合、その光源色ベクトルはすべて同一であると考えられる。この ため、この照明で照らされた画素 pの時刻 tにおける色ベクトル S (t)は、以下の式で
P
示される。
[数 18]
Sp (t) = Sp l (t) + Sp 2 (t) + Sl(t)
= (m„ (θ, , φ, ΞΙ +
Figure imgf000027_0001
= (mslλ ,φ,ί) + msl{e2 ,φ,ί) + ms23 ,φ, t))SL + (m,,, (6Ί ,f ) + mdl2 ,ή + (6>3 , t))SPp d (式 1 8 ) ここで、 S1 (t)、 S2 (t)、 S3 (t)はそれぞれの光源 (蛍光灯 41, 42, 43)による画素 p
P P P
の時刻 tにおける色ベクトル、 m ( Θ, φ, t)、 m ( θ, φ, t)は i番目の光源における si di
、それぞれ鏡面反射成分と拡散反射成分の混合率を示す重みを示している。観測 値が時刻 tの関数になっている理由は、上述のように、光源の明滅のために、光源の 輝度が時刻 tによって変化するためである。ただし、この時間変動では、その色べタト ルのスカラのみが変化する。
[0090] ここで、 m ( θ , φ , t)、 m ( θ , φ , t)はスカラ量であることに着目すると、(式 18) si di
で表現された色ベクトル S (t)は、光源色ベクトル SLと物体固有色ベクトル SPdとが
P P
張る平面上に必ず存在することがわかる。
[0091] 一方、画像上の別の点 p'で観測される色ベクトル S (t)も同様に、光源色ベクトル
P
SLと物体固有色ベクトル SPd の張る平面上に必ず存在する。
P
[0092] 図 17はこの関係を示した図である。図 17では、撮像装置 20として RGBカラーカメ ラを利用しているため、色ベクトルとして各点の RGB値を利用している。図 17におい て、 Gl, G2はそれぞれ、点 p、点 p'における輝度が時間的に変化したときの RGB空 間上での色ベクトル集合を示す平面である。ここで、この両平面 Gl, G2が交わる直 線 VIを考えると、これが両平面 Gl, G2に共通の光源色ベクトル SLに該当する。
[0093] このように、明滅を繰り返している光源を利用して、光源色ベクトルを推定することが できる。以下、その具体的な処理の例を示す。
[0094] 図 18は光源色ベクトルを推定する処理の流れの一例を示すフローチャートである。
図 18において、ステップ S12Aが図 16のステップ S12に対応し、ステップ S211〜S 216力図 16のステップ S21に対応して!/ヽる。
[0095] まず、撮像装置 20が、光源状況が異なる複数の画像 (光源変動画像)を撮像する( ステップ Sl l)。撮像された複数の画像は画像処理装置 30に与えられる。画像処理 装置 30は、まず、画素ごとに RGB値の変動を検出することによって、輝度の時間変 化を検出する (ステップ S12A)。次に、画像上のある画素を選択し (ステップ S211)、 その画素に対応するすべての撮像時刻での RGB値を RGB空間にプロットする(ステ ップ S212)。こうしてプロットされたサンプリング点集合に対して主成分分析を行い、 第 1および第 2主成分を抽出する (ステップ S213)。(式 18)から、こうして求められた 二つの主成分が張る平面は、ノイズが存在しない場合は、光源色ベクトル SLと物体 固有色ベクトル SPdとが張る平面と等しいことが分かる。ここで、例えば 2個以上の画
P
素の主成分分析処理がまだ終了していないときは (ステップ S214で No)、画像上の 別の画素を選択し (ステップ S215)、選択した画素について主成分分析を行う。一方 、 2個以上の画素について主成分分析が終了しているときは (ステップ S214で Yes) 、それぞれの画素についての 2つの主成分が張る空間の交線を求め、これを光源色 ベクトル (光源の RGB値)として推定する(ステップ S 216)。
[0096] なおここでは、撮像装置 20として RGBカラーカメラを利用した場合を説明した力 も ちろん、撮像装置 20はこれに限られるものではなぐ例えば、さらに次元数の高い分 光輝度計などを用いても力まわな 、。
[0097] 以上のように本実施形態によると、蛍光灯のような位置が固定した、輝度が時間的 に変化する複数の光源であり、かつ光源色ベクトルが等しい光源を利用し、例えばそ の輝度変化周期に対して十分に短い露光時間で複数の画像を撮像し、輝度変化を 検出することによって、複雑な設備を要することなぐ光源色ベクトルを容易に推定す ることがでさる。
[0098] (第 3の実施形態)
図 19は本発明の第 3の実施形態に係る画像処理方法を実現するための構成を示 す図である。図 19において、図 1と共通の構成要素については、図 1と同一の符号を 付しており、ここでは詳細な説明を省略する。図 1の構成と異なるのは、画像処理装 置 30によって決定された撮像条件に従って、撮像装置 20の撮像条件を制御する撮 像制御装置 40が設けられて 、る点である。
[0099] 図 20は本実施形態に係る画像処理方法の処理を示すフローチャートである。本実 施形態では、実際に撮像を行う (ステップ S35)前に、光源情報を検出し、この光源情 報を利用して、最適な撮像条件を設定する (ステップ S31〜S34)。ステップ 35が撮 像ステップに対応し、ステップ S36〜S38が画像処理ステップに対応している。ここで は、画像処理として、移動物体の検出を行う例について説明する。
[0100] まず、撮像装置 20は、光源 11の輝度変化周期よりも短い露光時間で、複数枚の画 像を撮像する (ステップ S31)。画像処理装置 30は、撮像された画像から、撮像環境 内の光源情報を検出する (ステップ S32)。具体的には例えば、輝度が時間的に変 化している光源 11の輝度変化周期を検出する。ここでは、光源 11として蛍光灯を利 用する場合を例にとって説明する。
[0101] 通常の蛍光灯は、交流周波数の 2倍の周期で輝度変動が生じる。このため、観測さ れる輝度は、図 4の輝度値 A4のように時間によって変化する。そこで、得られた輝度 値に対してサイン関数などをフィッティング処理することによって、光源の輝度変化周 波数を求めることができる。このようなフィッティング処理は、 Levenberg- Marquardt法 などの最適化法を利用することで実現できる。
[0102] もちろん、カメラで光源自体を撮像し、その輝度変化カゝら光源情報を検出してもか まわない。また、別途、通信手段を用いて、光源情報を画像処理装置 30に通知する ようにしても力まわない。このような処理は、上述の可視光通信を利用すると効果的で ある。すなわち、 LED光源を利用する場合、光源は周期的に輝度を時間変調するこ とによって光源情報を通信すればよい。
[0103] そして、ステップ S33において、光源状況が異なる複数の画像が撮像可能となるよ うに、撮像装置 20の撮像条件、例えば、露光時間や撮像タイミング、撮像周期を設 定する。
[0104] ここで、露光時間や撮像タイミングと、観測される輝度値との関係にっ 、て、図面を 用いて説明する。第 1の実施形態で説明したように、蛍光灯照明下において、光源の 輝度変化に対して十分短い露光時間で撮像を繰り返す (図 3)と、その輝度値は図 4 のように時間的に変化する。 [0105] 一方、図 21のように、光源の輝度変化 C1に同期した撮像タイミング C2で (露光時 間 C3)撮像を行った場合、図 22に示すような輝度値 C4が観測される。図 21および 図 22から、光源の輝度変化 C1に同期した撮像タイミング C2で撮像を行った場合、 観測される輝度値 C4は時間的に変化しないことが分力る。
[0106] また、図 23のように、光源の輝度変化 C1に対して十分に長い露光時間 C5で (撮像 タイミング C6)撮像を行った場合、図 24に示すような輝度値 C7が観測される。図 23 および図 24から、光源の輝度変化 C1に対して露光時間 C5が十分に長い場合、輝 度変化 C1に対して積分効果力 Sスムージング処理として働き、観測される輝度値 C7 がほとんど変化しないことが分かる。
[0107] 以上のことから分かるように、輝度が時間的に変化する力否かは、露光時間や撮像 タイミングの設定によって、決まる。
[0108] そこで、ステップ S33では、ステップ S32で検出された光源の輝度変化周期と異な る撮像周期と、光源の輝度変化周期に対して十分に短い露光時間とを設定する。す なわち、撮像周期 Tsは光源の輝度変化周期 T1に対して、次の関係式を満たすように 設定する。
[数 19]
77
Ts≠— (式 1 9 )
a ただし、 aは任意の正の整数である。これは、例えば、次のように設定すればよい。
[数 20] τι
Ts = b— (式 2 0 ) ただし、 a≠c ' b
a a, bは任意の正の整数、 cは全ての正の整数である。
[0109] また、ステップ S33では、露光時間や撮像タイミング等の撮像条件を決定するため に、光源の輝度や、被写体と光源との距離、光源と撮像装置との距離などを利用して も力まわない。この点について、輝度変化の幅を考慮することを説明する。
[0110] 輝度が時間的に変化する画像を撮像する場合、その輝度変化の幅が最適になるよ うに、撮像条件を選択することが重要である。 [0111] 図 25および図 26は蛍光灯照明下での被写体のある一点における輝度変化の例を 示すグラフである。ここで、図 25は光源の輝度変化 D1の幅が十分に大きい場合、図 26は光源の輝度変化 D5の幅が十分に小さい場合である。両図において、縦軸の輝 度値 El, E2、および横軸の時間 tdl〜tdl l (撮像タイミング D2)はそれぞれ同じ輝 度値、同じ時刻を示している。 D3は露光時間、黒丸 D4, D6は観測された輝度値で ある。
[0112] 図 25と図 26とを対比すると分力るように、いずれも同じ撮像タイミング D2で撮像し ているにも関わらず、光源の輝度変化 Dl, D5の幅が異なるため、観測される輝度値 D4, D6は大きく異なる。図 25の場合、輝度変化 D1の幅が十分に広いため、輝度値 が十分に変化した複数の画像が撮像できる。一方、図 26の場合では、輝度変化 D5 の幅が小さいため、複数の画像における輝度の違いはさほど大きくない。この場合、 撮像間隔を倍にし、例えば、時間 tdl, td3, td5, td7, td9、 tdl lのみで撮像する だけでも十分であると 、える。
[0113] 通常、光源力 離れれば離れるほど光量は低下するため、被写体の輝度変化幅は 光源と被写体との距離に依存する。このため、被写体が光源カゝら十分に近い場合は 光量が十分であると判断し、撮像間隔を短くし、また、被写体が光源力 十分遠い場 合は光量が少ないと判断し、撮像間隔を長くするようにしても力まわない。
[0114] もちろん、このように設定する撮像条件は撮像間隔に限られるものではない。例え ば、露光時間であっても同様に設定できる。光量が少ない場合、画像は暗電流など のノイズに埋もれてしまい、 SN比が劣化する。しかし、露光時間を伸ばすことができ れば、 SN比が改善することが知られている。このため、被写体が光源から十分に近 い場合は光量が十分であると判断し、露光時間を短くし、また、被写体が光源から十 分遠 、場合は光量が少な 、と判断し、露光時間を長くすればょ 、。
[0115] また図 27に示すように、撮像間隔 (撮像タイミング D8)を光源の明滅間隔よりも長く 設定してもカゝまわない。ここでは、上述のとおり、撮像周期 Tsを光源の輝度変化周期 T1の整数分の 1にならな 、ように設定して 、るため、光源の明滅に対して位相が変化 した状態で、撮像を行うことができる。これにより、観測される輝度値 D9は大きく変化 し、光源状況が異なる複数の画像を撮像することができる。 [0116] そして、撮像制御装置 40は、ステップ S33で決定された撮像条件に従って、撮像 装置 20の撮像条件を設定する (ステップ S34)。撮像装置 20は、設定された撮像条 件に従って、時系列的に複数回の撮像を行う(ステップ S35)。上述のように、露光時 間や撮像タイミングは光源の輝度変化周期に基づ ヽて設定されて ヽるため、撮像さ れた複数の画像は、光源状況が異なる画像となる。
[0117] また、ステップ S31での撮像と異なり、ステップ S35での撮像では最適な撮像条件 が設定されている。第 1の実施形態で述べたように、通常、光源状況が異なる複数の 画像を撮像するためには、撮像装置 20の露光時間を光源の輝度変化に比べて十分 に短く設定すればよい。しかし、露光時間を短くし過ぎると、画像の暗電流などの影 響が大きくなり、撮像画像の SN比が劣化してしまう。画像処理を行うための画像は高 SN比であることが望ましいため、本実施形態のように撮像条件を最適にすることは、 効果が大きい。
[0118] ステップ S36において、画像処理装置 30はステップ S35で撮像された複数の画像 から、上述のとおり、輝度の時間変化を検出する。そして、画像処理として、背景差分 法を用いた移動物体の検出を行う。すなわち、輝度の時間変化から、後述する混合 率を推定して背景画像を合成し (ステップ S37)、この背景画像とステップ S35で撮像 した画像とを比較することによって、移動物体を検出する (ステップ S38)。
[0119] ここで、背景画像の合成について説明する。非特許文献 1では、撮像画像の輝度 を、時間変動が生じない光源の成分と、明るさが急激に変化する光源の成分とに分 離し、その混合率を推定することによって、処理時の光源状況に応じた背景画像を 作成する。これにより、影や光源の輝度変化の影響を受けることなぐ移動物体の検 出を行うことができる。具体的には、屋外環境において、観測される物体の色を、時 間変動が生じない全天空光成分 L1と、雲によって太陽直射光が遮られ、明るさが急 激に変化する太陽直射光成分 L2とからなるものと考え、(式 21)のようにその混合率 を推定することによって、正確な背景画像の合成を行う。
[数 21] R = R^ + kR2
< G = Gj + kG2 (式 2 1 )
B = Bi + kB2 ここで、 R、 G、 Bは撮像された画像の R、 G、 B成分画像、 R , ェは成分 L1にお ける R、 G、 B成分画像、 R、 G、 Bは成分 L2における R、 G、 B成分画像を示してい
2 2 2
る。また、 kは、それぞれの成分画像の混合率を示している。
[0120] この手法では、時間変動が生じない光源を全天空光成分 Ll、明るさが急激に変化 する光源を太陽直射光成分 L2としている力 これは屋外環境に限られるものではな い。例えば、家庭内では照明として蛍光灯が用いられるが、この蛍光灯照明を、明る さが変化する光源成分 L2として考えることができる。この場合、(式 21)の成分 L2に おける成分画像 R、 G、 Bを求めるためには、この蛍光灯の輝度が変化した複数枚
2 2 2
の画像を撮像しなければならない。通常、このようなパラメータ推定をするためには、 正確さや信頼性を高めるため、複数のデータを利用し、最小自乗法ゃ最尤推定法な どを利用することが行われる。このときに利用されるデータは、サンプリングが偏らず に、変化幅が十分に広くかつ偏りのないものであることが望ましい。
[0121] 本実施形態では、蛍光灯のような輝度が時間的に変化する光源を利用することに よって、輝度が時間的に変化し、しかも十分な輝度変化が生じた光源変動画像を撮 像することが可能である。さらに、輝度変化が十分に生じている光源変動画像を利用 することによって、変化幅が十分に広くかつ偏りのないサンプリング点が得られるため 、正確かつ信頼性高く背景画像を作成することができる。したがって、移動物体の検 出処理の精度や信頼度も向上させることができる。
[0122] 図 28は本実施形態において求められた画像処理結果の一例を示す図である。同 図中、(a)は図 6の構成において被写体 OBを撮影した入力画像 (ステップ S31)、 (b )は検出された光源情報 (ステップ S32)の模式図であり、 (a)の入力画像における画 素 m、 nの輝度時間変化である。この輝度時間変化に対して FFT (Fast Fourier Tran sform)などの周波数解析を行うことによって、光源の明滅周波数を求める。こうして求 まった光源の明滅周波数力も最適な撮像条件を決定し (ステップ S33)、撮像装置 2 0に設定した (ステップ S 34)後、再度、被写体 OBを撮像する (ステップ S35)。この結 果、図 28 (c)のような入力画像が得られる。
[0123] ここで、図 28 (d)に示すように、最新の撮影画像には移動物体 OB1が映っているも のとする。一方、混合率を推定することによって、図 28 (e)のような現在の光源環境 に合った背景画像を合成する (ステップ S36, S37)。そして、図 28 (d)の画像と図 28 (e)の合成背景画像とを差分処理することによって、図 28 (f)に示すように移動物体 OB1を検出することができる。
[0124] 以上のように本実施形態によると、一般生活環境においても、輝度が時間的に変 化する複数の光源を利用し、その輝度変化周期に対して最適な撮像条件で撮像し た画像を用いて、混合率を推定し、背景差分法を行うことによって、影や光源の輝度 変化の影響を受けない移動物体の検出を行うことができる。
[0125] また、ステップ S32において検出する光源情報は、光源の輝度変化周期に限られ るものではなぐ例えば、輝度変化幅や光源の位置情報であっても力まわない。
[0126] 図 29は本実施形態に係る画像処理方法の処理の他の例を示すフローチャートで ある。ここでは画像処理として、線形化処理のための画像の領域分割を行うものとす る。図 29において、図 20のフローチャートと共通のステップについては、同一の符号 を付してその詳細な説明は省略する。図 20との違いは、ステップ S36において輝度 の時間変化を検出した後、領域分割を行うステップ S39を実行する点である。ステツ プ S36, S39が画像処理ステップに対応している。
[0127] 画像の線形化処理は、光源が平行光源であることを仮定している。平行光源とは、 無限遠に置かれた点光源のことである。例えば、太陽光などが平行光源として考えら れる。一方、家庭内の蛍光灯などは、広い方向に光を放射するため、近接点光源の 集合として考えられる。このような近接点光源環境にぉ 、て画像の線形ィ匕処理を行う ために、画像を分割する方法が知られている(例えば、「佐藤智,高田和豊,登一生 , "近接照明下における画像の線形ィ匕の検討",情報処理学会研究報告 2004— CVI M- 145, pp. 151 - 156, 2004」を参照)。
[0128] この手法では、画像を処理領域に分割し、処理領域ごとに画像の線形化を行う。そ して、領域間で線形化係数組に強い相関があることを利用し、線形化が難しい処理 領域においても処理を行う。さらに、領域分割方法を変更しながら基底画像を合成す ることによって、近接照明下においても画像の線形ィ匕を行うことが可能である。
[0129] この場合、画像の分割をどのように行うかが問題となるが、「岡部孝弘,佐藤洋一, "近接光源下における物体の見えの近似のための画像分割とその効果",電子情報 通信学会技術報告, PRMU2004— 148, pp.85-90, 2004」によれば、このような画 像分割において、その領域の大きさは、光源に近い領域ほど小さくすればよいことが 示されている。すなわち、光源と画面上の各点との距離を求めることで、よりよい領域 分割を行うことが可能である。本実施形態では、ステップ S39において、このような最 適な領域分割を行うことができる。
[0130] 通常、被写体に照射される光量は、光源力も遠ざかるほど減少することが知られて いる。図 30および図 31を用いて、光源との距離が異なる被写体の 2点の輝度変化に ついて説明する。いま図 30 (a)のように、撮像装置 20、光源 11および被写体 OBが 設置されており、光源 11の輝度は時間的に変化しているものとする。図 30 (b)はこの ときに撮像された画像を示す。図 30 (b)において、光源 11は右手前カゝら照射してい る。そのため、被写体右側の画素 Cは左側の画素 Dに比べ、光源 11との距離が近い 。図 31 (a)は画素 Cと画素 Dの輝度変化 Lc, Ldを示す。図 31 (a)から、画素 Cと画素 Dとでは輝度変化幅が大きく異なることが分かる。すなわち、輝度変化は光源と被写 体との距離に依存しており、その距離が近ければ変化幅は大きぐその距離が遠け れば変化幅は小さい。
[0131] したがって、ステップ S32において光源の輝度変化周期を検出する際に、輝度変 化幅を画素ごとに検出する。そして、変化幅が大きい領域は領域分割を密に、一方、 変化幅が小さい領域は領域分割を粗く行うことによって、より良い領域分割を行うこと 力 Sできる。図 31 (b)は図 30 (b)の画像に対して領域分割を行った結果を示す図であ る。このような領域分割を行うことによって、画像の線形ィ匕処理をより正確に行うことが できる。
[0132] なお、ステップ S32において検出する光源情報は、光源の輝度変化に関するもの に限られるものではない。例えば、時間的に変化している光源の色ベクトルを検出す るようにしてもカゝまわない。例えば RGBカラーカメラでは、画像信号は、プリズムや力 ラーフィルタなどを通して RGB信号などに分解された後、光電変換素子によって電 気信号として検出される。このため、検出される輝度値は、プリズムやカラーフィルタ の特性とカメラへの入射光の色ベクトルとの積となる。すなわち、入射光の色ベクトル が時間的に変化した場合、被写体の輝度値も時間的に変化するため、この結果、光 源の輝度値が時間的に変化した画像を撮像することができる。
[0133] (第 4の実施形態)
図 32は本発明の第 4の実施形態に係る画像処理方法の処理を示すフローチャート である。図 32において、図 2に示す第 1の実施形態の画像処理方法と共通のステツ プについては、同一の符号を付しており、ここではその詳細な説明は省略する。また 、本実施形態に係る構成は図 1に示す第 1の実施形態の構成と同様であり、説明は 省略する。
[0134] 本実施形態では、画像処理装置 30は、ステップ S41において、ステップ S 11で撮 像した複数の画像の光源状況が互 ヽに異なって 、るか否かを、ステップ S 12で検出 した各対応点の輝度値の時間変化を用いて判断する。そして、複数の画像のうち、 光源状況が異なっている画像を光源変動画像として保持し (ステップ S42)、それ以 外の画像を破棄する (ステップ S43)。そして、保持された光源変動画像を用いて、画 像処理を行う(図示せず)。ステップ S 11が撮像ステップに対応し、ステップ S12が輝 度変化検出ステップに対応し、ステップ S41〜S43が画像判断ステップに対応して いる。
[0135] 図 33は輝度が時間的に変化する光源を用いた場合における輝度値の変化を示す 図である。図 33において、 E1は被写体のある一点の輝度変化、 E2, E3はそれぞれ 撮像装置 20の撮像タイミングおよび露光時間である。また、 E4は観測される輝度値 である。図 33から分力るように、撮像をランダムに行うことによって、輝度が異なる画 像を撮像することは可能である。ところが、時間 te' 6、 te' 7のように、光源の明滅に対 して同位相で撮像を行ってしま ヽ、輝度値 E4がほぼ同じとなる画像が撮像されること もあり得る。
[0136] そこで、ステップ S41では、撮像された複数の画像から、このような光源の明滅に対 して同位相で撮像された画像を検出し、排除する。これは、ステップ S12によって検 出された、画像上の 1点または複数点の輝度変化を観測することによって実行できる 。ここでは、画像内から m点の画素を選択し、その輝度値を利用して画像変化を検出 する方法を説明する。
[0137] k枚目の画像の m点の輝度値を、次のようにベクトルとして考える。
[数 22]
1 = V k(pl) h{pl) ""■ (式 2 2 ) ここで、 i は、 k枚目の画像の画素 pにおける輝度値を示して 、る。ここで、ステップ k(p)
S 12によって検出される k枚目の画像を、以下の評価関数 Ev (i' )に従って評価する
k
[数 23]
Ev(i ) = min(i - i )2 (式 2 3 )
I k
[0138] もし、評価関数 Ev (i' )の値が十分に大きい場合 (ステップ S41で Yes)、輝度変化
k
が生じていると判断し、 k枚目の画像を光源変動画像として保持する。一方、もし評価 関数 Ev (i,)の値が十分に大きくない場合 (ステップ S41で No)、輝度変化が生じて
k
V、な 、と判断し、 k枚目の画像を廃棄する。
[0139] すでに述べたように、撮像条件の設定によって、輝度が時間的に変化する画像を 撮像することは可能であるが、図 33の時間 te' 6、 te' 7のように、光源の明滅に対して 同位相で撮像を行ってしま ヽ、光源状況が同じ画像を撮像してしまうことはあり得る。 これに対して本実施形態では、すでに撮像した画像と光源状況が同じ画像を廃棄す ることがでさる。
[0140] このようにして求めた光源変動画像に対して、上述の各実施形態で説明したような 、画像の線形化や光源色ベクトル推定、背景差分法などの処理を行えばよい。
[0141] 以上のように本実施形態によると、輝度が時間的に変化する光源を利用し、撮像し た画像における光源状況の異同を検出することによって、撮像間隔や撮像タイミング を考慮しなくても、光源変動画像を取得することができる。このため、一般生活環境に ぉ 、ても、影や光源の輝度変化の影響を受けな 、画像処理を行うことができる。
[0142] (第 5の実施形態) 図 34は本発明の第 5の実施形態に係る画像処理方法を実現するための構成を示 す図である。図 34において、図 1と共通の構成要素については、図 1と同一の符号を 付しており、ここでは詳細な説明を省略する。図 1の構成と異なるのは、輝度が時間 的に変化する複数の光源 11を制御する光源制御装置 50が設けられている点である
[0143] 図 35は本実施形態に係る画像処理方法の処理を示すフローチャートである。図 35 において、第 4の実施形態における図 32のフローチャートと共通のステップについて は、同一の符号を付してその詳細な説明は省略する。
[0144] 本実施形態では、第 4の実施形態の各ステップに加えて、さらに光源 11の輝度の 時間変動を制御するステップ S51を有する。ステップ S51では、光源 11を制御するこ とによって、光源 11の輝度や位置が変化した環境を生成する。
[0145] 従来では、例えば図 36のような撮像システムにおいて、撮像装置 202が光源 204 の輝度変化に同期して撮像を行うことによって、光源の位置や輝度が変化した光源 変動画像を撮像していた。これに対して本実施形態では、輝度が時間的に変化する 光源 11を利用し、撮像装置 20は光源 11の変化とは同期を取らず、ランダムに撮像 を行う。
[0146] すでに述べたように、撮像条件の設定によって、輝度が時間的に変化する画像を 撮像することは可能であるが、図 33の時間 te' 6、 te' 7のように、光源の明滅に対して 同位相で撮像を行ってしま ヽ、光源状況が同じ画像を撮像してしまうことはあり得る。 これに対して本実施形態では、すでに撮像した画像と光源状況が同じ画像を廃棄す ることがでさる。
[0147] このようにして求めた光源変動画像に対して、上述の各実施形態で説明したような 、画像の線形化や光源色ベクトル推定、背景差分法などの処理を行えばよい。
[0148] 以上のように本実施形態によると、輝度が時間的に変化する光源を利用し、光源の 時間変動を制御するとともに、撮像した画像における光源状況の異同を検出すること によって、撮像間隔や撮像タイミングを考慮しなくても、光源変動画像を取得すること 力 Sできる。このため、一般生活環境においても、影や光源の輝度変化の影響を受け な 、画像処理を行うことができる。 [0149] なお、上述の各実施形態に係る画像処理は、コンピュータにプログラムを実行させ ることによって、実行することが可能である。
産業上の利用可能性
[0150] 本発明では、同期処理など複雑な制御が不要で、かつ、大規模な設備も必要とせ ずに、いわゆる光源変動画像を容易に取得することができる。このため、デジタルァ 一力イブなどのための情報取得や、家庭内など環境が複雑な一般生活環境におい てのモデルィ匕などに特に有効である。また、大きな被写体の光源変動画像を撮像す る場合にも有効である。
[0151] さらに、本発明では、一般生活環境において問題となる、複数光源による影や光源 の輝度変化の影響を受けずに、画像処理を行うことができる。このため、一般生活環 境にぉ 、て、ロボットや自動車などの画像処理装置や認証装置等として有用である。

Claims

請求の範囲
[1] 輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる 複数の画像が撮像可能となる撮像条件で、同一の被写体について、複数回、撮像を 行う撮像ステップと、
前記撮像ステップにお 、て撮像された複数の画像を用いて、画像処理を行う画像 処理ステップとを備え、
前記画像処理ステップは、
前記複数の画像から、輝度の時間変化を検出するステップと、
検出した輝度の時間変化を用いて、前記複数の画像中における影領域を推定する ステップと、
推定された前記影領域の情報と、前記複数の画像とを用いて、線形化画像の生成 、光学特性に基づく領域分割、前記被写体の形状情報推定、前記被写体の光学情 報推定、および光源情報推定のうち少なくともいずれ力 1つを行うステップとを備えた ことを特徴とする画像処理方法。
[2] 輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる 複数の画像が撮像可能となる撮像条件で、同一の被写体について、複数回、撮像を 行う撮像ステップと、
前記撮像ステップにお 、て撮像された複数の画像を用いて、画像処理を行う画像 処理ステップとを備え、
前記画像処理ステップは、前記光源の色ベクトルを推定するものである ことを特徴とする画像処理方法。
[3] 請求項 1または 2において、
前記光源は、輝度が周期的に変化するものであり、
前記撮像条件として、前記光源の輝度変化周期に対して十分に短い露光時間を、 設定する
ことを特徴とする画像処理方法。
[4] 請求項 1または 2において、
前記光源は、蛍光灯、 LEDまたはディスプレイである ことを特徴とする画像処理方法。
[5] 請求項 1または 2において、
前記撮像条件は、露光時間、撮像タイミングおよび撮像周期のうちの少なくともい ずれか 1つである
ことを特徴とする画像処理方法。
[6] 請求項 1または 2において、
前記光源の光源情報を取得するステップと、
取得された光源情報を基にして、前記撮像条件を決定するステップとを備えた ことを特徴とする画像処理方法。
[7] 請求項 6において、
前記光源情報は、前記光源の輝度変化周期、輝度変化幅および位置情報のうち の少なくともいずれ力 1つである
ことを特徴とする画像処理方法。
[8] 輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる 複数の画像が撮像可能となる撮像条件で、同一の被写体について、複数回、撮像を 行う撮像ステップと、
前記撮像ステップにお 、て撮像された複数の画像を用いて、画像処理を行う画像 処理ステップとを備え、
前記画像処理ステップは、
前記複数の画像における複数の対応点について、それぞれ、輝度の変化幅を求め るステップと、
前記各対応点にっ 、て求めた輝度変化幅を用いて、前記光源との距離に基づ ヽ た領域分割を行うステップとを備えたものである
ことを特徴とする画像処理方法。
[9] 輝度が時間的に変化する光源下において、撮像装置によって、同一の被写体につ いて、複数回、撮像を行う撮像ステップと、
前記撮像ステップにお 、て撮像された複数の画像における複数の対応点にっ 、て 、それぞれ、輝度値の時間変化を検出する輝度変化検出ステップと、 前記各対応点の輝度値の時間変化を用いて、前記複数の画像の光源状況が互 、 に異なっている力否かを判断し、前記複数の画像のうち、光源状況が異なっている 画像を光源変動画像として保持する一方、それ以外の画像を破棄する画像判断ステ ップとを備えた
ことを特徴とする画像処理方法。
[10] 請求項 9において、
前記光源の輝度を、光源制御装置によって、時間的に変化するように制御する光 源制御ステップを備えた
ことを特徴とする画像処理方法。
[11] 輝度が時間的に変化する光源下において、光源状況が異なる複数の画像が撮像 可能となる撮像条件で、同一の被写体について、複数回、撮像を行う撮像装置と、 前記撮像装置によって撮像された複数の画像を用いて、画像処理を行う画像処理 装置とを備えた
ことを特徴とする画像処理システム。
[12] コンピュータに画像処理を実行させるプログラムであって、
輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる 複数の画像が撮像可能となる撮像条件で、同一の被写体について、複数回、撮像を 行う撮像ステップと、
前記撮像ステップにお 、て撮像された複数の画像を用いて、画像処理を行う画像 処理ステップとをコンピュータに実行させるものであり、
前記画像処理ステップは、
前記複数の画像から、輝度の時間変化を検出するステップと、
検出した輝度の時間変化を用いて、前記複数の画像中における影領域を推定する ステップと、
推定された前記影領域の情報と、前記複数の画像とを用いて、線形化画像の生成 、光学特性に基づく領域分割、前記被写体の形状情報推定、前記被写体の光学情 報推定、および光源情報推定のうち少なくともいずれ力 1つを行うステップとを備えた ことを特徴とする画像処理プログラム。 コンピュータに画像処理を実行させるプログラムであって、
輝度が時間的に変化する光源下において、撮像装置によって、光源状況が異なる 複数の画像が撮像可能となる撮像条件で、同一の被写体について、複数回、撮像を 行う撮像ステップと、
前記撮像ステップにお 、て撮像された複数の画像を用いて、画像処理を行う画像 処理ステップとをコンピュータに実行させるものであり、
前記画像処理ステップは、前記光源の色ベクトルを推定するものである
ことを特徴とする画像処理プログラム。
PCT/JP2006/313885 2005-08-19 2006-07-12 画像処理方法、画像処理システムおよび画像処理プログラム WO2007020760A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US11/922,013 US7609892B2 (en) 2005-08-19 2006-07-12 Image processing method, image processing system, and image processing program
CN2006800202793A CN101326545B (zh) 2005-08-19 2006-07-12 图像处理方法和图像处理系统
JP2007530926A JP4113570B2 (ja) 2005-08-19 2006-07-12 画像処理方法、画像処理システムおよび画像処理プログラム
US12/557,555 US7961940B2 (en) 2005-08-19 2009-09-11 Image processing method, image processing system, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-239097 2005-08-19
JP2005239097 2005-08-19

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/922,013 A-371-Of-International US7609892B2 (en) 2005-08-19 2006-07-12 Image processing method, image processing system, and image processing program
US12/557,555 Division US7961940B2 (en) 2005-08-19 2009-09-11 Image processing method, image processing system, and image processing program

Publications (1)

Publication Number Publication Date
WO2007020760A1 true WO2007020760A1 (ja) 2007-02-22

Family

ID=37757428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/313885 WO2007020760A1 (ja) 2005-08-19 2006-07-12 画像処理方法、画像処理システムおよび画像処理プログラム

Country Status (4)

Country Link
US (2) US7609892B2 (ja)
JP (2) JP4113570B2 (ja)
CN (2) CN101326545B (ja)
WO (1) WO2007020760A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183279A (ja) * 2009-02-04 2010-08-19 Saitama Univ 高速度カメラの画像処理装置、画像処理方法及び高速度カメラ装置
US20110012899A1 (en) * 2008-04-03 2011-01-20 Akira Inoue Image processing method, image processing device and recording medium
WO2011030756A1 (ja) * 2009-09-14 2011-03-17 国立大学法人東京大学 領域分割画像生成方法、領域分割画像生成装置及びコンピュータプログラム
JP5108093B2 (ja) * 2008-05-14 2012-12-26 パナソニック株式会社 撮像装置及び撮像方法
JP2016541052A (ja) * 2013-11-14 2016-12-28 シクパ ホルディング ソシエテ アノニムSicpa Holding Sa 製品を認証するための画像分析
JP2018112459A (ja) * 2017-01-11 2018-07-19 コイト電工株式会社 明滅度測定装置、明滅度測定方法、明滅度測定プログラムおよび記憶媒体

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007020760A1 (ja) * 2005-08-19 2007-02-22 Matsushita Electric Industrial Co., Ltd. 画像処理方法、画像処理システムおよび画像処理プログラム
US7953277B2 (en) 2006-09-05 2011-05-31 Williams Robert C Background separated images for print and on-line use
US7855732B2 (en) * 2006-09-05 2010-12-21 Pc Connection, Inc. Hand producer for background separated images
US7931380B2 (en) * 2006-09-05 2011-04-26 Williams Robert C Imaging apparatus for providing background separated images
JP4882626B2 (ja) * 2006-09-15 2012-02-22 富士ゼロックス株式会社 画像処理装置、画像形成装置及びプログラム
US9041508B2 (en) * 2008-08-08 2015-05-26 Snap-On Incorporated Image-based inventory control system and method
GB2465792A (en) * 2008-11-28 2010-06-02 Sony Corp Illumination Direction Estimation using Reference Object
AT508707B1 (de) * 2009-11-05 2011-06-15 Strobotech Johannes Strobl E U Verfahren zur bestimmung von luftporenkennwerten sowie erfassungseinheit dazu
US9250193B2 (en) * 2010-01-26 2016-02-02 De Beers Uk Ltd. Gemstone sparkle analysis
TW201138443A (en) * 2010-04-27 2011-11-01 Anmo Electronics Corp Digital imaging apparatus and related object inspection system
US8873833B2 (en) * 2012-02-17 2014-10-28 Sony Corporation System and method for effectively performing a scene representation procedure
JP5726792B2 (ja) * 2012-03-12 2015-06-03 株式会社東芝 情報処理装置、画像センサ装置及びプログラム
JP6011984B2 (ja) * 2012-06-05 2016-10-25 パナソニックIpマネジメント株式会社 照明評価装置及び照明評価方法
US20140133753A1 (en) * 2012-11-09 2014-05-15 Ge Aviation Systems Llc Spectral scene simplification through background subtraction
JP6380972B2 (ja) 2014-05-02 2018-08-29 オリンパス株式会社 画像処理装置および撮像装置
JP2016034094A (ja) * 2014-07-31 2016-03-10 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびイメージセンサ
CN104298240A (zh) * 2014-10-22 2015-01-21 湖南格兰博智能科技有限责任公司 导游机器人及其控制方法
CN105704402B (zh) * 2014-11-28 2019-01-11 深圳超多维科技有限公司 微透镜阵列的成像方法与成像装置
CN104573670B (zh) * 2015-01-27 2018-10-09 上海市刑事科学技术研究院 多功能曲面物证图像展平仪
JP6786225B2 (ja) * 2016-02-23 2020-11-18 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
US10188207B2 (en) 2016-03-23 2019-01-29 Communications Test Design, Inc. Apparatus and method for simultaneously testing a plurality of mobile devices
JP2018006818A (ja) * 2016-06-27 2018-01-11 キヤノン株式会社 画像読取方法及び画像読取装置
JP6869652B2 (ja) * 2016-07-01 2021-05-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6877936B2 (ja) * 2016-09-28 2021-05-26 キヤノン株式会社 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体
US10038500B1 (en) * 2017-05-11 2018-07-31 Qualcomm Incorporated Visible light communication
CN107301393B (zh) * 2017-06-20 2018-03-23 安徽泓森物联网有限公司 自适应开关大数据管理平台
DE102017213761A1 (de) * 2017-08-08 2019-02-14 Osram Gmbh Oberflächenrekonstruktion eines beleuchteten objekts mittels fotometrischer stereoanalyse
KR102192604B1 (ko) * 2017-08-14 2020-12-17 가부시키가이샤 코쿠사이 엘렉트릭 플라스마 이상 판정 방법, 반도체 장치의 제조 방법 및 기판 처리 장치
US11338851B2 (en) * 2017-09-07 2022-05-24 Ford Global Technologies, Llc Hitch assist system featuring trailer location identification
JP7106259B2 (ja) * 2017-10-06 2022-07-26 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
JP6944350B2 (ja) * 2017-11-13 2021-10-06 アルパイン株式会社 撮影画像表示システム、電子ミラーシステム及び撮影画像表示方法
JP2019121069A (ja) * 2017-12-28 2019-07-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10630905B2 (en) * 2018-08-29 2020-04-21 Adobe Inc. Real time shadow and glare analysis for document capture
US10997453B2 (en) * 2019-01-29 2021-05-04 Adobe Inc. Image shadow detection using multiple images
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
US20230027047A1 (en) * 2019-12-09 2023-01-26 Iwao Kubota Image processing method, program, and image processing device
CN113391439A (zh) * 2020-03-12 2021-09-14 平湖莱顿光学仪器制造有限公司 一种颜色相关的显微镜成像系统及其控制方法
CN112751610A (zh) * 2020-12-29 2021-05-04 武汉光迅科技股份有限公司 一种测量smzm调制臂相移函数的方法与系统
US20240114250A1 (en) * 2022-09-30 2024-04-04 Rovi Guides, Inc. Systems and methods for shadow detection and reduction in document capture

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162146A (ja) * 1996-11-29 1998-06-19 Oki Electric Ind Co Ltd 個人識別装置
JPH11265440A (ja) * 1998-01-14 1999-09-28 Hitachi Ltd 任意光源位置の画像合成方法および表示装置
JP2002117413A (ja) * 2000-10-10 2002-04-19 Univ Tokyo 光源環境変化をリアルタイムに反映する画像生成装置および画像生成方法
JP2002197466A (ja) * 2000-12-27 2002-07-12 Nec Corp 被写体領域抽出装置、被写体領域抽出方法、及び被写体領域抽出プログラムを記録した記録媒体
JP2002262180A (ja) * 2000-12-27 2002-09-13 Casio Comput Co Ltd 画像処理方法及び画像処理装置
JP2004021373A (ja) * 2002-06-13 2004-01-22 Matsushita Electric Ind Co Ltd 物体及び光源情報推定方法並びに物体及び光源情報推定装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
JPH02135986A (ja) 1988-11-17 1990-05-24 Nec Corp 撮像素子駆動回路
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
WO2007020760A1 (ja) * 2005-08-19 2007-02-22 Matsushita Electric Industrial Co., Ltd. 画像処理方法、画像処理システムおよび画像処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162146A (ja) * 1996-11-29 1998-06-19 Oki Electric Ind Co Ltd 個人識別装置
JPH11265440A (ja) * 1998-01-14 1999-09-28 Hitachi Ltd 任意光源位置の画像合成方法および表示装置
JP2002117413A (ja) * 2000-10-10 2002-04-19 Univ Tokyo 光源環境変化をリアルタイムに反映する画像生成装置および画像生成方法
JP2002197466A (ja) * 2000-12-27 2002-07-12 Nec Corp 被写体領域抽出装置、被写体領域抽出方法、及び被写体領域抽出プログラムを記録した記録媒体
JP2002262180A (ja) * 2000-12-27 2002-09-13 Casio Comput Co Ltd 画像処理方法及び画像処理装置
JP2004021373A (ja) * 2002-06-13 2004-01-22 Matsushita Electric Ind Co Ltd 物体及び光源情報推定方法並びに物体及び光源情報推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKATA K. ET AL.: "PTZ Camera o Mochiita Buttai Kenshutsu no tameno Gazo no Senkeika ni yoru Yosoku Haikei Gazo Seisei", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU (2005-CVIM-148), vol. 2005, no. 18, 3 March 2005 (2005-03-03), pages 121 - 226, XP008077011 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110012899A1 (en) * 2008-04-03 2011-01-20 Akira Inoue Image processing method, image processing device and recording medium
US9380284B2 (en) * 2008-04-03 2016-06-28 Nlt Technologies, Ltd. Image processing method, image processing device and recording medium
JP5108093B2 (ja) * 2008-05-14 2012-12-26 パナソニック株式会社 撮像装置及び撮像方法
JP2010183279A (ja) * 2009-02-04 2010-08-19 Saitama Univ 高速度カメラの画像処理装置、画像処理方法及び高速度カメラ装置
WO2011030756A1 (ja) * 2009-09-14 2011-03-17 国立大学法人東京大学 領域分割画像生成方法、領域分割画像生成装置及びコンピュータプログラム
JP2011060227A (ja) * 2009-09-14 2011-03-24 Univ Of Tokyo 領域分割画像生成方法、領域分割画像生成装置及びコンピュータプログラム
JP2016541052A (ja) * 2013-11-14 2016-12-28 シクパ ホルディング ソシエテ アノニムSicpa Holding Sa 製品を認証するための画像分析
JP2018112459A (ja) * 2017-01-11 2018-07-19 コイト電工株式会社 明滅度測定装置、明滅度測定方法、明滅度測定プログラムおよび記憶媒体

Also Published As

Publication number Publication date
CN101326545B (zh) 2012-05-30
US20090028424A1 (en) 2009-01-29
JPWO2007020760A1 (ja) 2009-02-19
US7609892B2 (en) 2009-10-27
JP4154447B2 (ja) 2008-09-24
CN101383908A (zh) 2009-03-11
CN101326545A (zh) 2008-12-17
US7961940B2 (en) 2011-06-14
JP4113570B2 (ja) 2008-07-09
US20100027879A1 (en) 2010-02-04
CN101383908B (zh) 2012-02-08
JP2008135073A (ja) 2008-06-12

Similar Documents

Publication Publication Date Title
WO2007020760A1 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
US11721054B2 (en) Systems, methods, and media for high dynamic range quanta burst imaging
US10755417B2 (en) Detection system
JPWO2006011261A1 (ja) 画像処理方法、画像処理装置および画像処理プログラム
CN108353130A (zh) 图像处理器、图像处理方法和程序
Zheng et al. Real-time high-dynamic-range fringe acquisition for 3D shape measurement with a RGB camera
Falquez et al. Inertial aided dense & semi-dense methods for robust direct visual odometry
JP2019517215A (ja) 多重露光ワイドダイナミックレンジ画像データに対する画像データ処理
CN104320575A (zh) 一种用于便携式终端的图像处理方法及图像处理装置
CN107079107B (zh) 用于获得物体的高动态范围合成图像的显微镜和方法
WO2021122582A1 (en) A system for performing ambient light image correction
EP3718049A1 (en) Temporal de-noising
JP7171969B1 (ja) 画像の動き補償を実行するためのシステム
WO2013165377A1 (en) A system and method of modifying the dynamic range
CN112132910A (zh) 基于红外的适用于低光环境的含半透明信息的抠像系统
US20190068862A1 (en) Methods of producing video images that are independent of the background lighting
CN106102553A (zh) 内窥镜系统、内窥镜系统的工作方法
US11800134B2 (en) System for performing image motion compensation
JP5165611B2 (ja) 高速度カメラの画像処理装置、画像処理方法及び高速度カメラ装置
Hong et al. Light Flickering Guided Reflection Removal
Tsuji High-speed stroboscope for specular reflection removal of DC illumination
KR970011541B1 (ko) 비디오카메라의 자동촛점조절방법
Yuan 19.2: Ambient Environment Reactive Displays

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680020279.3

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007530926

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11922013

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06768149

Country of ref document: EP

Kind code of ref document: A1