WO2004077354A1 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2004077354A1
WO2004077354A1 PCT/JP2004/001585 JP2004001585W WO2004077354A1 WO 2004077354 A1 WO2004077354 A1 WO 2004077354A1 JP 2004001585 W JP2004001585 W JP 2004001585W WO 2004077354 A1 WO2004077354 A1 WO 2004077354A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image
continuity
data
pixels
Prior art date
Application number
PCT/JP2004/001585
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Takashi Sawao
Junichi Ishibashi
Takahiro Nagano
Naoki Fujiwara
Toru Miyake
Seiji Wada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/544,873 priority Critical patent/US7593601B2/en
Publication of WO2004077354A1 publication Critical patent/WO2004077354A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program in consideration of the real world from which data is acquired.
  • a first signal obtained by detecting a first signal, which is a real-world signal having a first dimension, by a sensor is described.
  • the second signal is compared with the second signal. To generate a third signal with reduced distortion.
  • a first signal that is obtained by projecting a first signal that is a real-world signal having a first dimension is less than a first dimension in which a part of the continuity of the real-world signal is missing.
  • the first signal is estimated from the second signal in consideration of the fact that the second signal of the two dimensions has data stationarity corresponding to the stationarity of the missing real-world signal. Signal processing has not been considered before. Disclosure of the invention
  • the present invention has been made in view of such circumstances, and takes into account the real world from which data is acquired, and performs more accurate and more accurate processing of events in the real world.
  • the aim is to be able to obtain fruit.
  • the image processing apparatus is an image processing apparatus in which the real-world optical signal is projected onto a plurality of detection elements each having a spatio-temporal integration effect, and the real-world optical signal lacks a part of the stationarity.
  • a discontinuous portion detecting means for detecting a discontinuous portion of a pixel value of a plurality of pixels in the data; a vertex detecting means for detecting a vertex of a change in the pixel value from the discontinuous portion; and a pixel value monotonously increasing or decreasing from the vertex.
  • a monotonically increasing / decreasing area detecting means for detecting a decreasing monotonous increasing / decreasing area, and another monotonous increasing / decreasing area among the monotonous increasing / decreasing areas detected by the monotonic increasing / decreasing area exists at an adjacent position on the image data.
  • Continuity detecting means for detecting the monotone increasing / decreasing area as a steady area having continuity of image data; direction detecting means for detecting the direction of continuity of the steady area; and a stationary area detected by the continuity detecting means.
  • real-world estimating means for estimating the real-world optical signal by estimating the continuity of the real-world optical signal based on the direction of the continuity of the stationary region detected by the direction detecting means.
  • the direction detecting means includes: a change in pixel values of a plurality of first pixels arranged in the first monotone increasing / decreasing area in the monotonous increasing / decreasing area detected by the continuity detecting means; Detecting a direction of continuity of the steady region based on a change in pixel values of a plurality of second pixels adjacent to the plurality of first pixels arranged in the adjacent second monotone increasing / decreasing region; You can do so.
  • the direction detecting means includes: an increment of a pixel value of a plurality of first pixels arranged in the first monotone increase / decrease area; and a decrement of a pixel value of a plurality of second pixels arranged in the second monotone increase / decrease area.
  • the discontinuous portion detecting means finds a regression plane corresponding to the pixel values of a plurality of pixels of the image data, and detects, as a discontinuous portion, an area including pixels having pixel values whose distance from the regression plane is equal to or greater than a threshold value.
  • the difference value obtained by subtracting the value approximated by the regression plane from the pixel value of the pixel at the discontinuous portion is calculated.
  • the vertex detecting means detects the vertex based on the difference value. Detects monotonous increase / decrease area based on difference value and detects direction
  • the means may detect the direction of the continuity of the steady region based on the difference value.
  • the image processing method of the present invention provides an image obtained by projecting a real-world optical signal onto a plurality of detection elements each having a spatio-temporal integration effect, wherein the real-world optical signal lacks a part of stationarity.
  • the program of the present invention lacks a part of the continuity of a real-world optical signal obtained by projecting a real-world optical signal onto a plurality of detection elements each having a spatiotemporal integration effect.
  • a monotonous increase / decrease area detection step for detecting a monotonous increase / decrease area that is increasing or decreasing, and other monotone increase / decrease areas in the monotone increase / decrease area detected in the monotone increase / decrease area detection step are adjacent positions on the image data.
  • a continuity detection step of detecting a monotonous increase / decrease area existing in The real-world light signal is estimated by estimating the continuity of the real-world optical signal based on the direction of the continuity of the constant region detected in the continuity detecting step and the constant region detected in the direction detecting step.
  • Real-world estimation steps for estimating signals Is executed.
  • a steady state of a real-world optical signal obtained by projecting a real-world optical signal onto a plurality of detection elements each having a spatiotemporal integration effect is provided.
  • a discontinuity in the pixel values of a plurality of pixels in the image data that lacks some of the characteristics is detected, the vertex of the change in the pixel value is detected from the discontinuity, and the pixel value monotonically increases or decreases from the vertex.
  • a monotonous increase / decrease region is detected, and among the detected monotone increase / decrease regions, another monotone increase / decrease region exists at an adjacent position on the image data.
  • the direction of the continuity of the constant region is detected, and the continuity of the real-world optical signal is estimated based on the detected constant region and the direction of the detected continuity of the constant region.
  • the real world optical signal is estimated.
  • the image processing device may be an independent device or may be a block that performs image processing.
  • FIG. 1 is a diagram illustrating the principle of the present invention.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the signal processing device.
  • FIG. 3 is a block diagram showing a signal processing device.
  • FIG. 4 is a diagram illustrating the principle of processing of a conventional signal processing device.
  • FIG. 5 is a diagram illustrating the principle of processing of the signal processing device.
  • FIG. 6 is a diagram for more specifically explaining the principle of the present invention.
  • FIG. 7 is a diagram for more specifically explaining the principle of the present invention.
  • FIG. 8 is a diagram illustrating an example of the arrangement of pixels on the image sensor.
  • FIG. 9 is a diagram for explaining the operation of the detection element which is a CCD.
  • FIG. 10 is a diagram for explaining the relationship between the light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • FIG. 4 is a diagram illustrating a relationship with a pixel value.
  • FIG. 12 is a diagram illustrating an example of an image of a linear object in the real world.
  • FIG. 13 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 14 is a schematic diagram of image data.
  • FIG. 15 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background.
  • FIG. 16 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 17 is a schematic diagram of image data.
  • FIG. 18 is a diagram illustrating the principle of the present invention.
  • FIG. 19 is a diagram illustrating the principle of the present invention.
  • FIG. 20 is a diagram illustrating an example of generation of high-resolution data.
  • FIG. 21 is a diagram illustrating approximation by a model.
  • FIG. 22 is a diagram illustrating model estimation based on M pieces of data.
  • FIG. 23 is a diagram illustrating the relationship between real-world signals and data.
  • FIG. 24 is a diagram showing an example of data of interest when formulating an equation.
  • FIG. 25 is a diagram illustrating signals for two objects in the real world and values belonging to a mixed region when formulating is performed.
  • FIG. 26 is a diagram for explaining the stationarity expressed by Expression (18), Expression (19), and Expression (22).
  • FIG. 27 is a diagram illustrating an example of M pieces of data extracted from the data.
  • FIG. 28 is a diagram illustrating an area where a pixel value that is data is obtained.
  • FIG. 29 is a diagram illustrating approximation of the position of a pixel in the spatiotemporal direction.
  • FIG. 30 is a diagram for explaining integration of real-world signals in the time direction and the two-dimensional spatial direction in data.
  • FIG. 31 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the spatial direction.
  • FIG. 4 is a diagram illustrating a minute area.
  • FIG. 33 is a diagram for explaining an integration area when generating high-resolution data from which motion blur has been removed.
  • FIG. 34 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the time-space direction.
  • FIG. 35 shows the original image of the input image.
  • FIG. 36 is a diagram illustrating an example of the input image.
  • FIG. 37 is a diagram showing an image obtained by applying the conventional classification adaptive processing.
  • FIG. 38 is a diagram showing a result of detecting a thin line region.
  • FIG. 39 is a diagram illustrating an example of an output image output from the signal processing device.
  • FIG. 40 is a flowchart illustrating signal processing by the signal processing device.
  • FIG. 41 is a block diagram illustrating the configuration of the data continuity detecting unit.
  • Figure 42 is a diagram showing an image of the real world with a thin line in front of the background.
  • FIG. 43 is a view for explaining the approximation of the background by a plane.
  • FIG. 44 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 45 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 46 is a diagram illustrating a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 47 is a diagram for describing processing of detecting a vertex and detecting a monotonous increase / decrease region.
  • FIG. 48 is a diagram illustrating a process of detecting a thin line region in which the pixel value of the vertex exceeds the threshold value and the pixel value of an adjacent pixel is equal to or less than the threshold value.
  • FIG. 49 is a diagram illustrating the pixel values of the pixels arranged in the direction indicated by the dotted line AA ′ in FIG.
  • FIG. 50 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
  • FIG. 51 is a diagram illustrating an example of an image in which a stationary component is extracted by approximation on a plane.
  • FIG. 52 is a diagram showing a result of detecting a monotonically decreasing region.
  • FIG. 53 is a diagram showing an area where continuity is detected.
  • FIG. 54 is a diagram illustrating pixel values of an area where continuity is detected.
  • FIG. 55 is a diagram illustrating an example of another process of detecting a region where a thin line image is projected.
  • FIG. 56 is a flowchart for explaining the processing of the continuity detection.
  • FIG. 57 is a diagram illustrating a process of detecting the continuity of data in the time direction.
  • FIG. 58 is a block diagram illustrating a configuration of the non-stationary component extraction unit.
  • Figure 59 illustrates the number of rejections.
  • FIG. 60 is a diagram illustrating an example of an input image.
  • FIG. 61 is a diagram showing an image in which a standard error obtained as a result of approximation by a plane without rejection is used as a pixel value.
  • FIG. 62 is a diagram illustrating an image in which the standard error obtained as a result of rejection and approximation by a plane is used as a pixel value.
  • FIG. 63 is a diagram illustrating an image in which the number of rejections is set as a pixel value.
  • FIG. 64 is a diagram illustrating an image in which the inclination of the plane in the spatial direction X is a pixel value.
  • FIG. 65 is a diagram illustrating an image in which the inclination of the plane in the spatial direction Y is a pixel value.
  • FIG. 66 is a diagram showing an image composed of approximate values indicated by a plane. '
  • FIG. 67 is a diagram illustrating an image including a difference between an approximate value indicated by a plane and a pixel value.
  • FIG. 68 is a flowchart illustrating the process of extracting the unsteady component.
  • FIG. 69 is a flowchart for explaining the process of extracting the stationary component.
  • FIG. 70 is a flowchart illustrating another process of extracting a steady component.
  • FIG. 71 is a flowchart illustrating still another process of extracting a steady component.
  • FIG. 72 is a block diagram illustrating another configuration of the data continuity detecting unit.
  • FIG. 73 is a block diagram illustrating a configuration of the data continuity direction detection unit.
  • FIG. 74 is a diagram illustrating an example of an input image including moiré.
  • FIG. 75 is a diagram illustrating an example of an input image including moiré.
  • FIG. 76 is a diagram showing pixels of data on which a thin line image is projected.
  • FIG. 77 is a diagram illustrating the pixel values of the pixels in three columns in the data onto which the image of the thin line is projected.
  • FIG. 78 is a diagram showing pixels of data on which a thin line image is projected.
  • FIG. 79 is a diagram illustrating pixel values of pixels in three columns in data obtained by projecting a thin line image.
  • FIG. 80 is a diagram showing pixels of data on which a thin line image is projected.
  • FIG. 81 is a diagram showing pixel values of pixels in three columns in data onto which a thin line image is projected.
  • FIG. 82 is a diagram illustrating an example of an input image.
  • FIG. 83 is a diagram illustrating an example of a processing result when an image is processed by adopting an incorrect direction.
  • FIG. 84 is a diagram illustrating an example of a processing result when a correct direction of continuity is detected.
  • FIG. 85 is a flowchart illustrating the process of detecting data continuity.
  • FIG. 86 is a flowchart for explaining the process of detecting the direction of data continuity.
  • FIG. 87 is a block diagram illustrating another configuration of the data continuity detecting unit.
  • FIG. 88 is a block diagram showing the configuration of the real world estimation unit.
  • FIG. 89 is a diagram illustrating a process of detecting the width of a thin line in a signal in the real world.
  • FIG. 90 is a diagram illustrating a process of detecting the width of a thin line in a signal in the real world.
  • FIG. 91 is a diagram illustrating a process of estimating the level of a thin-line signal in a real-world signal.
  • FIG. 92 is a flowchart illustrating the process of estimating the real world.
  • FIG. 93 is a block diagram illustrating another configuration of the real world estimation unit.
  • FIG. 94 is a block diagram illustrating a configuration of the boundary detection unit.
  • FIG. 95 is a diagram for explaining the process of calculating the distribution ratio.
  • FIG. 96 is a diagram for explaining the process of calculating the distribution ratio.
  • FIG. 97 is a view for explaining the process of calculating the distribution ratio.
  • FIG. 98 is a diagram illustrating a process of calculating a regression line indicating a boundary of a monotonous increase / decrease region.
  • FIG. 99 is a diagram illustrating a process of calculating a regression line indicating a boundary of a monotonous increase / decrease region.
  • FIG. 100 is a flowchart illustrating the process of estimating the real world.
  • FIG. 101 is a flowchart illustrating the process of boundary detection.
  • FIG. 102 is a block diagram illustrating a configuration of a real world estimating unit that estimates a differential value in a spatial direction as real world estimation information.
  • FIG. 103 is a flowchart illustrating a process of real world estimation by the real world estimation unit in FIG. 102.
  • FIG. 104 is a diagram illustrating a reference pixel.
  • FIG. 105 is a view for explaining positions where differential values in the spatial direction are obtained.
  • FIG. 106 is a diagram illustrating the relationship between the differential value in the spatial direction and the shift amount.
  • FIG. 107 is a block diagram illustrating a configuration of a real world estimating unit that estimates the inclination in the spatial direction as real world estimation information.
  • FIG. 108 is a flowchart for explaining the process of real world estimation by the real world estimation unit in FIG. 107.
  • FIG. 109 is a view for explaining the processing for obtaining the inclination in the spatial direction.
  • FIG. 110 is a diagram illustrating a process of obtaining a spatial inclination.
  • FIG. 11 is a block diagram illustrating a configuration of a real world estimating unit that estimates a differential value in the frame direction as real world estimation information.
  • FIG. 112 is a flowchart for explaining the processing of the real world estimation by the real world estimating unit of FIG.
  • FIG. 11 is a diagram illustrating a reference pixel.
  • FIG. 114 is a diagram for explaining a position where a differential value in the frame direction is obtained.
  • FIG. 115 is a diagram for explaining the relationship between the differential value in the frame direction and the shift amount.
  • Figure 1-16 shows real-world estimation that estimates the tilt in the frame direction as real-world estimation information. It is a block diagram which shows the structure of a part.
  • FIG. 117 is a flowchart for explaining the processing of real world estimation by the real world estimation unit in FIG.
  • FIG. 118 is a view for explaining the processing for obtaining the inclination in the frame direction.
  • FIG. 119 is a view for explaining the processing for obtaining the inclination in the frame direction.
  • FIG. 120 is a diagram for explaining the principle of the function approximation method, which is an example of the embodiment of the real world estimation unit in FIG.
  • FIG. 121 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 122 is a view for explaining a specific example of the integration effect of the sensor of FIG.
  • FIG. 123 is a diagram for explaining another specific example of the integration effect of the sensor of FIG.
  • FIG. 124 is a diagram showing the real world region containing fine lines shown in FIG.
  • FIG. 125 is a diagram for explaining the principle of an example of the embodiment of the real world estimation unit in FIG. 3 in comparison with the example in FIG.
  • FIG. 126 is a diagram showing the thin-line-containing data area shown in FIG.
  • FIG. 127 is a graph in which each pixel value included in the thin line containing data area of FIG. 126 is graphed.
  • FIG. 128 is a graph of an approximation function approximating each pixel value included in the thin line containing data area of FIG. 127.
  • FIG. 129 is a diagram for describing the continuity in the spatial direction of the fine-line-containing real world region shown in FIG.
  • FIG. 130 is a graph in which each pixel value included in the thin line containing data area of FIG. 126 is graphed.
  • FIG. 13 is a diagram illustrating a state in which each of the input pixel values shown in FIG. 130 is shifted by a predetermined shift amount.
  • FIG. 132 is a graph showing an approximation function that approximates each pixel value included in the thin-line-containing data region of FIG. 127 in consideration of the spatial continuity.
  • FIG. 13 is a diagram illustrating the spatial mixing region.
  • FIG. 134 is a view for explaining an approximation function that approximates a real-world signal in the spatial mixing region.
  • Fig. 135 is a graph of an approximation function that approximates the real-world signal corresponding to the thin-line-containing data area in Fig. 127, taking into account both the integration characteristics of the sensor and the stationarity in the spatial direction. is there.
  • FIG. 136 is a block diagram illustrating a configuration example of a real-world estimator that uses a first-order polynomial approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 137 is a flowchart for explaining the real world estimation process executed by the real world estimation unit having the configuration of FIG.
  • FIG. 138 is a view for explaining the tap range.
  • FIG. 139 is a view for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 140 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 141 illustrates the distance in the cross-sectional direction.
  • FIG. 142 is a block diagram illustrating a configuration example of a real-world estimator that uses a quadratic polynomial approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 144 is a flowchart illustrating the estimation processing of the real world executed by the real world estimation unit having the configuration of FIG.
  • FIG. 144 illustrates the tap range
  • FIG. 145 is a diagram for explaining the direction of continuity in the spatiotemporal direction.
  • FIG. 146 is a diagram for explaining the integration effect when the sensor is a CCD.
  • FIG. 147 is a view for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 148 is a view for explaining signals in the real world having stationarity in the space-time direction.
  • FIG. 149 is a block diagram illustrating a configuration example of a real-world estimator that uses a three-dimensional function approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 150 is a flowchart illustrating the estimation processing of the real world executed by the real world estimation unit having the configuration of FIG.
  • FIG. 151 illustrates the principle of the reintegration method, which is an example of the embodiment of the image generation unit in FIG.
  • FIG. 152 is a diagram illustrating an example of an input pixel and an approximation function that approximates a real-world signal corresponding to the input pixel.
  • FIG. 153 is a view for explaining an example of creating four high-resolution pixels in one input pixel shown in FIG. 152 from the approximation function shown in FIG.
  • FIG. 154 is a block diagram illustrating a configuration example of an image generation unit that uses a one-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 155 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG.
  • FIG. 156 is a diagram illustrating an example of the original image of the input image.
  • FIG. 157 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 158 is a diagram illustrating an example of an input image.
  • FIG. 159 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 160 is a diagram illustrating an example of an image obtained by performing a conventional classification adaptive process on an input image.
  • FIG. 161 is a diagram illustrating an example of image data corresponding to the image in FIG.
  • FIG. 162 is a diagram illustrating an example of an image obtained by performing processing of the one-dimensional reintegration method of the present invention on an input image.
  • FIG. 163 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 164 is a view for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 165 is a block diagram illustrating a configuration example of an image generation unit that uses a two-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 166 is a diagram for explaining the distance in the cross-sectional direction.
  • FIG. 167 is a flowchart illustrating the image generation processing executed by the image generation unit having the configuration of FIG.
  • FIG. 168 is a diagram illustrating an example of the input pixel.
  • FIG. 169 is a view for explaining an example of creating four high-resolution pixels in one input pixel shown in FIG. 168 by the two-dimensional reintegration method.
  • H1170 is a diagram for explaining the direction of continuity in the spatiotemporal direction.
  • FIG. 171 is a block diagram illustrating a configuration example of an image generation unit that uses a three-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 172 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG.
  • FIG. 173 is a block diagram showing another configuration of the image generating unit to which the present invention is applied.
  • FIG. 174 is a flowchart illustrating the process of generating an image by the image generating unit in FIG. 173.
  • FIG. 175 is a view for explaining a process of generating a quadruple-density pixel from input pixels.
  • FIG. 176 is a diagram illustrating a relationship between an approximate function indicating a pixel value and a shift amount.
  • FIG. 177 is a block diagram illustrating another configuration of the image generation unit to which the present invention has been applied.
  • FIG. 178 is a flowchart illustrating the process of generating an image by the image generating unit in FIG. 177.
  • FIG. 179 is a diagram illustrating a process of generating a quadruple-density pixel from an input pixel.
  • FIG. 180 is a diagram illustrating a relationship between an approximate function indicating a pixel value and a shift amount.
  • FIG. 181 is a block diagram illustrating an example of the configuration of an image generation unit that uses the one-dimensional reintegration method of the class classification adaptive processing correction method, which is an example of the embodiment of the image generation unit in FIG. 3. .
  • FIG. 182 is a block diagram illustrating a configuration example of the class classification adaptive processing unit of the image generation unit in FIG. 181.
  • FIG. 183 is a block diagram illustrating a configuration example of a class classification adaptive processing unit in FIG. 181, and a learning device that determines coefficients used by the class classification adaptive processing correction unit by learning.
  • FIG. 184 illustrates a detailed configuration example of the learning unit for class classification adaptive processing in FIG. 183.
  • FIG. ' is a block diagram illustrating a configuration example of a class classification adaptive processing unit in FIG. 181, and a learning device that determines coefficients used by the class classification adaptive processing correction unit by learning.
  • FIG. 184 illustrates a detailed configuration example of the learning unit for class classification adaptive processing in FIG. 183.
  • FIG. ' illustrates a detailed configuration example of the learning unit for class classification adaptive processing in FIG. 183.
  • FIG. 185 is a diagram illustrating an example of a processing result of the class classification adaptive processing unit in FIG. 182.
  • FIG. 186 is a diagram showing a difference image between the predicted image in FIG. 185 and the HD image.
  • Figure 187 shows the HD image of Figure 185, which corresponds to the four HD pixels from the left in the figure out of the six HD pixels that are continuous in the X direction included in the area shown in Figure 186.
  • FIG. 6 is a diagram showing plots of specific pixel values, specific pixel values of an SD image, and actual waveforms (real-world signals).
  • FIG. 188 is a diagram showing a difference image between the predicted image shown in FIG. 185 and the HD image.
  • FIG. 189 shows the HD image of Fig. 185 corresponding to the four HD pixels from the left in the figure out of the six HD pixels consecutive in the X direction included in the area shown in Fig. 188.
  • FIG. 6 is a diagram showing plots of specific pixel values, specific pixel values of an SD image, and actual waveforms (real-world signals).
  • FIG. 190 is a view for explaining the knowledge obtained based on the contents shown in FIG. 187 to FIG. 189.
  • FIG. 191 is a block diagram illustrating a configuration example of the class classification adaptive processing correction unit of the image generation unit in FIG.
  • FIG. 192 is a block diagram illustrating a detailed configuration example of the class classification adaptive processing correction learning unit in FIG.
  • FIG. 193 is a view for explaining the tilt in the pixel.
  • FIG. 194 is a diagram illustrating the SD image in FIG. 185 and a feature amount image in which the in-pixel inclination of each pixel of the SD image is used as a pixel value.
  • FIG. 195 is a view for explaining a method of calculating the in-pixel inclination.
  • FIG. 196 is a view for explaining a method for calculating the in-pixel inclination.
  • FIG. 197 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration in FIG.
  • FIG. 198 is a flowchart for explaining the details of the input image class classification adaptive processing in the image generation processing in FIG. 197.
  • FIG. 199 is a flowchart for explaining the details of the correction processing of the class classification adaptive processing in the image generation processing of FIG. 197.
  • FIG. 200 is a diagram illustrating an example of the arrangement of class taps.
  • FIG. 201 is a diagram illustrating an example of the class classification.
  • FIG. 202 is a diagram illustrating an example of a prediction tap arrangement.
  • FIG. 203 is a flowchart illustrating the learning processing of the learning device in FIG.
  • FIG. 204 is a flowchart illustrating details of the learning process for the class classification adaptive process in the learning process of FIG.
  • FIG. 205 is a flowchart for explaining the details of the learning process for class classification adaptive processing correction in the learning processing of FIG.
  • FIG. 206 shows the predicted image of FIG. 185 and an image obtained by adding the corrected image to the predicted image (the image generated by the image generating unit of FIG. 181).
  • FIG. 207 is a block diagram illustrating a first configuration example of a signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG. 1.
  • FIG. 208 is a block diagram illustrating a configuration example of an image generation unit that performs the classification adaptive processing in the signal processing device of FIG.
  • FIG. 209 is a block diagram illustrating a configuration example of a learning device for the image generation unit in FIG.
  • FIG. 210 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 211 is a flowchart illustrating the details of the execution processing of the class classification adaptive processing of the signal processing of FIG.
  • FIG. 212 is a flowchart illustrating the learning processing of the learning device in FIG. 209.
  • FIG. 2 13 is a block diagram illustrating another example of the embodiment of the signal processing device in FIG. 1, which illustrates a second configuration example of the signal processing device using the combined method.
  • FIG. 214 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 215 is a block diagram illustrating a third configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG.
  • FIG. 216 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 217 is a block diagram illustrating a fourth example of the configuration of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG.
  • FIG. 218 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 219 is a block diagram illustrating a fifth configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG.
  • FIG. 220 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG.
  • FIG. 221 is a block diagram showing a configuration of another embodiment of the data continuity detecting unit.
  • FIG. 222 is a flowchart illustrating the data continuity detection processing by the data continuity detection unit in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 illustrates the principle of the present invention.
  • events phenomena
  • Real world 1 events include light (image), sound, pressure, temperature, mass, density, lightness / darkness, or smell.
  • Events in the real world 1 are distributed in the spatiotemporal direction.
  • the image of the real world 1 is the distribution of the light intensity of the real world 1 in the spatiotemporal direction.
  • the senor 2 converts information indicating an event of the real world 1 into data 3. It can be said that a signal that is information indicating an event (phenomenon) in the real world 1 having dimensions such as space, time, and mass is acquired by the sensor 2 and converted into data.
  • a signal that is information indicating an event (phenomenon) in the real world 1 having dimensions such as space, time, and mass is acquired by the sensor 2 and converted into data.
  • the distribution of events such as images, sound, pressure, temperature, mass, density, brightness / darkness, or smell in the real world 1 is also referred to as a signal that is information indicating an event of the real world 1.
  • a signal that is information indicating an event in the real world 1 is also simply referred to as a signal in the real world 1.
  • a signal includes a phenomenon or an event, and includes a signal that the transmission side does not intend.
  • the data 3 (detection signal) output from the sensor 2 is information obtained by projecting information indicating an event of the real world 1 to a lower-dimensional space-time than the real world 1.
  • data 3 which is image data of a moving image, is obtained by projecting an image in the three-dimensional spatial direction and the temporal direction of the real world 1 into a two-dimensional spatial direction and a spatiotemporal direction consisting of the temporal direction.
  • Information is also, for example, when data 3 is digital data, data 3 is rounded according to the unit of sampling.
  • data 3 is analog data, the information in data 3 is compressed or a part of the information is deleted by a limiter or the like according to the dynamic range.
  • data 3 is significant information for estimating signals that are information indicating events (phenomena) in the real world 1. Contains.
  • information having stationarity included in data 3 is used as significant information for estimating a signal which is information of the real world 1.
  • Stationarity is newly defined It is a concept to do.
  • the event of the real world 1 includes a certain feature in a direction of a predetermined dimension.
  • a shape, a pattern, a color, or the like is continuous in a space direction or a time direction, or a pattern of a shape, a pattern, or a color is repeated.
  • the information indicating the event of the real world 1 includes a certain feature in the direction of the predetermined dimension.
  • a linear object such as a thread, a string, or a rope has a constant cross-sectional shape at an arbitrary position in the longitudinal direction, that is, a constant in the longitudinal direction.
  • the constant feature in the spatial direction that the cross-sectional shape is the same at an arbitrary position in the length direction arises from the feature that the linear object is long. Therefore, the image of the linear object has a certain feature in the longitudinal direction, that is, in the spatial direction, that the cross-sectional shape is the same at an arbitrary position in the longitudinal direction.
  • a single-color object which is a tangible object extending in the spatial direction
  • an image of a single-color object which is a tangible object extending in the spatial direction
  • the signal of the real world 1 has a certain characteristic in the direction of the predetermined dimension.
  • continuity such a feature that is fixed in the direction of the predetermined dimension is called continuity.
  • the continuity of a signal in the real world 1 (real world) refers to a characteristic of a signal indicating an event in the real world 1 (real world), which is constant in a predetermined dimension.
  • data 3 is a signal obtained by projecting a signal indicating information of an event of the real world 1 having a predetermined dimension by the sensor 2, and thus the continuity of the signal of the real world is Is included.
  • Data 3 can also be said to include the stationarity of the real-world signal projected.
  • the continuity included in the signal of the real world 1 (real world) is derived from the data 3. Part is missing.
  • data 3 includes, as data continuity, a part of the continuity of the signal of the real world 1 (real world).
  • the data continuity is a feature of data 3 that is constant in a predetermined dimension direction.
  • data continuity of data 3 is used as significant information for estimating a signal that is information indicating an event in the real world 1.
  • information indicating a missing event of the real world 1 is generated by performing signal processing on the data 3 using the stationarity of the data.
  • the continuity in the spatial direction or the temporal direction among the length (space), time, and mass of a signal which is information indicating an event in the real world 1, is used.
  • the senor 2 is composed of, for example, a digital still camera or a video camera, and captures an image of the real world 1 and outputs the obtained data 3 as image data to the signal processing device 4. I do.
  • the sensor 2 can be, for example, a thermography device or a pressure sensor using photoelasticity.
  • the signal processing device 4 is composed of, for example, a personal computer.
  • the signal processing device 4 is configured, for example, as shown in FIG. CPU
  • the (Central Processsing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • ROM Read Only Memory
  • RAM Random Access Memory 23 programs executed by the CPU 21 and data are stored as appropriate.
  • ROM 22 and RAM 23 are interconnected by a bus 24.
  • An input / output interface 25 is also connected to the CPU 21 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 composed of a keyboard, mouse, microphone, etc., and an output unit 27 composed of a display, speakers, etc. Have been.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, or the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and stores programs executed by the CPU 21 and various data.
  • the communication unit 29 communicates with external devices via the Internet or other networks. In the case of this example, the communication unit 29 functions as an acquisition unit that takes in the data 3 output from the sensor 2.
  • a program may be acquired via the communication unit 29 and stored in the storage unit 28.
  • the drive 30 connected to the input / output interface 25 drives the magnetic disk 51, optical disk 52, magneto-optical disk 53, or semiconductor memory 54 when they are mounted, and drives them there. Get recorded programs and data.
  • the acquired programs and data are transferred to and stored in the storage unit 28 as necessary.
  • FIG. 3 is a block diagram showing the signal processing device 4.
  • each function of the signal processing device 4 is realized by hardware or software. That is, each block diagram in this specification may be considered as a hardware block diagram or a function block diagram by software.
  • FIG. 3 is a diagram showing a configuration of the signal processing device 4 which is an image processing device.
  • the input image (image data as an example of the data 3) input to the signal processing device 4 is supplied to the data continuity detecting unit 101 and the real world estimating unit 102.
  • the data continuity detector 101 detects data continuity from the input image and The data continuity information indicating the obtained continuity is supplied to the real world estimating unit 102 and the image generating unit 103.
  • the data continuity information includes, for example, the position of a pixel region having data continuity in the input image, the direction of the pixel region having data continuity (the angle or inclination in the time direction and the spatial direction), or the data Includes the length of the area of pixels that have stationarity. Details of the configuration of the data continuity detecting unit 101 will be described later.
  • the real world estimating unit 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detecting unit 101.
  • the real-world estimating unit 102 estimates an image, which is a real-world signal, incident on the sensor 2 when the input image is acquired.
  • the real world estimation unit 102 supplies real world estimation information indicating the result of estimation of the signal of the real world 1 to the image generation unit 103. Details of the configuration of the real world estimation unit 102 will be described later.
  • the image generation unit 103 generates a signal that is more similar to the signal of the real world 1 based on the real world estimation information indicating the estimated signal of the real world 1 supplied from the real world estimation unit 102. And output the generated signal.
  • the image generation unit 103 shows the data continuity information supplied from the data continuity detection unit 101 and the estimated real world 1 signal supplied from the real world estimation unit 102 Based on the real world estimation information, it generates a signal that is more similar to the real world 1 signal and outputs the generated signal.
  • the image generation unit 103 generates an image that is closer to the image of the real world 1 based on the real world estimation information, and outputs the generated image as an output image.
  • the image generating unit 1 0 based on the data continuity information and actual world estimation information, the real world and generate an image that approximates the first image, c for example and outputs the generated image as an output image
  • the image The generation unit 103 integrates the estimated image of the real world 1 in a desired space direction or time direction range based on the real world estimation information, thereby comparing the image with the input image in the space direction or the time. Generates a high-resolution image depending on the direction, and outputs the generated image as an output image. For example, the image generation unit 103 generates an image by outer interpolation, and outputs the generated image as an output image.
  • FIG. 4 is a diagram for explaining the principle of processing in the conventional signal processing device 121.
  • the conventional signal processing device 122 uses data 3 as a reference for processing and performs processing such as high resolution processing on data 3 as a processing target.
  • the conventional signal processor 1 2 1 the real world 1 is not considered, and the data 3 is the final criterion, and it is not possible to obtain more information than the information contained in the data 3 as output. Can not.
  • the conventional signal processing device 1 2 1 does not consider at all the distortion caused by the sensor 2 (difference between the signal which is the information of the real world 1 and the data 3) existing in the data 3.
  • the device 122 outputs a signal containing distortion. Further, depending on the content of the processing of the signal processing device 121, the distortion caused by the sensor 2 existing in the data 3 is further amplified, and the data including the widened distortion is output.
  • the processing is executed in consideration of (the signal of) the real world 1 itself.
  • FIG. 5 is a diagram illustrating the principle of processing in the signal processing device 4 according to the present invention.
  • the signal information indicating the event of the actual world 1 sensor 2 is acquired, the sensor 2 is, in terms of outputting the data 3 obtained by projecting the signal which is information of the actual world 1, c however is the same as the conventional,
  • a signal which is information indicating an event of the real world 1 acquired by the sensor 2 is explicitly considered.
  • the signal processing is performed while being aware that the data 3 includes the distortion caused by the sensor 2 (the difference between the signal which is the information of the real world 1 and the data 3).
  • the result of the processing is not limited by the information and distortion included in the data 3. It is possible to obtain more accurate and more accurate processing results for events. That is, according to the present invention, a more accurate and higher-precision processing result can be obtained for a signal that is input to the sensor 2 and that indicates information of the event in the real world 1.
  • 6 and 7 are diagrams for more specifically explaining the principle of the present invention.
  • a signal of the real world 1 which is an image is converted into an optical system 14 1 including a lens or an optical LPF (Low Pass Filter) to form an example of the sensor 2.
  • An image is formed on the light receiving surface of a certain CCD (Charge Coupled Device). Since the CCD, which is an example of the sensor 2, has an integration characteristic, the data 3 output from the CCD has a difference from the image of the real world 1. Details of the integration characteristic of the sensor 2 will be described later.
  • the relationship between the image of the real world 1 acquired by the CCD and the data 3 captured and output by the CCD is clearly considered. That is, the relationship between the data 3 and the signal that is the real-world information acquired by the sensor 2 is clearly considered.
  • the signal processing device 4 approximates (describes) the real world 1 using a model 16 1.
  • the model 16 1 is represented by, for example, N variables. More precisely, the model 16 1 approximates (describes) the real world 1 signal.
  • the signal processor 4 extracts M data 16 2 from the data 3.
  • the signal processing device 4 uses the continuity of the data included in the data 3.
  • the signal processing device 4 extracts the data 162 for predicting the model 161, based on the stationarity of the data included in the data 3.
  • the model 16 1 is bound by the stationarity of the data. That is, when the model 16 1 is acquired by the sensor 2, an event of the real world 1 having a stationarity (a characteristic that is constant in a predetermined dimension) that causes a stationarity of the data in the data 3. Approximate information (signal)).
  • the model 16 1 represented by the N variables is predicted from the M data 16 2. Can be. As described above, by predicting the model 16 1 that approximates (describes) (the signal of) the real world 1, the signal processing device 4 can consider the signal that is the information of the real world 1.
  • An image sensor such as a CCD or a complementary metal-oxide semiconductor (CMOS) sensor, which captures an image, projects a signal, which is information of the real world, into two-dimensional data when imaging the real world.
  • CMOS complementary metal-oxide semiconductor
  • Each pixel of the image sensor has a predetermined area as a so-called light receiving surface (light receiving area). Light incident on a light receiving surface having a predetermined area is integrated in the spatial direction and the time direction for each pixel, and is converted into one pixel value for each pixel.
  • the image sensor captures an image of an object in the real world, and outputs image data obtained as a result of the capture in units of one frame. That is, the image sensor acquires the signal of the real world 1, which is the light reflected by the object of the real world 1, and outputs the data 3.
  • an image sensor outputs 30 frames of image data per second.
  • the exposure time of the image sensor can be set to 1/30 seconds.
  • the exposure time is a period from the time when the image sensor starts converting the incident light into electric charges to the time when the conversion of the incident light into electric charges ends.
  • the exposure time is also referred to as a shutter time.
  • FIG. 8 is a diagram illustrating an example of the arrangement of pixels on the image sensor.
  • a to I indicate individual pixels. Pixels represent the image displayed by the image data. It is arranged on a plane corresponding to the image.
  • One detection element corresponding to one pixel is arranged on the image sensor. When the image sensor captures an image of the real world 1, one detection element outputs one pixel value corresponding to one pixel constituting the image data.
  • the position of the detector element in the spatial direction X corresponds to the position in the horizontal direction on the image displayed by the image data
  • the position of the detector element in the spatial direction Y (Y coordinate) corresponds to the image. Corresponds to the vertical position on the image displayed by the data.
  • the distribution of the light intensity of the real world 1 has a spread in the three-dimensional spatial direction and the temporal direction, but the image sensor acquires the light of the real world 1 in the two-dimensional spatial direction and the temporal direction, Generates data 3 representing the distribution of light intensity in the two-dimensional spatial and temporal directions.
  • the detection element which is a CCD, converts light input to the light receiving surface (light receiving area) (detection area) into electric charges for a period corresponding to the shutter time, and converts the converted electric charges.
  • Light is the information (signal) in the real world 1 whose intensity is determined by its position in three-dimensional space and time.
  • the distribution of light intensity in the real world 1 is a function with variables x, y, and z in three-dimensional space, and time t.
  • the amount of electric charge stored in the detector element which is a CCD, is almost proportional to the intensity of light incident on the entire light-receiving surface, which has a two-dimensional spatial extent, and the time the light is incident. .
  • the detection element adds the electric charge converted from the light incident on the entire light receiving surface to the already accumulated electric charge in a period corresponding to the shutter time.
  • the detection element integrates light incident on the entire light receiving surface having a two-dimensional spatial spread for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. . It can be said that the detection element has an integrating effect on space (light receiving surface) and time (Shutter time).
  • the electric charge accumulated in the detecting element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output as data 3. You. Therefore, each pixel value output from the image sensor is
  • (Signal) has a value projected onto a one-dimensional space, which is the result of integrating a part having a temporal and spatial spread in the temporal direction of the shutter time and the spatial direction of the light receiving surface of the detection element.
  • the pixel value of one pixel is represented by integration of F (x, y, t).
  • F (x, y, t) is a function representing the distribution of light intensity on the light receiving surface of the detection element.
  • the pixel value P is represented by Expression (1).
  • Equation (1) is the spatial coordinate (X coordinate) of the left boundary of the light receiving surface of the detection element.
  • x 2 is the spatial coordinate (X coordinate) of the right boundary of the light-receiving surface of the detector elements Ru der.
  • yi is the spatial coordinate (Y coordinate) of the upper boundary of the light receiving surface of the detection element.
  • y 2 is the lower boundary spatial coordinates of the light-receiving surface of the detecting element (Y-coordinate). Is the time at which the conversion of incident light into charge has started. Is the time at which the conversion of the incident light into charges has been completed.
  • the gain of the pixel value of the image data output from the image sensor is corrected, for example, for the entire frame.
  • Each pixel value of the image data is the integrated value of the light incident on the light receiving surface of each detection element of the image sensor, and of the light incident on the image sensor of the real world 1 which is smaller than the light receiving surface of the detection element.
  • the light waveform is hidden by the pixel value as an integrated value.
  • the waveform of a signal expressed with reference to a predetermined dimension is also simply referred to as a waveform.
  • the image data since the image of the real world 1 is integrated in the spatial direction and the temporal direction in units of pixels, the image data lacks a part of the stationarity of the image of the real world 1 and the real world 1 Only another part of the stationarity of one image is included in the image data. Or, the image data has changed from the stationarity of the real world 1 image. May be included.
  • FIG. 10 is a diagram for explaining the relationship between the light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • F (x) in FIG. 10 is an example of a function representing the distribution of light intensity in the real world 1 with the coordinate X in the spatial direction X in space (on the detection element) as a variable.
  • C In other words, F (x) is an example of a function representing the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the time direction.
  • L indicates the length in the spatial direction X of the light receiving surface of the detection element corresponding to pixel D to pixel F.
  • the pixel value of one pixel is represented by the integral of F (x).
  • the pixel value P of the pixel E is represented by Expression (2).
  • Xl is the spatial coordinate in the spatial direction X of the left boundary of the light receiving surface of the detection element corresponding to the pixel E.
  • x 2 is a spatial coordinate in the spatial direction X of the right boundary of the light-receiving surface of the detecting element corresponding to the pixel E.
  • FIG. 11 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • F (t) in FIG. 11 is a function representing the distribution of light intensity in the real world 1 with time t as a variable.
  • F (t) is an example of a function that represents the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the spatial direction X.
  • t s indicates the shirt time.
  • Frame # n-1 is a frame that is earlier in time than frame #n, and frame is a frame that is later in time than frame #n. That is, frame # n-1, frame #n, and frame # n + l are frame # n-1, frame #n, And frames # n + l.
  • the shirt time t s and the frame interval are the same.
  • the pixel value of one pixel is represented by the integral of F (t).
  • the pixel value P of the pixel in frame #n is represented by Expression (3).
  • Equation (3) is the time at which the conversion of incident light into electric charge has started.
  • t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the integration effect in the spatial direction by the sensor 2 is simply referred to as the spatial integration effect
  • the integration effect in the time direction by the sensor 2 is simply referred to as the time integration effect
  • the spatial integration effect or the time integration effect is also simply referred to as an integration effect.
  • FIG. 12 is a diagram illustrating an image of a linear object (for example, a thin line) in the real world 1, that is, an example of a light intensity distribution.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image.
  • the position on the right in the middle indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the linear object in the real world 1 includes a certain stationarity.
  • the image shown in Fig. 12 has the continuity that the cross-sectional shape (change in level with respect to position change in the direction orthogonal to the length direction) is the same at an arbitrary position in the length direction .
  • FIG. 13 is a diagram illustrating an example of pixel values of an image corresponding to the image illustrated in FIG. 12 and obtained by actual imaging.
  • FIG. 14 is a schematic diagram of the image data shown in FIG.
  • the schematic diagram shown in Fig. 14 is a linear line with a diameter smaller than the length L of the light-receiving surface of each pixel, which extends in a direction deviated from the pixel array (vertical or horizontal array of pixels) of the image sensor.
  • FIG. 3 is a schematic diagram of image data obtained by capturing an image of an object with an image sensor. When the image data shown in FIG. 14 is acquired, the image incident on the image sensor is the image of the linear object in the real world 1 in FIG.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the directions indicating the pixel values in FIG. 14 correspond to the level directions in FIG. 12, and the spatial direction X and the spatial direction Y in FIG. 14 are the same as the directions in FIG.
  • the linear object When an image of a linear object whose diameter is shorter than the length of the light receiving surface of each pixel is captured by the image sensor, the linear object is schematically represented in the image data obtained as a result of the imaging, for example, It is represented by a plurality of arcs (kamaboko-shaped) of a predetermined length that are arranged diagonally.
  • Each arc shape is almost the same.
  • One arc shape is formed vertically on one row of pixels or horizontally on one row of pixels.
  • one arc shape in FIG. 14 is formed on one column of pixels vertically.
  • the image of the linear object in the real world 1 has an arbitrary position in the length direction and a spatial direction.
  • the stationarity of the same cross-sectional shape in Y is lost.
  • the continuity that the image of the linear object in the real world 1 has is the same shape formed on one row of pixels vertically or one row of pixels horizontally. It can be said that there is a change to a stationary state in which certain arc shapes are arranged at regular intervals.
  • FIG. 15 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background, that is, an example of the distribution of light intensity.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image.
  • the position to the right of indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the real world 1 of an object having a straight edge in a color different from the background has a predetermined constancy. That is, the image shown in FIG. 15 has stationarity in which the cross-sectional shape (change in level with respect to change in position in the direction perpendicular to the edge) is the same at an arbitrary position in the length direction of the edge.
  • FIG. 16 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG. As shown in FIG. 16, the image data is composed of pixel values in units of pixels, and thus has a step-like shape.
  • FIG. 17 is a schematic diagram of the image data shown in FIG.
  • FIG. 17 shows a single-color, straight-line color that is different from the background and whose edge extends in a direction deviating from the arrangement of pixels (vertical or horizontal arrangement of pixels) of the image sensor.
  • FIG. 2 is a schematic diagram of image data obtained by capturing an image of the real world 1 of an object having an edge using an image sensor.
  • the image incident on the image sensor was of a different color from the background shown in Fig. 15 and had a single color, linear edge. It is an image of the real world 1.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 17 corresponds to the direction of the level in FIG. 15, and the spatial direction X and the spatial direction Y in FIG. 17 are the same as the directions in FIG.
  • the linear edge is schematically represented in image data obtained as a result of the imaging. For example, a plurality of pawls of a predetermined length, which are arranged diagonally
  • Each claw shape is almost the same shape.
  • One claw shape is formed vertically on one row of pixels or horizontally on one row of pixels. For example, in FIG. 17, one claw shape is formed vertically on one column of pixels.
  • the real world 1 is a color having a color different from the background and having a monochromatic, linear edge.
  • the continuity of the image of the real world 1, which is a color different from the background and has a single color, and has a linear edge has an image of one pixel vertically or one pixel horizontally. It can be said that the same shape of the claw shape formed on the pixel of the column has changed to the stationary state in which it is arranged at a constant interval.
  • the data continuity detecting unit 101 detects such continuity of data included in, for example, data 3 which is an input image. For example, the data continuity detecting unit 101 detects data continuity by detecting a region having a certain feature in a predetermined dimension direction. For example, the data continuity detecting unit 101 detects a region shown in FIG. 14 in which the same arc shapes are arranged at regular intervals. Further, for example, the data continuity detecting unit 101 detects a region shown in FIG. 17 in which the same claw shapes are arranged at regular intervals.
  • the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction indicating a similar shape arrangement.
  • the data continuity detecting unit 101 detects the continuity of data by detecting angles (movements) in the spatial direction and the temporal direction, which indicate the parallel arrangement of similar shapes in the spatial direction and the temporal direction. Is detected.
  • the data continuity detecting unit 101 detects data continuity by detecting a length of an area having a certain characteristic in a direction of a predetermined dimension.
  • the portion of the data 3 in which the image of the real world 1 of the object having a single color and having a linear edge and different from the background is projected by the sensor 2 is also referred to as a binary edge.
  • desired high-resolution data 18 1 is generated from the data 3.
  • the real world 1 is estimated from the data 3, and the high-resolution data 18 1 is generated based on the estimation result. That is, as shown in Figure 19, the real world 1 is estimated from data 3 and High-resolution data 18 1 is generated from the estimated real world 1 in consideration of the data 3.
  • the sensor 2 which is a CCD has an integral characteristic as described above. That is, one unit of data 3 (for example, pixel value) is a signal of the real world 1
  • the virtual high-resolution sensor applies the process of projecting the real-world 1 signal to data 3 to the estimated real-world 1, resulting in a high-resolution sensor.
  • Data 1 8 1 can be obtained.
  • the signal of the real world 1 can be estimated from the data 3
  • the signal of the real world 1 is calculated for each detection region of the detection element of the virtual high-resolution sensor ( By integrating (in the spatiotemporal direction), one value included in the high-resolution data 18 1 can be obtained.
  • the data 3 cannot represent the small change of the signal of the real world 1. Therefore, by comparing the signal of the real world 1 estimated from the data 3 with the change of the signal of the real world 1 and integrating every smaller region (in the spatiotemporal direction), the signal of the real world 1 is obtained. It is possible to obtain high-resolution data 18 1 indicating a small change in
  • high-resolution data 181 can be obtained by integrating the estimated real world 1 signal in the detection area.
  • the image generation unit 103 integrates the estimated signal of the real world 1 in a space-time region of each detection element of the virtual high-resolution sensor. Thus, high-resolution data 18 1 is generated.
  • the relation between the data 3 and the real world 1, the stationarity, and the spatial mixing in the data 3 are used.
  • mixing means that in data 3, signals for two objects in the real world 1 are mixed into one value.
  • Spatial mixing refers to spatial mixing of signals for two objects due to the spatial integration effect of the sensor 2.
  • Real world 1 itself consists of an infinite number of phenomena, so in order to express real world 1 itself, for example, by mathematical formulas, an infinite number of variables are needed. From Data 3, it is not possible to predict all events in the real world 1.
  • a part of the signal of the real world 1 having a stationarity which can be represented by f (x, y, Z , t), is approximated by a model 16 1 represented by N variables. Then, as shown in FIG. 22, the prediction is made from M data 162 in the model 16 1 force data 3.
  • model 161 is represented by N variables based on stationarity, and second, sensor Based on the integration characteristics of 2, it is necessary to formulate an expression using N variables that shows the relationship between the model 16 1 represented by N variables and the M data 16 2 . Since the model 16 1 is represented by N variables based on the force S and the stationarity, it shows the relationship between the model 16 1 represented by N variables and the M data 16 2. It can be said that the equation using N variables describes the relationship between the stationary signal part of the real world 1 and the data stationary part 3.
  • the data continuity detection unit 101 is based on a signal portion of the real world 1 having continuity. The features of data 3 where data continuity occurs and the features of data steadiness are detected.
  • the edge has a slope.
  • the arrow B in FIG. 23 indicates the edge inclination.
  • the inclination of the predetermined edge can be represented by an angle with respect to a reference axis or a direction with respect to a reference position.
  • the inclination of the predetermined edge can be represented by an angle between the coordinate axis in the spatial direction X and the edge.
  • a predetermined inclination of ⁇ can be represented by a direction indicated by a length in the spatial direction X and a length in the spatial direction Y.
  • An image of the real world 1 that is a color that is different from the background and has a single color, and has a straight edge.
  • the image of the real world 1 is displayed in the data 3.
  • the claw shape corresponding to the edge is arranged at the position indicated by A 'in Fig. 23 with respect to the position of interest (A) in Fig. 23, and corresponds to the inclination of the edge of the image of the real world 1 in Fig. 23.
  • the claw shapes corresponding to the edges are arranged in the direction of the inclination indicated by '.
  • the model 16 1 represented by N variables approximates a real-world signal portion that causes data continuity in data 3.
  • the data stationarity occurs in the data 3 shown in Fig. 24, and the value obtained by integrating the signal of the real world 1 is output from the detection element of the sensor 2 by focusing on the values belonging to the mixed region.
  • the formula is established as equal to For example, multiple expressions can be developed for multiple values in data 3 where data continuity occurs.
  • A indicates the position of interest of the edge, and A, indicates the pixel (position) with respect to the position of interest (A) in the image of the real world 1.
  • the mixed region is defined as a pair of two objects in the real world 1 in data 3. This is the area of the data where the mixed signals are one value.
  • the image for the object having the straight edge and the image for the background are integrated. Pixel values belong to the mixed area.
  • FIG. 25 is a diagram illustrating signals for two objects in the real world 1 and values belonging to a mixed area when an equation is formed.
  • the left side in Fig. 25 is the signal of the real world 1 for two objects in the real world 1 acquired in the detection area of one detecting element of the sensor 2 and having a predetermined spread in the spatial direction X and the spatial direction Y. Is shown.
  • the right side in FIG. 25 shows the pixel value P of one pixel of data 3 where the signal of the real world 1 shown on the left side of FIG. 25 is projected by one detection element of the sensor 2. That is, the signal of the real world 1 is projected onto two objects in the real world 1 having a predetermined spread in the spatial direction X and the spatial direction Y acquired by one detecting element of the sensor 2, The pixel value P of one pixel is shown.
  • L in FIG. 25 indicates the signal level of the real world 1 in the white part of FIG. 25 for one object in the real world 1.
  • R in FIG. 25 indicates the level of the signal of the real world 1 in the shaded portion of FIG. 25 with respect to another object in the real world 1.
  • the mixing ratio a is a ratio of a signal (area) to two objects, which is incident on a detection area having a predetermined spread in the spatial direction X and the spatial direction Y of one detecting element of the sensor 2. Show.
  • the mixing ratio is incident on the detection area of one detection element of the sensor 2 having a predetermined spread in the spatial direction X and the spatial direction Y with respect to the area of the detection area of one detection element of the sensor 2.
  • the relationship between the level L, the level R, and the pixel value P can be expressed by Expression (4).
  • level R is the pixel of data 3 located on the right side of the pixel of interest.
  • the level L may be the pixel value of data 3 located on the left side of the pixel of interest.
  • the mixing ratio a and the mixing region can be considered in the time direction as in the spatial direction.
  • the ratio of the signal for the two objects incident on the detection area of one detection element of the sensor 2 in the time direction Changes.
  • the signals for the two objects, which are incident on the detection area of one detection element of the sensor 2 and change in proportion in the time direction, are projected to one value of the data 3 by the detection element of the sensor 2.
  • time mixing The mixing in the time direction of the signals for the two objects due to the time integration effect of the sensor 2 is called time mixing.
  • the data continuity detecting unit 101 detects, for example, a pixel area in the data 3 on which the signals of the real world 1 for the two objects in the real world 1 are projected.
  • the data continuity detecting unit 101 detects, for example, a tilt in the data 3 corresponding to the tilt of the edge of the image of the real world 1.
  • the real-world estimator 102 for example, based on the region of the pixel having the predetermined mixture ratio ⁇ detected by the data continuity detector 101 and the gradient of the region, ⁇ changes Estimate the real world 1 signal by formulating an expression using ⁇ ⁇ variables that shows the relationship between the model represented by numbers 16 1 and ⁇ ⁇ ⁇ data 16 2 I do. Further, a specific estimation of the real world 1 will be described.
  • the real-world signal represented by the function F (x, y, z, t) on the cross section in the spatial direction Z (position of the sensor 2) Signal is determined by position x in spatial direction X, position y in spatial direction Y, and time t
  • the detection area of the sensor 2 has a spread in the spatial direction X and the spatial direction Y.
  • the approximation function f (x, y, t) is a function that approximates the signal of the real world 1 acquired by the sensor 2 and having a spread in the spatial direction and the temporal direction.
  • Shall be
  • the value P (x, y, t) of the data 3 is, for example, a pixel value output by the sensor 2 which is an image sensor.
  • the value obtained by projecting the approximate function f (x, y, t) can be expressed as a projection function S (x, y, t).
  • the function F ( X , y, z, t) representing the signal of the real world 1 can be a function of infinite order.
  • the function Si (x, y, t) can be described from the description of the function fi (x, y, t). .
  • equation (7) the relationship between data 3 and real-world signals can be formulated as equation (7). Can be.
  • j is the data index.
  • N is the number of variables representing the model 16 1 approximating the real world 1.
  • M is the number of data 162 included in data 3.
  • the variables can be made independent as Wi .
  • i indicates the number of variables as it is.
  • the form of the function represented by can be made independent, and a desired function can be used as.
  • the number of variables N can be defined without depending on the form of the function, and the variables can be obtained from the relationship between the number N of variables ⁇ and the number M of data.
  • the real world 1 can be estimated from the data 3.
  • N variables are defined, that is, equation (5) is defined. This is made possible by describing the real world 1 using stationarity.
  • a signal of the real world 1 can be described by a model 161, in which a cross section is represented by a polynomial and the same cross-sectional shape continues in a certain direction.
  • the projection by the sensor 2 is formulated, and the equation (7) is described.
  • the result of integrating the signals of the real world 2 is formulated as data 3.
  • data 162 is collected from an area having data continuity detected by the data continuity detecting unit 101.
  • stationarity Data 162 are collected.
  • N M
  • the number N of variables is equal to the number M of expressions, so that the variables can be obtained by establishing a simultaneous equation.
  • variable ⁇ can be obtained by the least square method.
  • equation (9) for predicting data 3 from real world 1 according to equation (7) is shown.
  • Equation (1 2) is derived from equation (1 1).
  • Si ( Xj , Yj , tj) is described as Si (j).
  • Expression (13) can be expressed as ° M AT 3 ⁇ 4 AT _ 'M-A..T-.
  • Equation (13) Si represents the projection of the real world 1.
  • Pj represents data 3.
  • Equation (13) ⁇ is a variable that describes the characteristics of the signal in the real world 1 and seeks to obtain.
  • the real world estimating unit 102 estimates the real world 1 by inputting the data 3 into the equation (13), for example, and obtaining W MAT by a matrix solution or the like.
  • the cross-sectional shape of the signal in the real world 1 that is, the level change with respect to the position change, is described by a polynomial. Assume that the cross section of the signal of the real world 1 is constant, and that the cross section of the signal of the real world 1 moves at a constant speed c. Then, the projection of the signal of the real world 1 by the sensor 2 onto the data 3 It is formulated by integration in three dimensions in the spatiotemporal direction of the signal.
  • Equations (18) and (19) are obtained from the assumption that the cross-sectional shape of the signal in the real world 1 moves at a constant speed. dx _
  • the cross-sectional shape of the signal in the real world 1 is expressed by Expression (20) by using Expressions (18) and (19).
  • Equation (2 1) S (x, y, t) is expressed in the spatial direction X from the position x s to the position x e , in the spatial direction Y, from the position y s to the position y e , and in the time direction t, It shows the integrated value of the region from time to time t e , that is, the region represented by the rectangular parallelepiped of space-time.
  • equation (13) By solving equation (13) using a desired function f (x ′, y ′) that can determine equation (21), the signal of the real world 1 can be estimated.
  • equation (23) is obtained.
  • Figure 27 is a diagram showing an example of M data 162, extracted from data 3, for example, 27 pixel values are extracted as data 162, and the extracted pixel values.
  • j is from 0 to 26.
  • the pixel value of the pixel corresponding to the position of interest at time ⁇ which is n is P 13 (x, y, t), and the direction in which the pixel values of the pixels having data continuity are arranged
  • the direction in which the same claw shape detected by the data continuity detection unit 101 is arranged is P 4 (X, y, t), P 13 (x, y, t), and P 22 In the direction connecting (, y, t), pixel values P 9 (x, y, t) to P 17 (X, y, t) at time t which is n, temporally before n
  • the region where the pixel value as data 3 output from the image sensor as sensor 2 is acquired has a spread in the time direction or two-dimensional spatial direction as shown in FIG. 28. . Therefore, for example, as shown in FIG. 29, the center of gravity of the rectangular parallelepiped (the area where the pixel value is obtained) corresponding to the pixel can be used as the position of the pixel in the spatiotemporal direction.
  • the circle in Fig. 29 indicates the center of gravity.
  • the real world estimating unit 102 calculates, for example, 27 pixel values P. From (x, y, t) to P 2 6 (x, y, t) and equation (2 3), generate equation (1 3) and estimate W to estimate the signal of real world 1 .
  • a Gaussian function or a sigmoid function can be used as the function fi (x, y, t).
  • the data 3 has a value obtained by integrating the signal of the real world 1 in the time direction and the two-dimensional spatial direction.
  • the pixel value of data 3 output from the image sensor of sensor 2 is the light that is incident on the detection element.
  • the signal of real world 1 is integrated in the time direction with the detection time, which is the shutter time. It has a value integrated in the light receiving area of the detection element in the spatial direction.
  • high-resolution data 181 which has higher resolution in the spatial direction, is a sensor that outputs the estimated real world 1 signal and the data 3 in the time direction. It is generated by integrating in the same time as the detection time of 2, and by integrating in a narrower area in the spatial direction compared to the light receiving area of the detection element of the sensor 2 that has output the data 3.
  • the area where the estimated signal of the real world 1 is integrated is the sensor that output data 3.
  • the setting can be made completely independently of the light receiving area of the detection element of the second element.
  • the high-resolution data 18 1 is given a resolution that is an integer multiple in the spatial direction with respect to the data 3 as well as 5/3 times. Resolution can be provided.
  • the estimated integration time of the signal of the real world 1 is determined by the detection element of the sensor 2 that outputs the data 3.
  • the high-resolution data 18 1 has a resolution that is an integral multiple of the data 3 in the time direction with respect to the data 3.
  • the high-resolution data 181 is generated by integrating the estimated signal of the real world 1 only in the spatial direction without integrating it in the time direction. Is done.
  • high-resolution data 181 which has higher resolution in the temporal and spatial directions, uses the estimated real-world 1 signal as the sensor 2 that outputs data 3 in the spatial direction. Integrates in a narrower area compared to the light-receiving area of the detector element, and integrates in a shorter time compared to the detection time of sensor 2 that output data 3 in the time direction.
  • the region and time in which the estimated signal of the real world 1 is integrated can be set completely independently of the light receiving region of the detection element of the sensor 2 that outputs the data 3 and the shutter time.
  • the image generation unit 103 receives, for example, the signal of the estimated real world 1 By integrating in the spatiotemporal domain of, higher resolution data is generated in the time direction or the space direction.
  • FIG. 35 shows the original image of the input image.
  • FIG. 36 is a diagram illustrating an example of the input image.
  • the input image shown in FIG. 36 is an image generated by using the average value of the pixel values of the pixels belonging to the block of 2 ⁇ 2 pixels of the image shown in FIG. 35 as the pixel value of one pixel. It is. That is, the input image is an image obtained by applying spatial integration that imitates the sensor integration characteristics to the image shown in FIG.
  • FIG. 37 is a diagram showing an image obtained by applying the conventional classification adaptive processing to the input image shown in FIG.
  • the class classification adaptation process includes a class classification process and an adaptation process.
  • the class classification process classifies data into classes based on their properties, and performs an adaptation process for each class.
  • the adaptive processing for example, a low-quality or standard-quality image is converted into a high-quality image by mapping using a predetermined tap coefficient.
  • FIG. 38 is a diagram illustrating a result of detecting a thin line region from the input image illustrated in the example of FIG. 36 by the data continuity detecting unit 101.
  • a white region indicates a thin line region, that is, a region where the arc shapes shown in FIG. 14 are arranged.
  • FIG. 39 is a diagram showing an example of an output image output from the signal processing device 4 according to the present invention, using the image shown in FIG. 36 as an input image. As shown in FIG. 39, according to the signal processing device 4 of the present invention, it is possible to obtain an image closer to the thin line image of the original image shown in FIG.
  • FIG. 40 is a flowchart for explaining signal processing by the signal processing device 4 according to the present invention.
  • step S101 the data continuity detecting unit 101 executes a process of detecting continuity.
  • the data continuity detection unit 101 detects the continuity of the data included in the input image, which is data 3, and outputs data continuity information indicating the continuity of the detected data to the real world estimation unit 1002. And to the image generation unit 103.
  • the data continuity detecting unit 101 detects the continuity of data corresponding to the continuity of a signal in the real world.
  • the continuity of the data detected by the data continuity detection unit 101 is a part of the continuity of the image of the real world 1 included in the data 3, or This is a stationary state that has changed from the stationary state of the signal in the real world 1.
  • the data continuity detecting unit 101 detects data continuity by detecting an area having a certain feature in a direction of a predetermined dimension. In addition, for example, the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction indicating a similar shape arrangement.
  • step S101 The details of the processing for detecting the stationarity in step S101 will be described later.
  • the data continuity information can be used as a feature quantity indicating the feature of data 3.
  • step S102 the real world estimating unit 102 executes a process of estimating the real world. That is, the real world estimating unit 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detecting unit 101. For example, in the process of step S102, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a model 161 that approximates (describes) the real world 1. You. The real world estimating unit 102 supplies the real world estimation information indicating the estimated signal of the real world 1 to the image generating unit 103.
  • the real-world estimator 102 predicts the width of a linear object
  • Estimate 1 signal Also, for example, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a level indicating the color of a linear object.
  • step S102 Details of the process of estimating the real world in step S102 will be described later.
  • the real world estimation information can be used as a feature amount indicating the feature of the data 3.
  • step S103 the image generation unit 103 executes a process of generating an image, and the process ends. That is, the image generation unit 103 generates an image based on the real world estimation information, and outputs the generated image. Alternatively, the image generation unit 103 generates an image based on the data continuity information and the real world estimation information, and outputs the generated image.
  • the image generation unit 103 integrates a function approximating the generated real-world optical signal in the spatial direction based on the real-world estimation information, thereby obtaining the input image. Generates a higher-resolution image in the spatial direction compared to, and outputs the generated image. For example, the image generation unit 103 integrates a function approximating the generated real-world optical signal in the spatio-temporal direction based on the real-world estimation information, so that the time-domain Generates a high-resolution image in the spatial direction and outputs the generated image. Details of the image generation process in step S103 will be described later.
  • the signal processing device 4 detects the data continuity from the data 3 and estimates the real world 1 based on the detected data continuity. Then, the signal processing device 4 generates a signal that is closer to the real world 1 based on the estimated real world 1.
  • a first signal which is a real-world signal having a first dimension
  • a second dimension of a second dimension that is less than the first dimension in which a part of the stationarity of the real-world signal is missing.
  • FIG. 41 is a block diagram showing the configuration of the data continuity detecting unit 101. As shown in FIG.
  • the data continuity detecting unit 101 shown in FIG. 41 has a data continuity detection unit 101 included in the data 3 which is generated due to continuity that the cross-sectional shape of the object is the same when a thin object is imaged. Detect data continuity.
  • the data continuity detector 101 shown in FIG. 41 has a change in the position in the direction orthogonal to the length direction at an arbitrary position in the length direction of the image of the real world 1 which is a thin line. Detects the stationarity of the data contained in Data 3, resulting from the stationarity that the change in light level with respect to is the same.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 41 includes a slanted image included in data 3 obtained by capturing an image of a thin line with the sensor 2 having a spatial integration effect. A region where a plurality of arc shapes (kamaboko shapes) of a predetermined length, which are arranged adjacent to each other, is detected.
  • the data continuity detector 1 ⁇ 1 is the part of the image data other than the part of the image data (hereinafter also referred to as the stationary component) where the thin line image with data continuity is projected from the input image which is data 3. (Hereinafter referred to as a non-stationary component), and from the extracted non-stationary component and the input image, a pixel on which the image of the real world 1 thin line is projected is detected, and the real world 1 thin line in the input image is detected. Detects the area consisting of the pixels on which the image is projected.
  • the non-stationary component extracting unit 201 extracts the non-stationary component from the input image, and outputs the non-stationary component information indicating the extracted non-stationary component together with the input image to the vertex detecting unit 202 and the simple This is supplied to the key change detecting section 203.
  • non-stationary The component extraction unit 201 extracts the non-stationary component as the background by approximating the background in the input image as the data 3 with a plane.
  • a solid line indicates a pixel value of data 3
  • a dotted line indicates an approximate value indicated by a plane approximating the background.
  • A indicates the pixel value of the pixel on which the thin line image is projected
  • PL indicates a plane approximating the background.
  • the pixel values of a plurality of pixels in the image data portion having data continuity are discontinuous with respect to the non-stationary component.
  • the non-stationary component extraction unit 201 is configured to project a plurality of pixels of the image data, which is data 3, in which an image, which is an optical signal of the real world 1, is projected, and a part of the stationarity of the image of the real world 1 is missing. Detect discontinuities in values.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 remove non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 set the pixel value of a pixel on which only the background image is projected to 0 in each pixel of the input image, thereby To remove unsteady components.
  • the vertex detection unit 202 and the monotonous increase / decrease detection unit 203 subtract the value approximated by the plane PL from the pixel value of each pixel of the input image, and thereby, Remove components.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the portion of the image data on which the fine line is projected, and Processing in the detecting unit 202 to the continuity detecting unit 204 becomes easier.
  • non-stationary component extraction unit 201 may supply the image data obtained by removing the non-stationary component from the input image to the vertex detection unit 202 and the monotone increase / decrease detection unit 203. No.
  • image data in which an unsteady component has been removed from an input image that is, image data including only pixels including a steady component
  • image data projected from the vertex detection unit 202 to the continuity detection unit 204 to which the image of the thin line is projected will be described.
  • the cross-sectional shape in the spatial direction Y (change in pixel value with respect to the change in position in the spatial direction) of the image data on which the fine line image shown in Fig. 42 is projected is sensor 2 when there is no optical LPF. From the spatial integration effect of the image sensor, a trapezoid shown in FIG. 44 or a triangle shown in FIG. 45 can be considered. However, a normal image sensor has an optical LPF, and an image sensor acquires an image that has passed through the optical LPF and projects the acquired image onto data 3, so that in reality, the spatial direction Y of the thin line image data is
  • the cross-sectional shape is similar to a Gaussian distribution as shown in FIG.
  • the vertex detection unit 202 to the continuity detection unit 204 are pixels on which the fine line image is projected, and the same cross-sectional shape (change in pixel value with respect to change in position in the spatial direction) is displayed in the vertical direction of the screen.
  • the vertex detection unit 202 to the continuity detection unit 204 detect and detect an area in the input image where an arc shape (kamaboko type) is formed on one column of pixels vertically. It is determined whether or not the areas are arranged adjacent to each other in the horizontal direction, and the connection of the areas where the arc shape is formed corresponding to the length direction of the thin line image which is the signal of the real world 1 is detected.
  • the vertex detection unit 202 to the continuity detection unit 204 detect a region where pixels of the fine line image are projected and where the same cross-sectional shape is arranged at regular intervals in the horizontal direction of the screen. Then, by detecting the connection of the detected areas corresponding to the length direction of the thin line of the real world 1, the area having the data continuity is detected. An area consisting of pixels onto which an image has been projected is detected. That is, the vertex detection unit 202 to the continuity detection unit 204 detects an area where an arc shape is formed on one row of pixels in the input image, and the detected area is vertical. Judgment is made as to whether or not they are adjacent to each other in the direction, and the skew of an area where an arc shape is formed corresponding to the length direction of the thin line image which is the signal of the real world 1 is detected.
  • the vertex detecting unit 202 detects a pixel having a larger pixel value than the surrounding pixels, that is, the vertex, and supplies vertex information indicating the position of the vertex to the monotone increase / decrease detecting unit 203.
  • the vertex detector 202 compares the pixel values of the pixels located on the upper side of the screen and the pixel values of the pixels located on the lower side of the screen. Then, a pixel having a larger pixel value is detected as a vertex.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, an image of one frame.
  • One screen contains frames or fields. The same applies to the following description.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and determines the pixel value of the pixel of interest and the pixel value of the pixel above the pixel of interest. Is compared with the pixel value of the target pixel and the pixel value of the lower pixel of the target pixel, and has a pixel value larger than the pixel value of the upper pixel, and is larger than the pixel value of the lower pixel. A target pixel having a pixel value is detected, and the detected target pixel is set as a vertex.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • the vertex detector 202 may not detect the vertex in some cases. For example, when the pixel values of the pixels of one image are all the same, or when the pixel value decreases in the 1 or 2 direction, no vertex is detected. In this case, the thin line image is not projected on the image data. Based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202, the monotonous increase / decrease detecting unit 203 detects the vertex detected by the vertex detecting unit 202 in the vertical direction. A candidate for a region consisting of pixels on which a thin line image is projected, which is a pixel arranged in a column, is detected, and region information indicating the detected region is supplied to the continuity detector 204 together with vertex information.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels having a pixel value that is monotonically decreased with respect to a pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Detect as a candidate.
  • Monotonic decrease means that the pixel value of a pixel at a longer distance from the vertex is smaller than the pixel value of a pixel at a shorter distance from the vertex.
  • the monotonous increase / decrease detection unit 203 detects a region composed of pixels having a monotonically increasing pixel value as a candidate for a region composed of pixels onto which a thin line image is projected, based on the pixel value of the vertex.
  • Monotonically increasing means that the pixel value of the pixel at a longer distance from the vertex is larger than the pixel value of the pixel at a shorter distance from the vertex.
  • the processing for the region composed of pixels having monotonically increasing pixel values is the same as the processing for the region composed of pixels having monotonically decreasing pixel values, and a description thereof will be omitted.
  • the monotonous increase / decrease detection unit 203 calculates the difference between the pixel value of each pixel and the pixel value of the upper pixel, and the pixel value of the lower pixel for each pixel in one column vertically with respect to the vertex. Find the difference between. Then, the monotone increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 detects a region having a pixel value having the same sign as that of the pixel value of the vertex based on the sign of the pixel value of the vertex from the region where the pixel value is monotonically decreasing. Is detected as an indication of the area consisting of the pixels on which the thin line image is projected. Put out.
  • the monotone increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the upper pixel and the sign of the pixel value of the lower pixel, and the sign of the pixel value changes. By detecting all pixels, an area consisting of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels arranged in the up-down direction, the pixel value of which monotonously decreases with respect to the vertex, and which has the pixel value of the same sign as the vertex.
  • FIG. 47 is a diagram illustrating a process of detecting a vertex and a monotonically increasing / decreasing region, which detects a pixel region on which a thin line image is projected from a pixel value with respect to a position in the spatial direction Y.
  • P indicates a vertex.
  • P indicates a vertex.
  • the vertex detection unit 202 compares the pixel value of each pixel with the pixel value of a pixel adjacent in the spatial direction Y, and determines a pixel value larger than the pixel value of the two pixels adjacent in the spatial direction Y.
  • the vertex P is detected by detecting the pixel having the vertex P.
  • the region consisting of the vertex P and the pixels on both sides of the vertex P in the spatial direction Y is a monotonically decreasing region in which the pixel values of the pixels on both sides in the spatial direction Y monotonically decrease with respect to the pixel value of the vertex P.
  • the arrow indicated by A and the arrow indicated by B indicate monotonically decreasing regions existing on both sides of the vertex P.
  • the monotone increase / decrease detection unit 203 finds a difference between the pixel value of each pixel and the pixel value of a pixel adjacent to the pixel in the spatial direction Y, and detects a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 sets the boundary between the detected pixel whose sign of the difference changes and the pixel on the near side (vertex P side) in a thin line area composed of pixels onto which the thin line image is projected. Of the boundary.
  • the monotonous increase / decrease detection unit 203 detects the pixel value of each pixel in the monotonically decreasing region. 2004/001585
  • the sign is compared with the sign of the pixel value of the pixel adjacent to the pixel in the spatial direction Y, and the pixel whose sign of the pixel value changes is detected.
  • the monotone increase / decrease detection unit 203 sets the boundary between the detected pixel whose sign of the pixel value changes and the pixel on the near side (vertex ⁇ side) as the boundary of the thin line area.
  • the boundary of the thin line region that is the boundary between the pixel whose sign of the pixel value changes and the pixel on the near side (vertex ⁇ side) is indicated by D.
  • a thin line region F composed of pixels onto which a thin line image is projected is a region sandwiched between a thin line region boundary C and a thin line region boundary D.
  • the monotone increase / decrease detection unit 203 finds a thin line region F longer than a predetermined threshold, that is, a thin line region F including a number of pixels larger than the threshold, from the thin line region F composed of such a monotone increase / decrease region. For example, when the threshold value is 3, the monotonous increase / decrease detection unit 203 detects a thin line region F including four or more pixels.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex P, the pixel value of the pixel on the right side of the vertex P, and the pixel value of the pixel on the left side of the vertex P.
  • the pixel value of the vertex P exceeds the threshold value, the pixel value of the pixel on the right side of the vertex P is less than the threshold value, and the pixel value of the pixel on the left side of the vertex P is less than the threshold value.
  • the thin line region F to which P belongs is detected, and the detected thin line region F is set as a catchment of a region including pixels including components of a thin line image.
  • the pixel value of the vertex P is equal to or less than the threshold value, the pixel value of the pixel on the right side of the vertex P exceeds the threshold value, or the pixel value of the pixel on the left side of the vertex P exceeds the threshold value.
  • F is determined not to include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex P with the threshold value, and moves the vertex P in the spatial direction X (the direction indicated by the dotted line AA ′). ) Is compared with the threshold value, and the pixel value of the vertex P exceeds the threshold value, and the pixel value of the pixel adjacent in the spatial direction X is equal to or less than the threshold value.
  • FIG. 49 is a diagram illustrating pixel values of pixels arranged in the spatial direction X indicated by a dotted line AA ′ in FIG.
  • Exceeds the pixel value is the threshold T h s of the vertex P, pixel values of pixels adjacent in the spatial direction X of the vertex P is less than or equal to the threshold value T h s, fine line region F where the vertex P belongs, including components of the thin line .
  • the monotonous increase / decrease detection unit 203 compares the difference between the pixel value of the vertex P and the pixel value of the background with a threshold value based on the pixel value of the background, and also determines the vertex P in the spatial direction X.
  • the difference between the pixel value of the adjacent pixel and the pixel value of the background is compared with the threshold value, and the difference between the pixel value of the vertex! 3 and the pixel value of the background exceeds the threshold value and the pixel of the pixel adjacent in the spatial direction X
  • a fine line region F to which the vertex P belongs, in which the difference between the value and the pixel value of the background is equal to or smaller than the threshold value, may be detected.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonically with the sign of the pixel value being the same as that of the vertex P with respect to the vertex P.
  • Monotonic increase / decrease region information indicating that the pixel value of the pixel on the right side of P is equal to or less than the threshold value and the pixel value of the pixel on the left side of the vertex P is equal to or less than the threshold value is supplied to the continuity detection unit 204.
  • the thin line image includes the projected pixels.
  • the area indicated by the monotone increasing / decreasing area information includes pixels arranged in a line in the vertical direction of the screen and includes an area formed by projecting a thin line image.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 use the property that the change in the pixel value in the spatial direction Y is similar to the Gaussian distribution in the pixel on which the thin line image is projected. Then, a steady area composed of pixels onto which the thin line image is projected is detected.
  • the continuity detection unit 204 includes pixels that are horizontally adjacent to each other in the area that is composed of vertically arranged pixels and that is indicated by the monotone increase / decrease area information supplied from the monotone increase / decrease detection unit 203. Regions, i.e., have similar pixel value changes and overlap vertically Area is detected as a continuous area, and vertex information and data continuity information indicating the detected continuous area are output.
  • the data continuity information includes monotonically increasing / decreasing area information, information indicating the connection of areas, and the like.
  • the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data continuity information indicating the detected continuous area.
  • the continuity detecting unit 204 determines that the arc shape in the data 3 obtained by imaging the thin line, which is generated from the continuity of the image of the thin line in the real world 1 and is continuous in the length direction, is adjacent.
  • the candidates of the areas detected by the vertex detection unit 202 and the monotone increase / decrease detection unit 203 are further narrowed down.
  • FIG. 50 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
  • the continuity detector 204 performs two monotonic operations when the thin line area F composed of pixels arranged in one row in the vertical direction of the screen includes pixels that are adjacent in the horizontal direction. It is assumed that there is continuity between the increase / decrease regions, and that no continuity exists between the two thin line regions F when pixels adjacent in the horizontal direction are not included.
  • fine line region made up of pixels arranged in a line in the longitudinal direction of the screen, when containing a pixel adjacent to the pixel and lateral fine line region F 0 consisting of pixels arranged in a row in the vertical direction of the screen, fine line It is assumed to be continuous with the area F 0 .
  • a thin line area F 0 composed of pixels arranged in one column in the vertical direction of the screen includes a thin line area 1 when a pixel in the thin line area composed of pixels arranged in one column in the vertical direction of the screen and a pixel horizontally adjacent thereto are included. It is said to be continuous with ⁇ .
  • the vertex detection unit 202 to the continuity detection unit 204 detect pixels that are arranged in a line in the upper and lower direction of the screen and that are formed by projecting a thin line image. .
  • the vertex detection unit 202 to the continuity detection unit 204 Pixels that are aligned in one row in the horizontal direction and that consist of areas where the fine line image is projected, and pixels that are aligned in one row in the horizontal direction on the screen and where the fine line image is projected The territory consisting of is detected.
  • the vertex detection unit 202 compares the pixel values of the pixels located on the left side of the screen and the pixel values of the pixels located on the right side of the screen with respect to the pixels arranged in one row in the horizontal direction of the screen. Then, a pixel having a larger pixel value is detected as a vertex, and vertex information indicating the position of the detected vertex is supplied to the monotone increase / decrease detector 203.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, one frame image.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and calculates the pixel value of the pixel of interest and the pixel value of the pixel to the left of the pixel of interest.
  • the pixel value of the pixel of interest is compared with the pixel value of the pixel on the right side of the pixel of interest, and the pixel value of the pixel on the left side is larger than the pixel value of the pixel on the right side. Is detected, and the detected pixel of interest is set as the vertex.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • the vertex detector 202 may not detect the vertex in some cases.
  • the monotonous increase / decrease detection unit 203 is a pixel arranged in a line in the left and right direction with respect to the vertex detected by the vertex detection unit 202, and is a target for an area composed of pixels on which a thin line image is projected. Is supplied to the continuity detection unit 204 together with the vertex information and monotonically increasing / decreasing area information indicating the detected area.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels having a pixel value that is monotonically decreased with respect to a pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Detect as a catch.
  • the monotonous increase / decrease detection unit 203 detects, for each pixel in a row lateral to the vertex, The difference between the pixel value of each pixel and the pixel value of the pixel on the left and the pixel value of the pixel on the right are calculated. Then, the monotonic increase / decrease detection unit 203 detects a region where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 detects a region having a pixel value having the same sign as that of the pixel value of the vertex based on the sign of the pixel value of the vertex from the region where the pixel value is monotonically decreasing. Is detected as a candidate for an area composed of pixels onto which a thin line image is projected.
  • the monotone increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the left pixel or the sign of the pixel value of the right pixel, and the sign of the pixel value changes. By detecting a pixel having a pixel value, an area composed of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases.
  • the monotone increase / decrease detection unit 203 detects a region arranged in the left-right direction, the pixel value of which is monotonously decreased with respect to the vertex, and the pixel region having the same sign as the vertex.
  • the monotone increase / decrease detection unit 203 obtains a thin line region longer than a predetermined threshold, that is, a thin line region including a number of pixels larger than the threshold, from the thin line region composed of such a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex, the pixel value of the pixel above the vertex, and the pixel value of the pixel below the vertex.
  • the pixel value of the vertex exceeds the threshold value, the pixel value of the pixel above the vertex is less than the threshold value, and the thin line region to which the pixel value of the pixel below the vertex is less than the threshold value belongs.
  • the detected and detected thin line region is set as a candidate for a region including pixels including components of a thin line image.
  • the thin line region to which the vertex whose pixel value is less than or equal to the threshold value, the pixel value of the pixel above the vertex exceeds the threshold value, or the pixel value of the pixel below the vertex exceeds the threshold value belongs to It is determined that the image does not include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous increase / decrease detection unit 203 determines the pixel value of the vertex based on the pixel value of the background.
  • the difference between the pixel value of the background and the pixel value of the background is compared with the threshold value, and the difference between the pixel value of the pixel vertically adjacent to the vertex and the pixel value of the background is compared with the threshold value.
  • the difference between the pixel value of the pixel and the pixel value of the background exceeds the threshold value, and the difference between the pixel value of the vertically adjacent pixel and the pixel value of the background is equal to or less than the threshold value. May be set as a region candidate.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonously with the vertex as the reference and the sign of the pixel value is the same as the vertex, and the vertex exceeds the threshold value, and the right side of the vertex Is supplied to the continuity detecting unit 204, indicating that the pixel value of the pixel of the apex is less than or equal to the threshold value and the pixel value of the pixel on the left side of the vertex is less than the threshold value.
  • the region indicated by the monotone increase / decrease region information is a line of pixels arranged in the horizontal direction of the screen, and includes a region formed by projecting a thin line image.
  • the continuity detection unit 204 includes pixels that are vertically adjacent to each other in the region composed of pixels arranged in the horizontal direction, which is indicated by the monotone increase / decrease region information supplied from the monotone increase / decrease detection unit 203. Regions, that is, regions that have similar pixel value changes and overlap in the horizontal direction are detected as continuous regions, and vertex information and data continuity indicating the detected continuous regions are detected. Output information.
  • the data continuity information includes information indicating the connection between the areas.
  • the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data continuity information indicating the detected continuous area.
  • the continuity detecting section 204 is continuous in the length direction.
  • the vertex detection unit 202 and the monotony are utilized by using the stationarity of the data 3 obtained by imaging the thin line, which is generated from the stationarity of the line image, and in which the arc shapes are arranged at regular intervals so that they are adjacent to each other.
  • the area candidates detected by the increase / decrease detection unit 203 are further narrowed down.
  • FIG. 51 is a diagram illustrating an example of an image in which a stationary component is extracted by approximation on a plane.
  • FIG. 52 is a diagram showing a result of detecting a vertex from the image shown in FIG. 51 and detecting a monotonically decreasing region. In FIG. 52, the part shown in white is the detected area.
  • FIG. 53 is a diagram illustrating a region in which continuity is detected by detecting continuity of an adjacent region from the image illustrated in FIG. 52.
  • the portion shown in white is the region where continuity is detected.
  • the continuity detection shows that the region is further specified.
  • FIG. 54 is a diagram showing the pixel values of the region shown in FIG. 53, that is, the pixel values of the region where continuity is detected.
  • the data continuity detecting unit 101 can detect the continuity included in the data 3 as the input image. That is, the data continuity detecting unit 101 can detect the continuity of the data included in the data 3 that is generated by projecting the image of the real world 1 as a thin line onto the data 3. The data continuity detecting unit 101 detects, from the data 3, an area composed of pixels onto which the image of the real world 1 as a thin line is projected.
  • FIG. 55 is a diagram illustrating an example of another process of detecting an area having stationarity, on which a thin line image is projected, in the stationarity detection unit 101.
  • the continuity detecting unit 101 when the values of the adjacent differences are the same among the absolute values of the differences arranged corresponding to the pixels, the pixel corresponding to the absolute value of the two differences (A pixel sandwiched between the absolute values of the two differences) is determined to include a thin line component. Note that the continuity detection unit 101 determines that the absolute value of a difference is smaller than a predetermined threshold value when adjacent differential values are the same among the absolute values of the differentials arranged corresponding to the pixels. Then, it is determined that the pixel corresponding to the absolute value of the two differences (the pixel sandwiched between the absolute values of the two differences) does not include a thin line component.
  • the continuity detector 101 can also detect a thin line by such a simple method.
  • FIG. 56 is a flowchart for explaining the processing of the continuity detection.
  • the non-stationary component extracting unit 201 extracts a non-stationary component, which is a portion other than the portion where the thin line is projected, from the input image.
  • the non-stationary component extraction unit 201 supplies, together with the input image, the non-stationary component information indicating the extracted non-stationary component to the vertex detection unit 202 and the monotone increase / decrease detection unit 203. Details of the process of extracting the unsteady component will be described later.
  • step S2 ⁇ 2 the vertex detection unit 202 removes the non-stationary component from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201, and outputs it to the input image. Only pixels containing stationary components are left. Further, in step S202, the vertex detector 202 detects a vertex.
  • the vertex detection unit 202 compares the pixel value of each pixel with the pixel values of the upper and lower pixels for the pixel including the stationary component. Then, a vertex is detected by detecting a pixel having a pixel value larger than the pixel value of the upper pixel and the pixel value of the lower pixel. Also, in step S202, the vertex detection unit 202, when executing the processing based on the horizontal direction of the screen, determines the pixel value of each pixel for the pixel including the stationary component, The vertex is detected by comparing the pixel value of the pixel with the pixel value of the right pixel with the pixel value larger than the pixel value of the right pixel.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • step S203 the monotone increase / decrease detection unit 203 removes the non-stationary component from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201, and outputs the non-stationary component to the input image. Only pixels containing stationary components are left. Further, in step S203, the monotone increase / decrease detecting unit 203 detects the monotone increase / decrease with respect to the vertex based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202. A region consisting of pixels having data continuity is detected.
  • the monotonous increase / decrease detection unit 203 When executing processing based on the vertical direction of the screen, the monotonous increase / decrease detection unit 203 vertically arranges the pixels based on the pixel values of the vertices and the pixel values of the pixels arranged vertically in one column. By detecting the monotonous increase / decrease of pixels in one row, the pixels of which one thin line image is projected, detect an area composed of pixels having data continuity. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing with the vertical direction of the screen as a reference, determines each of the vertices and the pixels vertically arranged in one column with respect to the vertices.
  • the difference between the pixel value of the pixel and the pixel value of the upper or lower pixel is determined, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 determines the sign of the pixel value of each pixel and the sign of the pixel value of the pixel above or below the vertex and the pixels arranged in one column vertically with respect to the vertex. And detects a pixel whose sign of the pixel value changes.
  • the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex and the pixel values of the right and left pixels of the vertex with the threshold, and the pixel value of the vertex exceeds the threshold, and the right and left pixels An area consisting of pixels whose pixel value is equal to or smaller than the threshold value is detected.
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 executes the processing based on the horizontal direction of the screen.
  • the pixels are arranged in a row in a row, and are monotonically composed of the pixels onto which one thin line image is projected.
  • an area consisting of pixels having data continuity is detected. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing with the horizontal direction of the screen as a reference, determines each of the vertices and the pixels arranged in one row horizontally with respect to the vertices.
  • the difference between the pixel value of the left pixel and the pixel value of the left or right pixel is obtained, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 calculates the sign of the pixel value of each pixel and the sign of the pixel value of the pixel on the left or right side of the pixel for the pixels arranged in a row laterally to the vertex. And detects the pixel whose sign of the pixel value changes. Further, the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex, that is, the pixel value of the pixel on the upper side and lower side of the vertex with the threshold value, and the pixel value of the vertex exceeds the threshold value. An area consisting of pixels whose pixel value of the lower pixel is equal to or smaller than a threshold is detected.
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • step S204 the monotone increase / decrease detection unit 203 determines whether or not the processing of all pixels has been completed.
  • the non-stationary component extraction unit 201 detects the vertices of all the pixels of one screen (for example, a frame or a field) of the input image, and determines whether a monotonous increase / decrease area has been detected.
  • step S204 If it is determined in step S204 that the processing of all the pixels has not been completed, that is, it is determined that there is still a pixel that is not subjected to the processing of the detection of the vertex and the detection of the monotonous increase / decrease area, the step S204 Returning to 202, select a pixel to be processed from pixels that are not targeted for vertex detection and monotonous increase / decrease area detection processing, and repeat the vertex detection and monotonous increase / decrease area detection processing .
  • step S204 if it is determined that the processing of all pixels has been completed, that is, it is determined that a vertex and a monotonous increase / decrease region has been detected for all pixels, the process proceeds to step S205, and continuity detection is performed.
  • Part 204 is based on the monotone increase / decrease area information. Detect the continuity of the region. For example, the continuity detecting unit 204 determines that when a monotone increasing / decreasing area, which is indicated by monotonous increasing / decreasing area information and is composed of pixels arranged in one row in the vertical direction of the screen, includes horizontally adjacent pixels, Assume that there is continuity between two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when pixels adjacent in the horizontal direction are not included.
  • the continuity detecting unit 204 detects that when a monotone increasing / decreasing area, which is indicated by monotonous increasing / decreasing area information and is composed of pixels arranged in one row in the horizontal direction, includes pixels that are vertically adjacent to each other, Assume that there is continuity between two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when pixels adjacent in the vertical direction are not included.
  • the continuity detecting unit 204 sets the detected continuous area as a steady area having data continuity, and outputs data continuity information indicating the position of the vertex and the steady area.
  • the data continuity information includes information indicating the connection between the areas.
  • the data continuity information output from the continuity detection unit 204 indicates a thin line region that is a steady region and includes pixels onto which a thin line image of the real world 1 is projected.
  • step S206 the continuity direction detection unit 205 determines whether or not processing of all pixels has been completed. That is, the continuity direction detecting unit 205 determines whether or not the continuity of the area has been detected for all pixels of a predetermined frame of the input image.
  • step S206 If it is determined in step S206 that the processing of all the pixels has not been completed, that is, it is determined that there are still pixels that have not been subjected to the processing for detecting the continuity of the region, the process returns to step S205. Then, the pixel to be processed is selected from the pixels not to be subjected to the processing for detecting the continuity of the area, and the processing for detecting the continuity of the area is repeated. If it is determined in step S206 that the processing of all the pixels has been completed, that is, it is determined that the continuity of the area has been detected for all the pixels, the processing ends. In this way, the continuity contained in the input image data 3 is detected.
  • the data continuity detector 101 shown in FIG. 41 detects the continuity of the data in the time direction based on the continuity region of the data detected from the frame of data 3. Can be detected.
  • the continuity detection unit 204 selects the area having the stationarity of the detected data in frame #n, and the area having the stationarity of the detected data in frame-1. , And frame # n + l, the continuity of the data in the time direction is detected by connecting the ends of the regions based on the detected continuity of the data.
  • Frame # n-l is a frame that precedes frame #n
  • frame # n + l is a frame that precedes frame. That is, frame #n_l, frame #n, and frame # n + l are displayed in the order of frame #n_l, frame, and frame +1.
  • G is an area having the stationarity of the detected data in frame #n, an area having a stationarity of the detected data in frame #nl, and frame +
  • Fig. 1 the motion vector obtained by connecting one end of each of the regions having continuity of the detected data is shown, and G 'is the other of each of the regions having continuity of the detected data.
  • the motion vector obtained by connecting one end is shown.
  • the motion vector G and the motion vector G ' are examples of the continuity of data in the time direction.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 41 can output information indicating the length of the region having data continuity as data continuity information.
  • FIG. 58 is a view showing a configuration of a non-stationary component extraction unit 201 which extracts a non-stationary component by approximating a non-stationary component, which is a part of image data having no stationarity, in a plane.
  • FIG. 58 is a view showing a configuration of a non-stationary component extraction unit 201 which extracts a non-stationary component by approximating a non-stationary component, which is a part of image data having no stationarity, in a plane.
  • the non-stationary component extraction unit 201 shown in FIG. 58 has a predetermined number of pixels from the input image.
  • the block is approximated by a plane so that the error between the block and the value indicated by the plane is less than a predetermined threshold, and a non-stationary component is extracted.
  • the input image is supplied to the block extraction unit 221 and output as it is.
  • the block extracting unit 222 extracts a block including a predetermined number of pixels from the input image. For example, the block extracting unit 222 extracts a block composed of 7 ⁇ 7 pixels and supplies the extracted block to the plane approximating unit 222. For example, the block extracting unit 221 moves the pixel serving as the center of the extracted block in the raster scan order, and sequentially extracts the block from the input image.
  • the plane approximating unit 222 approximates the pixel values of the pixels included in the block with a predetermined plane. For example, the plane approximating unit 222 approximates the pixel values of the pixels included in the block on the plane represented by the equation (24).
  • X indicates the position of the pixel in one direction (spatial direction X) on the screen
  • y indicates the position of the pixel on the screen.
  • z indicates an approximate value represented by a plane.
  • a indicates the inclination of the plane in the spatial direction X
  • b indicates the inclination of the plane in the spatial direction Y.
  • c indicates a plane offset (intercept).
  • the plane approximation unit 2 2 2 calculates the slope a, the slope b, and the offset c by regression processing, and obtains the pixels included in the block on the plane represented by the equation (24). Is approximated.
  • the plane approximation unit 2 2 2 calculates the slope a, the slope b, and the offset c by regression processing with rejection, and obtains the pixels of the pixels included in the block on the plane represented by the equation (2 4). Approximate values.
  • the plane approximation unit 222 finds the plane represented by the equation (24) that minimizes the error with respect to the pixel value of the block pixel using the least squares method, and includes the plane in the block. The pixel value of the pixel to be approximated.
  • the plane approximating unit 2 2 2 approximates the block with a plane represented by the equation (2 4).
  • the function is not limited to the plane represented by the equation (2 4), but is a function having a higher degree of freedom, for example, a plane represented by a polynomial of degree n (n is an arbitrary integer). May be approximated.
  • the repetition determination unit 223 calculates an error between the approximate value indicated by the plane approximating the pixel value of the block and the pixel value of the corresponding pixel of the block.
  • Equation (25) is an equation indicating an error e i that is a difference between an approximate value indicated by a plane approximating the pixel value of the block and the pixel value z i of the corresponding pixel of the block.
  • z hat (letters with z appended are referred to as z hat.
  • a and n indicate the inclination in the spatial direction X of the plane approximating the pixel value of the block
  • b indicates the space of the plane approximating the pixel value of the block.
  • c and d denote the offset (intercept) of the plane that approximates the pixel value of the block.
  • the repetition determination unit 223 rejects the largest pixel represented by the equation (25) between the approximate value and the pixel value of the pixel corresponding to the block, that is, the error ei power S. In this way, the pixel on which the thin line is projected, that is, the pixel having continuity, is rejected.
  • the repetition determination unit 222 supplies rejection information indicating the rejected pixel to the plane approximation unit 222.
  • the repetition determination unit 223 calculates a standard error, and the standard error is equal to or more than a predetermined threshold value for approximation end determination, and more than half of the pixels of the block are not rejected. At this time, the repetition determination unit 222 causes the plane approximation unit 222 to repeat the plane approximation processing on the pixels included in the block excluding the rejected pixels.
  • the plane approximates the non-stationary component by approximating the pixels excluding the rejected pixels with a plane.
  • the repetition determination unit 223 ends the approximation using the plane.
  • the standard error e s is calculated by, for example, Expression (26).
  • the repetition determination unit 223 may calculate not only the standard error but also the sum of the squares of the errors of all the pixels included in the block and execute the following processing.
  • a pixel having a stationary state that is, a pixel including a thin line component, indicated by a black circle in the figure, is a plurality of times. Will be rejected.
  • the repetition determination unit 223 When the approximation by the plane is finished, the repetition determination unit 223 outputs information indicating the plane on which the pixel value of the block is approximated (the slope and intercept of the plane in Expression (24)) as the unsteady component information.
  • the repetition determination unit 223 compares the number of rejections for each pixel with a predetermined threshold, and determines that a pixel whose number of rejections is equal to or greater than the threshold is a pixel including a steady component and includes a steady component.
  • Information indicating a pixel may be output as steady component information.
  • the vertex detection unit 202 to the continuity direction detection unit 205 execute the respective processes on pixels including the stationary component indicated by the stationary component information.
  • Figure 60 shows the average of the pixel values of 2 ⁇ 2 pixels of the original image from the image containing the thin line.
  • FIG. 4 is a diagram illustrating an example of an input image generated by using values as pixel values.
  • FIG. 61 is a diagram showing an image in which a standard error obtained as a result of approximating the image shown in FIG. 60 by a plane without rejection is used as a pixel value.
  • a block composed of 5 ⁇ 5 pixels for one pixel of interest is approximated by a plane.
  • a white pixel is a pixel having a larger pixel value, that is, a pixel having a larger standard error
  • a black pixel is a pixel having a smaller pixel value, that is, a pixel having a smaller standard error.
  • FIG. 62 is an image in which the standard error obtained when the image shown in FIG. 60 is rejected and approximated by a plane is used as a pixel value.
  • white pixels are pixels having larger pixel values, that is, pixels having a larger standard error
  • black pixels are pixels having smaller pixel values, that is, pixels having a smaller standard error. It can be seen that the standard error as a whole is smaller when rejection is performed than when no rejection is performed.
  • FIG. 63 is a diagram showing an image in which, when the image shown in FIG. 60 is rejected and approximated by a plane, the number of rejections is set as a pixel value.
  • white pixels are larger pixel values, that is, pixels having more rejections
  • black pixels are lower pixel values, that is, pixels having less rejection times.
  • FIG. 64 shows the slope of the plane in the spatial direction X that approximates the pixel value of the block as the pixel value.
  • FIG. FIG. 65 is a diagram illustrating an image in which the inclination in the spatial direction Y of the plane approximating the pixel value of the block is set as the pixel value.
  • FIG. 66 is a diagram illustrating an image including approximate values indicated by a plane approximating pixel values of a block. From the image shown in Fig. 66, it can be seen that the thin line has disappeared.
  • Fig. 67 shows the image shown in Fig. 60, in which the average value of the block of 2 X 2 pixels of the original image is generated as the pixel value of the pixel, and the approximate value shown by the plane shown in Fig. 66
  • FIG. 7 is a diagram showing an image composed of a difference from an image composed of. Since the non-stationary component is removed from the pixel values of the image in FIG. 67, the pixel values include only the values to which the fine line images are projected. As can be seen from FIG.
  • FIG. 68 is a flowchart corresponding to step S201 and illustrating a process of extracting a non-stationary component by the non-stationary component extracting unit 201 having the configuration shown in FIG.
  • the block extraction unit 222 extracts a block consisting of a predetermined number of pixels from the input pixels, and supplies the extracted block to the plane approximation unit 222.
  • the block extraction unit 221 selects one pixel from the input pixels that is not yet selected, and extracts a block composed of 7 ⁇ 7 pixels centered on the selected pixel. I do.
  • the block extracting unit 221 can select pixels in raster scan order.
  • the plane approximating unit 222 approximates the extracted block with a plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels of the extracted block by a plane, for example, by regression processing.
  • the plane approximation unit 222 approximates, by a plane, the pixel straight line of the pixels excluding the rejected pixels among the pixels of the extracted block by the regression processing.
  • iterative determination unit 2 2 3 Performs repeated judgment. For example, a standard error is calculated from a pixel value of a block pixel and an approximate value of an approximate plane, and the number of rejected pixels is calculated to repeatedly execute the determination.
  • step S224 the repetition determination unit 223 determines whether or not the standard error is equal to or larger than the threshold. When it is determined that the standard error is equal to or larger than the threshold, the process proceeds to step S225.
  • step S224 the repetition determination unit 223 determines whether or not more than half of the pixels in the block have been rejected, and whether or not the standard error is equal to or greater than a threshold. If it is determined that half or more of the pixels have not been rejected and the standard error is equal to or greater than the threshold, the process may proceed to step S225.
  • step S225 the repetition determination unit 223 calculates, for each pixel of the block, the error between the pixel value of the pixel and the approximate value of the approximated plane, rejects the pixel with the largest error, and performs plane approximation. to notify the department 2 2 2.
  • the procedure returns to step S 222, and the approximation process using a plane and the repetition determination process are repeated for the pixels of the block excluding the rejected pixels.
  • step S 225 if a block shifted by one pixel in the raster scan direction is extracted by the process of step S 221, as shown in FIG. 59, the pixel including the thin line component (the black circle in the figure) Will be rejected multiple times.
  • step S224 If it is determined in step S224 that the standard error is not greater than or equal to the threshold, the topic is approximated by a plane, and the process proceeds to step S226.
  • step S224 the repetition determination unit 223 determines whether or not more than half of the pixels in the block have been rejected, and whether or not the standard error is equal to or greater than a threshold. If more than half of the pixels are rejected or if it is determined that the standard error is not greater than or equal to the threshold value, the process may proceed to step S225.
  • step S226 the repetition determination unit 222 determines the pixel of the block 2004/001585
  • the slope and intercept of the plane approximating the value are output as non-stationary component information.
  • step S 227 the block extraction unit 221 determines whether or not processing has been completed for all pixels of one screen of the input image, and determines that there is a pixel that has not been processed yet. In this case, the process returns to step S221, and a block is extracted from pixels that have not been processed yet, and the above process is repeated.
  • step S227 If it is determined in step S227 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 having the configuration shown in FIG. 58 can extract the non-stationary component from the input image. Since the unsteady component extraction unit 201 extracts the unsteady component of the input image, the vertex detection unit 202 and the monotone increase / decrease detection unit 203 detect the input image and the unsteady component extraction unit 201. By calculating the difference from the extracted non-stationary component, the processing can be performed on the difference including the stationary component.
  • the standard error when rejected the standard error when not rejected, the number of rejected pixels, the slope of the spatial direction X of the plane (a hat in equation (2 4)) calculated in the approximation process using the plane ,
  • the slope of the plane in the spatial direction Y (b hat in equation (24)), the level when replaced by a plane (c hat in equation (24)), and the pixel value of the input image and the plane
  • the difference from the indicated approximate value can be used as a feature value.
  • FIG. 69 is a flowchart for explaining the processing of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 58 in place of the processing of extracting the unsteady component corresponding to step S201. It is one.
  • the processing in steps S224 to S245 is the same as the processing in steps S221 to S225, and a description thereof will be omitted.
  • step S246 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the input image as a stationary component of the input image. That is, the repetition determination unit 223 outputs the difference between the approximate value based on the plane and the pixel value that is the true value. Note that the repetition determination unit 223 outputs a pixel value of a pixel whose difference between the approximate value indicated by the plane and the pixel value of the input image is equal to or greater than a predetermined threshold value as a stationary component of the input image. You may.
  • step S 247 is the same as the process in step S 227, and a description thereof will not be repeated.
  • the non-stationary component extraction unit 201 subtracts the approximate value indicated by the plane approximating the pixel value from the pixel value of each pixel of the input image, Non-stationary components can be removed from the input image.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the steady component of the input image, that is, the value on which the image of the thin line is projected, and the vertex detection unit Processing from 202 to the continuity detecting unit 204 becomes easier.
  • FIG. 70 illustrates another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 58 instead of the process of extracting the non-stationary component corresponding to step S 201. It is a flow chart. The processing of steps S261 to S265 is the same as the processing of steps S221 to S225, and a description thereof will be omitted.
  • step S266 the repetition determination unit 223 stores the number of rejections for each pixel, returns to step S266, and repeats the processing.
  • step S264 If it is determined in step S264 that the standard error is not greater than or equal to the threshold value, the block is approximated by a plane, so the process proceeds to step S2667. It is determined whether or not processing has been completed for all pixels on the screen. If it is determined that there is a pixel that has not been processed yet, the process returns to step S2661, and a pixel that has not been processed yet is determined. The block is extracted for, and the above processing is repeated.
  • step S267 If it is determined in step S267 that the processing has been completed for all the pixels of one screen of the input image, the process proceeds to step S2688, and the repetition determination unit 223 determines the pixels not yet selected. Select one pixel from and for the selected pixel,. It is determined whether the number of rejections is equal to or greater than the threshold. For example, in step S268, the repetition determination unit 222 determines whether or not the number of rejections for the selected pixel is equal to or greater than a previously stored threshold.
  • step S268 If it is determined in step S268 that the number of rejections for the selected pixel is equal to or greater than the threshold value, the selected pixel includes a stationary component.
  • the unit 223 outputs the pixel value of the selected pixel (pixel value in the input image) as a steady component of the input image, and proceeds to step S270. If it is determined in step S268 that the number of rejections for the selected pixel is not equal to or greater than the threshold value, the processing in step S266 is skipped because the selected pixel does not include a stationary component. Then, the procedure proceeds to step S270. That is, no pixel value is output for a pixel for which it is determined that the number of rejections is not greater than or equal to the threshold value. In addition, the repetition determination unit 223 may output a pixel value in which 0 is set for a pixel for which the number of rejections is determined not to be equal to or larger than the threshold value.
  • step S270 the repetition determination unit 222 determines whether or not the process of determining whether the number of rejections is equal to or greater than a threshold has been completed for all pixels of one screen of the input image. If it is determined that the processing has not been completed for all the pixels, there is a pixel that has not been processed yet, so the process returns to step S 268, and one pixel is selected from the pixels that have not been processed yet. And repeat the process described above. If it is determined in step S270 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 can output the pixel value of the pixel including the stationary component among the pixels of the input image as the stationary component information. That is, the non-stationary component extracting unit 201 can output the pixel value of the pixel including the component of the thin line image among the pixels of the input image.
  • FIG. 71 shows another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 58 instead of the process of extracting the non-stationary component corresponding to step S 201.
  • Step S 2 8 1 to Step S 2 8 8 Is similar to the processing in steps S2661 through S2688, and therefore description thereof is omitted.
  • step S289 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the selected pixel as a stationary component of the input image. That is, the repetition determination unit 223 outputs an image obtained by removing the non-stationary component from the input image as the constancy information.
  • step S290 is the same as the processing in step S270, and a description thereof will be omitted.
  • the non-stationary component extraction unit 201 can output an image obtained by removing the non-stationary component from the input image as the stationarity information.
  • the real-world optical signal is projected, and a part of the continuity of the real-world optical signal is lost.
  • Generates a model (function) that approximates the optical signal by detecting the stationarity of the data from the discontinuity that is output and estimating the stationarity of the optical signal in the real world based on the stationarity of the detected data.
  • a model function
  • the second image data is generated based on the generated function, a more accurate and more accurate processing result can be obtained for a real-world event.
  • FIG. 72 is a block diagram illustrating another configuration of the data continuity detecting unit 101.
  • the same parts as those shown in FIG. 41 are denoted by the same reference numerals, and description thereof will be omitted.
  • a plurality of first monotone increasing / decreasing regions arranged in the first monotone increasing / decreasing region in the monotonous increasing / decreasing region detected by the continuity detecting unit 204 are shown.
  • the input image is supplied to the non-stationary component extracting unit 201 and the data continuity direction detecting unit 301.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203 and the data continuity direction detection unit 301.
  • the continuity detector 204 supplies the vertex information and the data continuity information indicating the continuous area (thin line area (monotonous increase / decrease area)) to the data continuity direction detector 301.
  • the data continuity direction detecting unit 301 includes an input image, vertex information indicating a vertex supplied from the vertex detecting unit 202, and pixels belonging to a continuous area detected by the continuity detecting unit 204. Based on the value, the direction of the continuity of the constant region, which is the continuous direction of the constant region having data continuity, is detected.
  • the data continuity direction detection unit 301 outputs vertex information, detected continuous regions, and data continuity information indicating the direction of continuity of the steady regions.
  • FIG. 73 is a block diagram illustrating a configuration of the data continuity direction detection unit 301. That is, the data continuity direction detection unit 301 includes a pixel value change detection unit 3221 and a direction detection unit 3222.
  • the pixel value change detection unit 321 includes an input image, vertex information indicating a vertex supplied from the vertex detection unit 202, and a continuous region (a thin line region (fine line region) detected by the continuity detection unit 204). Based on the pixel values belonging to the monotone increasing / decreasing region, the change in the pixel value in the region is detected, and information indicating the change in the pixel value is supplied to the direction detecting unit 3222.
  • the pixel value change detection unit 3 21 calculates, for each continuous region detected by the continuity detection unit 204, the pixel value of the vertex and the pixel value of each pixel belonging to the region. Calculate the difference with.
  • the pixel value change detection unit 3 21 is configured to calculate a pixel value of a pixel belonging to a region, a pixel value of a pixel adjacent to a vertex of another region adjacent to the region, and a pixel value of each pixel belonging to the region. Calculate the difference with.
  • the pixel value change detection unit 3 2 1 calculates, for each pixel belonging to the region, the difference between the pixel value of the vertex and the pixel value of the pixel adjacent to the vertex of another region adjacent to the region.
  • the information indicating the difference between the pixel value of each pixel belonging to the region and the pixel value of the pixel is supplied to the direction detection unit 3222.
  • the direction detecting unit 3 2 2 is configured to calculate the pixel value change supplied from the pixel value change detecting unit 3 2 1
  • the direction of the continuity of the stationary region that is, the direction of the continuity of the stationary region having the data continuity, is detected based on the information indicating the continuity of the data.
  • the direction detection unit 3222 determines whether the decrement from the vertex indicated by the difference between the pixel value of the vertex belonging to the region and the pixel value of the pixel belonging to the region is adjacent to the region.
  • the pixel value of the pixel adjacent to the vertex in the area of the area coincides with the increment indicated by the difference between the pixel value of the pixel belonging to the area and the pixel value of the adjacent pixel, the direction determined from the area and the area adjacent to It is detected as the direction of the continuity of the constant region.
  • FIG. 74 is a diagram illustrating an example of an input image including a bee 1, a shape image, that is, a so-called moiré, which appears when a fine repeating pattern is captured by the sensor 2 which is an image sensor.
  • the correct direction of the continuity of the constant region in the data 3 is obtained by utilizing the property of the data 3 on which the fine line image is projected.
  • FIG. 76 is a diagram showing pixels of data 3 on which a thin line image is projected.
  • the horizontal direction indicates the spatial direction X
  • the vertical direction indicates the spatial direction Y.
  • the area between the two dotted lines indicates the area where the single thin line image is projected.
  • P indicates a vertex.
  • FIG. 77 is a diagram illustrating the pixel values of the pixels in three columns in the data 3 onto which the thin line image in FIG. 76 is projected.
  • the upper direction of the figure indicates the pixel value
  • the upper right direction of the figure indicates the spatial direction Y
  • the lower right direction of the figure indicates the spatial direction X.
  • P indicates a vertex.
  • the waveform represented by the pixel value of the pixel of the data 3 onto which the thin line image is projected has a typical arc shape.
  • the fine line image has almost the same diameter and the same level regardless of the part, so the total sum of the pixel values obtained by projecting a fine line image of a certain length is always constant .
  • the value of the image of the thin line of a certain length projected on the pixel values of the plurality of pixels is , Become constant.
  • the data continuity detector 101 uses the property that the sum of the pixel values on which an image of a fixed-length fine line is projected is always constant. Find the correct direction of the continuity of the constant region corresponding to.
  • the data continuity detecting unit 101 whose configuration is shown in FIG. 72, is configured such that when the pixel value of a pixel belonging to the fine line region decreases, the pixel of the fine line region at a position corresponding to the correct direction of the fine line Using the fact that the pixel value increases in accordance with the decrease, the correct direction of the continuity of the steady region corresponding to the direction of the thin line is obtained.
  • the absolute value of the reduction A from the pixel value of the vertex P to the pixel value of the pixel ei belongs to the thin line region adjacent to the thin line region to which the vertex P belongs, and It is equal to the absolute value of the increment B from the pixel to be added to the pixel e 2 adjacent to the pixel.
  • the data continuity direction detection unit 301 sets a pixel value whose pixel value changes in response to a change in the pixel value of the thin line region when two or more thin line regions are connected to one thin line region. Is detected as the stationary direction. That is, when two or more thin line regions are continuous with one thin line region, the data continuity direction detection unit 301 detects a pixel whose pixel value decreases in response to an increase in the pixel value of the thin line region. A thin line region including a value is detected as a direction of continuity, or a thin line region including a pixel value whose pixel value increases in response to a decrease in the pixel value of the thin line region is detected as a direction of continuity of the steady region.
  • FIG. 82 to FIG. 84 are diagrams showing examples of processing results.
  • FIG. 82 is a diagram illustrating an example of an input image.
  • a thin line image is included in the upper right corner in the figure.
  • the thin line image disappears as shown in FIG. 83.
  • FIG. 83 it is determined that a thin line image is included in the upper left part of the figure.
  • step S306 the data continuity direction detection unit 301 executes a process of detecting the direction of data continuity. The details of the process of detecting the direction of data continuity will be described later.
  • step S307 Since the processing in step S307 is the same as the processing in step S206 in FIG. The description is omitted.
  • step S331 the pixel value change detection unit 3221 of the data continuity direction detection unit 301 determines whether the vertex P belongs based on the data continuity information supplied from the continuity detection unit 204. Determines whether there are two or more monotonous increase / decrease areas that are continuous with the monotone increase / decrease area that is the thin line area, and determines that there are two or more monotone increase / decrease areas that are continuous with the monotone increase / decrease area to which vertex P belongs. If so, it is necessary to detect the correct continuity direction, so the process proceeds to step S3332, and the pixel value change detection unit 3221 acquires the pixel value of the monotonous increase / decrease region.
  • the pixel value change detection unit 3221 calculates a change in the pixel value of the pixel in the monotone increase / decrease region to which the vertex P belongs.
  • the pixel value change detection unit 3221 supplies the calculated change in the pixel value of the pixel in the fine monotonous increase / decrease region to which the vertex P belongs to the direction detection unit 3222.
  • the pixel value change detection unit 3221 calculates a decrease in the pixel value of the pixel in the monotone increasing / decreasing area to which the vertex P belongs based on the pixel value of the vertex P.
  • step S3334 the pixel value change detection unit 3221 calculates a change in the pixel value of the pixel in the monotone increase / decrease region adjacent to the monotone increase / decrease region to which the vertex P belongs.
  • the pixel value change detecting section 3221 supplies the calculated change in pixel value of the pixel in the monotone increasing / decreasing area adjacent to the fine monotonous increasing / decreasing area to which the vertex P belongs to the direction detecting section 3222.
  • the pixel value change detection unit 3221 determines, for the pixels in the monotone increasing / decreasing region adjacent to the fine monotonous increasing / decreasing region to which the vertex P belongs, the pixels belonging to the adjacent monotonous increasing / decreasing region, and the pixels adjacent to the vertex P Calculate the increment of the pixel value based on the pixel value.
  • step S335 the direction detection unit 3222 calculates the absolute value of the change in the pixel value of the pixel in the fine monotonous increase / decrease area to which the vertex P belongs and the monotonous increase / decrease adjacent to the fine monotone increase / decrease area to which the vertex P belongs The absolute value of the change in the pixel value of the pixel in the area is compared with the absolute value. For example, the direction detection unit 3 2 2 calculates the vertex P for the pixel in the fine monotonous increase / decrease area to which the vertex P belongs.
  • step S336 the direction detecting unit 3222 determines the adjacent monotone increasing / decreasing area having a small difference in absolute value compared in the processing of step S335, and the fine monotonous increasing / decreasing area to which the vertex P belongs.
  • the direction determined is the direction of data continuity, and the process ends.
  • the direction detection unit 3222 outputs data indicating an area having data continuity and data continuity information including information indicating a direction of data continuity.
  • the direction detection unit 3222 sets a vector having a vertex P as a start point and an end point at a vertex of an adjacent monotone increasing / decreasing area having a small absolute value difference as a vector indicating a steady direction.
  • step S331 If it is determined in step S331 that there are no more than two thin line regions that are continuous with the thin line region to which vertex P belongs, it is not necessary to detect the correct data continuity direction. The processing from 33 to step S336 is skipped, and the processing ends.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 72 can detect an area having data continuity and also detect a direction of data continuity.
  • the direction of the data continuity is determined based on the value (difference value) obtained by subtracting the approximate value approximated by the fitted plane from the pixel value of the pixel of the input image. It can also be detected.
  • Figure 87 shows a data constancy detector 101 that detects the direction of data continuity based on a difference value obtained by subtracting the approximate value approximated by the fitted plane from the pixel value of the pixel of the input image.
  • FIG. 3 is a block diagram showing the configuration of FIG.
  • the data continuity direction detection unit 301 converts the approximate value approximated by the fitted plane into the input image. From the difference value subtracted from the pixel value of the pixel, a change in the pixel value in the monotone increase / decrease area is detected. The data continuity direction detecting unit 301 detects the direction of continuity of the steady area based on a change in the pixel value of the monotonous increase / decrease area detected from the difference value.
  • the real-world optical signal is projected, and the discontinuity of the pixel values of a plurality of pixels in the image data in which a part of the continuity of the real-world optical signal is missing is detected.
  • Detect the vertex of the change in pixel value detect the monotone increase / decrease area where the pixel value monotonically increases or decreases from the vertex, and find another monotone increase / decrease area in the detected monotone increase / decrease area on the screen If the monotonous increase / decrease area existing at the position where the continuity of the steady area is detected as the steady area having the continuity of the image data and the direction of the continuity of the steady area is detected, the correct direction of the continuity of the steady area is detected. Will be able to do it.
  • a real-world optical signal is projected, and the discontinuity of the pixel values of a plurality of pixels in the image data in which part of the continuity of the real-world optical signal is missing is detected.
  • Detect the vertex of the change detect the monotone increase / decrease area where the pixel value monotonically increases or decreases from the vertex, and place another monotone increase / decrease area in the detected monotone increase / decrease area at an adjacent position on the screen.
  • the existing monotone increase / decrease area is detected as a steady area having stationarity of the image data, and the pixel values of a plurality of first pixels arranged in the first monotone increase / decrease area in the detected monotone increase / decrease area are detected.
  • FIG. 88 is a block diagram showing the configuration of the real world estimating unit 102.
  • the real-world estimator 102 uses the input image and the data continuity information supplied from the continuity detector 101 to generate a real-world 1 signal
  • the width of the thin line is detected, and the level of the thin line (light intensity of the signal in the real world 1) is estimated.
  • the line width detection unit 211 is configured to emit the fine line image supplied from the continuity detection unit 101.
  • the width of the thin line is detected based on data continuity information indicating a steady region, which is a thin line region, composed of shaded pixels.
  • the line width detecting unit 2101 supplies thin line width information indicating the width of the detected thin line to the signal level estimating unit 2102 together with the data continuity information.
  • the signal level estimator 2 102 is a real world 1 signal based on the input image, thin line width information indicating the width of the thin line supplied from the line width detector 2 101, and data continuity information. Then, it estimates the level of the thin line image, that is, the level of light intensity, and outputs real world estimation information indicating the width of the thin line and the level of the thin line image.
  • FIG. 89 and FIG. 90 are diagrams for explaining the process of detecting the width of the thin line in the signal of the real world 1.
  • the area surrounded by a thick line indicates one pixel
  • the area surrounded by a dotted line indicates a thin line area formed by pixels onto which a thin line image is projected.
  • Circles indicate the center of gravity of the thin line area.
  • hatched lines indicate images of thin lines incident on the sensor 2. It can be said that the oblique line indicates the area where the fine line image of the real world 1 is projected on the sensor 2.
  • S indicates the inclination calculated from the position of the center of gravity of the thin line region
  • D indicates the overlap of the thin line region.
  • the slope S is the distance between the centers of gravity in pixels, since the thin line regions are adjacent to each other.
  • the overlap D of the thin line regions is the number of adjacent pixels in the two thin line regions.
  • W indicates the width of the thin line.
  • the width W of the thin line is 1.
  • the width W is 1/3.
  • the line width detecting unit 2101 detects the width of the thin line from the inclination calculated from the position of the center of gravity of the thin line region and the overlap of the thin line region.
  • FIG. 91 is a diagram for explaining a process of estimating the level of the signal of the thin line in the signal of the real world 1.
  • a region surrounded by a thick line indicates one pixel
  • a region surrounded by a dotted line indicates a thin line region formed of pixels onto which a thin line image is projected.
  • E indicates the length of the thin line region in units of pixels in the thin line region
  • D indicates the overlap of the thin line regions (the number of pixels adjacent to other thin line regions).
  • the signal level of the thin line is approximated to be constant within the processing unit (thin line area), and the level of the image other than the thin line projected on the pixel value of the pixel on which the thin line is projected is the level of the adjacent pixel. Approximate to be equal to the level for the pixel value.
  • the level of the thin line signal is c
  • the level of the left part of the portion where the thin line signal is projected in the signal (image) projected in the thin line region is A
  • B the level on the right side of the part where the thin line signal is projected.
  • the area on the left side of the thin line in the thin / ⁇ area is (E-D) / 2.
  • the area on the right side of the thin line in the thin line region is (E ⁇ D) / 2.
  • the first term on the right side of Eq. (27) is the portion of the pixel value where the signal of the same level as the level of the signal projected to the pixel adjacent to the left is projected. Can be represented.
  • Equation (28) Ai represents the pixel value of the pixel adjacent on the left.
  • Equation (28) hi denotes the ratio of the area of the signal projected on the pixels in the thin line region to the level of the signal projected on the pixel adjacent to the left side. That is, a, indicates the ratio of the pixel value of the pixel adjacent to the left side included in the pixel value of the pixel in the thin line area and the same pixel value.
  • i indicates the position of the pixel adjacent to the left side of the thin line region.
  • the ratio of the same pixel value as is ⁇ . It is. 9 1, are contained in the pixel value of the pixel of the thin line area, the proportion of the same pixel value as the pixel value A t of pixels adjacent to the left side of the thin line area is Arufaiota. 9 1, are contained in the pixel value of the pixel of the thin line area, the proportion of the same pixel value as the pixel value Alpha 2 of pixels adjacent to the left side of the fine line region, o; 2.
  • Equation (27) The second term on the right-hand side of Equation (27) is the part of the pixel value where a signal of the same level as the level of the signal projected to the pixel adjacent on the right is projected. Can be represented.
  • Equation (29) Bj indicates the pixel value of the pixel adjacent on the right.
  • j indicates the position of the pixel adjacent to the right side of the thin line area.
  • the pixel value of the pixel in the thin line area is adjacent to the right side of the thin line area.
  • the ratio of the pixel value that is the same as the pixel value of the pixel in question is 8 i. 9 1, are contained in the pixel value of the pixel of the thin line area, the proportion of the same pixel value as the pixel value B 2 of pixels adjacent to the right side of the fine line region, is a 3 2.
  • the signal level estimating unit 2102 calculates the pixel values of the image other than the thin line out of the pixel values included in the thin line region based on the equations (23) and (29). By removing the pixel values of the image other than the fine line from the pixel value of the fine line region based on the equation (27), the pixel value of the image of only the fine line among the pixel values included in the fine line region is obtained. Then, the signal level estimating unit 2102 obtains the signal level of the thin line from the pixel value of the image of the thin line only and the area of the thin line.
  • the signal level estimating unit 2102 calculates the pixel value of the image of only the fine line among the pixel values included in the fine line region, and the area of the fine line in the fine line region, that is, the overlapping of the fine line region! ) To calculate the signal level of the thin line.
  • the signal level estimating unit 210 outputs real world estimation information indicating the width of the thin line and the level of the signal of the thin line in the signal of the real world 1.
  • the waveform of the thin line is described geometrically instead of the pixel, so that any resolution can be used.
  • the line width detecting unit 2101 detects the width of the thin line based on the data continuity information. For example, the line width detection unit 2101 divides the overlap by the slope from the slope calculated from the position of the center of gravity of the thin line area and the overlap of the thin line area, thereby obtaining the thin line in the signal of the real world 1. Estimate the width of
  • the signal level estimating unit 2102 estimates the signal level of the thin line based on the width of the thin line and the pixel value of the pixel adjacent to the thin line region, and the signal level is estimated.
  • the real world estimation information indicating the width of the thin line and the level of the signal of the thin line is output, and the processing ends.
  • the signal level estimating unit 2102 calculates the pixel value at which the image other than the fine line included in the fine line region is projected, and the image other than the fine line is projected from the fine line region.
  • the pixel value at which the image of only the fine line is projected is obtained by removing the pixel value obtained by the calculation, and the signal level of the fine line is calculated from the pixel value at which the image of the fine line only is projected and the area of the fine line. By calculating, the level of the thin line in the signal of the real world 1 is estimated.
  • the real world estimating unit 102 can estimate the width and level of the thin line of the signal of the real world 1.
  • the real-world optical signal is projected, the continuity of the data is detected in the first image data in which a part of the continuity of the real-world optical signal is missing, and the continuity of the data is detected.
  • FIG. 93 is a block diagram illustrating another configuration of the real world estimating unit 102.
  • the real-world estimator 102 shown in Fig. 93 detects the region again based on the input image and the data continuity information supplied from the data continuity detector 101, and detects it again.
  • the width of the thin line in the image, which is the signal of the real world 1 is detected based on the region thus obtained, and the light intensity (level) of the signal of the real world 1 is estimated.
  • the real world estimating unit 102 having the configuration shown in FIG. 93 a stationary region composed of pixels onto which a thin line image is projected is detected again, and the real world estimating unit 102
  • the width of the thin line in the image which is the signal of is detected, and the light intensity of the signal of the real world 1 is estimated.
  • the data continuity information supplied from the data continuity detecting unit 101 and input to the real world estimating unit 102 shown in FIG. 93 includes the thin line of the input image as data 3.
  • the information includes non-stationary component information indicating a non-stationary component other than the steady component on which the image is projected, monotonous increase / decrease region information indicating a monotone increase / decrease region in the steady region, and information indicating a steady region.
  • the non-stationary component information included in the data continuity information includes a slope and an intercept of a plane approximating a non-stationary component such as a background in the input image.
  • the data continuity information input to the real world estimation unit 102 is supplied to the boundary detection unit 212.
  • the input image input to the real world estimator 102 is supplied to the boundary detector 211 and the signal level estimator 210.
  • the boundary detection unit 2 1 2 1 generates an image consisting only of the stationary component on which the thin line image is projected from the non-stationary component information included in the data continuity information and the input image, and an image consisting only of the stationary component. Based on the calculated distribution ratio, the distribution ratio indicating the ratio of the projection of the fine line image, which is the signal of the real world 1, projected on the pixel, is calculated, and the regression line indicating the boundary of the fine line region is calculated from the calculated distribution ratio. As a result, the thin line region, which is the steady region, is detected again.
  • FIG. 94 is a block diagram illustrating a configuration of the boundary detection unit 2 121.
  • the distribution ratio calculation unit 2131 generates an image composed of only the stationary component on which the thin line image is projected, from the data continuity information, the non-stationary component information included in the data continuity information, and the input image. More specifically, the distribution ratio calculation unit 2 131 detects the adjacent monotone increase / decrease region in the steady region from the input image based on the monotone increase / decrease region information included in the data continuity information, By subtracting the approximate value approximated by the plane indicated by the slope and intercept included in the steady-state component information from the detected pixel value of the pixel belonging to the monotonous increase / decrease region, the steady-state component on which the fine line image is projected is calculated. Generate an image consisting of only
  • the distribution ratio calculation unit 2 131 subtracts the approximate value approximated by the plane indicated by the slope and intercept included in the stationary component information from the pixel value of the pixel of the input image, thereby It is also possible to generate an image consisting of only the stationary component on which the image is projected.
  • the distribution ratio calculation unit 2 1 3 1 converts the thin line image, which is the signal of the real world 1, into two adjacent monotone increase / decrease regions in the steady A distribution ratio indicating a ratio distributed to pixels is calculated.
  • the distribution ratio calculation unit 213 supplies the calculated distribution ratio to the regression line calculation unit 213.
  • the numerical values in the two columns on the left side of Fig. 95 are calculated from the pixel values of the input image by subtracting the approximate values approximated by the planes indicated by the slopes and intercepts included in the stationary component information. Of these, the pixel values of two columns of pixels are shown vertically.
  • the two regions surrounded by a square on the left side of FIG. 95 indicate two adjacent monotone increase / decrease regions, a monotone increase / decrease region 2 1 4 1 1 1 and a monotone increase / decrease region 2 1 4 1-2.
  • the numerical values shown in the monotonous increase / decrease area 2 1 4 1-1 and the monotone increase / decrease area 2 1 4 1-2 are the values of the pixels belonging to the monotonous increase / decrease area which is the stationary area detected by the data continuity detection unit 101. Indicates a pixel value.
  • the values in one column on the right side of FIG. 95 indicate values obtained by adding the pixel values of the pixels arranged sideways among the pixel values of the two columns on the left side of FIG. That is, the numerical value in one column on the right side of FIG. 95 is a monotone increasing / decreasing area composed of pixels in one column vertically, and a thin line image is projected for each two horizontally adjacent pixels for two adjacent pixels. A value obtained by adding the obtained pixel values is shown.
  • each pixel consists of one row of pixels vertically, and belongs to one of the adjacent monotone increase / decrease regions 2 1 4 1 1 1 and the monotone increase / decrease region 2 1 4 1 1 2, and the pixel value of the horizontally adjacent pixel is , 2 and 58, the added value is 60.
  • Each consists of one row of pixels vertically and belongs to one of the adjacent monotone increasing / decreasing areas 2 1 4 1 1 1 and 2 1 4 1 1 2, and the pixel value of the horizontally adjacent pixel is 1 and When it is 65, the value added is 66.
  • the value obtained by adding the pixel values to which the fine line image is projected is substantially constant for the pixels that are horizontally composed of one row of pixels and are vertically adjacent to two adjacent monotone increasing / decreasing areas.
  • the distribution ratio calculation unit 2 1 3 1 uses the property that the value obtained by adding the pixel values of the projected image of the thin line to the adjacent pixels of the two adjacent monotone increasing / decreasing areas becomes almost constant. How the image is distributed to the pixel values of the pixels in one column You.
  • the distribution ratio calculation unit 2 1 3 1 is a monotonically increasing / decreasing area composed of pixels in one column vertically, and the pixel values of pixels belonging to two adjacent ones are For each pixel, the distribution ratio is calculated for each pixel belonging to two adjacent monotone increasing / decreasing regions by dividing by the value obtained by adding the pixel values onto which the fine line image is projected. However, as a result of the calculation, 100 is set for the distribution ratio exceeding 100.
  • the pixel value of a horizontally adjacent pixel that is a monotonically increasing / decreasing area composed of one column of pixels vertically and belonging to two adjacent pixels is 2 and 58, respectively.
  • the added value is 60, a distribution ratio of 3.5 to 96.5 is calculated for each pixel.
  • a distribution ratio of 1.5 and 98.5 is calculated.
  • the pixel value at which the thin line image is projected is determined for each horizontally adjacent pixel.
  • the distribution ratio is calculated based on the sum of the two values that is closer to the pixel value at vertex P.
  • the pixel value of the vertex P is 81 and the pixel value of the pixel belonging to the monotone increasing / decreasing area of interest is 79, the pixel value of the pixel adjacent to the left is 3 and the pixel value of the pixel adjacent to the right is 3
  • the pixel value of the pixel to be executed is 1 1
  • the value obtained by adding the pixel values of the adjacent pixels on the left side is 8 2
  • the value obtained by adding the pixel values of the adjacent pixels on the right side is 7 8
  • a pixel value 82 closer to the pixel value 81 of the vertex P is selected, and a distribution ratio is calculated based on pixels adjacent to the left side.
  • the pixel value of the vertex P is 81 and the pixel value of the pixel belonging to the monotonous increase / decrease area of interest is 75
  • the pixel value of the pixel adjacent to the left is 0
  • the pixel value of the pixel adjacent to the right is If the pixel value of the pixel to be processed is 3, the value obtained by adding the pixel values of the adjacent pixels on the left side is 75, and the value obtained by adding the pixel values of the adjacent pixels on the right side is 7 8, so the vertex P Pixel value 8 closer to 1 is selected, 7 8 is selected, next to the right
  • the distribution ratio is calculated based on the pixels in contact.
  • the distribution ratio calculation unit 2131 calculates the distribution ratio for a monotonously increasing / decreasing region composed of one column of pixels vertically.
  • the distribution ratio calculation unit 2 1 3 1 calculates the distribution ratio for the monotone increase / decrease area composed of one row of pixels in the same manner.
  • the regression line calculation unit 2 1 3 2 assumes that the boundary of the monotonous increase / decrease region is a straight line, and based on the distribution ratio calculated by the distribution ratio calculation unit 2 1 3 1, By calculating the regression line shown, the monotonous increase / decrease region in the steady region is detected again. With reference to FIG. 98 and FIG. 99, a process of calculating a regression line indicating a boundary of a monotonous increase / decrease region in the regression line calculation unit 211 will be described.
  • the regression line calculation unit 2132 calculates a regression line for the upper boundary of the monotone increase / decrease region 2141-1 to the monotone increase / decrease region 21414-1-5 by regression processing.
  • the regression line calculation unit 2 1 3 2 calculates that the sum of the squares of the distances from the pixels located on the upper boundary of the monotone increase / decrease area 2 1 4 1 1 1 to the monotone increase / decrease area 2 1 4 1 Calculate the straight line A
  • the black circles indicate the monotone increase / decrease region 2 1 4 1-1 to the monotone increase / decrease region.
  • the regression line calculation unit 2 1 3 2 calculates a regression line for the lower boundary of the monotone increase / decrease area 2 141-1 to the monotone increase / decrease area 2 1 4 1-5 by regression processing. For example, the regression line calculation unit 2 1 3 2 calculates that the sum of the squares of the distances from the pixels located on the lower boundary of the monotone increasing / decreasing region 2 1 4 1—1 to the monotonic increasing / decreasing region 2 1 Calculate the straight line B.
  • the regression line calculation unit 2 1 3 2 detects the monotone increase / decrease region in the steady region again by determining the boundary of the monotone increase / decrease region based on the calculated regression line.
  • the regression line calculation unit 2 1 3 2 calculates the upper boundary of the monotone increase / decrease region 2 1 4 1—1 to the monotone increase / decrease region 2 1 4 1-5 based on the calculated line A. Is determined.
  • the regression line calculation unit 2 1 3 2 has a monotonous increase / decrease region 2 1 4
  • the regression line calculation unit 2 13 2 sets the pixels closest to the calculated straight line A to be included in the region for each of the monotone increase / decrease regions 2 1 4 1 1 1 1 to 2 1 4 1 1 5 To determine the upper boundary.
  • the regression line calculation unit 2 1 3 2 uses the calculated straight line B based on the monotone increase / decrease region 2 1 4 1—1 to the monotone increase / decrease region 2 1 4 1—5 Determine the boundaries.
  • the regression line calculation unit 2 13 2 calculates the lower boundary from the pixel closest to the calculated straight line B for each of the monotone increase / decrease regions 2 1 4 1 1 1 to 2 1 4 1-5. To determine.
  • the regression line calculation unit 2 13 2 sets the pixels closest to the calculated straight line B to be included in the region for each of the monotone increase / decrease regions 2 14 1 _ 1 to 2 1 4 1-5. To determine the upper boundary.
  • the regression line calculation unit 2 13 2 monotonically increases or decreases the pixel value from the vertex based on the regression line that regresses the boundary of the steady area detected by the data continuity detection unit 101.
  • the detected area is detected again.
  • the regression line calculation unit 2 1 3 2 determines the boundary of the monotonous increase / decrease region based on the calculated regression line, and again detects and detects the region that is the monotone increase / decrease region in the steady region.
  • the area information indicating the area is supplied to the line width detecting unit 210.
  • the boundary detection unit 2 1 2 1 calculates the distribution ratio indicating the ratio of the projection of the thin line image, which is the signal of the real world 1, projected on the pixel, and monotonically calculates the distribution ratio from the calculated distribution ratio.
  • the boundary detection unit 2 1 2 1 calculates the distribution ratio indicating the ratio of the projection of the thin line image, which is the signal of the real world 1, projected on the pixel, and monotonically calculates the distribution ratio from the calculated distribution ratio.
  • the line width detection unit 2101 shown in FIG. 93, is similar to the case shown in FIG. 88 based on the region information indicating the region detected again, supplied from the boundary detection unit 211. Processing detects the width of the thin line.
  • the line width detection unit 210 supplies the signal level estimation unit 210 with thin line width information indicating the width of the detected thin line, together with the data continuity information.
  • the processing of the signal level estimator 2 102 shown in FIG. 93 is the same as that shown in FIG. Since it is a process, its description is omitted.
  • FIG. 100 is a flowchart corresponding to the process of step S 102 and illustrating the process of estimating the real world by the real world estimating unit 102 having the configuration shown in FIG. 93.
  • the boundary detection unit 2121 detects a reproduction region based on the pixel values of the pixels belonging to the stationary region detected by the data continuity detection unit 101. Execute the detection process. The details of the boundary detection processing will be described later.
  • step S2122 and step S2123 is the same as the processing in step S2101 and step S2102, and a description thereof will be omitted.
  • FIG. 101 is a flowchart for explaining the boundary detection processing corresponding to the processing in step S2121.
  • the distribution ratio calculation unit 2131 calculates a distribution ratio indicating the rate at which the thin line image is projected, based on the data continuity information indicating the monotone increase / decrease region and the input image. .
  • the distribution ratio calculation unit 2 131 detects an adjacent monotone increase / decrease region in the steady region from the input image based on the monotone increase / decrease region information included in the data continuity information. By subtracting the approximate value approximated by the plane indicated by the slope and intercept included in the steady-state component information from the pixel values of the pixels belonging to the monotonous increase / decrease region, an image consisting of only the steady-state component on which the thin line image is projected can be obtained. Generate.
  • the distribution ratio calculation unit 2 1 3 1 divides the pixel value of a pixel belonging to two adjacent pixels, which is a monotonous increase / decrease region composed of one column of pixels, by the sum of the pixel values of the adjacent pixels. Then, the distribution ratio is calculated for each pixel belonging to two adjacent monotone increase / decrease regions.
  • the distribution ratio calculation unit 213 supplies the calculated distribution ratio to the zero return straight line calculation unit 213.
  • step S2132 the regression line calculation unit 2132 calculates the regression line indicating the boundary of the monotonous increase / decrease region based on the distribution ratio indicating the ratio of the projection of the thin line image.
  • the area within the area is detected again.
  • the regression line calculation unit 2 1 3 2 assumes that the boundary of the monotone increase / decrease region is a straight line, and By calculating the regression line indicating the boundary and calculating the regression line indicating the boundary of the other end of the monotonous decrease region, the monotone increase / decrease region in the steady region is detected again.
  • the regression line calculation unit 211 supplies the detected region information indicating the region in the steady region to the line width detection unit 2101, and the process ends.
  • the real-world estimator 102 shown in FIG. 93 detects again the area composed of the pixels on which the thin line image is projected, and based on the detected area again, The width of the thin line in the signal image is detected, and the light intensity (level) of the signal in the real world 1 is estimated. By doing so, it is possible to more accurately detect the width of the thin line and more accurately estimate the light intensity for the real world 1 signal.
  • the discontinuity of the pixel values of a plurality of pixels is detected and detected in the first image data in which the real-world optical signal is projected and a part of the continuity of the real-world optical signal is missing. From the detected discontinuity, a steady area having data continuity is detected, the area is detected again based on the pixel values of the pixels belonging to the detected steady area, and the real world is detected again based on the detected area.
  • estimating it is possible to obtain more accurate and more accurate processing results for real-world events.
  • the real world estimating unit 102 that outputs, as real world estimation information, the differential value of the approximation function in the spatial direction for each pixel in a region having stationarity.
  • the reference pixel extraction unit 2221 processes each pixel of the input image based on the data continuity information (stationarity angle or area information) input from the data continuity detection unit 101. It is determined whether or not the pixel is an area, and if it is a processing area, information on reference pixels necessary to obtain an approximation function that approximates the pixel value of the pixel of the input image (a plurality of pixels around the pixel of interest required for calculation) The pixel position and pixel value are extracted and output to the approximate function estimator 222.
  • the approximation function estimator 222 uses the least squares method to approximate the approximation function that describes the pixel values of the pixels around the target pixel based on the reference pixel information input from the reference pixel extractor 222. And outputs the estimated approximation function to the differential processing unit 220 3.
  • the differential processing unit 2203 calculates the angle of the data continuity information (for example, the angle of a thin line or a binary edge with respect to a predetermined axis, based on the approximation function input from the approximation function estimation unit 222).
  • the shift amount of the position of the pixel to be generated from the pixel of interest is calculated, and the differential value at the position on the approximation function corresponding to the shift amount (one-dimensional direction from the line corresponding to the stationarity)
  • the derivative value of the function that approximates the pixel value of each pixel corresponding to the distance along the distance is calculated, and information on the position of the pixel of interest, the pixel value, and the slope of the stationarity is added, and this is added to the real world.
  • the information is output to the image generation unit 103 as estimation information.
  • step S221 the reference pixel extraction unit 222 acquires the angle as the data continuity information and the area information from the data continuity detection unit 101 together with the input image.
  • step S2202 the reference pixel extraction unit 2201 sets a target pixel from unprocessed pixels of the input image.
  • step S2203 the reference image extraction unit 2201 determines whether or not the pixel of interest is from the processing area based on the information on the area of the data continuity information. If it is determined that the pixel is not a pixel, the process proceeds to step S221, and for the pixel of interest, it is determined through the approximate function estimating unit 222 that the pixel of interest is outside the processing area, The differential processing unit 2203 sets the differential value of the corresponding pixel of interest to 0, and further adds the pixel value of the pixel of interest as real-world estimation information.
  • the image data is output to the image generation unit 103, and the process proceeds to step S2211. If it is determined that the target pixel belongs to the processing area, the process proceeds to step S2204.
  • step S224 the reference pixel extraction unit 2201 determines from the angle information included in the data continuity information that the direction having data continuity is an angular force close to the horizontal direction or close to the vertical. It is determined whether or not it is an angle. That is, the reference pixel extraction unit 2221 determines that the angle ⁇ ⁇ ⁇ having data continuity is approximately 45 degrees or 135 degrees. 4001585
  • the direction of the continuity of the pixel of interest is determined to be close to the horizontal direction. If the angle 0 with data continuity satisfies 45 degrees ⁇ 0 ⁇ 135 degrees, the The direction of stationarity is determined to be close to the vertical direction.
  • the reference pixel extraction unit 2201 extracts the position information and the pixel value of the reference pixel corresponding to the determined direction from the input image, and the approximation function estimation unit 2202 Output to That is, the reference pixel is data used when calculating an approximation function described later, and therefore it is desirable that the reference pixel be extracted according to the slope. Accordingly, a reference pixel in a long range in the horizontal direction or the vertical direction is extracted corresponding to the determination direction. More specifically, for example, as shown in FIG. 104, when the gradient Gf is close to the vertical direction, it is determined that the direction is the vertical direction. In this case, as shown in FIG. 104, for example, as shown in FIG.
  • the reference pixel extraction unit 2221 vertically shifts two pixels each in the vertical (up and down) direction around the pixel of interest and one pixel each in the horizontal (left and right) direction so that the total is 15 pixels. Pixels in a long range are extracted as reference pixels.
  • the horizontal direction will be 1 pixel each in the vertical (up / down) direction and 2 pixels each in the horizontal (left / right) direction, centering on the target pixel, for a total of 15 pixels. Then, a pixel in a longer range is extracted as a reference pixel, and is output to the approximate function estimator 222.
  • the number of reference pixels is not limited to 15 pixels as described above, but may be any other number.
  • step S 2206 the approximate function estimating unit 220 2 uses the least squares method to calculate the approximate function based on the information of the reference pixel input from the reference pixel extracting unit 220 1.
  • f (x) is estimated and output to the differential processing section 2203.
  • the approximation function f (x) is a polynomial as shown in the following equation (30).
  • f (X) 3 ⁇ 4 ' 1 ⁇ ( ⁇ + 3 ⁇ 4 ⁇ ⁇ ⁇ 1 + ⁇ ⁇ - ⁇ ⁇ ⁇ + ⁇ ⁇ ⁇ ⁇ (3 0)
  • each coefficient of the polynomial in equation (3 0) ⁇ through W n
  • an approximation function f (x) that approximates the pixel value (reference pixel value) of each reference pixel is obtained, however, more reference pixel values are required than the number of coefficients. Therefore, for example, in the case where the reference pixel is as shown in Fig.
  • the approximate function estimating unit 222 estimates by solving the following equation (31) using the least square method. .
  • step S2207 the differential processing unit 2203 determines the position of the pixel to be generated based on the approximate function f (x) input from the approximate function estimation unit 222. Find the shift amount.
  • the center of the pixel of interest is to obtain the differential value at Pin (Xin, Yin).
  • Xin, Yin) Since this shift amount is Cx (0), it is substantially zero.
  • the pixel Pin is a square having (Xin, Yin) as the approximate center of gravity
  • the pixels Pa and Pb are (Xin, Yin + 0.25) and (Xin, Yin-0.25).
  • Each rectangle is a long rectangle in the horizontal direction in the figure with the approximate center of gravity.
  • step S2208 the differential processing unit 2 2 Q 3 differentiates the approximate function f (x) to obtain a first-order differential function f (x) 'of the approximate function, and calculates the shift amount by seeking a differential value at corresponding locations, which c that is output to the image generation unit 1 0 3 as actual world estimation information, in this case, the differential processing unit 2 2 0 3, the differential value f (Xin) ' Then, the position (in this case, the target pixel (Xin, Yin)), its pixel value, and information on the inclination in the direction of continuity are added and output.
  • step S2209 the differentiation processing unit 2203 determines whether or not enough differential values necessary to generate pixels of the required density have been obtained. For example, in this case, only the differential value to obtain the double density is obtained (only the differential value to obtain the double density in the space direction Y direction is obtained). It is determined that the differential values required to generate the pixels having the required density have not been determined, and the process returns to step S2207.
  • step S2207 the differentiating unit 2203 again determines, based on the approximate function f (x) input from the approximate function estimating unit 2202, the position of the pixel to be generated. Find the shift amount. That is, in this case, the differential processing unit 2203 obtains a differential value required to divide each of the two divided pixels Pa and Pb into two. Since the positions of the pixels Pa and Pb are the positions indicated by the black circles in FIG. 105, the differential processing unit 222 obtains the shift amount corresponding to each position.
  • the shift amounts of the pixels Pa and Pb are Cx (0.25) and Cx (—0.25), respectively.
  • step S2208 the differentiation processing unit 2203 first-order differentiates the approximate function f (x), and calculates the differential value at a position corresponding to the shift amount corresponding to each of the pixels Pa and Pb. Then, this is output to the image generation unit 103 as real world estimation information.
  • the differential processing unit 2203 calculates the differential function f (x) for the obtained approximate function f (x).
  • the position shifted by the shift amount Cx (0.25), Cx (— 0.25) (Xin— Cx (0.25)) and (Xin— Cx (-0.25)) the differential values at the positions f (Xin— Cx (0.25) ⁇ 'and f (Xin— Cx (-0.25)) ', add the position information corresponding to the derivative value, and output this as real world estimation information.
  • the pixel value information is output
  • the differentiation processing unit 220 3 again obtains only the differential values necessary to generate the pixel having the required density. For example, in this case, the differential value to obtain the density of 4 times has been obtained, so only the necessary number of pixels to generate the required density is obtained. It is determined that the differential value has been obtained, and the process proceeds to step S2 211.
  • step S2211 the reference pixel extraction unit 2201 determines whether or not all pixels have been processed. If it is determined that not all pixels have been processed, the processing is performed in step S221. Return to 2 202. If it is determined in step S2211 that all pixels have been processed, the processing ends.
  • pixels PO 1, P 02, P 03, and P 04 are squares whose center of gravity is the position of the four backslashes in the figure. Since the length of each side is 1 for the pixel Pin, the pixel P 0 1, P 02, P 03, and P 04 are each approximately 0.5).
  • the differential value necessary to generate an image was output as real world estimation information. It is equivalent to the slope of the approximation function f (X) at.
  • the reference pixel extraction unit 2 211 processes each pixel of the input image based on the data continuity information (stationarity angle or area information) input from the data continuity detection unit 101. It is determined whether the area is a processing area, and if it is a processing area, information on reference pixels necessary to calculate the inclination from the input image (a plurality of peripheral pixels including a pixel of interest required for calculation, The pixel or the position of a plurality of neighboring pixels arranged in the horizontal direction including the pixel of interest, and information on each pixel value) are extracted and output to the inclination estimating unit 222.
  • the inclination estimating unit 2 2 1 2 generates information on the inclination of the pixel position necessary for pixel generation based on the information on the reference pixel input from the reference pixel extracting unit 2 2 1 Is output to the image generation unit 103. More specifically, the inclination estimating unit 2 2 1 2 calculates the inclination at the position of the target pixel on the approximation function f ( ⁇ ) that approximates the real world using the difference information of the pixel values between pixels. , This, the position information of the target pixel, the pixel value, And, information on the inclination of the direction of the stationarity is output as real world estimation information.
  • step S2221 the reference pixel extraction unit 2221 acquires the angle as the data continuity information and the area information from the data continuity detection unit 101 together with the input image.
  • step S2222 the reference pixel extraction unit 2221 sets a target pixel from unprocessed pixels of the input image.
  • step S2223 the reference image extraction unit 2221 determines whether or not the pixel of interest is from the processing area based on the information on the area of the data continuity information, and If it is determined that the pixel is not a pixel, the process proceeds to step S 2 228, and informs the inclination estimating unit 2 212 that the pixel of interest is out of the processing area, and accordingly, The inclination estimating unit 222 sets the inclination of the corresponding pixel of interest to 0, adds the pixel value of the pixel of interest to the image generation unit 103 as real-world estimation information, and outputs the information.
  • the processing proceeds to step S2229. If it is determined that the target pixel belongs to the processing area, the process proceeds to step S2224.
  • step S 2 224 the reference pixel extraction unit 2 2 1 1 determines, based on the angle information included in the data continuity information, that the direction having data continuity is an angle force close to a horizontal direction or a force close to a vertical direction. It is determined whether or not it is an angle. That is, when the angle 0 having data continuity is 0 degree S ⁇ 45 degrees or 135 degrees ⁇ ⁇ ⁇ 180 degrees, the direction of the continuity of the target pixel is: If it is determined that it is close to the horizontal direction and the angle ⁇ ⁇ ⁇ having data continuity is 45 degrees ⁇ ⁇ ⁇ 135 degrees, it is determined that the direction of continuity of the target pixel is close to the vertical direction.
  • the reference pixel extraction unit 2221 extracts the position information and the pixel value of the reference pixel corresponding to the determined direction from the input image, and the inclination estimation unit 2211. Output to 2. That is, the reference pixel calculates an inclination described later. It is desirable to extract the data according to the inclination indicating the direction of the stationarity, since the data will be used in such a case. Therefore, corresponding to the determination direction of either the horizontal direction or the vertical direction, a reference pixel in a long range in the direction is extracted. More specifically, for example, when it is determined that the inclination is close to the vertical direction, the reference pixel extraction unit 2211 outputs the central pixel (0, 0, 0) in FIG.
  • the reference pixel extraction unit 2211 extracts a pixel in a long range in the vertical direction as a reference pixel so that a total of five pixels, two pixels each in the vertical (up / down) direction, with the target pixel as the center.
  • a pixel in a long range in the horizontal direction is extracted as a reference pixel so that a total of 5 pixels including two pixels in the horizontal (left / right) direction around the pixel of interest are obtained.
  • the number of reference pixels is not limited to five as described above, and may be any other number.
  • the slope estimating unit 22 12 receives the input from the reference pixel extracting unit 2211. The shift amount of each pixel value is calculated based on the obtained information of the reference pixel and the gradient G f in the stationary direction.
  • the inclination estimating unit 2 2 1 2 obtains these shift amounts Cx ( ⁇ 2) to Cx (2).
  • the reference pixel (0, one 1>, Cx (- l) _ l / G f
  • the reference pixel (0, One 2), Cx (- a 2 / G f - 2) .
  • step S 2 227 the gradient estimating unit 2 212 calculates (estimates) the gradient on the approximate function f (x) at the position of the target pixel. For example, as shown in FIG. 109, when the direction of continuity of the pixel of interest is at an angle close to the vertical direction, the pixel value differs greatly between pixels adjacent in the horizontal direction, and between pixels in the vertical direction. Since the change between pixels is small and the changes are similar, the slope estimating unit 2 2 1 2 captures the change between pixels in the vertical direction as a change in the spatial direction X due to the shift amount, thereby obtaining the vertical The difference between pixels is replaced with the difference between pixels in the horizontal direction, and the slope on the approximate function f (x) at the position of the target pixel is obtained.
  • the pixel value P, the shift amount Cx, and the slope Kx (the slope on the approximation function f (x)) satisfy the following equation (32).
  • the slope estimator 2 2 1 2 calculates the minimum autonomous of one variable with respect to this variable Kx (slope). Find the slope KX by multiplication.
  • the slope estimating unit 2 2 1 2 obtains the slope of the target pixel by solving a normal equation such as the following equation (33), and obtains the pixel value of the target pixel, and Information on the inclination of the direction of continuity is added, and the information is output to the image generation unit 103 as real world estimation information.
  • i is a number for identifying a pair of the pixel value P and the shift amount C of the above-described reference pixel, and is 1 to ⁇ . Further, m is the number of reference pixels including the target pixel.
  • step S2229 the reference pixel extraction unit 2221 determines whether or not all pixels have been processed. If it is determined that not all pixels have been processed, the processing is performed in step S220. Return to 2 2 2 2. If it is determined in step S2229 that all pixels have been processed, the processing ends.
  • the inclination output as the real world estimation information by the above-described processing is used when the pixel value to be finally obtained is calculated by outer interpolation. Further, in the above example, the inclination when calculating a double density pixel has been described as an example. However, when calculating a pixel having a higher density, a pixel value calculation is further required. The inclination at many positions may be obtained.
  • the example of obtaining the double-density pixel value has been described.However, since the approximate function f (x) is a continuous function, the pixel value of a pixel at a position other than the double-density is also required. The inclination can be obtained.
  • real-world estimator 1 0 2 outputs, as real-world estimation information, a differential value on an approximation function in the frame direction (time direction) for each pixel in a region having stationarity. Will be described.
  • the reference pixel extraction unit 2 2 3 1 generates an input image based on the data continuity information (stationary motion (motion vector) and area information) input from the data continuity detection unit 101. It is determined whether or not each pixel is a processing area. If the pixel is a processing area, information on reference pixels necessary for obtaining an approximation function that approximates the pixel value of the pixel of the input image (information required for calculation) The position and the pixel value of a plurality of pixels around the target pixel are extracted and output to the approximate function estimating unit 222.
  • data continuity information stationary motion (motion vector) and area information
  • the approximation function estimator 2 2 3 2 generates an approximation function that approximately describes the pixel value of each pixel around the target pixel based on the information of the reference pixel in the frame direction input from the reference pixel extractor 2 2 3 1. Estimation is performed based on the least squares method, and the estimated function is output to the differential processing unit 2 2 3 3.
  • the differential processing unit 2 233 determines the pixel to be generated from the pixel of interest according to the movement of the data continuity information.
  • the shift amount of the position in the frame direction is calculated, and the differential value at the position on the approximate function in the frame direction according to the shift amount (the pixel of each pixel corresponding to the distance along the one-dimensional direction from the line corresponding to the stationarity)
  • the value of the pixel of interest, the pixel value, and the information of the stationary motion are added, and the image generation unit 103 calculates the real-world estimation information.
  • step S2241 the reference pixel extraction unit 2221 acquires the motion as the data continuity information and the area information from the data continuity detection unit 101 together with the input image.
  • step S2242 the reference pixel extraction unit 2231 sets a pixel of interest from unprocessed pixels of the input image.
  • step S2243 the reference image extraction unit 2221 determines whether or not the target pixel belongs to the processing area based on the information on the area of the data continuity information, and If it is determined that the pixel is not a pixel, the process proceeds to step S2250, and it is determined that the pixel of interest is out of the processing region via the approximate function estimating unit 2232 and the differentiation processing unit. In response to this, the differential processing unit 2 2 3 3 sets the differential value of the corresponding pixel of interest to 0, and adds the pixel value of the pixel of interest as real-world estimation information.
  • the image data is output to the image generation unit 103, and the process proceeds to step S2251. If it is determined that the target pixel belongs to the processing area, the processing proceeds to step S224.
  • step S 2 244 the reference pixel extraction unit 2 231, based on the motion information included in the data continuity information, determines that the direction having the data continuity is a motion force close to the spatial direction It is determined whether or not the movement is close.
  • the angle indicating the time and the in-plane direction of the space with respect to the frame direction as a reference axis is set to 0 V.
  • the reference pixel extraction unit 2 The motion is determined to be close to the frame direction (time direction). If the angle with data continuity is 0 ° 45 ° ⁇ 0 and 135 °, the continuity direction of the pixel of interest is determined to be close to the spatial direction. I do.
  • the reference pixel extraction unit 2201 extracts the position information and the pixel value of the reference pixel corresponding to the determined direction from the input image, and extracts the approximation function estimation unit 22 3 Output to 2. That is, since the reference pixel is data used when calculating an approximation function described later, it is desirable that the reference pixel be extracted according to the angle. Therefore, corresponding to the determination direction of either the frame direction or the spatial direction, a reference pixel in a long range in the direction is extracted. More specifically, for example, If the movement direction Vf is close to the spatial direction as shown by 113, it is determined that the movement direction is the spatial direction, and in this case, the reference pixel extracting unit 2231 determines, for example, as shown in FIG.
  • the pixel (t, y) (— 1, 2), (1-1, 1), (-1 , 0), (1-1, -1), (1-1, -2), (0, 2), (0, 1), (0, 0), (0, -1), (0, -2 ), (1, 2), (1, 1), (1, 0), (1, — 1), (1, 1 2) are extracted.
  • the size of each pixel in the frame direction and the spatial direction is one.
  • the reference pixel extraction unit 2231 sets a total of 15 pixels for each two pixels in the spatial (upper and lower in the figure) direction and one frame in each of the frame (left and right in the figure) direction around the pixel of interest. Then, pixels in a range in which the spatial direction is longer than the frame direction are extracted as reference pixels.
  • the direction is the frame direction
  • a total of 15 pixels for each 1 pixel in the space (up and down in the figure) and 2 frames in the frame (left and right in the figure) around the pixel of interest are extracted as reference pixels and output to the approximate function estimating unit 2232.
  • the number of reference pixels is not limited to 15 pixels as described above, and may be other numbers.
  • step S2246 the approximate function estimating unit 2232 estimates the approximate function f (t) by the least square method based on the information of the reference pixels input from the reference pixel extracting unit 2231, and outputs the estimated function to the differentiation processing unit 2233. I do.
  • the approximate function f (t) is a polynomial as shown in the following equation (34).
  • f (t) 1 t n + ⁇ 3 ⁇ 4t n -i-.-. -f3 ⁇ 4_ 1 ⁇ ⁇ ⁇ (34)
  • f (t) 1 t n + ⁇ 3 ⁇ 4t n -i-.-. -f3 ⁇ 4_ 1 ⁇ ⁇ ⁇ (34)
  • the polynomial is assumed to be a polynomial up to the 14th order, and the approximate function is estimated by obtaining the coefficients W 15 .
  • a simultaneous equation may be set by setting an approximate function f (x) composed of a 15th-order polynomial.
  • the approximate function estimating unit 223 2 estimates the following equation (35) by solving the following equation (35) using the least square method.
  • the number of reference pixels may be changed according to the degree of the polynomial.
  • Ct (ty) is a shift amount, which is the same as Cx (ty) described above, and when the slope of the constancy is represented by Vf , Is defined by
  • the approximate function f (t) is defined in the frame direction (time
  • step S 2 247 the differentiation processing unit 2 2 3 3 shifts the position of the pixel to be generated based on the approximation function f (t) input from the approximation function estimation unit 2 2 3 2 Find the quantity.
  • the differential processing unit 223 3 In order to divide the pixel into two parts, Pat and Pbt, which have twice the density, as shown in Fig. 11-14, the center position of the pixel of interest is calculated as the differential value at Pin (Tin, Yin). Find the shift amount of (Tin, Yin). Since this shift amount is Ct (0), it is substantially zero.
  • the pixel Pin is a square with (Tin, Yin) as the approximate center of gravity, and the pixels Pat and Pbt are (Tin, Yin + 0.25) and (Tin, Yin—0.25). Each rectangle is a rectangle that is long in the horizontal direction in the figure at the approximate center of gravity.
  • a length of 1 in the frame direction T of the target pixel Pin corresponds to a shutter time for one frame.
  • step S2248 the differential processing unit 2 2 3 3 differentiates the approximate function f (t) to obtain a first-order differential function f (t) ′ of the approximate function, and according to the obtained shift amount, The differential value at the position is calculated and output to the image generation unit 103 as real world estimation information. That is, in this case, the differential processing unit 2 2 3 3 obtains the differential value f (Tin) ′, and the position (in this case, the target pixel (Tin, Yin)), the pixel value, and the stationarity Direction And information of the movement of the object is added and output.
  • step S2249 the differential processing unit 2233 determines whether or not enough differential values are required to generate pixels of the required density. In this case, only the differential value to obtain a double density in the spatial direction is obtained (only the differential value to obtain a double density in the frame direction is not obtained). It is determined that the differential values necessary to generate the pixel have not been obtained, and the process returns to step S2247.
  • step S 2 247 the differentiating unit 220 3 again uses the approximate function f (t) input from the approximate function estimating unit 220 2 Find the shift amount. That is, in this case, the differential processing unit 2203 obtains a differential value required to further divide each of the pixels Pat and Pbt into two. Since the positions of the pixels Pa1; and Pbt are the positions indicated by the black circles in FIG. 114, the differential processing unit 223 determines the shift amount corresponding to each position. The shift amounts of the pixels Pat and Pbt are Ct (0.25) and Ct (_0.25), respectively.
  • step S 2 248 the differentiation processing section 223 3 differentiates the approximation function f (t) to obtain a differential value at a position corresponding to the shift amount corresponding to each of the pixels Pa Pbt, This is output to the image generation unit 103 as real world estimation information.
  • the differential processing unit 2 2 3 3 performs the differentiation function f (t) for the obtained approximate function f (t) as shown in FIG. , And the positions are shifted by the shift amounts Ct (0.25) and Ct (0.25) in the spatial direction T (Tin—Ct (0.25)) and (Tin—Ct (—0 .25)) is obtained as f (Tin— Ct (0.25)) f (Tin -Ct (-0.25)) ', and the position information corresponding to the differential value is obtained. This is added and output as real world estimation information. Note that the pixel value information is output in the first processing, so that the pixel value information is not added.
  • step S 2 249 again, the differentiation processing section 2 233 determines whether or not enough differential values are required to generate a pixel of the required density. You. For example, in this case, since the differential value has been obtained for the spatial direction Y and the frame direction T so that the density is doubled (4 times in total), the pixels with the required density are generated. It is determined that the differential values necessary for the calculation have been obtained, and the processing proceeds to step S2251.
  • step S2251 the reference pixel extraction unit 2231 determines whether or not all pixels have been processed, and when it is determined that not all pixels have been processed, the processing is performed in step S221. Return to 2 2 4 2. If it is determined in step S2251 that all the pixels have been processed, the processing ends.
  • the pixel is calculated by an approximation function of the center position of the divided pixel. Since the image is divided by extrapolation using differential values, information on a total of three differential values is required to generate quadruple-density pixels.
  • the pixels POI t, P 0 2 t, P 0 3 t, and P 0 4 t are finally obtained for one pixel (in FIG. 114, the pixel P 0 1 t, P 0 2 t, P 0 3 t, and P 0 4 t are squares whose center of gravity is the position of the four marks in the figure. Since each pixel is 1, the pixels P 0 1 t, P 0 2 t, P 0 3 t, and P 0 4 t are each approximately 0.5).
  • To generate double-density pixels first generate double-density pixels in the frame direction or spatial direction (the first steps S2247 and S2248 described above). Then, the two divided pixels are divided in the direction perpendicular to the first division and the direction perpendicular to the first (in this case, the frame direction) (the second step S2247, S2248 above). Processing).
  • the differential value when calculating a quadruple-density pixel has been described as an example. However, when calculating a pixel with a higher density, steps S 2 247 to S 2 2 By repeating the processing of 49, more differential values required for the calculation of the pixel value may be obtained.
  • steps S 2 247 to S 2 2 By repeating the processing of 49, more differential values required for the calculation of the pixel value may be obtained.
  • an example of obtaining a pixel value of double density has been described, but since the approximate function f (t) is a continuous function, Necessary differential values can be obtained for pixel values other than degrees.
  • the differential value required to generate an image is output as real-world estimation information. It is equivalent to the slope of the approximation function f (t) at.
  • the reference pixel extraction unit 2221 processes each pixel of the input image based on the data continuity information (stationary motion and area information) input from the data continuity detection unit 101. It is determined whether or not it is a region, and if it is a processing region, information on reference pixels necessary to obtain a tilt from the input image (a plurality of peripheral pixels that are aligned in the spatial direction and include the pixel of interest required for calculation) The position of a pixel or a plurality of peripheral pixels arranged in the frame direction including the pixel of interest, and information on each pixel value) are extracted, and the slope estimating unit 2 is extracted.
  • data continuity information stationary motion and area information
  • the inclination estimating unit 222 generates the information of the inclination of the pixel position required for pixel generation based on the information of the reference pixel input from the reference pixel extracting unit 222, and outputs the real world estimation information. Is output to the image generation unit 103. More specifically, the inclination estimating unit 2 252 uses the difference information of the pixel values between pixels to determine the frame direction at the position of the pixel of interest on an approximation function that approximately represents the pixel value of each reference pixel. Then, the position information of the pixel of interest, the pixel value, and the information on the motion in the stationary direction are output as real-world estimation information.
  • step S 2 261 the reference pixel extraction unit 225 1, together with the input image, The data as the data continuity information and the area information are acquired from the data continuity detection unit 101.
  • step S2262 the reference pixel extraction unit 2221 sets a pixel of interest from unprocessed pixels of the input image.
  • step S2263 the reference image extraction unit 2221 determines whether or not the target pixel belongs to the processing area based on the information on the area of the data continuity information, and If it is determined that the pixel is not a pixel, the process proceeds to step S2268, and the slope estimation unit 2252 is notified that the pixel of interest is outside the processing area, and accordingly, The inclination estimating unit 222 sets the inclination of the corresponding pixel of interest to 0, further adds the pixel value of the pixel of interest to the image generating unit 103 as real-world estimation information, and outputs the information.
  • the processing proceeds to step S2269. If it is determined that the target pixel belongs to the processing area, the process proceeds to step S2264.
  • the reference pixel extraction unit 2221 determines from the motion information included in the data continuity information that the motion of the data continuity is close to the motion force close to the frame direction or close to the spatial direction. It is determined whether or not it is a movement. That is, in a plane composed of the frame direction T and the space direction Y, if the angle indicating the direction in the time and space directions with respect to the frame direction as a reference axis is ⁇ V, the reference pixel extraction unit 2 If the angle of the data stationary motion ⁇ V is 0 ° ⁇ 0V ⁇ 45 ° or 135 ° ⁇ ⁇ V and 180 °, the stationary motion of the pixel of interest is determined to be close to the frame direction. If the angle 0 v having the data constancy is 45 degrees ⁇ ⁇ v ⁇ 135 degrees, it is determined that the stationary movement of the target pixel is close to the spatial direction.
  • the reference pixel extraction unit 2221 extracts the position information and the pixel value of the reference pixel corresponding to the determined direction from the input image, and the inclination estimation unit 222. Output to 2. That is, since the reference pixel is data used when calculating a slope described later, it is desirable that the reference pixel be extracted according to the stationary motion. Therefore, it corresponds to the judgment direction of either the frame direction or the spatial direction. Thus, a reference pixel in a long range in the direction is extracted. More specifically, for example, when it is determined that the motion is close to the spatial direction, the reference pixel extracting unit 2251, as shown in FIG. 118, outputs the central pixel (t, y) in FIG.
  • the reference pixel extraction unit 2251 extracts pixels in a long range in the spatial direction as reference pixels so that a total of 5 pixels including 2 pixels each in the spatial direction (up and down in the figure) with the target pixel as the center. .
  • pixels in a long horizontal range are extracted as reference pixels so that a total of 5 pixels, 2 pixels in the frame (left and right in the figure) direction, centering on the target pixel Then, it outputs the result to the approximate function estimating unit 2252.
  • the number of reference pixels is not limited to five as described above, and may be other numbers.
  • step S2266 the inclination estimating unit 2252 calculates the shift amount of each pixel value based on the information of the reference pixel input from the reference pixel extracting unit 2251 and the direction of the motion Vf in the stationary direction. I do.
  • the inclination estimating unit 2252 obtains these shift amounts Ct ( ⁇ 2) to Ct (2).
  • the inclination estimating unit 2 252 obtains these shift amounts Ct (1 ⁇ 2) to Ct (2).
  • step S2267 the inclination estimating unit 2222 calculates (estimates) the inclination of the pixel of interest in the frame direction. For example, as shown in Fig. 118, when the direction of the continuity of the pixel of interest is at an angle close to the spatial direction, the pixel values adjacent to each other in the frame direction are significantly different. Since the change between pixels is small and the changes are similar between the pixels, the inclination estimating unit 2252 captures the change between pixels in the spatial direction as the change in the frame direction T due to the shift amount. The difference between pixels in the spatial direction is replaced with the difference between pixels in the frame direction, and the inclination at the pixel of interest is obtained.
  • each pixel in FIG. 119 is P (0, 2), P (0, 1), P (0, 0), P (0, — 1), P (0, -It is expressed by 2).
  • the pixel value P, the shift amount C t, and the slope K t (the slope on the approximation function f (t)) satisfy the following equation (36).
  • the slope estimator 2 2 5 2 uses the normal equation (3 7) shown below.
  • the inclination of the target pixel is obtained, and the pixel value of the target pixel and information on the inclination in the direction of the stationarity are added, and the resultant is output to the image generation unit 103 as real world estimation information.
  • i is a number for identifying a pair of the pixel value P of the reference pixel and the shift amount Ct, and is 1 to m.
  • M is the number of reference pixels including the target pixel.
  • step S2269 the reference pixel extraction unit 2251 determines whether or not all pixels have been processed. If it is determined that not all pixels have been processed, the process proceeds to step S2269. Return to 2 2 6 2. If it is determined in step S2269 that all the pixels have been processed, the processing ends.
  • the inclination in the frame direction which is output as the real world estimation information by the above-described processing, is used when a pixel value to be finally obtained is calculated by external interpolation. Also, in the above example, the inclination when calculating a double density pixel has been described as an example. However, when calculating a pixel with a higher density, there are more points necessary for calculating the pixel value. You may ask for the tilt at the position.
  • the force approximation function f (t) described in the example of obtaining the double-density pixel value is a continuous function
  • the required gradient is also required for the pixel value of the pixel at a position other than the double-density.
  • the order of the process of calculating the gradient or the derivative on the approximate function with respect to the frame direction or the spatial direction does not matter.
  • the spatial direction in the above example, the description has been made using the relationship between the spatial direction Y and the frame direction T. However, even when the relationship between the spatial direction X and the frame direction T is used, Good.
  • the slope or the derivative value in any one-dimensional direction may be selectively obtained from any two-dimensional relationship in the spatiotemporal direction.
  • the frame direction (time The gradient on the approximation function of the direction can be generated as real-world estimation information and output further.
  • FIG. 3 Another example of the embodiment of the real world estimating unit 102 (FIG. 3) will be described with reference to FIGS.
  • FIG. 120 is a diagram for explaining the principle of the embodiment of this example.
  • a signal (distribution of light intensity) of the real world 1 which is an image incident on the sensor 2 is represented by a predetermined function F.
  • a signal of the real world 1 which is an image is particularly referred to as an optical signal
  • the function F is particularly referred to as an optical signal function F.
  • the real world estimating unit 102 when the optical signal of the real world 1 represented by the optical signal function F has a predetermined stationarity, the real world estimating unit 102 outputs the input image from the sensor 2 (stationarity Image data including the stationarity of the data corresponding to the data) and the data stationarity information from the data stationarity detector 101 (the data stationarity information corresponding to the stationarity of the data of the input image).
  • the optical signal function F is estimated by approximating the optical signal function F with a predetermined function f.
  • the function soil ′ is particularly referred to as an approximate function f.
  • the real-world estimator 102 uses the model 16 1 (FIG. 7) represented by the approximate function f to generate the image represented by the optical signal function F. (The optical signal of the real world 1). Therefore, the embodiment of this example will be described below. Is referred to as a function approximation technique.
  • FIG. 121 is a view for explaining the integration effect when the sensor 2 is a CCD. As shown in FIG. 121, a plurality of detection elements 2-1 are arranged on the plane of the sensor 2.
  • the direction parallel to a predetermined side of the detection element 2-1 is defined as the X direction, which is one direction in the spatial direction
  • the direction perpendicular to the X direction is defined as the other direction in the spatial direction.
  • the direction perpendicular to the XY plane is the t direction, which is the time direction.
  • the spatial shape of each of the detection elements 2-1 of the sensor 2 is a square having one side length of one.
  • the shutter time (exposure time) of the sensor 2 is set to 1.
  • y 0
  • the pixel value P output from the detection element 2-1 having the center at the origin in the spatial direction is represented by the following equation (38).
  • FIG. 122 is a view for explaining a specific example of the integration effect of the sensor 2.
  • the X and Y directions are the X and Y directions of sensor 2 (Fig. 12
  • One part of the optical signal of the real world 1 (hereinafter, such a part is called an area)
  • Reference numeral 2301 denotes an example of a region having a predetermined stationarity.
  • the area 2301 is one part (continuous area) of a continuous optical signal.
  • the region 2301 is shown as being divided into 20 small regions (square regions). This means that the size of the area 2301 is equivalent to the size in which four detection elements (pixels) of sensor 2 are arranged in the X direction and five in the Y direction. It is for representing. That is, area 2
  • Each of the 20 small areas (virtual areas) in 301 corresponds to one pixel.
  • the white part in the figure of the region 2301 represents an optical signal corresponding to a thin line. Therefore, the area 2301 has stationarity in the direction in which the thin line continues. Therefore, hereinafter, the region 2301 is referred to as a fine-line-containing real world region 2301.
  • fine line containing data area 2302 is output.
  • Each pixel in the thin line containing data area 2302 is shown as an image in the figure, but is actually data representing one predetermined value. That is, due to the integration effect of the sensor 2, the thin-line-containing real world area 2301 has 20 pixels each having one predetermined pixel value (4 pixels in the X direction and 4 pixels in the Y direction). It changes into a thin-line-containing data area 2302 divided into 5 pixels (total of 20 pixels) (distorted).
  • FIG. 123 is a view for explaining another specific example of the integration effect of the sensor 2 (an example different from FIG. 122).
  • the X direction and the Y direction represent the X direction and the ⁇ direction of the sensor 2 (FIG. 122).
  • One part (area) 2303 of the optical signal of the real world 1 is another example of the area having a predetermined stationarity (an example different from the real world area 2301 containing a thin line in Fig. 122).
  • the region 2303 is a region having the same size as the fine-line-containing real world region 2301. That is, like the real world region 2301 containing fine lines, the region 2303 is actually a part (continuous region) of the optical signal of the real world 1 which is continuous. In this case, it is shown as being divided into 20 small areas (square areas) corresponding to one pixel of the sensor 2.
  • the region 2303 includes a first portion having a predetermined first light intensity (value) and an edge of a second portion having a predetermined second light intensity (value). I have. Therefore, the region 2303 has stationarity in the direction in which the edge continues. Therefore, hereinafter, the region 2303 is referred to as a binary edge-containing real world region 2303.
  • the sensor 2 when the real world area 2303 (one part of the optical signal of the real world 1) containing the binary edge is detected by the sensor 2, the sensor 2 outputs the input image (pixel value) by the integration effect.
  • An area 2304 (hereinafter, referred to as a binary edge-containing data area 2304) is output.
  • Each pixel value in the binary edge-containing data area 2304 is represented as an image in the figure similarly to the fine line-containing data area 2302, but in practice, a predetermined value Is data representing That is, due to the integration effect of the sensor 2, the binary edge-containing real world region 2303 has 20 pixels each having a predetermined one pixel value (4 pixels in the X direction and 5 pixels in the ⁇ direction). It changes into a binary edge-containing data area 2304 divided into a total of 20 pixels) (distorted).
  • Conventional image processing apparatuses use the image data output from the sensor 2 such as the thin line containing data area 2302 and the binary edge containing data area 2304 as the origin (reference) and the image data.
  • the subsequent image processing was performed with the processing as the target. That is, the image data output from the sensor 2 is Despite being different (distorted) from the optical signal, the conventional image processing apparatus performed image processing with the data different from the optical signal in the real world 1 as positive.
  • the real world estimating unit 102 uses the thin line containing data area 2302 By approximating the optical signal function F (optical signal of the real world 1) with the approximation function f from the image data (input image) output from the sensor 2 such as the binary edge-containing data area 2304, Estimate the signal function F.
  • FIG. 124 is a diagram again showing the fine-line-containing real world region 2301 shown in FIG. 122 described above.
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 122).
  • the first function approximation method is, for example, the optical signal function F (x, y, t) corresponding to the fine-line-containing real world area 2301, as shown in FIG.
  • the one-dimensional waveform projected in the direction of (2 3 1 1) (hereinafter, such a waveform is referred to as an X-section waveform F (x)) is represented by an nth-order (n is an arbitrary integer) polynomial.
  • This is a method of approximating with a certain approximation function f (x). Therefore, the first function approximation method will be referred to as the one-dimensional polynomial approximation method below. Called.
  • the X-sectional waveform F (x) to be approximated is not limited to the one corresponding to the thin-wire-containing real world region 2301 in FIG. That is, as will be described later, in the one-dimensional polynomial approximation method, it is possible to approximate any one of the X-section waveforms F (x) corresponding to the optical signal of the real world 1 having a stationarity. is there.
  • the direction of projection of the optical signal function F (x, y, t) is not limited to the X direction, but may be the Y direction or the t direction. That is, in the one-dimensional polynomial approximation method, the optical signal function
  • the function F (y) that projects F (x, y, t) in the Y direction can be approximated by a predetermined approximation function f (y), and the optical signal function F (x, y, t) It is also possible to approximate the function F (t), which is obtained by projecting in the t direction, with a predetermined approximation function f (t).
  • the one-dimensional polynomial approximation method for example, approximates the X-section waveform F (x) with an approximation function f (x) that is an nth-order polynomial as shown in the following equation (39) It is a method to do.
  • the real-world estimator 102 calculates the coefficient (feature) ⁇ of Ti (of equation (39)) to obtain the X-section waveform F Estimate (x).
  • the method of calculating the feature value is not particularly limited, and for example, the following first to third methods can be used.
  • the first method is a method conventionally used.
  • the second method is a method newly invented by the applicant of the present invention, and is a method in which spatial continuity is further taken into consideration with respect to the first method.
  • the integration effect of the sensor 2 is not considered in the first method and the second method. Therefore, the approximation function f (x) obtained by substituting the feature value calculated by the first method or the second method into the above equation (39) is Although it is an approximation function of the input image, it is not strictly speaking an approximation function of the X-sectional waveform F (x).
  • the present applicant has invented a third method of calculating the feature value ⁇ by further considering the integration effect of the sensor 2 with respect to the second method.
  • the approximation function ⁇ ′ ( ⁇ ) obtained by substituting the feature quantity ⁇ calculated by the third method into the above-described equation (39) is given by the following equation in consideration of the integration effect of the sensor 2.
  • the first method and the second method cannot be said to be one-dimensional polynomial approximation methods, and only the third method is a one-dimensional polynomial approximation method.
  • the second method is an embodiment of the real-world estimator 102 of the present invention, which is different from the one-dimensional polynomial approximation method. That is, FIG. 125 is a diagram for explaining the principle of the embodiment corresponding to the second method.
  • the real-world estimation is performed.
  • the unit 102 receives the input image from the sensor 2 (image data including the stationarity of the data corresponding to the stationarity) and the data stationarity information from the data stationarity detector 101 (input image data X-section waveform using data stationarity information corresponding to stationarity
  • the second method does not consider the integration effect of the sensor 2 and only approximates the input image. Therefore, it cannot be said that the second method is the same method as the third method. However, the second method is superior to the first method in that it takes into account spatial continuity.
  • the following prediction equation (40) is defined assuming that it holds within the real world area 2301 containing fine lines of 126.
  • X represents the pixel position relative to the X direction from the target pixel.
  • y indicates the pixel position relative to the Y direction from the pixel of interest.
  • e represents the error.
  • the pixel of interest is the thin-line-containing data area 2302 (the fine-line-containing real-world area 2301 (FIG. 124) is the sensor 2).
  • the pixel is the second pixel in the X direction from the left and the third pixel in the Y direction from the bottom.
  • the center of the target pixel is defined as the origin (0,0), and the coordinate system (hereinafter referred to as the target image) with the X and y axes parallel to the X and Y directions (Fig. (Referred to as an elementary coordinate system).
  • the coordinate value (x, y) of the target pixel coordinate system indicates the relative pixel position.
  • P (x, y) represents a pixel value at a relative pixel position (x, y). Specifically, in this case, in the fine line content data area 2302,
  • FIG. 127 shows a graph of the pixel value P (x, y).
  • each graph represents the pixel value
  • the horizontal axis represents the relative position X in the X direction from the pixel of interest.
  • the dotted line in the first graph from the top represents the input pixel value P, -2
  • the three-dot chain line in the second graph from the top represents the input pixel value P (x, -1)
  • the solid line in the second graph is the input pixel value ⁇ ( ⁇ , 0)
  • the dashed line in the fourth graph from the top is the input pixel value ,, 1)
  • the fifth from the top (first from the bottom) is the graph.
  • the two-dot chain lines in the figure respectively represent the input pixel value ⁇ ( ⁇ , 2).
  • equation (41) Since equation (41) is composed of 20 equations, the approximation function: If the number of features ⁇ (x) ⁇ is less than 20, ie, the approximation function (X ) Is a polynomial of degree less than 19, for example, the feature value ⁇ can be calculated using the least squares method. The specific method of the least squares method will be described later.
  • the approximation function (X) calculated by the least square method using Equation (41) (the calculated feature amount ⁇
  • the generated approximation function ⁇ (x)) looks like the curve shown in Figure 128.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the target pixel.
  • the dotted line represents the input pixel value P (x, -2)
  • the three-dot chain line represents the input pixel value P (x, _l)
  • the solid line represents the input pixel value P (x, 0)
  • the dashed-dotted line indicates the input pixel value P (x, l)
  • the dashed-dotted line indicates the input pixel value P (x, 2).
  • two or more lines actually overlap, but in Fig. 128, each line is drawn so that they do not overlap so that each line can be distinguished . And the 20 input pixel values distributed in this way
  • the approximation function (X) is obtained by calculating the pixel value in the Y direction (the pixel value having the same relative position in the X direction from the target pixel) ⁇ ( ⁇ , -2), ⁇ ( ⁇ , -1), ⁇ It simply represents a curve connecting the average of ( ⁇ , 0), ⁇ ( ⁇ , l), P (x, 2 ) in the X direction. That is, the approximate function (X) is generated without considering the spatial continuity of the optical signal.
  • the approximation target is the fine-line-containing real-world region 2301 (Fig. 124).
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 12 1).
  • the direction of the stationarity of the data represented by the gradient G f corresponding to G F and the angle F ) formed by the X direction can be output.
  • the data continuity information output from the data continuity detecting unit 101 is not used at all.
  • the direction of continuity in the spatial direction of the fine-line-containing real world area 2301 is substantially the direction of angle 0.
  • the first method assumes that the direction of spatial continuity of the fine-line containing real world region 2301 is in the Y direction (ie, assuming that the angle 0 is 90 degrees). This is a method of calculating the feature quantity ⁇ of the approximation function (X).
  • the approximation function (X) becomes a function whose waveform becomes dull and the detail is reduced from the original pixel value.
  • the approximation function (X) generated by the first method has a waveform that is significantly different from the actual X-section waveform F (x).
  • the present applicant has invented a second method of calculating the feature amount ⁇ (using the angle 0) by further considering the stationarity in the spatial direction with respect to the first method.
  • the second method is a method of calculating the feature Wi of the approximation function f 2 (x), assuming that the direction of the continuity of the fine-line-containing real world region 2301 is substantially the direction of the angle 0.
  • the gradient G f representing the stationarity of the data corresponding to the stationarity in the spatial direction is expressed by the following equation (42).
  • Equation (42) dx represents a small movement amount in the X direction as shown in FIG. 129, and dy represents It represents the small amount of movement in the Y direction with respect to dx.
  • the shift amount C x (y) is defined as the following equation (43)
  • the equation corresponding to the equation (40) used in the first method in the second method is The following equation (44) is obtained.
  • equation (40) used in the first method shows that the position X in the X direction of the pixel center position (x, y) is the position of the pixel located at the same position.
  • the pixel values P (x, y) represent the same value.
  • equation (40) indicates that pixels having the same pixel value continue in the Y direction (there is a continuity in the Y direction).
  • the equation (44) used in the second method shows that the pixel value P (x, y) of the pixel whose center position is, y) is the target pixel (the center position is the origin. It does not match the pixel value ( ⁇ f 2 (x)) of the pixel located X away from the (0, 0) pixel in the X direction, and further shifts in the X direction from that pixel C x
  • Expression (44) indicates that pixels having the same pixel value continue in the angle ⁇ direction corresponding to the shift amount C x (y) (there is a continuity in the substantially angle ⁇ direction). .
  • the shift amount C x (y) becomes the stationarity in the spatial direction (in this case, the stationarity represented by the slope G F in FIG. 12 (strictly speaking, the data represented by the slope G f (44) The correction amount considering the stationarity))), and the expression (44) is obtained by correcting the expression (40) by the shift amount C x (y).
  • ⁇ ( ⁇ , -2) f 2 (1-C x (-2)) + e 3

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明は、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようにする。非定常成分抽出部201は、入力画像の複数の画素の画素値の不連続部を検出する。頂点検出部202は、不連続部から画素値の変化の頂点を検出する。単調増減検出部203は、頂点から単調に画素値が増加または減少している単調増減領域を検出する。連続性検出部204は、単調増減領域の中の、他の単調増減領域が画面上の隣接する位置に存在する単調増減領域を、データの定常性を有する定常領域として検出する。データ定常性方向検出部301は、定常領域の連続性の方向を検出する。実世界推定部は、定常領域および定常領域の連続性の方向に基づいて、現実世界の光信号の定常性を推定することにより現実世界の光信号を推定する。本発明は、高解像度の画像を生成する画像処理装置に適用できる。

Description

明細書
画像処理装置および方法、 並びにプログラム 技術分野
本発明は、 画像処理装置および方法、 並びにプログラムに関し、 特に、 データ が取得された現実世界を考慮した画像処理装置および方法、 並びにプログラムに 関する。 背景技術
実世界 (現実世界) における事象をセンサで検出し、 センサが出力するサンプ リングデータを処理する技術が広く利用されている。 例えば、 実世界をイメージ センサで撮像し、 画像データであるサンプリングデータを処理する画像処理技術 が広く利用されている。
また、 特開 2 0 0 1— 2 5 0 1 1 9号公報においては、 第 1の次元を有する現 実世界の信号である第 1の信号をセンサによって検出することにより得た、 第 1 の次元に比較し次元が少ない第 2の次元を有し、 第 1の信号に対する歪を含む第 2の信号を取得し、 第 2の信号に基づく信号処理を行うことにより、 第 2の信号 に比して歪の軽減された第 3の信号を生成することが開示されている。
しかしながら、 第 1の次元を有する現実世界の信号である第 1の信号が射影さ れることにより取得される、 現実世界の信号の定常性の一部が欠落した第 1の次 元よりも少ない第 2の次元の第 2の信号には、 欠落した現実世界の信号の定常性 に対応するデータの定常性を有していることを考慮して第 2の信号から第 1の信 号を推定する信号処理はこれまで考えられていなかった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 データが取得された現 実世界を考慮し、 現実世界の事象に対して、 より正確で、 より精度の高い処理結 果を得ることができるようにすることを目的とする。
本発明の画像処理装置は、 それぞれ時空間積分効果を有する複数の検出素子に 現実世界の光信号が射影されることにより取得された、 現実世界の光信号の定常 性の一部が欠落した画像データ内の複数の画素の画素値の不連続部を検出する不 連続部検出手段と、 不連続部から画素値の変化の頂点を検出する頂点検出手段と、 頂点から単調に画素値が増加または減少している単調増減領域を検出する単調増 減領域検出手段と、 単調増減領域検出手段により検出された単調増減領域の中の、 他の単調増減領域が画像データ上の隣接する位置に存在する単調増減領域を、 画 像データの定常性を有する定常領域として検出する連続性検出手段と、 定常領域 の連続性の方向を検出する方向検出手段と、 連続性検出手段により検出された定 常領域および方向検出手段により検出された定常領域の連続性の方向に基づいて、 現実世界の光信号の定常性を推定することにより現実世界の光信号を推定する実 世界推定手段とを含むことを特徴とする。
方向検出手段は、 連続性検出手段により検出された単調増減領域の中の、 第 1 の単調増減領域に配される複数の第 1の画素の画素値の変化と、 第 1の単調増減 領域に隣接する第 2の単調増減領域に配される、 複数の第 1の画素に隣接する複 数の第 2の画素の画素値の変化とに基づいて、 定常領域の連続性の方向を検出す るようにすることができる。
方向検出手段は、 第 1の単調増減領域に配される複数の第 1の画素の画素値の 増分と、 第 2の単調増減領域に配される複数の第 2の画素の画素値の減分とがー 致するとき、 第 1の単調増減領域と第 2の単調増減領域とから定まる方向を、 定 常領域の連続性の方向として検出するようにすることができる。
不連続部検出手段は、 画像データの複数の画素の画素値に対応する回帰平面を 求めて、 回帰平面との距離が閾値以上である画素値を有する画素からなる領域を 不連続部として検出し、 不連続部の画素の画素値から、 回帰平面で近似される値 を減算した差分値を演算し、 頂点検出手段は、 差分値に基づいて、 頂点を検出し、 単調増減領域検出手段は、 差分値に基づいて、 単調増減領域を検出し、 方向検出 手段は、 差分値に基づいて、 定常領域の連続性の方向を検出するようにすること ができる。
本発明の画像処理方法は、 それぞれ時空間積分効果を有する複数の検出素子に 現実世界の光信号が射影されることにより取得された、 現実世界の光信号の定常 性の一部が欠落した画像データ内の複数の画素の画素値の不連続部を検出する不 連続部検出ステップと、 不連続部から画素値の変化の頂点を検出する頂点検出ス テツプと、 頂点から単調に画素値が増加または減少している単調増減領域を検出 する単調増減領域検出ステップと、 単調増減領域検出ステップにおいて検出され た単調増減領域の中の、 他の単調増減領域が画像データ上の隣接する位置に存在 する単調増減領域を、 画像データの定常性を有する定常領域として検出する連続 性検出ステップと、 定常領域の連続性の方向を検出する方向検出ステップと、 連 続性検出ステップにおいて検出された定常領域おょぴ方向検出ステップにおいて 検出された定常領域の連続性の方向に基づいて、 現実世界の光信号の定常性を推 定することにより現実世界の光信号を推定する実世界推定ステップとを含むこと を特徴とする。
本発明のプログラムは、 コンピュータに、 それぞれ時空間積分効果を有する複 数の検出素子に現実世界の光信号が射影されることにより取得された、 現実世界 の光信号の定常性の一部が欠落した画像データ内の複数の画素の画素値の不連続 部を検出する不連続部検出ステップと、 不連続部から画素値の変化の頂点を検出 する頂点検出ステップと、 頂点から単調に画素値が増加または減少している単調 増減領域を検出する単調増減領域検出ステツプと、 単調増減領域検出ステップに おいて検出された単調増減領域の中の、 他の単調増減領域が画像データ上の隣接 する位置に存在する単調増減領域を、 画像データの定常性を有する定常領域とし て検出する連続性検出ステップと、 定常領域の連続性の方向を検出する方向検出 ステップと、 連続性検出ステップにおいて検出された定常領域おょぴ方向検出ス テツプにおいて検出された定常領域の連続性の方向に基づいて、 現実世界の光信 号の定常性を推定することにより現実世界の光信号を推定する実世界推定ステツ プとを実行させることを特徴とする。
本発明の画像処理装置および方法、 並びにプログラムにおいては、 それぞれ時 空間積分効果を有する複数の検出素子に現実世界の光信号が射影されることによ り取得された、 現実世界の光信号の定常性の一部が欠落した画像データ内の複数 の画素の画素値の不連続部が検出され、 不連続部から画素値の変化の頂点が検出 され、 頂点から単調に画素値が増加または減少している単調増減領域が検出され、 検出された単調増減領域の中の、 他の単調増減領域が画像データ上の隣接する位 置に存在する単調増減領域が、 画像データの定常性を有する定常領域として検出 され、 定常領域の連続性の方向が検出され、 検出された定常領域および検出され た定常領域の連続性の方向に基づいて、 現実世界の光信号の定常性を推定するこ とにより現実世界の光信号が推定される。
画像処理装置は、 独立した装置であっても良いし、 画像処理を行うプロックで めってあ良い。 図面の簡単な説明
図 1は、 本発明の原理を示す図である。
図 2は、 信号処理装置の構成の例を示すプロック図である。
図 3は、 信号処理装置を示すプロック図である。
図 4は、 従来の信号処理装置の処理の原理を説明する図である。
図 5は、 信号処理装置の処理の原理を説明する図である。
図 6は、 本発明の原理をより具体的に説明する図である。
図 7は、 本発明の原理をより具体的に説明する図である。
図 8は、 イメージセンサ上の画素の配置の例を説明する図である。
図 9は、 CCDである検出素子の動作を説明する図である。
図 1 0は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値と の関係を説明する図である。
図 1 1は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。
図 1 2は、 実世界の線状の物の画像の例を示す図である。
図 1 3は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 4は、 画像データの模式図である。
図 1 5は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界 1の画像の例を示す図である。
図 1 6は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 7は、 画像データの模式図である。
図 1 8は、 本発明の原理を説明する図である。
図 1 9は、 本発明の原理を説明する図である。
図 2 0は、 高解像度データの生成の例を説明する図である。
図 2 1は、 モデルによる近似を説明する図である。
図 2 2は、 M個のデータによるモデルの推定を説明する図である。
図 2 3は、 実世界の信号とデータとの関係を説明する図である。
図 2 4は、 式を立てるときに注目するデータの例を示す図である。
図 2 5は、 式を立てる場合における、 実世界における 2つの物体に対する信号 および混合領域に属する値を説明する図である。
図 2 6は、 式 (1 8 ) 、 式 (1 9 ) 、 および式 ( 2 2 ) で表される定常性を説 明する図である。
図 2 7は、 データから抽出される、 M個のデータの例を示す図である。
図 2 8は、 データである画素値が取得された領域を説明する図である。
図 2 9は、 画素の時空間方向の位置の近似を説明する図である。
図 3 0は、 データにおける、 時間方向および 2次元の空間方向の実世界の信号 の積分を説明する図である。
図 3 1は、 空間方向により解像度の高い高解像度データを生成するときの、 積 分の領域を説明する図である。
図 3 2は、 時間方向により解像度の高い高解像度データを生成するときの、 積 分の領域を説明する図である。
図 3 3は、 動きボケを除去した高解像度データを生成するときの、 積分の領域 を説明する図である。
図 3 4は、 時間空間方向により解像度の高い高解像度データを生成するときの、 積分の領域を説明する図である。
図 3 5は、 入力画像の元の画像を示す図である。
図 3 6は、 入力画像の例を示す図である。
図 3 7は、 従来のクラス分類適応処理を適用して得られた画像を示す図である。 図 3 8は、 細線の領域を検出した結果を示す図である。
図 3 9は、 信号処理装置から出力された出力画像の例を示す図である。
図 4 0は、 信号処理装置による、 信号の処理を説明するフローチャートである。 図 4 1は、 データ定常性検出部の構成を示すプロック図である。
図 4 2は、 背景の前に細線がある実世界の画像を示す図である。
図 4 3は、 平面による背景の近似を説明する図である。
図 4 4は、 細線の画像が射影された画像データの断面形状を示す図である。 図 4 5は、 細線の画像が射影された画像データの断面形状を示す図である。 図 4 6は、 細線の画像が射影された画像データの断面形状を示す図である。 図 4 7は、 頂点の検出および単調増減領域の検出の処理を説明する図である。 図 4 8は、 頂点の画素値が閾値を超え、 隣接する画素の画素値が閾値以下であ る細線領域を検出する処理を説明する図である。
図 4 9は、 図 4 8の点線 AA'で示す方向に並ぶ画素の画素値を表す図である。 図 5 0は、 単調増減領域の連続性の検出の処理を説明する図である。
図 5 1は、 平面での近似により定常成分を抽出した画像の例を示す図である。 図 5 2は、 単調減少している領域を検出した結果を示す図である。
図 5 3は、 連続性が検出された領域を示す図である。
図 5 4は、 連続性が検出された領域の画素値を示す図である。
図 5 5は、 細線の画像が射影された領域の検出の他の処理の例を示す図である。 図 5 6は、 定常性検出の処理を説明するフローチャートである。
図 5 7は、 時間方向のデータの定常性を検出の処理を説明する図である。 図 5 8は、 非定常成分抽出部の構成を示すブロック図である。
図 5 9は、 棄却される回数を説明する図である。
図 6 0は、 入力画像の例を示す図である。
図 6 1は、 棄却をしないで平面で近似した結果得られる標準誤差を画素値とし た画像を示す図である。
図 6 2は、 棄却をして平面で近似した結果得られる標準誤差を画素値とした画 像を示す図である。
図 6 3は、 棄却された回数を画素値とした画像を示す図である。
図 6 4は、 平面の空間方向 Xの傾きを画素値とした画像を示す図である。 図 6 5は、 平面の空間方向 Yの傾きを画素値とした画像を示す図である。 図 6 6は、 平面で示される近似値からなる画像を示す図である。 '
図 6 7は、 平面で示される近似値と画素値との差分からなる画像を示す図であ る。
図 6 8は、 非定常成分の抽出の処理を説明するフローチヤ一トである。
図 6 9は、 定常成分の抽出の処理を説明するフローチャートである。
図 7 0は、 定常成分の抽出の他の処理を説明するフローチャートである。 図 7 1は、 定常成分の抽出のさらに他の処理を説明するフローチヤ一トである 図 7 2は、 データ定常性検出部の他の構成を示すブロック図である。
図 7 3は、 データ定常性方向検出部の構成を示すブロック図である。
図 7 4は、 モアレが含まれている入力画像の例を示す図である。
図 7 5は、 モアレが含まれている入力画像の例を示す図である。
図 7 6は、 細線の画像が射影されたデータの画素を示す図である。
図 7 7は、 細線の画像が射影されたデータにおける、 3列の画素の画素値を示 す図である。
図 7 8は、 細線の画像が射影されたデータの画素を示す図である。 図 7 9は、 細線の画像が射影されたデータにおける、 3列の画素の画素値を示 す図である。
図 8 0は、 細線の画像が射影されたデータの画素を示す図である。
図 8 1は、 細線の画像が射影されたデータにおける、 3列の画素の画素値を示 す図である。
図 8 2は、 入力された画像の例を示す図である。
図 8 3は、 誤った方向を採用して画像を処理した場合の、 処理の結果の例を示 す図である。
図 8 4は、 正しい定常性の方向を検出した場合の、 処理の結果の例を示す図で ある。
図 8 5は、 データの定常性の検出の処理を説明するフローチヤ一トである。 図 8 6は、 データの定常性の方向の検出の処理を説明するフローチャートであ る。
図 8 7は、 データ定常性検出部の他の構成を示すブロック図である。
図 8 8は、 実世界推定部の構成を示すブロック図である。
図 8 9は、 実世界の信号における、 細線の幅を検出する処理を説明する図であ る。
図 9 0は、 実世界の信号における、 細線の幅を検出する処理を説明する図であ る。
図 9 1は、 実世界の信号における、 細線の信号のレベルを推定する処理を説明 する図である。
図 9 2は、 実世界の推定の処理を説明するフローチヤ一トである。
図 9 3は、 実世界推定部の他の構成を示すプロック図である。
図 9 4は、 境界検出部の構成を示すプロック図である。
図 9 5は、 分配比の算出の処理を説明する図である。
図 9 6は、 分配比の算出の処理を説明する図である。
図 9 7は、 分配比の算出の処理を説明する図である。 図 9 8は、 単調増減領域の境界を示す回帰直線の算出の処理を説明する図であ る。
図 9 9は、 単調増減領域の境界を示す回帰直線の算出の処理を説明する図であ 。
図 1 0 0は、 実世界の推定の処理を説明するフローチャートである。
図 1 0 1は、 境界検出の処理を説明するフローチャートである。
図 1 0 2は、 空間方向の微分値を実世界推定情報として推定する実世界推定部 の構成を示すブ口ック図である。
図 1 0 3は、 図 1 0 2の実世界推定部による実世界推定の処理を説明するフロ 一チャートである。
図 1 0 4は、 参照画素を説明する図である。
図 1 0 5は、 空間方向の微分値を求める位置を説明する図である。
図 1 0 6は、 空間方向の微分値とシフト量の関係を説明する図である。
図 1 0 7は、 空間方向の傾きを実世界推定情報として推定する実世界推定部の 構成を示すブロック図である。
図 1 0 8は、 図 1 0 7の実世界推定部による実世界推定の処理を説明するフロ 一チヤ一トである。
図 1 0 9は、 空間方向の傾きを求める処理を説明する図である。
図 1 1 0は、 空間方向の傾きを求める処理を説明する図である。
図 1 1 1は、 フレーム方向の微分値を実世界推定情報として推定する実世界推 定部の構成を示すプロック図である。
図 1 1 2は、 図 1 1 1の実世界推定部による実世界推定の処理を説明するフロ 一チヤ一トである。
図 1 1 3は、 参照画素を説明する図である。
図 1 1 4は、 フレーム方向の微分値を求める位置を説明する図である。
図 1 1 5は、 フレーム方向の微分値とシフ ト量の関係を説明する図である。 図 1 1 6は、 フレーム方向の傾きを実世界推定情報として推定する実世界推定 部の構成を示すプロック図である。
図 1 1 7は、 図 1 1 6の実世界推定部による実世界推定の処理を説明するフロ —チヤ一トである。
図 1 1 8は、 フレーム方向の傾きを求める処理を説明する図である。
図 1 1 9は、 フレーム方向の傾きを求める処理を説明する図である。
図 1 2 0は、 図 3の実世界推定部の実施の形態の一例である、 関数近似手法の 原理を説明する図である。
図 1 2 1は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 1 2 2は、 図 1 2 1のセンサの積分効果の具体的な例を説明する図である。 図 1 2 3は、 図 1 2 1のセンサの積分効果の具体的な他の例を説明する図であ る。
図 1 2 4は、 図 1 2 2で示される細線含有実世界領域を表した図である。 図 1 2 5は、 図 3の実世界推定部の実施の形態の 1例の原理を、 図 1 2 0の例 と対比させて説明する図である。
図 1 2 6は、 図 1 2 2で示される細線含有データ領域を表した図である。 図 1 2 7は、 図 1 2 6の細線含有データ領域に含まれる各画素値のそれぞれを グラフ化した図である。
図 1 2 8は、 図 1 2 7の細線含有データ領域に含まれる各画素値を近似した近 似関数をグラフ化した図である。
図 1 2 9は、 図 1 2 2で示される細線含有実世界領域が有する空間方向の定常 性を説明する図である。
図 1 3 0は、 図 1 2 6の細線含有データ領域に含まれる各画素値のそれぞれを グラフ化した図である。
図 1 3 1は、 図 1 3 0で示される入力画素値のそれぞれを、 所定のシフト量だ けシフトさせた状態を説明する図である。
図 1 3 2は、 空間方向の定常性を考慮して、 図 1 2 7の細線含有データ領域に 含まれる各画素値を近似した近似関数をグラフ化した図である。 図 1 3 3は、 空間混合領域を説明する図である。
図1 3 4は、 空間混合領域における、 実世界の信号を近似した近似関数を説明 する図である。
図 1 3 5は、 センサの積分特性と空間方向の定常性の両方を考慮して、 図 1 2 7の細線含有データ領域に対応する実世界の信号を近似した近似関数をグラフ化 した図である。
図 1 3 6は、 図 1 2 0で示される原理を有する関数近似手法のうちの、 1次多 項式近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 1 3 7は、 図 1 3 6の構成の実世界推定部が実行する実世界の推定処理を説 明するフローチャートである。
図 1 3 8は、 タップ範囲を説明する図である。
図 1 3 9は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 1 4 0は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 1 4 1は、 断面方向距離を説明する図である。
図 1 4 2は、 図 1 2 0で示される原理を有する関数近似手法のうちの、 2次多 項式近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 1 4 3は、 図 1 4 2の構成の実世界推定部が実行する実世界の推定処理を説 明するフローチヤ一トである。
図 1 4 4は、 タップ範囲を説明する図である。
図 1 4 5は、 時空間方向の定常性の方向を説明する図である。
図 1 4 6は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 1 4 7は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 1 4 8は、 時空間方向の定常性を有する実世界の信号を説明する図である。 図 1 4 9は、 図 1 2 0で示される原理を有する関数近似手法のうちの、 3次元 関数近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 1 5 0は、 図 1 4 9の構成の実世界推定部が実行する実世界の推定処理を説 明するフローチヤ一トである。 図 1 5 1は、 図 3の画像生成部の実施の形態の一例である、 再積分手法の原理 を説明する図である。
図 1 5 2は、 入力画素と、 その入力画素に対応する、 実世界の信号を近似する 近似関数の例を説明する図である。
図 1 5 3は、 図 1 5 2で示される近似関数から、 図 1 5 2で示される 1つの入 力画素における、 高解像度の 4つの画素を創造する例を説明する図である。 図 1 5 4は、 図 1 5 1で示される原理を有する再積分手法のうちの、 1次元再 積分手法を利用する画像生成部の構成例を説明するプロック図である。
図 1 5 5は、 図 1 5 4の構成の画像生成部が実行する画像の生成処理を説明す るフローチャートである。
図 1 5 6は、 入力画像の元の画像の例を表す図である。
図1 5 7は、 図 1 5 6の画像に対応する画像データの例を表す図である。 図 1 5 8は、 入力画像の例を表す図である。
図 1 5 9は、 図 1 5 8の画像に対応する画像データの例を表す図である。 図 1 6 0は、 入力画像に対して従来のクラス分類適応処理を施して得られる画 像の例を表す図である。
図 1 6 1は、 図 1 6 0の画像に対応する画像データの例を表す図である。 図 1 6 2は、 入力画像に対して本発明の 1次元再積分手法の処理を施して得ら れる画像の例を表す図である。
図 1 6 3は、 図 1 6 2の画像に対応する画像データの例を表す図である。 図1 6 4は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 1 6 5は、 図 1 5 1で示される原理を有する再積分手法のうちの、 2次元再 積分手法を利用する画像生成部の構成例を説明するブロック図である。
図 1 6 6は、 断面方向距離を説明する図である。
図 1 6 7は、 図 1 6 5の構成の画像生成部が実行する画像の生成処理を説明す るフローチヤ一トである。
図 1 6 8は、 入力画素の 1例を説明する図である。 図 1 69は、 2次元再積分手法により、 図 168で示される 1つの入力画素に おける、 高解像度の 4つの画素を創造する例を説明する図である。
H11 70は、 時空間方向の定常性の方向を説明する図である。
図 1 71は、 図 1 51で示される原理を有する再積分手法のうちの、 3次元再 積分手法を利用する画像生成部の構成例を説明するプロック図である。
図 1 72は、 図 1 71の構成の画像生成部が実行する画像の生成処理を説明す るフローチヤ一トである。
図 1 73は、 本発明を適用した画像生成部のその他の構成を示すプロック図で ある。
図 1 74は、 図 1 73の画像生成部による画像の生成の処理を説明するフロー チヤ一トである。
図1 75は、 入力画素から 4倍密度の画素を生成する処理を説明する図である。 図1 76は、 画素値を示す近似関数とシフト量との関係を示す図である。
図 177は、 本発明を適用した画像生成部のその他の構成を示すプロック図で ある。
図 1 78は、 図 1 77の画像生成部による画像の生成の処理を説明するフロー チヤ一トである。
図179は、 入力画素から 4倍密度の画素を生成する処理を説明する図である。 図 180は、 画素値を示す近似関数とシフト量との関係を示す図である。
図 181は、 図 3の画像生成部の実施の形態の一例である、 クラス分類適応処 理捕正手法の 1次元再積分手法を利用する画像生成部の構成例を説明するプロッ ク図である。
図 182は、 図 181の画像生成部のクラス分類適応処理部の構成例を説明す るプロック図である。
図 183は、 図 18 1のクラス分類適応処理部と、 クラス分類適応処理捕正部 が使用する係数を学習により決定する学習装置の構成例を示すプロック図である。 図 184は、 図 1 83のクラス分類適応処理用学習部の詳細な構成例を説明す るブロック図である。 '
図 1 85は、 図 1 82のクラス分類適応処理部の処理結果の例を示す図である。 図 1 86は、 図 1 8 5の予測画像と HD画像の差分画像を示す図である。
図 1 87は、 図 1 86で示される領域に含まれる X方向に連続した 6個の HD 画素のうちの、 図中左から 4個の HD画素に対応する、 図 1 8 5の HD画像の具 体的な画素値、 SD画像の具体的な画素値、 および、 実際の波形 (実世界の信 号) のそれぞれをプロットしたものを示す図である。
図 1 88は、 図 1 8 5の予測画像と HD画像の差分画像を示す図である。
図 1 89は、 図 1 88で示される領域に含まれる X方向に連続した 6個の HD 画素のうちの、 図中左から 4個の HD画素に対応する、 図 1 8 5の HD画像の具 体的な画素値、 SD画像の具体的な画素値、 および、 実際の波形 (実世界の信 号) のそれぞれをプロットしたものを示す図である。
図 1 90は、 図 1 87乃至図 1 89に示される内容に基づいて得られた知見を 説明する図である。
図 1 9 1は、 図 1 8 1の画像生成部のクラス分類適応処理補正部の構成例を説 明するプロック図である。
図 1 92は、 図 1 8 3のクラス分類適応処理補正用学習部の詳細な構成例を説 明するブロック図である。
図 1 93は、 画素内傾斜を説明する図である。
図 1 94は、 図 1 8 5の SD画像と、 その SD画像の各画素の画素内傾斜を画 素値とする特徴量画像を示す図である。 · 図 1 95は、 画素内傾斜の算出方法を説明する図である。
図 1 96は、 画素内傾斜の算出方法を説明する図である。
図 1 97は、 図 1 8 1の構成の画像生成部が実行する画像の生成処理を説明す るフローチャートである。
図 1 98は、 図 1 9 7の画像の生成処理の入力画像クラス分類適応処理の詳細 を説明するフローチャートである。 図 1 9 9は、 図 1 9 7の画像の生成処理のクラス分類適応処理の補正処理の詳 細を説明するフローチャートである。
図 2 00は、 クラスタップの配置例を説明する図である。
図 2 0 1は、 クラス分類の一例を説明する図である。
図 2 0 2は、 予測タップ配置例を説明する図である。
図 2 0 3は、 図 1 8 3の学習装置の学習処理を説明するフローチヤ一トである。 図 2 04は、 図 2 0 3の学習処理のクラス分類適応処理用学習処理の詳細を説 明するフローチヤ一トである。
図 2 0 5は、 図 2 0 3の学習処理のクラス分類適応処理補正用学習処理の詳細 を説明するフローチャートである。
図 2 0 6は、 図 1 8 5の予測画像と、 その予測画像に捕正画像を加算した画像 (図 1 8 1の画像生成部により生成される画像) を表した図である。
図 2 0 7は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 1の構成例を説明するプロック図である。
図 2 0 8は、 図 2 0 7の信号処理装置の、 クラス分類適応処理を実行する画像 生成部の構成例を説明するプロック図である。
図 2 0 9は、 図 20 8の画像生成部に対する学習装置の構成例を説明するプロ ック図である。
図 2 1 0は、 図 2 0 7の構成の信号処理装置が実行する信号の処理を説明する フローチャートである。
図 2 1 1は、 図 2 1 0の信号の処理のクラス分類適応処理の実行処理の詳細を 説明するフローチャートである。
図 2 1 2は、 図 20 9の学習装置の学習処理を説明するフローチヤ一トである。 図 2 1 3は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 2の構成例を説明するプロック図である。
図 2 1 4は、 図 2 1 1の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。 図 2 1 5は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 3の構成例を説明するプロック図である。
図 2 1 6は、 図 2 1 3の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。
図 2 1 7は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 4の構成例を説明するブロック図である。
図 2 1 8は、 図 2 1 5の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。
図 2 1 9は、 図 1の信号処理装置の実施の形態の他の例である、 併用手法を利 用する信号処理装置の第 5の構成例を説明するプロック図である。
図 2 2 0は、 図 2 1 7の構成の信号処理装置が実行する信号の処理を説明する フローチヤ一トである。
図 2 2 1は、 データ定常性検出部の他の実施の形態の構成を示すブロック図で める。
図 2 2 2は、 図 2 2 1のデータ定常性検出部によるデータの定常性の検出処理 を説明するフローチャートである。 発明を実施するための最良の形態
図 1は、 本発明の原理を表している。 同図で示されるように、 空間、 時間、 お よび質量などの次元を有する実世界 1の事象 (現象) は、 センサ 2により取得さ れ、 データ化される。 実世界 1の事象とは、 光 (画像) 、 音声、 圧力、 温度、 質 量、 濃度、 明るさ/暗さ、 またはにおいなどをいう。 実世界 1の事象は、 時空間 方向に分布している。 例えば、 実世界 1の画像は、 実世界 1の光の強度の時空間 方向の分布である。
センサ 2に注目すると、 空間、 時間、 および質量の次元を有する実世界 1の事 象のうち、 センサ 2が取得可能な、 実世界 1の事象が、 センサ 2により、 データ 3に変換される。 センサ 2によって、 実世界 1の事象を示す情報が取得されると も言える。
すなわち、 センサ 2は、 実世界 1の事象を示す情報を、 データ 3に変換する。 空間、 時間、 および質量などの次元を有する実世界 1の事象 (現象) を示す情報 である信号がセンサ 2により取得され、 データ化されるとも言える。
以下、 実世界 1における、 画像、 音声、 圧力、 温度、 質量、 濃度、 明るさ/暗 さ、 またはにおいなどの事象の分布を、 実世界 1の事象を示す情報である信号と も称する。 また、 実世界 1の事象を示す情報である信号を、 単に、 実世界 1の信 号とも称する。 本明細書において、 信号は、 現象おょぴ事象を含み、 送信側に意 思がないものも含むものとする。
センサ 2から出力されるデータ 3 (検出信号) は、 実世界 1の事象を示す情報 を、 実世界 1に比較して、 より低い次元の時空間に射影して得られた情報である。 例えば、 動画像の画像データであるデータ 3は、 実世界 1の 3次元の空間方向お ょぴ時間方向の画像が、 2次元の空間方向、 および時間方向からなる時空間に射 影されて得られた情報である。 また、 例えば、 データ 3がデジタルデータである とき、 データ 3は、 サンプリングの単位に応じて、 丸められている。 データ 3が アナログデータであるとき、 データ 3において、 ダイナミックレンジに応じて、 情報が圧縮されているか、 またはリミッタなどにより、 情報の一部が削除されて いる。
このように、 所定の次元を有する実世界 1の事象を示す情報である信号をデー タ 3 (検出信号) に射影することにより、 実世界 1の事象を示す情報の一部が欠 落する。 すなわち、 センサ 2が出力するデータ 3において、 実世界 1の事象を示 す情報の一部が欠落している。
しかしながら、 射影により実世界 1の事象を示す情報の一部が欠落しているも のの、 データ 3は、 実世界 1の事象 (現象) を示す情報である信号を推定するた めの有意情報を含んでいる。
本発明においては、 実世界 1の情報である信号を推定するための有意情報とし て、 データ 3に含まれる定常性を有する情報を利用する。 定常性は、 新たに定義 する概念である。
ここで、 実世界 1に注目すると、 実世界 1の事象は、 所定の次元の方向に一定 の特徴を含む。 例えば、 実世界 1の物体 (有体物) において、 空間方向または時 間方向に、 形状、 模様、 若しくは色彩などが連続するか、 または形状、 模様、 若 しくは色彩などのパタ一ンが繰り返す。
従って、 実世界 1の事象を示す情報には、 所定の次元の方向に一定の特徴が含 まれることになる。
より具体的な例を挙げれば、 糸、 紐、 またはロープなどの線状の物体は、 長さ 方向の任意の位置において、 断面形状が同じであるという長さ方向、 すなわち空 間方向に一定の特徴を有する。 長さ方向の任意の位置において、 断面形状が同じ であるという空間方向に一定の特徴は、 線状の物体が長いという特徴から生じる。 従って、 線状の物体の画像は、 長さ方向の任意の位置において、 断面形状が同 じであるという長さ方向、 すなわち空間方向に一定の特徴を有している。
また、 空間方向に広がりを有する有体物である、 単色の物体は、 部位にかかわ らず、 同一の色を有するという空間方向に一定の特徴を有していると言える。 同様に、 空間方向に広がりを有する有体物である、 単色の物体の画像は、 部位 にかかわらず、 同一の色を有するという空間方向に一定の特徴を有している。 このように、 実世界 1 (現実世界) の事象は、 所定の次元の方向に一定の特徴 を有しているので、 実世界 1の信号は、 所定の次元の方向に一定の特徴を有する。 本明細書において、 このような所定の次元の方向に一定の特徴を定常性と称す る。 実世界 1 (現実世界) の信号の定常性とは、 実世界 1 (現実世界) の事象を 示す信号が有している、 所定の次元の方向に一定の特徴をいう。
実世界 1 (現実世界) には、 このような定常性が無数に存在する。
次に、 データ 3に注目すると、 データ 3は、 センサ 2により、 所定の次元を有 する実世界 1の事象を示す情報である信号が射影されたものであるので、 実世界 の信号の定常性に対応する定常性を含んでいる。 データ 3は、 実世界の信号の定 常性が射影された定常性を含んでいるとも言える。 しかしながら、 上述したように、 センサ 2が出力するデータ 3において、 実世 界 1の情報の一部が欠落しているので、 データ 3から、 実世界 1 (現実世界) の 信号に含まれる定常性の一部が欠落してしまう。
換言すれば、 データ 3は、 データの定常性として、 実世界 1 (現実世界) の信 号の定常性の中の、 一部の定常性を含む。 データの定常性とは、 データ 3が有し ている、 所定の次元の方向に一定の特徴である。
本発明においては、 実世界 1の事象を示す情報である信号を推定するための有 意情報として、 データ 3が有する、 データの定常性が利用される。
例えば、 本発明においては、 データの定常性を利用して、 データ 3を信号処理 することで、 欠落した、 実世界 1の事象を示す情報が生成される。
なお、 本発明においては、 実世界 1の事象を示す情報である信号の次元の、 長 さ (空間〉 、 時間、 および質量のうち、 空間方向または時間方向の定常性が利用 される。
図 1に戻り、 センサ 2は、 例えば、 デジタルスチルカメラ、 またはビデオカメ ラなどで構成され、 実世界 1の画像を撮像し、 得られたデータ 3である画像デー タを信号処理装置 4に出力する。 センサ 2は、 例えば、 サーモグラフィ装置、 ま たは光弾性を利用した圧力センサなどとすることができる。
信号処理装置 4は、 例えば、 パーソナルコンピュータなどで構成される。 信号処理装置 4は、 例えば、 図 2で示されるように構成される。 CPU
(Central Proces sing Uni t) 2 1は、 ROM (Read Only Memory) 2 2、 または 記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Access Memory) 2 3には、 CPU 2 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 2 1、 ROM 2 2 および RAM 2 3は、 バス 2 4により相互に接続されている。
CPU 2 1にはまた、 バス 2 4を介して入出力インタフェース 2 5が接続されて いる。 入出力インタフェース 2 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 2 6、 ディスプレイ、 スピーカなどよりなる出力部 2 7が接続さ れている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を出力部 2 7 に出力する。
入出力ィンタフェース 2 5に接続されている記憶部 2 8は、 例えばハードディ スクなどで構成され、 CPU 2 1が実行するプ口グラムゃ各種のデータを記憶する。 通信部 2 9は、 インターネット、 その他のネットワークを介して外部の装置と通 信する。 この例の場合、 通信部 2 9はセンサ 2の出力するデータ 3を取り込む取 得部として働く。
また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよい。 入出力ィンタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5 1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8に転送さ れ、 記憶される。
図 3は、 信号処理装置 4を示すブロック図である。
なお、 信号処理装置 4の各機能をハードウェアで実現するか、 ソフトウェアで 実現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェアのブ 口ック図と考えても、 ソフトウエアによる機能プロック図と考えても良い。
図 3に構成を示す信号処理装置 4においては、 データ 3の一例である画像デー タが入力され、 入力された画像データ (入力画像) からデータの定常性が検出さ れる。 次に、 検出されたデータの定常性から、 センサ 2により取得された実世界 1の信号が推定される。 そして、 推定された実世界 1の信号を基に、 画像が生成 され、 生成された画像 (出力画像) が出力される。 すなわち、 図 3は、 画像処理 装置である信号処理装置 4の構成を示す図である。
信号処理装置 4に入力された入力画像 (データ 3の一例である画像データ) は、 データ定常性検出部 1 0 1および実世界推定部 1 0 2に供給される。
データ定常性検出部 1 0 1は、 入力画像からデータの定常性を検出して、 検出 した定常性を示すデータ定常性情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。 データ定常性情報は、 例えば、 入力画像における、 データの定常 性を有する画素の領域の位置、 データの定常性を有する画素の領域の方向 (時間 方向および空間方向の角度または傾き) 、 またはデータの定常性を有する画素の 領域の長さなどを含む。 データ定常性検出部 1 0 1の構成の詳細は、 後述する。 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出部 1 0 1から供給 されたデータ定常性情報を基に、 実世界 1の信号を推定する。 すなわち、 実世界 推定部 1 0 2は、 入力画像が取得されたときセンサ 2に入射された、 実世界の信 号である画像を推定する。 実世界推定部 1 0 2は、 実世界 1の信号の推定の結果 を示す実世界推定情報を画像生成部 1 0 3に供給する。 実世界推定部 1 0 2の構 成の詳細は、 後述する。
画像生成部 1 0 3は、 実世界推定部 1 0 2から供給された、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1の信号により近似した信号を生 成して、 生成した信号を出力する。 または、 画像生成部 1 0 3は、 データ定常性 検出部 1 0 1から供給されたデータ定常性情報、 および実世界推定部 1 0 2から 供給された、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1 の信号により近似した信号を生成して、 生成した信号を出力する。
すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 実世界 1の画像によ り近似した画像を生成して、 生成した画像を出力画像として出力する。 または、 画像生成部 1 0 3は、 データ定常性情報および実世界推定情報を基に、 実世界 1 の画像により近似した画像を生成して、 生成した画像を出力画像として出力する c 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 推定された実世界 1の 画像を所望の空間方向または時間方向の範囲で積分することにより、 入力画像に 比較して、 空間方向または時間方向により高解像度の画像を生成して、 生成した 画像を出力画像として出力する。 例えば、 画像生成部 1 0 3は、 外揷補間により、 画像を生成して、 生成した画像を出力画像として出力する。
画像生成部 1 0 3の構成の詳細は、 後述する。 次に、 図 4乃至図 7を参照して、 本発明の原理を説明する。
図 4は、 従来の信号処理装置 1 2 1における処理の原理を説明する図である。 従来の信号処理装置 1 2 1は、 データ 3を処理の基準とすると共に、 データ 3を 処理の対象として、 高解像度化などの処理を実行する。 従来の信号処理装置 1 2 1においては、 実世界 1が考慮されることはなく、 データ 3が最終的な基準とな り、 データ 3に含まれている情報以上の情報を出力として得ることはできない。 また、 従来の信号処理装置 1 2 1において、 データ 3に存在する、 センサ 2に よる歪み (実世界 1の情報である信号とデータ 3との差) は全く考慮されないの で、 従来の信号処理装置 1 2 1は、 歪みを含んだままの信号を出力することにな る。 さらに、 信号処理装置 1 2 1の処理の内容によっては、 データ 3に存在する、 センサ 2による歪みがさらに増幅されて、 增幅された歪みを含むデータが出力さ れることになる。
このように、 従来の信号処理においては、 データ 3が取得された実世界 1 (の 信号) そのものが考慮されることはなかった。 換言すれば、 従来の信号処理にお いては、 データ 3に含まれている情報の枠内で実世界 1を捉えていたので、 デー タ 3に含まれている情報および歪みにより、 信号処理の限界が決定される。 なお、 本出願人は、 実世界 1を考慮した信号処理を別途提案しているが、 後述する定常 性を考慮していなかった。
これに対して、 本発明の信号処理においては、 実世界 1 (の信号) そのものを 明確に考慮して、 処理が実行される。
図 5は、 本発明に係る信号処理装置 4における処理の原理を説明する図である。 実世界 1の事象を示す情報である信号をセンサ 2が取得し、 センサ 2が、 実世 界 1の情報である信号を射影したデータ 3を出力する点では、 従来と同様である c しかしながら、 本発明においては、 センサ 2により取得された、 実世界 1の事 象を示す情報である信号が明確に考慮される。 すなわち、 データ 3が、 センサ 2 による歪み (実世界 1の情報である信号とデータ 3との差) を含むことを意識し て信号処理がなされる。 このようにすることで、 本発明の信号処理においては、 データ 3に含まれてい る情報および歪みにより処理の結果が限定されることがなく、 例えば、 従来に比 較して、 実世界 1の事象に対して、 より正確で、 より精度の高い処理結果を得る ことができるようになる。 すなわち、 本発明によれば、 センサ 2に入力された、 実世界 1の事象を示す情報である信号に対して、 より正確で、 より精度の高い処 理結果を得ることができるようになる。
図 6および図 7は、 本発明の原理をより具体的に説明する図である。
図 6で示されるように、 例えば、 画像である、 実世界 1の信号が、 レンズ、 ま たは光学 LPF (Low Pas s Fi lter) などでなる光学系 1 4 1により、 センサ 2の 一例である CCD (Charge Coupl ed Device) の受光面に結像される。 センサ 2の 一例である CCDは、 積分特性を有しているので、 CCDから出力されるデータ 3に は、 実世界 1の画像との差が生じることになる。 センサ 2の積分特性の詳細につ いては、 後述する。
本発明の信号処理においては、 CCDにより取得された実世界 1の画像と、 CCD により撮像され、 出力されたデータ 3との関係が明確に考慮される。 すなわち、 データ 3と、 センサ 2で取得された実世界の情報である信号との関係が明確に考 慮される。
より具体的には、 図 7で示されるように、 信号処理装置 4は、 モデル 1 6 1を 用いて、 実世界 1を近似 (記述) する。 モデル 1 6 1は、 例えば、 N個の変数で 表現される。 より正確には、 モデル 1 6 1は、 実世界 1の信号を近似 (記述) す る。
モデル 1 6 1を予測するために、 信号処理装置 4は、 データ 3から、 M個のデ ータ 1 6 2を抽出する。 データ 3から、 M個のデータ 1 6 2を抽出するとき、 信 号処理装置 4は、 データ 3に含まれるデータの定常性を利用する。 換言すれば、 信号処理装置 4は、 データ 3に含まれるデータの定常性を基に、 モデル 1 6 1を 予測するためのデータ 1 6 2を抽出する。 結果的に、 モデル 1 6 1は、 データの 定常性に拘束されることになる。 すなわち、 モデル 1 6 1は、 センサ 2で取得されたとき、 データ 3においてデ ータの定常性を生じさせる、 定常性 (所定の次元の方向に一定の特徴) を有する 実世界 1の事象 (を示す情報 (信号) ) を近似する。
ここで、 データ 1 6 2の数 Mが、 モデルの変数の数 N以上であれば、 M個のデ ータ 1 6 2から、 N個の変数で表現されるモデル 1 6 1を予測することができる。 このように、 実世界 1 (の信号) を近似 (記述) するモデル 1 6 1を予測する ことにより、 信号処理装置 4は、 実世界 1の情報である信号を考慮することがで さる。
次に、 センサ 2の積分効果について説明する。
画像を撮像するセンサ 2である、 CCDまたは CMOS (Complementary Metal- Oxi de Semiconductor) センサなどのイメージセンサは、 現実世界を撮像すると き、 現実世界の情報である信号を 2次元のデータに投影する。 イメージセンサの 各画素は、 いわゆる受光面 (受光領域) として、 それぞれ所定の面積を有する。 所定の面積を有する受光面に入射した光は、 画素毎に、 空間方向および時間方向 に積分され、 各画素に対して 1つの画素値に変換される。
図 8乃至図 1 1を参照して、 画像の空間的時間的な積分について説明する。 イメージセンサは、 現実世界の対象物 (オブジェク ト) を撮像し、 撮像の結果 得られた画像データを 1フレーム単位で出力する。 すなわち、 イメージセンサは、 実世界 1の対象物で反射された光である、 実世界 1の信号を取得し、 データ 3を 出力する。
例えば、 イメージセンサは、 1秒間に 3 0フレームからなる画像データを出力 する。 この場合、 イメージセンサの露光時間は、 1 / 3 0秒とすることができる。 露光時間は、 イメージセンサが入射された光の電荷への変換を開始してから、 入 射された光の電荷への変換を終了するまでの期間である。 以下、 露光時間をシャ ッタ時間とも称する。
図 8は、 イメージセンサ上の画素の配置の例を説明する図である。 図 8中にお いて、 A乃至 Iは、 個々の画素を示す。 画素は、 画像データにより表示される画 像に対応する平面上に配置されている。 1つの画素に対応する 1つの検出素子は、 ィメージセンサ上に配置されている。 ィメージセンサが実世界 1の画像を撮像す るとき、 1つの検出素子は、 画像データを構成する 1つの画素に対応する 1つの 画素値を出力する。 例えば、 検出素子の空間方向 Xの位置 (X座標) は、 画像デ ータにより表示される画像上の横方向の位置に対応し、 検出素子の空間方向 Yの 位置 (Y座標) は、 画像データにより表示される画像上の縦方向の位置に対応す る。
実世界 1の光の強度の分布は、 3次元の空間方向、 および時間方向に広がりを 有するが、 イメージセンサは、 2次元の空間方向、 および時間方向で、 実世界 1 の光を取得し、 2次元の空間方向、 および時間方向の光の強度の分布を表現する データ 3を生成する。
図 9で示されるように、 例えば、 CCDである検出素子は、 シャツタ時間に対応 する期間、 受光面 (受光領域) (検出領域) に入力された光を電荷に変換して、 変換された電荷を蓄積する。 光は、 3次元の空間上の位置、 および時刻により、 強度が決定される実世界 1の情報 (信号) である。 実世界 1の光の強度の分布は、 3次元の空間上の位置 x, y、 および z、 並びに時刻 tを変数とする関数
F (x, y,z,t)で表すことができる。
CCDである検出素子に蓄積される電荷の量は、 2次元の空間上の広がりを有す る受光面の全体に入射された光の強さと、 光が入射されている時間にほぼ比例す る。 検出素子は、 シャツタ時間に対応する期間において、 受光面の全体に入射さ れた光から変換された電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対応する期間、 2次元の空間上の広がりを有する受 光面の全体に入射される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 空間 (受光面) および時間 (シャツタ時間) に対して、 積分 効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値はさらにデジタルデータなどの画素値に変換されて、 データ 3として出力され る。 従って、 イメージセンサから出力される個々の画素値は、 実世界 1の情報
(信号) の時間的空間的に広がりを有するある部分を、 シャツタ時間の時間方向 および検出素子の受光面の空間方向について積分した結果である、 1次元の空間 に射影した値を有する。
すなわち、 1つの画素の画素値は、 F (x, y, t)の積分で表される。 F (x,y,t)は、 検出素子の受光面における、 光の強度の分布を表す関数である。 例えば、 画素値 Pは、 式 (1 ) で表される。
P二 F (x, y, t) dxdydt
Figure imgf000028_0001
… ( 1 )
式 (1 ) において、 は、 検出素子の受光面の左側の境界の空間座標 (X座 標) である。 x2は、 検出素子の受光面の右側の境界の空間座標 (X座標) であ る。 式 (1 ) において、 yi は、 検出素子の受光面の上側の境界の空間座標 (Y 座標) である。 y2は、 検出素子の受光面の下側の境界の空間座標 (Y座標) で ある。 また、 は、 入射された光の電荷への変換を開始した時刻である。 は、 入射された光の電荷への変換を終了した時刻である。
なお、 実際には、 イメージセンサから出力される画像データの画素値は、 例え ばフレーム全体として、 そのゲインが補正されている。
画像データの各画素値は、 イメージセンサの各検出素子の受光面に入射した光 の積分値であり、 イメージセンサに入射された光のうち、 検出素子の受光面より も微小な実世界 1の光の波形は、 積分値としての画素値に隠されてしまう。
以下、 本明細書において、 所定の次元を基準として表現される信号の波形を単 に波形とも称する。
このように、 実世界 1の画像は、 画素を単位として、 空間方向および時間方向 に積分されてしまうので、 画像データにおいては、 実世界 1の画像の定常性の一 部が欠落し、 実世界 1の画像の定常性の他の一部のみが画像データに含まれるこ とになる。 または、 画像データには、 実世界 1の画像の定常性から変化してしま つた定常性が含まれることがある。
積分効果を有するイメージセンサにより撮像された画像の、 空間方向の積分効 果についてさらに説明する。
図 1 0は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値と の関係を説明する図である。 図 1 0の F (x)は、 空間上 (検出素子上) の空間方 向 Xの座標 X を変数とする、 実世界 1の光の強度の分布を表す関数の例である c 言い換えれば、 F (x)は、 空間方向 Yおよび時間方向に一定である場合の、 実世 界 1の光の強度の分布を表す関数の例である。 図 1 0において、 Lは、 画素 D乃 至画素 Fに対応する検出素子の受光面の空間方向 Xの長さを示す。
1つの画素の画素値は、 F (x)の積分で表される。 例えば、 画素 Eの画素値 P は、 式 (2 ) で表される。
,x2
P = J '2 F (x) dx
, xi
• · · ( 2 )
式 (2 ) において、 Xl は、 画素 Eに対応する検出素子の受光面の左側の境界 の空間方向 Xの空間座標である。 x2は、 画素 Eに対応する検出素子の受光面の 右側の境界の空間方向 Xの空間座標である。
同様に、 積分効果を有するイメージセンサにより撮像された画像の、 時間方向 の積分効果についてさらに説明する。
図 1 1は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。 図 1 1の F (t)は、 時刻 tを変数とする、 実世界 1の光の強度の分布を表す関数である。 言い換えれば、 F (t)は、 空間方 向 Yおよび空間方向 Xに一定である場合の、 実世界 1の光の強度の分布を表す関 数の例である。 ts は、 シャツタ時間を示す。
フレーム #n- 1は、 フレーム #nに対して時間的に前のフレームであり、 フレー ム は、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレ ーム #n- 1、 フレーム #n、 およびフレーム #n+lは、 フレーム #n- 1、 フレーム #n、 およびフレーム #n+lの順で表示される。
なお、 図 1 1で示される例において、 シャツタ時間 ts とフレーム間隔とが同 一である。
1つの画素の画素値は、 F (t)の積分で表される。 例えば、 フレーム #nの画素 の画素値 Pは、 式 (3 ) で表される。
P = £t2 F (t) dx
• · · ( 3 )
式 (3 ) において、 は、 入射された光の電荷への変換を開始した時刻であ る。 t2 は、 入射された光の電荷への変換を終了した時刻である。
以下、 センサ 2による空間方向の積分効果を単に空間積分効果と称し、 センサ 2による時間方向の積分効果を単に時間積分効果と称する。 また、 空間積分効果 または時間積分効果を単に積分効果とも称する。
次に、 積分効果を有するイメージセンサにより取得されたデータ 3に含まれる データの定常性の例について説明する。
図 1 2は、 実世界 1の線状の物 (例えば、 細線) の画像、 すなわち光の強度の 分布の例を示す図である。 図 1 2において、 図中の上側の位置は、 光の強度 (レ ベル) を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方 向 Yの位置を示す。
実世界 1の線状の物の画像には、 所定の定常性が含まれる。 すなわち、 図 1 2 で示される画像は、 長さ方向の任意の位置において、 断面形状 (長さ方向に直交 する方向の位置の変化に対するレベルの変化) が同じであるという定常性を有す る。
図 1 3は、 図 1 2で示される画像に対応する、 実際の撮像により得られた画像 タの画素値の例を示す図である。
図 1 4は、 図 1 3に示す画像データの模式図である , 図 1 4で示される模式図は、 イメージセンサの画素の並ぴ (画素の縦または横 の並び) とずれた方向に延びる、 各画素の受光面の長さ Lよりも短い径の線状 の物の画像を、 イメージセンサで撮像して得られた画像データの模式図である。 図 1 4で示される画像データが取得されたときにィメージセンサに入射された画 像は、 図 1 2の実世界 1の線状の物の画像である。
図 1 4において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 4における画素 値を示す方向は、 図 1 2におけるレベルの方向に対応し、 図 1 4における空間方 向 X、 および空間方向 Yは、 図 1 2における方向と同じである。
各画素の受光面の長さしょりも短い径の線状の物の画像を、 イメージセンサ で撮像した場合、 撮像の結果得られる画像データにおいて、 線状の物は、 模式的 に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) で 表される。 各円弧形状は、 ほぼ同じ形状である。 1つの円弧形状は、 縦に 1列の 画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 4における 1 つの円弧形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 実世界 1の線状の物の画像が有していた、 長さ方向の任意の位置におい て、 空間方向 Yにおける断面形状が同じであるという定常性が失われている。 ま た、 実世界 1の線状の物の画像が有していた定常性は、 縦に 1列の画素の上、 ま たは横に 1列の画素の上に形成された、 同じ形状である円弧形状が一定の間隔で 並ぶという定常性に変化していると言える。
図 1 5は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界 1の画像、 すなわち光の強度の分布の例を示す図である。 図 1 5において、 図 中の上側の位置は、 光の強度 (レベル) を示し、 図中の右上側の位置は、 画像の 空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の 空間方向の他の方向である空間方向 Yの位置を示す。 背景とは異なる色の、 直線状の縁を有する物の実世界 1の画像には、 所定の定 常性が含まれる。 すなわち、 図 1 5で示される画像は、 縁の長さ方向の任意の位 置において、 断面形状 (縁に直交する方向の位置の変化に対するレベルの変化) が同じであるという定常性を有する。
図 1 6は、 図 1 5で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。 図 1 6で示されるように、 画像データは、 画素を単位とした画素値からなるので、 階段状になる。
図 1 7は、 図 1 6に示す画像データの模式図である。
図 1 7で示される模式図は、 イメージセンサの画素の並び (画素の縦または横 の並ぴ) とずれた方向に縁が延びる、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界 1の画像を、 イメージセンサで撮像して得られた画像 データの模式図である。 図 1 7で示される画像データが取得されたときにィメー ジセンサに入射された画像は、 図 1 5で示される、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像である。
図 1 7において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 7における画素 値を示す方向は、 図 1 5におけるレベルの方向に対応し、 図 1 7における空間方 向 X、 および空間方向 Yは、 図 1 5における方向と同じである。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像 を、 イメージセンサで撮像した場合、 撮像の結果得られる画像データにおいて、 直線状の縁は、 模式的に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さのつめ
(pawl) 形状で表される。 各つめ形状は、 ほぼ同じ形状である。 1つのつめ形 状は、 縦に 1列の画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 7において、 1つのつめ形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1 の画像が有していた、 縁の長さ方向の任意の位置において、 断面形状が同じであ るという定常性が失われている。 また、 背景とは異なる色であって、 単色の、 直 線状の縁を有する物の実世界 1の画像が有していた定常性は、 縦に 1列の画素の 上、 または横に 1列の画素の上に形成された、 同じ形状であるつめ形状が一定の 間隔で並ぶという定常性に変化していると言える。
データ定常性検出部 1 0 1は、 このような、 例えば、 入力画像であるデータ 3 が有するデータの定常性を検出する。 例えば、 データ定常性¾出部 1 0 1は、 所 定の次元の方向に一定の特徴を有する領域を検出することにより、 データの定常 性を検出する。 例えば、 データ定常性検出部 1 0 1は、 図 1 4で示される、 同じ 円弧形状が一定の間隔で並ぶ領域を検出する。 また、 例えば、 データ定常性検出 部 1 0 1は、 図 1 7で示される、 同じつめ形状が一定の間隔で並ぶ領域を検出す る。
また、 データ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の 角度 (傾き) を検出することにより、 データの定常性を検出する。
また、 例えば、 データ定常性検出部 1 0 1は、 空間方向および時間方向の同様 の形状の並ぴ方を示す、 空間方向および時間方向の角度 (動き) を検出すること により、 データの定常性を検出する。
さらに、 例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特 徴を有する領域の長さを検出することにより、 データの定常性を検出する。
以下、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1 の画像がセンサ 2により射影されたデータ 3の部分を 2値エッジとも称する。 次に、 本発明の原理をさらに具体的に説明する。
図 1 8で示されるように、 従来の信号処理においては、 データ 3から、 例えば、 所望の高解像度データ 1 8 1が生成される。
これに対して、 本発明に係る信号処理においては、 データ 3から、 実世界 1が 推定され、 推定の結果に基づいて、 高解像度データ 1 8 1が生成される。 すなわ ち、 図 1 9で示されるように、 実世界 1が、 データ 3から推定され、 高解像度デ ータ 1 8 1が、 データ 3を考慮して、 推定された実世界 1から高解像度データ 1 8 1が生成される。
実世界 1から高解像度データ 1 8 1を生成するためには、 実世界 1とデータ 3 との関係を考慮する必要がある。 例えば、 実世界 1が、 CCDであるセンサ 2によ り、 データ 3に射影されるとどうなるかが考慮される。
CCDであるセンサ 2は、 上述したように、 積分特性を有する。 すなわち、 デー タ 3の 1つの単位 (例えば、 画素値) は、 実世界 1の信号をセンサ 2の検出素子
(例えば、 CCD) の検出領域 (例えば、 受光面) で積分することにより算出する ことができる。
これを高解像度データ 1 8 1について当てはめると、 仮想的な高解像度のセン サが実世界 1の信号をデータ 3に射影する処理を、 推定された実世界 1に適用す ることにより、 高解像度データ 1 8 1を得ることができる。
換言すれば、 図 2 0で示されるように、 データ 3から実世界 1の信号を推定で きれば、 実世界 1の信号を、 仮想的な高解像度のセンサの検出素子の検出領域毎 に (時空間方向に) 積分することにより、 高解像度データ 1 8 1に含まれる 1つ の値を得ることができる。
例えば、 センサ 2の検出素子の検出領域の大きさに比較して、 実世界 1の信号 の変化が、 より小さいとき、 データ 3は、 実世界 1の信号の小さい変化を表すこ とができない。 そこで、 データ 3から推定された実世界 1の信号を、 実世界 1の 信号の変化に比較して、 より小さい領域毎に (時空間方向に) 積分することによ り、 実世界 1の信号の小さい変化を示す高解像度データ 1 8 1を得ることができ る。
すなわち、 仮想的な高解像度のセンサの各検出素子について、 推定された実世 界 1の信号を検出領域で積分することにより、 高解像度データ 1 8 1を得ること ができる。
本発明において、 画像生成部 1 0 3は、 例えば、 仮想的な高解像度のセンサの 各検出素子の時空間方向の領域で、 推定された実世界 1の信号を積分することに より、 高解像度データ 1 8 1を生成する。
次に、 データ 3から、 実世界 1を推定するために、 本発明においては、 データ 3と実世界 1との関係、 定常性、 およびデータ 3における空間混合が利用される。 ここで、 混合とは、 データ 3において、 実世界 1における 2つの物体に対する 信号が混合されて 1つの値となることをいう。
空間混合とは、 センサ 2の空間積分効果による、 2つの物体に対する信号の空 間方向の混合をいう。
実世界 1そのものは、 無限の数の事象からなり、 従って、 実世界 1そのものを、 例えば、 数式で表現するためには、 無限の数の変数が必要になる。 データ 3から、 実世界 1の全ての事象を予測することはできない。
同様に、 データ 3から、 実世界 1の信号の全てを予測することはできない。 そこで、 図 2 1で示されるように、 本発明においては、 実世界 1の信号のうち、 定常性を有し、 関数 f (x,y, z,t)で表すことができる部分に注目し、 関数
f (x, y, Z, t)で表すことができる、 定常性を有する実世界 1の信号の部分が、 N 個の変数で表現されるモデル 1 6 1で近似される。 そして、 図 2 2で示されるよ うに、 モデル 1 6 1力 データ 3の中の、 M個のデータ 1 6 2から予測される。
M個のデータ 1 6 2からモデル 1 6 1の予測を可能にするには、 第 1に、 モデ ル 1 6 1を、 定常性に基づいて、 N個の変数で表し、 第 2に、 センサ 2の積分特 性に基づいて、 N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との 関係を示す、 N個の変数を使用した式を立てることが必要である。 モデル 1 6 1 力 S、 定常性に基づいて、 N個の変数で表されているので、 N個の変数で表現され るモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式 は、 定常性を有する実世界 1の信号の部分と、 データの定常性を有するデータ 3 の部分との関係を記述しているとも言える。
換言すれば、 N個の変数で表現されるモデル 1 6 1で近似される、 定常性を有 する実世界 1の信号の部分は、 データ 3において、 データの定常性を生じさせる。 データ定常性検出部 1 0 1は、 定常性を有する実世界 1の信号の部分によって、 データの定常性が生じたデータ 3の部分、 およびデータの定常性が生じた部分の 特徴を検出する。
例えば、 図 2 3で示されるように、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界 1の画像において、 図 2 3中 Aで示す、 注目する位置 における縁は、 傾きを有している。 図 2 3の Bの矢印は、 縁の傾きを示す。 所定 の縁の傾きは、 基準となる軸に対する角度または基準となる位置に対する方向で 表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの座標軸と、 縁との 角度で表すことができる。 例えば、 所定の緣の傾きは、 空間方向 Xの長さおよび 空間方向 Yの長さで示される方向で表すことができる。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像 力 センサ 2で取得されて、 データ 3が出力されたとき、 データ 3において、 実 世界 1の画像における、 縁の注目する位置 (A) に対する、 図 2 3中 A ' で示す 位置に、 縁に対応するつめ形状が並び、 実世界 1の画像の縁の傾きに対応する、 図 2 3中 B ' で示す傾きの方向に、 縁に対応するつめ形状が並ぶ。
N個の変数で表現されるモデル 1 6 1は、 このような、 データ 3において、 デ ータの定常性を生じさせる、 実世界の 1の信号の部分を近似する。
N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式を立てるとき、 データ 3において、 データの定常性が生 じている部分の値を利用する。
この場合において、 図 2 4で示される、 データ 3において、 データの定常性が 生じ、 混合領域に属する値に注目して、 実世界 1の信号を積分した値が、 センサ 2の検出素子が出力する値に等しいとして、 式が立てられる。 例えば、 データの 定常性が生じている、 データ 3における複数の値について、 複数の式を立てるこ とができる。
図 2 4において、 Aは、 縁の注目する位置を示し、 A, は、 実世界 1の画像に おける、 縁の注目する位置 (A) に対する、 画素 (の位置) を示す。
ここで、 混合領域とは、 データ 3において、 実世界 1における 2つの物体に対 する信号が混合されて 1つの値となっているデータの領域をいう。 例えば、 背景 とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像に対す るデータ 3において、 直線状の縁を有する物に対する画像、 および背景に対する 画像が積分されている画素値は、 混合領域に属する。
図 2 5は、 式を立てる場合における、 実世界 1における 2つの物体に対する信 号および混合領域に属する値を説明する図である。
図 2 5中の左側は、 センサ 2の 1つの検出素子の検出領域で取得される、 空間 方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2つの物体 に対する実世界 1の信号を示す。 図 2 5中の右側は、 図 2 5中の左側に示す実世 界 1の信号がセンサ 2の 1つの検出素子によって射影された、 データ 3の 1つの 画素の画素値 Pを示す。 すなわち、 センサ 2の 1つの検出素子によって取得され た、 空間方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2 つの物体に対する実世界 1の信号が射影された、 データ 3の 1つの画素の画素値 Pを示す。
図 2 5の Lは、 実世界 1における 1つの物体に対する、 図 2 5の白い部分の実 世界 1の信号のレベルを示す。 図 2 5の Rは、 実世界 1における他の 1つの物体 に対する、 図 2 5の斜線で表される部分の実世界 1の信号のレベルを示す。 ここで、 混合比 aは、 センサ 2の 1つの検出素子の、 空間方向 Xおよび空間方 向 Yに所定の広がりを有する検出領域に入射された、 2つの物体に対する信号 (の面積) の割合を示す。 例えば、 混合比ひは、 センサ 2の 1つの検出素子の検 出領域の面積に対する、 空間方向 Xおよび空間方向 Yに所定の広がりを有する、 センサ 2の 1つの検出素子の検出領域に入射された、 レベル Lの信号の面積の割 合を示す。
この場合において、 レベル L、 レベル R、 および画素値 Pの関係は、 式 (4 ) で表すことができる。
a X L + ( 1 - α ) X R = Ρ · · · ( 4 ) なお、 レベル Rは、 注目している画素の右側に位置している、 データ 3の画素 の画素値とすることができる場合があり、 レベル Lは、 注目している画素の左側 に位置している、 データ 3の画素値とすることができる場合がある。
また、 混合比 aおよび混合領域は、 空間方向と同様に、 時間方向を考慮するこ とができる。 例えば、 センサ 2に対して撮像の対象となる実世界 1の物体が移動 しているとき、 時間方向に、 センサ 2の 1つの検出素子の検出領域に入射される、 2つの物体に対する信号の割合は変化する。 センサ 2の 1つの検出素子の検出領 域に入射された、 時間方向に割合が変化する、 2つの物体に対する信号は、 セン サ 2の検出素子によって、 データ 3の 1つの値に射影される。
センサ 2の時間積分効果による、 2つの物体に対する信号の時間方向の混合を 時間混合と称する。
データ定常性検出部 1 0 1は、 例えば、 実世界 1における 2つの物体に対する 実世界 1の信号が射影された、 データ 3における画素の領域を検出する。 データ 定常性検出部 1 0 1は、 例えば、 実世界 1の画像の縁の傾きに対応する、 データ 3における傾きを検出する。
そして、 実世界推定部 1 0 2は、 例えば、 データ定常性検出部 1 0 1で検出さ れた、 所定の混合比 αを有する画素の領域、 および領域の傾きを基に、 Ν個の変 数で表現されるモデル 1 6 1と Μ個のデータ 1 6 2との関係を示す、 Ν個の変数 を使用した式を立てて、 立てた式を解くことにより、 実世界 1の信号を推定する。 さらに、 具体的な実世界 1の推定について説明する。
関数 F (x,y, z, t)で表される実世界の信号のうち、 空間方向 Zの断面 (センサ 2の位置) における関数 F (x, y, t)で表される実世界の信号を、 空間方向 Xにお ける位置 x、 空間方向 Yにおける位置 y、 および時刻 tで決まる
近似関数 f (x, y,t) で近似することを考える。
ここで、 センサ 2の検出領域は、 空間方向 Xおよび空間方向 Yに広がりを有す る。 換言すれば、 近似関数 f (x, y, t) は、 センサ 2で取得される、 空間方向お ょぴ時間方向に広がりを有する実世界 1の信号を近似する関数である。
センサ 2による実世界 1の信号の射影によって、 データ 3の値 P (X, y, t)が得 585
37
られるものとする。 データ 3の値 P(x, y, t)は、 例えば、 イメージセンサである センサ 2が出力する、 画素値である。
ここで、 センサ 2による射影を定式化できる場合、 近似関数 f (x, y, t) を射 影して得られた値を射影関数 S (x, y, t) と表すことができる。
射影関数 S (x, y, t) を求める上で、 以下に示す問題がある。
第 1に、 一般的に、 実世界 1の信号を表す関数 F(X,y,z,t)は、 無限の次数の 関数となりうる。
第 2に、 たとえ、 実世界の信号を関数として記述できたとしても、 センサ 2の 射影を介した、 射影関数 S (x,y,t) を定めることは、 一般的にはできない。 す なわち、 センサ 2による射影の動作、 言い換えればセンサ 2の入力信号と出力信 号との関係を知らないので、 射影関数 S (x, y, t) を定めることはできない。
第 1の問題点に対して、 実世界 1の信号を近似する関数 f(x, y, t)を記述可能 な関数 (例えば、 有限次数の関数) である関数 (χ,γ,ΐ) および変数 の積 和で表現することを考える。
また、 第 2の問題点に対して、 センサ 2による射影を定式化することで、 関数 fi (x, y,t) の記述から、 関数 Si (x,y,t) を記述することができる。
すなわち、 実世界 1の信号を近似する関数 f(x,y,t)を関数 (x,y,t) およ ぴ変数 Wi の積和で表現すると、 式 (5) が得られる。
N
f , y, t) = ∑ Wjtj (x, y, t) · · ■ (5)
例えば、 式 (6) で示されるように、 センサ 2の射影を定式化することにより、 式 (5) から、 データ 3と実世界の信号の関係を式 (7) のように定式化するこ とができる。
Sj (x, y, t) = ffjfj (x, y, t)dxdydt
· · · (6) N
Pj(Xj,yj, tj) = ∑ WjSjCxj.yj.tj)
• · · (7)
式 (7) において、 jは、 データのインデックスである。
式 (7) の N個の変数 (i=l乃至 N) が共通である M個のデータ群 (j=l乃 至 M) が存在すれば、 式 (8) を満たすので、 データ 3から実世界のモデル 1 6 1を求めることができる。
N≤M ■ · ■ (8)
Nは、 実世界 1を近似するモデル 16 1を表現する変数の数である。 Mは、 デー タ 3に含まれるデータ 1 62の数である。
実世界 1の信号を近似する関数 f(x,y, t)を式 (5) で表すことにより、 Wi と して変数の部分を独立させることができる。 このとき、 iは、 そのまま変数の数 を示すことになる。 また、 で示される関数の形を独立させることができ、 として所望の関数を利用することができるようになる。
従って、 関数 の形に依存せず、 変数 の数 Nを定義でき、 変数 ^の数 N とデータの数 Mとの関係で変数 を求めることができる。
すなわち、 以下の 3つを用いることで、 データ 3から実世界 1を推定すること ができるようになる。
第 1に、 N個の変数を定める、 すなわち、 式 (5) を定める。 これは、 定常性 を用いて実世界 1を記述することにより可能になる。 例えば、 断面が多項式で表 され、 同じ断面形状が一定方向に続く、 というモデル 1 6 1で実世界 1の信号を 記述することができる。
第 2に、 例えば、 センサ 2による射影を定式化して、 式 (7) を記述する。 例 えば、 実世界 2の信号の積分を行った結果がデータ 3であると定式化する。 第 3に、 M個のデータ 1 6 2を集めて、 式 (8) を満足させる。 例えば、 デー タ定常性検出部 1 0 1で検出された、 データの定常性を有する領域から、 データ 1 62が集められる。 例えば、 定常性の一例である、 一定の断面が続く領域のデ ータ 162が集められる。
このように、 式 (5) によって、 データ 3と実世界 1との関係を記述し、 M個 のデータ 162を集めることで、 式 (8) を満たすことにより、 実世界 1を推定 することができる。
より具体的には、 N=Mのとき、 変数の数 Nと式の数 Mが等しいので、 連立方 程式を立てることにより、 変数 を求めることができる。
また、 N<Mのとき、 様々な解法を適用できる。 例えば、 最小自乗法により、 変数 ^ を求めることができる。
ここで、 最小自乗法による解法について、 詳細に記載する。
まず、 式 (7) に従って、 実世界 1からデータ 3を予測する式 (9) を示す。
N
Pj(Xj, yj, tj) = ∑ WjSj j, yj.tj)
• · · (9)
式 (9) において、 P,j (Xj,yj, tj) は、 予測値である。
予測値 P'と実測値 Pとの差分自乗和 Eは、 式 (10) で表される。
M
2
E = ∑ (Pi(Xj,yj,tj)-P'j(xi,yj,tj))
j=1
■ · ■ (10)
差分自乗和 Eが最小になるように、 変数 Wiが求められる。 従って、 各変数 wk による式 (10) の偏微分値は 0とされる。 すなわち、 式 (1 1) が成り立つ。 a M N
=—2∑ wsSk (χ』, yjftj) (Pj (xj, Yj.tj)-∑ WiSi (xj, y t 〉 = 0
式 (1 1) から式 ( 1 2) が導かれる。
M N M
∑ (¾(Xj,yj,tj) _ WiSjiXj.yj.tj)} = ∑ Sk(xj,yjltj)Pj(Xj,Vj,tj} j=1 i=i 」=1
• · · (12) 式 (1 2) が K=l乃至 Nで成り立つとき、 最小自乗法による解が得られる, のときの正規方程式は、 式 (1 3) で示される。
Figure imgf000042_0001
(1 3)
ただし、 式 (1 3) において、 Si (Xj , Yj , t j ) は、 Si (j)と記述した。
Figure imgf000042_0002
(1 5) 5
41
Figure imgf000043_0001
(1 6)
式 (14) 乃至式 (1 6) から、 式 (1 3) は、 °M A T ¾ A T _ ' M―A..T― と表すこと ができる。
式 (1 3) において、 Si は、 実世界 1の射影を表す。 式 (1 3) において、 Pj は、 データ 3を表す。 式 (1 3) において、 ^ は、 実世界 1の信号の特徴を 記述し、 求めようとする変数である。
従って、 式 (1 3) にデータ 3を入力し、 行列解法などにより WMAT を求める ことで、 実世界 1を推定することが可能になる。 すなわち、 式 (1 7) を演算す ることにより、 実世界 1を推定することができるようになる。
^'M A T =tJM A T "A T ( 1 7) なお、 SMATが正則でない場合、 SMAT の転置行列を利用して、 WMAT を求めるこ とができる。
実世界推定部 10 2は、 例えば、 式 (1 3) にデータ 3を入力し、 行列解法な どにより WMAT を求めることで、 実世界 1を推定する。
ここで、 さらにより具体的な例を説明する。 例えば、 実世界 1の信号の断面形 状、 すなわち位置の変化に対するレベルの変化を、 多項式で記述する。 実世界 1 の信号の断面形状が一定で、 実世界 1の信号の断面が等速で移動すると仮定する c そして、 センサ 2による実世界 1の信号からデータ 3への射影を、 実世界 1の信 号の時空間方向の 3次元で積分で定式化する。
実世界 1の信号の断面形状が、 等速で移動するとの仮定から、 式 (1 8) およ ぴ式 (1 9) が得られる。 dx _
dt 一 Vx
• · · ( 1 8) g
dt 一
• · · ( 1 9)
ここで、 vxおよび vyは、 一定である。
実世界 1の信号の断面形状は、 式 (1 8) および式 (1 9) を用いることで、 式 (20) と表される。
f (x',y')=f (x+vxt,y+vyt) · · · (2 0)
センサ 2による実世界 1の信号からデータ 3への射影を、 実世界 1の信号の時 空間方向の 3次元で積分で定式化すれば、 式 (2 1) が得られる。
S(x,y,t) = f v Y tef(x',y')dxdydt
= s £e f (x +v ' y +vyt) dxdydt
• · · (2 1 )
式 (2 1 ) において、 S(x,y,t)は、 空間方向 Xについて、 位置 xsから位置 xe まで、 空間方向 Yについて、 位置 ysから位置 yeまで、 時間方向 tについて、 時刻 から時刻 te までの領域、 すなわち時空間の直方体で表される領域の積分 値を示す。
式 (2 1) を定めることができる所望の関数 f(x',y')を用いて、 式 (1 3) を解けば、 実世界 1の信号を推定することができる。
以下では、 関数 f (x',y' )の一例として、 式 (2 2) に示す関数を用いること とする。
f , y J =w1 x +w2 y +w3
=w1 (x+vxt)+w2 (y+vyt)+w3 ■ · · (2 2)
すなわち、 実世界 1の信号が、 式 (1 8) 、 式 (1 9) 、 および式 (2 2) で 表される定常性を含むと仮定している。 これは、 図 26で示されるように、 一定 の形状の断面が、 時空間方向に移動していることを示す。
式 (21) に、 式 (22) を代入することにより、 式 (23) が得られる。
S(x, , t) = 1Hx+vxt, y+vvt)dxdycH:
Figure imgf000045_0001
y
w0
Vo I匿 d 9 ( p+ 1x rts„+ 'v vxx(tP+ts))
+ - (ye+ys+vy(te+ts) ) +w2)
= w0S0(x, y t) +ννΊ (x, y, t) +w2S2 (x, y t) · · · (23)
ただし、
Volume= (xe - xs ) (ye - ys ) (te - ts )
S0 (x, y, t) =Volume/2 X (xe +xs +vx (te +ts ) )
Sx (x, y, t) =Volume/2 X (ye +ys +vy (te +ts ) )
S2 (x, y, t)=l
である。
図 27は、 データ 3から抽出される、 M個のデータ 16 2の例を示す図である, 例えば、 27個の画素値が、 データ 1 62として抽出され、 抽出された画素値が.
Ρ』(x,y, t)とされる。 この場合、 jは、 0乃至 26である。
図 27に示す例において、 nである時刻 ΐの注目する位置に対応する画素の画 素値が P13 (x,y, t)であり、 データの定常性を有する画素の画素値の並ぶ方向
(例えば、 データ定常性検出部 1 0 1で検出された、 同じ形状であるつめ形状が 並ぶ方向) が、 P4 (X, y, t)、 P13 (x, y,t)、 および P22 ( , y, t)を結ぶ方向である とき、 nである時刻 tにおける、 画素値 P9 (x,y,t)乃至 P17 (X, y,t)、 nより時 間的に前である、 n-1である時刻 tにおける、 画素値 P。(X, y t)乃至 P8 (x,y,t). および nより時間的に後である、 n+ 1である時刻 tにおける、 画素値
P18 , ,1:)乃至?26 (x,y t)が抽出される。 ここで、 センサ 2であるイメージセンサから出力された、 データ 3である画素 値が取得された領域は、 図 2 8で示されるように、 時間方向おょぴ 2次元の空間 方向に広がりを有する。 そこで、 例えば、 図 2 9で示されるように、 画素に対応 する直方体 (画素値が取得された領域) の重心を、 画素の時空間方向の位置とし て使用することができる。 図 2 9中の丸は、 重心を示す。
2 7個の画素値 P。(X, y, t)乃至 P2 6 (X, y, t)、 および式 (2 3 ) から、 式 (1 3 ) を生成し、 Wを求めることで、 実世界 1を推定することが可能になる。
このように、 実世界推定部 1 0 2は、 例えば、 2 7個の画素値 P。 (x, y, t)乃至 P2 6 (x,y, t)、 および式 ( 2 3 ) から、 式 ( 1 3 ) を生成し、 W を求めることで、 実世界 1の信号を推定する。
なお、 関数 fi (x, y, t) として、 ガウス関数、 またはシグモイド関数などを利 用することができる。
図 3 0乃至図 3 4を参照して、 推定された実世界 1の信号から、 データ 3に対 応する、 より高解像度の高解像度データ 1 8 1を生成する処理の例について説明 する。
図 3 0で示されるように、 データ 3は、 時間方向および 2次元の空間方向に実 世界 1の信号が積分された値を有する。 例えば、 センサ 2であるイメージセンサ から出力された、 データ 3である画素値は、 検出素子に入射された光である、 実 世界 1の信号が、 時間方向に、 検出時間であるシャツタ時間で積分され、 空間方 向に、 検出素子の受光領域で積分された値を有する。
これに対して、 図 3 1で示されるように、 空間方向により解像度の高い高解像 度データ 1 8 1は、 推定された実世界 1の信号を、 時間方向に、 データ 3を出力 したセンサ 2の検出時間と同じ時間で積分するとともに、 空間方向に、 データ 3 を出力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分する ことにより、 生成される。
なお、 空間方向により解像度の高い高解像度データ 1 8 1を生成する場合にお いて、 推定された実世界 1の信号が積分される領域は、 データ 3を出力したセン サ 2の検出素子の受光領域と全く無関係に設定することができる。 例えば、 高解 像度データ 1 8 1に、 データ 3に対して、 空間方向に整数倍の解像度を持たせる ことは勿論、 5 / 3倍など、 データ 3に対して、 空間方向に有理数倍の解像度を 持たせることができる。
また、 図 3 2で示されるように、 時間方向により解像度の高い高解像度データ
1 8 1は、 推定された実世界 1の信号を、 空間方向に、 データ 3を出力したセン サ 2の検出素子の受光領域と同じ領域で積分するとともに、 時間方向に、 データ
3を出力したセンサ 2の検出時間に比較して、 より短い時間で積分することによ り、 生成される。
なお、 時間方向により解像度の高い高解像度データ 1 8 1を生成する場合にお いて、 推定された実世界 1の信号が積分される時間は、 データ 3を出力したセン サ 2の検出素子のシャツタ時間と全く無関係に設定することができる。 例えば、 高解像度データ 1 8 1に、 データ 3に対して、 時間方向に整数倍の解像度を持た せることは勿論、 7 / 4倍など、 データ 3に対して、 時間方向に有理数倍の解像 度を持たせることができる。
図 3 3で示されるように、 動きボケを除去した高解像度データ 1 8 1は、 推定 された実世界 1の信号を、 時間方向に積分しないで、 空間方向にのみ積分するこ とにより、 生成される。
さらに、 図 3 4で示されるように、 時間方向および空間方向により解像度の高 い高解像度データ 1 8 1は、 推定された実世界 1の信号を、 空間方向に、 データ 3を出力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分す るとともに、 時間方向に、 データ 3を出力したセンサ 2の検出時間に比較して、 より短い時間で積分することにより、 生成される。
この場合において、 推定された実世界 1の信号が積分される領域および時間は、 データ 3を出力したセンサ 2の検出素子の受光領域おょぴシャツタ時間と全く無 関係に設定することができる。
このように、 画像生成部 1 0 3は、 例えば、 推定された実世界 1の信号を所望 の時空間の領域で積分することにより、 時間方向、 または空間方向に、 より高解 像度のデータを生成する。
以上のように、 実世界 1の信号を推定することにより、 実世界 1の信号に対し てより正確で、 時間方向、 または空間方向に、 より高解像度のデータを生成する ことができる。
図 3 5乃至図 3 9を参照して、 本発明に係る信号処理装置 4の、 入力画像の例 と、 処理の結果の例を示す。
図 3 5は、 入力画像の元の画像を示す図である。 図 3 6は、 入力画像の例を示 す図である。 図 3 6で示される入力画像は、 図 3 5で示される画像の 2 X 2の画 素からなるブロックに属する画素の画素値の平均値を、 1つの画素の画素値とし て生成された画像である。 すなわち、 入力画像は、 図 3 5で示される画像に、 セ ンサの積分特性を模した、 空間方向の積分を適用することにより得られた画像で ある。
図 3 5で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾い た細線の画像が含まれている。 同様に、 図 3 6で示される入力画像において、 上 下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 3 7は、 図 3 6で示される入力画像に、 従来のクラス分類適応処理を適用し て得られた画像を示す図である。 ここで、 クラス分類適応処理は、 クラス分類処 理と適応処理とからなり、 クラス分類処理によって、 データを、 その性質に基づ いてクラス分けし、 各クラスごとに適応処理を施すものである。 適応処理では、 例えば、 低画質または標準画質の画像が、 所定のタップ係数を用いてマッピング (写像) されることにより、 高画質の画像に変換される。
図 3 7で示される画像において、 細線の画像が、 図 3 5の元の画像とは異なる ものになっていることがわかる。
図 3 8は、 データ定常性検出部 1 0 1による、 図 3 6の例で示される入力画像 から細線の領域を検出した結果を示す図である。 図 3 8において、 白い領域は、 細線の領域、 すなわち、 図 1 4で示される円弧形状が並んでいる領域を示す。 図 3 9は、 図 3 6で示される画像を入力画像として、 本発明に係る信号処理装 置 4から出力された出力画像の例を示す図である。 図 3 9で示されるように、 本 発明に係る信号処理装置 4によれば、 図 3 5で示される元の画像の細線の画像に より近い画像を得ることができる。
図 4 0は、 本発明に係る信号処理装置 4による、 信号の処理を説明するフロー チヤ一トである。
ステップ S 1 0 1において、 データ定常性検出部 1 0 1は、 定常性の検出の処 理を実行する。 データ定常性検出部 1 0 1は、 データ 3である入力画像に含まれ ているデータの定常性を検出して、 検出したデータの定常性を示すデータ定常性 情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。
データ定常性検出部 1 0 1は、 現実世界の信号の定常性に対応するデータの定 常性を検出する。 ステップ S 1 0 1の処理において、 データ定常性検出部 1 0 1 により検出されるデータの定常性は、 データ 3に含まれる、 実世界 1の画像の定 常性の一部であるか、 または、 実世界 1の信号の定常性から変化してしまった定 常性である。
例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特徴を有す る領域を検出することにより、 データの定常性を検出する。 また、 例えば、 デー タ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の角度 (傾き) を検出することにより、 データの定常性を検出する。
ステップ S 1 0 1における、 定常性の検出の処理の詳細は、 後述する。
なお、 データ定常性情報は、 データ 3の特徴を示す特徴量として利用すること ができる。
ステップ S 1 0 2において、 実世界推定部 1 0 2は、 実世界の推定の処理を実 行する。 すなわち、 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出 部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号を推定する。 例えば、 ステップ S 1 0 2の処理において、 実世界推定部 1 0 2は、 実世界 1を 近似 (記述) するモデル 1 6 1を予測することにより、 実世界 1の信号を推定す る。 実世界推定部 1 0 2は、 推定された実世界 1の信号を示す実世界推定情報を 画像生成部 1 0 3に供給する。
例えば、 実世界推定部 1 0 2は、 線状の物の幅を予測することにより、 実世界
1の信号を推定する。 また、 例えば、 実世界推定部 1 0 2は、 線状の物の色を示 すレベルを予測することにより、 実世界 1の信号を推定する。
ステップ S 1 0 2における、 実世界の推定の処理の詳細は、 後述する。
なお、 実世界推定情報は、 データ 3の特徴を示す特徴量として利用することが できる。
ステップ S 1 0 3において、 画像生成部 1 0 3は、 画像の生成の処理を実行し て、 処理は終了する。 すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 画像を生成して、 生成した画像を出力する。 または、 画像生成部 1 0 3は、 デー タ定常性情報および実世界推定情報を基に、 画像を生成して、 生成した画像を出 力する。
例えば、 ステップ S 1 0 3の処理において、 画像生成部 1 0 3は、 実世界推定 情報を基に、 生成された現実世界の光信号を近似する関数を空間方向に積分する ことにより、 入力画像に比較して、 空間方向により高解像度の画像を生成して、 生成した画像を出力する。 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 生成された現実世界の光信号を近似する関数を時空間方向に積分することにより、 入力画像に比較して、 時間方向および空間方向により高解像度の画像を生成して、 生成した画像を出力する。 ステップ S 1 0 3における、 画像の生成の処理の詳細 は、 後述する。
このように、 本発明に係る信号処理装置 4は、 データ 3からデータの定常性を 検出し、 検出したデータの定常性を基に、 実世界 1を推定する。 そして、 信号処 理装置 4は、 推定された実世界 1を基に、 より実世界 1に近似した信号を生成す る。
以上のように、 現実世界の信号を推定して処理を実行するようにした場合には、 正確で、 精度の高い処理結果を得ることができるようになる。 また、 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実 世界の信号の定常性の一部が欠落した第 1の次元よりも少ない第 2の次元の第 2 の信号の、 欠落した現実世界の信号の定常性に対応するデータの定常性を検出し、 検出されたデータの定常性に基づいて、 欠落した現実世界の信号の定常性を推定 することにより第 1の信号を推定するようにした場合には、 現実世界の事象に対 して、 より正確で、 より精度の高い処理結果を得ることができるようになる。 次に、 データ定常性検出部 1 0 1の構成の詳細について説明する。
図 4 1は、 データ定常性検出部 1 0 1の構成を示すプロック図である。
図 4 1に構成を示すデータ定常性検出部 1 0 1は、 細線である対象物を撮像し たとき、 対象物の有する断面形状が同じであるという定常性から生じた、 データ 3に含まれるデータの定常性を検出する。 すなわち、 図 4 1に構成を示すデータ 定常性検出部 1 0 1は、 細線である実世界 1の画像の有する、 長さ方向の任意の 位置において、 長さ方向に直交する方向の位置の変化に対する光のレベルの変化 が同じであるという定常性から生じた、 データ 3に含まれるデータの定常性を検 出する。
より具体的には、 図 4 1に構成を示すデータ定常性検出部 1 0 1は、 細線の画 像を空間積分効果を有するセンサ 2で撮像して得られたデータ 3に含まれる、 斜 めにずれて隣接して並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) が配置さ れる領域を検出する。
データ定常性検出部 1 ◦ 1は、 データ 3である入力画像から、 データの定常性 を有する細線の画像が射影された画像データの部分 (以下、 定常成分とも称す る) 以外の画像データの部分 (以下、 非定常成分と称する) を抽出し、 抽出され た非定常成分と入力画像とから、 実世界 1の細線の画像が射影された画素を検出 し、 入力画像における、 実世界 1の細線の画像が射影された画素からなる領域を 検出する。
非定常成分抽出部 2 0 1は、 入力画像から非定常成分を抽出して、 入力画像と 共に、 抽出された非定常成分を示す非定常成分情報を頂点検出部 2 0 2および単 調増減検出部 2 0 3に供給する。
例えば、 図 4 2で示されるように、 ほぼ一定の光のレベルの背景の前に細線が ある実世界 1の画像がデータ 3に射影されたとき、 図 4 3で示されるように、 非 定常成分抽出部 2 0 1は、 データ 3である入力画像における背景を平面で近似す ることにより、 背景である非定常成分を抽出する。 図 4 3において、 実線は、 デ ータ 3の画素値を示し、 点線は、 背景を近似する平面で示される近似値を示す。 図 4 3において、 Aは、 細線の画像が射影された画素の画素値を示し、 P Lは、 背景を近似する平面を示す。
このように、 データの定常性を有する画像データの部分における、 複数の画素 の画素値は、 非定常成分に対して不連続となる。
非定常成分抽出部 2 0 1は、 実世界 1の光信号である画像が射影され、 実世界 1の画像の定常性の一部が欠落した、 データ 3である画像データの複数の画素の 画素値の不連続部を検出する。
非定常成分抽出部 2 0 1における非定常成分の抽出の処理の詳細は、 後述する。 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 非定常成分抽出部 2 0 1か ら供給された非定常成分情報を基に、 入力画像から非定常成分を除去する。 例え ば、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画像の各画素のうち、 背景の画像のみが射影された画素の画素値を 0に設定することにより、 入力画 像から非定常成分を除去する。 また、 例えば、 頂点検出部 2 0 2および単調増減 検出部 2 0 3は、 入力画像の各画素の画素値から、 平面 P Lで近似される値を引 き算することにより、 入力画像から非定常成分を除去する。
入力画像から背景を除去することができるので、 頂点検出部 2 0 2乃至連続性 検出部 2 0 4は、 細線が射影された画像データの部分のみを処理の対象とするこ とができ、 頂点検出部 2 0 2乃至連続性検出部 2 0 4における処理がより容易に なる。
なお、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した画像デ ータを頂点検出部 2 0 2および単調増減検出部 2 0 3に供給するようにしてもよ い。
以下に説明する処理の例において、 入力画像から非定常成分が除去された画像 データ、 すなわち、 定常成分を含む画素のみからなる画像データが対象となる。 ここで、 頂点検出部 2 0 2乃至連続性検出部 2 0 4が検出しようとする、 細線 の画像が射影された画像データについて説明する。
図 4 2で示される細線の画像が射影された画像データの空間方向 Yの断面形状 (空間方向の位置の変化に対する画素値の変化) は、 光学 LPFがないとした場 合、 センサ 2であるイメージセンサの空間積分効果から、 図 4 4に示す台形、 ま たは図 4 5に示す三角形となることが考えられる。 しかしながら、 通常のィメー ジセンサは、 光学 LPFを備え、 イメージセンサは、 光学 LPFを通過した画像を 取得し、 取得した画像をデータ 3に射影するので、 現実には、 細線の画像データ の空間方向 Yの断面形状は、 図 4 6に示すようなガウス分布に類似した形状とな る。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影された画素で あって、 同じ断面形状 (空間方向の位置の変化に対する画素値の変化) が画面の 上下方向に一定の間隔で並ぶものからなる領域を検出して、 さらに、 実世界 1の 細線の長さ方向に対応した、 領域の繋がりを検出することにより、 データの定常 性を有する領域である、 細線の画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像における、 縦 に 1列の画素の上に、 円弧形状 (かまぼこ型) が形成される領域を検出し、 検出 された領域が横方向に隣接して並んでいるか否かを判定して、 実世界 1の信号で ある細線の画像の長さ方向に対応した、 円弧形状が形成される領域の繋がりを検 出する。
また、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影された 画素であって、 同じ断面形状が画面の左右方向に一定の間隔で並ぶものからなる 領域を検出して、 さらに、 実世界 1の細線の長さ方向に対応した、 検出された領 域の繋がりを検出することにより、 データの定常性を有する領域である、 細線の 画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃 至連続性検出部 2 0 4は、 入力画像における、 横に 1列の画素の上に、 円弧形状 が形成される領域を検出し、 検出された領域が縦方向に瞵接して並んでいるか否 かを判定して、 実世界 1の信号である細線の画像の長さ方向に対応した、 円弧形 状が形成される領域の繫がりを検出する。
まず、 細線の画像が射影された画素であって、 画面の上下方向に同じ円弧形状 が一定の間隔で並ぶものからなる領域を検出する処理を説明する。
頂点検出部 2 0 2は、 周囲の画素に比較して、 より大きい画素値を有する画素、 すなわち頂点を検出し、 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供 給する。 画面の上下方向に 1列に並ぶ画素を対象とした場合、 頂点検出部 2 0 2 は、 画面の上側に位置する画素の画素値、 および画面の下側に位置する画素の画 素値に比較して、 より大きい画素値を有する画素を頂点として検出する。 頂点検 出部 2 0 2は、 1つの画像、 例えば、 1つのフレームの画像から、 1または複数 の頂点を検出する。
1つの画面には、 フレームまたはフィールドが含まれる。 以下の説明において、 同様である。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされてい ない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の上側の画 素の画素値とを比較し、 注目画素の画素値と、 注目画素の下側の画素の画素値と を比較して、 上側の画素の画素値より大きい画素値を有し、 下側の画素の画素値 より大きい画素値を有する注目画素を検出して、 検出された注目画素を頂点とす る。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。 例えば、 1つの画像の画 素の画素値が全て同じ値であるとき、 または、 1若しくは 2の方向に対して画素 値が減少しているとき、 頂点は検出されない。 この場合、 細線の画像は、 画像デ ータに射影されていない。 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を示 す頂点情報を基に、 頂点検出部 2 0 2で検出された頂点に対して上下方向に 1列 に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候補を検出し、 頂点情報と共に、 検出した領域を示す領域情報を連続性検出部 2 0 4に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調 減少している画素値を有する画素からなる領域を、 細線の画像が射影された画素 からなる領域の候補として検出する。 単調減少とは、 頂点からの距離がより長い 画素の画素値が、 頂点からの距離が短い画素の画素値に比較して、 より小さいこ とを ヽう。
また、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調増加してい る画素値を有する画素からなる領域を、 細線の画像が射影された画素からなる領 域の候補として検出する。 単調増加とは、 頂点からの距離がより長い画素の画素 値が、 頂点からの距離が短い画素の画素値に比較して、 より大きいことをいう。 以下、 単調増加している画素値を有する画素からなる領域についての処理は、 単調減少している画素値を有する画素からなる領域についての処理と同様なので、 その説明は省略する。 細線の画像が射影された画素であって、 画面の横方向に同 じ円弧形状が一定の間隔で並ぶものからなる領域を検出する処理における、 単調 増加している画素値を有する画素からなる領域についての処理も、 単調減少して いる画素値を有する画素からなる領域についての処理と同様なので、 その説明は 省略する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して縦に 1列に各画素について、 各画素の画素値と、 上側の画素の画素値との差分、 および下側の画素の画素値と の差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する画素 を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂点 の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有する 画素からなる領域を、 細線の画像が射影された画素からなる領域の候捕として検 出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 上側の画素の画 素値の符号および下側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出することにより、 画素値が単調減少している領域から、 頂点と同じ 符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 上下方向に並び、 頂点に対して画素値 が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出する。 図 4 7は、 空間方向 Yの位置に対する画素値から、 細線の画像が射影された画 素の領域を検出する、 頂点の検出おょぴ単調増減領域の検出の処理を説明する図 である。
図 4 7乃至図 4 9において、 Pは、 頂点を示す。 図 4 1で構成が示されるデー タ定常性検出部 1 0 1の説明において、 Pは、 頂点を示す。
頂点検出部 2 0 2は、 各画素の画素値と、 これに空間方向 Yに隣接する画素の 画素値とを比較して、 空間方向 Yに隣接する 2つの画素の画素値より大きい画素 値を有する画素を検出することにより、 頂点 Pを検出する。
頂点 Pと、 頂点 Pの空間方向 Yの両側の画素とからなる領域は、 頂点 Pの画 素値に対して、 空間方向 Yの両側の画素の画素値が単調に減少する単調減少領域 である。 図 4 7において、 Aで示す矢印、 および Bで示す矢印は、 頂点 Pの両側 に存在する単調減少領域を示す。
単調増減検出部 2 0 3は、 各画素の画素値と、 その画素に空間方向 Yに隣接す る画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 単調 増減検出部 2 0 3は、 検出された、 差分の符号が変化する画素と、 その手前側 (頂点 P側) の画素との境界を、 細線の画像が射影された画素からなる細線領 域の境界とする。
図 4 7において、 差分の符号が変化する画素と、 その手前側 (頂点 P側) の 画素との境界である細線領域の境界は Cで示される。
さらに、 単調増減検出部 2 0 3は、 単調減少領域において、 各画素の画素値の 2004/001585
55
符号と、 その画素に空間方向 Yに隣接する画素の画素値の符号とを比較し、 画素 値の符号が変化する画素を検出する。 単調増減検出部 2 0 3は、 検出された、 画 素値の符号が変化する画素と、 その手前側 (頂点 Ρ側) の画素との境界を細線 領域の境界とする。
図 4 7において、 画素値の符号が変化する画素と、 その手前側 (頂点 Ρ側) の画素との境界である細線領域の境界は Dで示される。
図 4 7で示されるように、 細線の画像が射影された画素からなる細線領域 F は、 細線領域の境界 Cと、 細線領域の境界 Dとに挟まれる領域とされる。
単調増減検出部 2 0 3は、 このような単調増減領域からなる細線領域 Fの中 から、 予め定めた閾値より長い細線領域 F、 すなわち、 閾値より多い数の画素を 含む細線領域 Fを求める。 例えば、 閾値が 3であるとき、 単調増減検出部 2 0 3は、 4つ以上の画素を含む細線領域 Fを検出する。
さらに、 このように検出された細線領域 Fの中から、 単調増減検出部 2 0 3 は、 頂点 Pの画素値、 および頂点 Pの右側の画素の画素値、 および頂点 Pの左 側の画素の画素値を、 それぞれ閾値と比較し、 頂点 Pの画素値が閾値を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素の画素値 が閾値以下である頂点 Pが属する細線領域 Fを検出し、 検出された細線領域 F を細線の画像の成分を含む画素からなる領域の候捕とする。
言い換えれば、 頂点 Pの画素値が閾値以下であるか、 頂点 Pの右側の画素の 画素値が閾値を超えるか、 または頂点 Pの左側の画素の画素値が閾値を超える 頂点 Pが属する細線領域 Fは、 細線の画像の成分を含まないと判定され、 細線 の画像の成分を含む画素からなる領域の候補から除去される。
すなわち、 図 4 8で示されるように、 単調増減検出部 2 0 3は、 頂点 Pの画 素値を閾値と比較すると共に、 頂点 Pに対して、 空間方向 X (点線 AA'で示す方 向) に瞵接する画素の画素値を、 閾値と比較し、 頂点 P の画素値が閾値を超え、 空間方向 Xに隣接する画素の画素値が閾値以下である、 頂点 Pが属する細線領 域 Fを検出する。 図 4 9は、 図 4 8の点線 AA'で示す空間方向 Xに並ぶ画素の画素値を表す図で ある。 頂点 Pの画素値が閾値 T h sを超え、 頂点 Pの空間方向 Xに隣接する画素 の画素値が、 閾値 T h s以下である、 頂点 Pが属する細線領域 Fは、 細線の成分 を含む。
なお、 単調増減検出部 2 0 3は、 背景の画素値を基準として、 頂点 Pの画素 値と背景の画素値との差分を閾値と比較すると共に、 頂点 Pに対して、 空間方 向 Xに隣接する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点!3 の画素値と背景の画素値との差分が閾値を超え、 空間方向 Xに隣接する画素の画 素値と背景の画素値との差分が閾値以下である、 頂点 Pが属する細線領域 Fを 検出するようにしてもよい。
単調増減検出部 2 0 3は、 頂点 Pを基準として、 画素値が単調減少し、 画素 値の符号が頂点 Pと同じである画素からなる領域であって、 その頂点 Pが閾値 を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素 の画素値が閾値以下であるものを示す単調増減領域情報を連続性検出部 2 0 4に 供給する。
画面の上下方向に 1列に並ぶ画素であって、 細線の画像が射影されたものから なる領域を検出する場合において、 単調増減領域情報により示される領域に属す る画素は、 上下方向に並び、 細線の画像が射影された画素を含む。 すなわち、 単 調増減領域情報により示される領域は、 画面の上下方向に 1列に並ぶ画素であつ て、 細線の画像が射影されたものからなる領域を含む。
このように、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 細線の画像が 射影された画素において、 空間方向 Yの画素値の変化が、 ガウス分布に類似する という性質を利用して、 細線の画像が射影された画素からなる定常領域を検出す る。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域情 報で示される、 上下方向に並ぶ画素からなる領域のうち、 横方向に隣接している 画素を含む領域、 すなわち、 相似した画素値の変化を有し、 縦方向に重複してい る領域を、 連続している領域として検出し、 頂点情報、 およぴ検出された連続し ている領域を示すデータ定常性情報を出力する。 データ定常性情報は、 単調増減 領域情報、 および領域の繋がりを示す情報などを含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並ぶ ので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよう に一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領域と し、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定常性情 報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の細 線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧 形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3において検出された領域の候補をさらに絞り込む。 図 5 0は、 単調増減領域の連続性を検出の処理を説明する図である。
図 5 0に示すように、 連続性検出部 2 0 4は、 画面の縦方向に 1列に並ぶ画素 からなる細線領域 Fについて、 横方向に隣接する画素を含んでいるとき、 2つ の単調増減領域の間に連続性があるとし、 横方向に隣接する画素を含んでいない とき、 2つの細線領域 Fの間に連続性がないとする。 例えば、 画面の縦方向に 1列に並ぶ画素からなる細線領域 は、 画面の縦方向に 1列に並ぶ画素から なる細線領域 F0の画素と横方向に隣接する画素を含んでいるとき、 細線領域 F0 と連続しているとされる。 画面の縦方向に 1列に並ぶ画素からなる細線領域 F0 は、 画面の縦方向に 1列に並ぶ画素からなる細線領域 の画素と横方向に隣接 する画素を含んでいるとき、 細線領域 1^ と連続しているとされる。
このように、 頂点検出部 2 0 2乃至連続性検出部 2 0 4により、 画面の上下方 向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域が検出 される。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 上述したように、 画面の上下方 向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域を検出 し、 さらに、 画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射影され たものからなる領城を検出する。
なお、 処理の順序は、 本発明を限定するものではなく、 並列に実行するように しても良いことは当然である。
すなわち、 頂点検出部 2 0 2は、 画面の左右方向に 1列に並ぶ画素を対象とし て、 画面の左側に位置する画素の画素値、 および画面の右側に位置する画素の画 素値に比較して、 より大きい画素値を有する画素を頂点として検出し、 検出した 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供給する。 頂点検出部 2 0 2は、 1つの画像、 例えば、 1フレームの画像から、 1または複数の頂点を検出 する。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされてい ない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の左側の画 素の画素値とを比較し、 注目画素の画素値と、 注目画素の右側の画素の画素値と を比較して、 左側の画素の画素値より大きい画素値を有し、 右側の画素の画素値 より大きい画素値を有する注目画素を検出して、 検出された注目画素を頂点とす る。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。
単調増減検出部 2 0 3は、 頂点検出部 2 0 2で検出された頂点に対して左右方 向に 1列に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候捕 を検出し、 頂点情報と共に、 検出した領域を示す単調増減領域情報を連続性検出 部 2 0 4に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調 減少している画素値を有する画素からなる領域を、 細線の画像が射影された画素 からなる領域の候捕として検出する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して横に 1列の各画素について、 各画素の画素値と、 左側の画素の画素値との差分、 および右側の画素の画素値と の差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する画素 を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂点 の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有する 画素からなる領域を、 細線の画像が射影された画素からなる領域の候補として検 出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 左側の画素の画 素値の符号または右側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出することにより、 画素値が単調減少している領域から、 頂点と同じ 符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 左右方向に並び、 頂点に対して画素値 が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出する。 単調増減検出部 2 0 3は、 このような単調増減領域からなる細線領域の中から、 予め定めた閾値より長い細線領域、 すなわち、 閾値より多い数の画素を含む細線 領域を求める。
さらに、 このように検出された細線領域の中から、 単調増減検出部 2 0 3は、 頂点の画素値、 および頂点の上側の画素の画素値、 および頂点の下側の画素の画 素値を、 それぞれ閾値と比較し、 頂点の画素値が閾値を超え、 頂点の上側の画素 の画素値が閾値以下であり、 頂点の下側の画素の画素値が閾値以下である頂点が 属する細線領域を検出し、 検出された細線領域を細線の画像の成分を含む画素か らなる領域の候補とする。
言い換えれば、 頂点の画素値が閾値以下であるか、 頂点の上側の画素の画素値 が閾値を超えるか、 または頂点の下側の画素の画素値が閾値を超える頂点が属す る細線領域は、 細線の画像の成分を含まないと判定され、 細線の画像の成分を含 む画素からなる領域の候補から除去される。
なお、 単調増減検出部 2 0 3は、 背景の画素値を基準として、 頂点の画素値と 背景の画素値との差分を閾値と比較すると共に、 頂点に対して、 上下方向に隣接 する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点の画素値と背 景の画素値との差分が閾値を超え、 上下方向に隣接する画素の画素値と背景の画 素値との差分が閾値以下である、 検出された細線領域を細線の画像の成分を含む 画素からなる領域の候補とするようにしてもよい。
単調増減検出部 2 0 3は、 頂点を基準として、 画素値が単調減少し、 画素値の 符号が頂点と同じである画素からなる領域であって、 その頂点が閾値を超え、 頂 点の右側の画素の画素値が閾値以下であり、 頂点の左側の画素の画素値が閾値以 下であるものを示す単調増減領域情報を連続性検出部 2 0 4に供給する。
画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射影されたものから なる領域を検出する場合において、 単調増減領域情報により示される領域に属す る画素は、 左右方向に並び、 細線の画像が射影された画素を含む。 すなわち、 単 調増減領域情報により示される領域は、 画面の左右方向に並ぶ 1列の画素であつ て、 細線の画像が射影されたものからなる領域を含む。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域情 報で示される、 左右方向に並ぶ画素からなる領域のうち、 縦方向に隣接している 画素を含む領域、 すなわち、 相似した画素値の変化を有し、 横方向に重複してい る領域を、 連続している領域として検出し、 頂点情報、 および検出された連続し ている領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋 がりを示す情報を含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並ぶ ので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよう に一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領域と し、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定常性情 報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の細 線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧 形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3において検出された領域の候補をさらに絞り込む。 図 5 1は、 平面での近似により定常成分を抽出した画像の例を示す図である。 図 5 2は、 図 5 1に示す画像から頂点を検出し、 単調減少している領域を検出し た結果を示す図である。 図 5 2において、 白で示される部分が、 検出された領域 である。
図 5 3は、 図 5 2に示す画像から、 隣接している領域の連続性を検出して、 連 続性が検出された領域を示す図である。 図 5 3において、 白で示される部分が、 連続性が検出された領域である。 連続性の検出により、 領域がさらに特定されて いることがわかる。
図 5 4は、 図 5 3に示す領域の画素値、 すなわち、 連続性が検出された領域の 画素値を示す図である。
このように、 データ定常性検出部 1 0 1は、 入力画像であるデータ 3に含まれ ている定常性を検出することができる。 すなわち、 データ定常性検出部 1 0 1は、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3 に含まれるデータの定常性を検出することができる。 データ定常性検出部 1 0 1 は、 データ 3から、 細線である実世界 1の画像が射影された画素からなる領域を 検出する。
図 5 5は、 定常性検出部 1 0 1における、 細線の画像が射影された、 定常性を 有する領域の検出の他の処理の例を示す図である。 定常性検出部 1 0 1は、 図 5 5に示すように、 各画素について、 隣接する画素との画素値の差分の絶対値を計 算する。 計算された差分の絶対値は、 画素に対応させて、 配置される。 例えば、 図 5 5に示すように、 画素値がそれぞれ P0、 Pl、 P2である画素が並んでいると き、 定常性検出部 1 0 1は、 差分 dO=PO-Plおよび差分 dl=P l-P2を計算する。 さらに、 定常性検出部 1 0 1は、 差分 doおよび差分 dlの絶対値を算出する。 画素値 P0、 Pl、 および P2に含まれている非定常性成分が同一であるとき、 差 分 dOおよび差分 dlには、 細線の成分に対応した値のみが設定されることにな る。
従って、 定常性検出部 1 0 1は、 画素に対応させて配置されている差分の絶対- 値のうち、 隣り合う差分の値が同一であるとき、 その 2つの差分の絶対値に対応 する画素 (2つの差分の絶対値に挟まれた画素) に細線の成分が含まれていると 判定する。 なお、 定常性検出部 1 0 1は、 画素に対応させて配置されている差分 の絶対値のうち、 隣り合う差分の値が同一である場合、 差分の絶対値が所定の閾 値より小さいとき、 その 2つの差分の絶対値に対応する画素 ( 2つの差分の絶対 値に挟まれた画素) に細線の成分が含まれていないと判定する。
定常性検出部 1 0 1においては、 このような、 簡便な方法で細線を検出するこ ともできる。
図 5 6は、 定常性検出の処理を説明するフローチャートである。
ステップ S 2 0 1において、 非定常成分抽出部 2 0 1は、 入力画像から、 細線 が射影された部分以外の部分である非定常成分を抽出する。 非定常成分抽出部 2 0 1は、 入力画像と共に、 抽出された非定常成分を示す非定常成分情報を頂点検 出部 2 0 2および単調増減検出部 2 0 3に供給する。 非定常成分の抽出の処理の 詳細は、 後述する。
ステップ S 2 ◦ 2において、 頂点検出部 2 0 2は、 非定常成分抽出部 2 0 1か ら供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入力画 像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 2において、 頂点 検出部 2 0 2は、 頂点を検出する。
すなわち、 頂点検出部 2 0 2は、 画面の縦方向を基準として、 処理を実行する 場合、 定常成分を含む画素について、 各画素の画素値と、 上側および下側の画素 の画素値とを比較して、 上側の画素の画素値おょぴ下側の画素の画素値より大き い画素値を有する画素を検出することにより、 頂点を検出する。 また、 ステップ S 2 0 2において、 頂点検出部 2 0 2は、 画面の横方向を基準として、 処理を実 行する場合、 定常成分を含む画素について、 各画素の画素値と、 右側および左側 の画素の画素値とを比較して、 右側の画素の画素値おょぴ左側の画素の画素値よ り大きい画素値を有する画素を検出することにより、 頂点を検出する。
頂点検出部 2 0 2は、 検出した頂点を示す頂点情報を単調増減検出部 2 0 3に 供給する。
ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 非定常成分抽出部 2 0 1から供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入 力画像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を示す 頂点情報を基に、 頂点に対する単調増減を検出することにより、 データの定常性 を有する画素からなる領域を検出する。
単調増減検出部 2 0 3は、 画面の縦方向を基準として、 処理を実行する場合、 頂点の画素値、 および頂点に対して縦に 1列に並ぶ画素の画素値を基に、 縦に並 ぶ 1列の画素であって、 1つの細線の画像が射影された画素からなる単調増減を 検出することにより、 データの定常性を有する画素からなる領域を検出する。 す なわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の縦方向を 基準として、 処理を実行する場合、 頂点および頂点に対して縦に 1列に並ぶ画素 について、 各画素の画素値と、 上側または下側の画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点お よび頂点に対して縦に 1列に並ぶ画素について、 各画素の画素値の符号と、 その 画素の上側または下側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並びに頂 点の右側および左側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値を超 え、 右側および左側の画素の画素値が閾値以下である画素からなる領域を検出す る。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
また、 単調増減検出部 2 0 3は、 画面の横方向を基準として、 処理を実行する 場合、 頂点の画素値、 および頂点に対して横に 1列に並ぶ画素の画素値を基に、 横に並ぶ 1列の画素であって、 1つの細線の画像が射影された画素からなる単調 増減を検出することにより、 データの定常性を有する画素からなる領域を検出す る。 すなわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の横 方向を基準として、 処理を実行する場合、 頂点および頂点に対して横に 1列に並 ぶ画素について、 各画素の画素値と、 左側または右側の画素の画素値との差分を 求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点おょぴ頂点に対して横に 1列に並ぶ画素について、 各画素の画素値の符号と、 その画素の左側または右側の画素の画素値の符号とを比較し、 画素値の符号が変 化する画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並ぴ に頂点の上側おょぴ下側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値 を超え、 上側および下側の画素の画素値が閾値以下である画素からなる領域を検 出する。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
ステップ S 2 0 4において、 単調増減検出部 2 0 3は、 全画素の処理が終了し たか否かを判定する。 例えば、 非定常成分抽出部 2 0 1は、 入力画像の 1つの画 面 (例えば、 フレームまたはフィールドなど) の全画素について、 頂点を検出し、 単調増減領域を検出したか否かを判定する。
ステップ S 2 0 4において、 全画素の処理が終了していない、 すなわち、 頂点 の検出おょぴ単調増減領域の検出の処理の対象とされていない画素がまだあると 判定された場合、 ステップ S 2 0 2に戻り、 頂点の検出および単調増減領域の検 出の処理の対象とされていない画素から処理の対象となる画素を選択して、 頂点 の検出および単調増減領域の検出の処理を繰り返す。
ステップ S 2 0 4において、 全画素の処理が終了した、 すなわち、 全ての画素 を対象として頂点おょぴ単調増減領域が検出されたと判定された場合、 ステップ S 2 0 5に進み、 連続性検出部 2 0 4は、 単調増減領域情報を基に、 検出された 領域の連続性を検出する。 例えば、 連続性検出部 2 0 4は、 単調増減領域情報で 示される、 画面の縦方向に 1列に並ぶ画素からなる単調増減領域について、 横方 向に隣接する画素を含んでいるとき、 2つの単調増減領域の間に連続性があると し、 横方向に隣接する画素を含んでいないとき、 2つの単調増減領域の間に連続 性がないとする。 例えば、 連続性検出部 2 0 4は、 単調増減領域情報で示される、 画面の横方向に 1列に並ぶ画素からなる単調増減領域について、 縦方向に隣接す る画素を含んでいるとき、 2つの単調増減領域の間に連続性があるとし、 縦方向 に隣接する画素を含んでいないとき、 2つの単調増減領域の間に連続性がないと する。
連続性検出部 2 0 4は、 検出された連続している領域をデータの定常性を有す る定常領域とし、 頂点の位置および定常領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋がりを示す情報を含んでいる。 連続性検出部 2 0 4から出力されるデータ定常性情報は、 実世界 1の細線の画像が射影された画素 からなる、 定常領域である細線領域を示す。
ステップ S 2 0 6において、 定常性方向検出部 2 0 5は、 全画素の処理が終了 したか否かを判定する。 すなわち、 定常性方向検出部 2 0 5は、 入力画像の所定 のフレームの全画素について、 領域の連続性を検出したか否かを判定する。
ステップ S 2 0 6において、 全画素の処理が終了していない、 すなわち、 領域 の連続性の検出の処理の対象とされていない画素がまだあると判定された場合、 ステップ S 2 0 5に戻り、 領域の連続性の検出の処理の対象とされていない画素 から処理の対象となる画素を選択して、 領域の連続性の検出の処理を繰り返す。 ステップ S 2 0 6において、 全画素の処理が終了した、 すなわち、 全ての画素 を対象として領域の連続性が検出されたと判定された場合、 処理は終了する。 このように、 入力画像であるデータ 3に含まれている定常性が検出される。 す なわち、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3に含まれるデータの定常性が検出され、 データ 3から、 細線である実世 界 1の画像が射影された画素からなる、 データの定常性を有する領域が検出され る。
なお、 図 4 1で構成が示されるデータ定常性検出部 1 0 1は、 データ 3のフレ ームから検出されたデータの定常性を有する領域を基に、 時間方向のデータの定 常性を検出することができる。
例えば、 図 5 7に示すように、 連続性検出部 2 0 4は、 フレーム #n において、 検出されたデータの定常性を有する領域く フレーム - 1において、 検出された データの定常性を有する領域、 およびフレーム #n+ lにおいて、 検出されたデー タの定常性を有する領域を基に、 領域の端部を結ぶことにより、 時間方向のデー タの定常性を検出する。
フレーム #n-lは、 フレーム #nに対して時間的に前のフレームであり、 フレー ム #n+lは、 フレーム に対して時間的に後のフレームである。 すなわち、 フレ ーム #n_ l、 フレーム #n、 およびフレーム #n+l は、 フレーム #n_ l、 フレーム 、 およびフレーム +1の順で表示される。
より具体的には、 図 5 7において、 Gは、 フレーム #nにおいて、 検出された データの定常性を有する領域、 フレーム #n-lにおいて、 検出されたデータの定 常性を有する領域、 およびフレーム +1において、 検出されたデータの定常性 を有する領域のそれぞれの一端を結ぶことにより得られた動きべク トルを示し、 G ' は、 検出されたデータの定常性を有する領域のそれぞれの他の一端を結ぶこ とにより得られた動きべクトルを示す。 動きべク トル Gおよび動きべク トル G ' は、 時間方向のデータの定常性の一例である。
さらに、 図 4 1で構成が示されるデータ定常性検出部 1 0 1は、 データの定常 性を有する領域の長さを示す情報を、 データ定常性情報として出力することがで さる。
図 5 8は、 データの定常性を有しない画像データの部分である非定常成分を平 面で近似して、 非定常成分を抽出する、 非定常成分抽出部 2 0 1の構成を示すプ 口ック図である。
図 5 8に構成を示す非定常成分抽出部 2 0 1は、 入力画像から所定の数の画素 でなるプロックを抽出し、 プロックと平面で示される値との誤差が所定の閾値未 満になるように、 ブロックを平面で近似して、 非定常成分を抽出する。
入力画像は、 プロック抽出部 2 2 1に供給されるとともに、 そのまま出力され る。
ブロック抽出部 2 2 1は、 入力画像から、 所定の数の画素からなるブロックを 抽出する。 例えば、 ブロック抽出部 2 2 1は、 7 X 7の画素からなるブロックを 抽出し、 平面近似部 2 2 2に供給する。 例えば、 プロック抽出部 2 2 1は、 抽出 されるプロックの中心となる画素をラスタスキャン順に移動させ、 順次、 入力画 像からプロックを抽出する。
平面近似部 2 2 2は、 プロックに含まれる画素の画素値を所定の平面で近似す る。 例えば、 平面近似部 2 2 2は、 式 (2 4 ) で表される平面でプロックに含ま れる画素の画素値を近似する。
z=ax+by+c · · ■ 2 4 ) 式 (2 4 ) において、 Xは、 画素の画面上の一方の方向 (空間方向 X ) の位置 を示し、 yは、 画素の画面上の他の一方の方向 (空間方向 Y ) の位置を示す。 z は、 平面で示される近似値を示す。 a は、 平面の空間方向 Xの傾きを示し、 b は、 平面の空間方向 Yの傾きを示す。 式 (2 4 ) において、 cは、 平面のオフセット (切片) を示す。
例えば、 平面近似部 2 2 2は、 回帰の処理により、 傾き a、 傾き b、 およぴォ フセット cを求めることにより、 式 (2 4 ) で表される平面で、 ブロックに含 まれる画素の画素値を近似する。 平面近似部 2 2 2は、 棄却を伴う回帰の処理に より、 傾き a、 傾き b、 およびオフセット cを求めることにより、 式 ( 2 4 ) で 表される平面で、 プロックに含まれる画素の画素値を近似する。
例えば、 平面近似部 2 2 2は、 最小自乗法により、 ブロックの画素の画素値に 対して、 誤差が最小となる式 (2 4 ) で表される平面を求めることにより、 平面 でプロックに含まれる画素の画素値を近似する。
なお、 平面近似部 2 2 2は、 式 (2 4 ) で表される平面でブロックを近似する と説明したが、 式 (2 4 ) で表される平面に限らず、 より高い自由度をもった関 数、 例えば、 n次 (nは、 任意の整数) の多項式で表される面でプロックを近似 するようにしてもよい。
繰り返し判定部 2 2 3は、 プロックの画素値を近似した平面で示される近似値 と、 ブロックの対応する画素の画素値との誤差を計算する。 式 ( 2 5 ) は、 プロ ックの画素値を近似した平面で示される近似値と、 プロックの対応する画素の画 素値 z i との差分である誤差 e iを示す式である。
e. = z . -z =∑j - ( j + y j +c)
• · ■ ( 2 5 ) 式 (2 5 ) において、 zハット (zに"を付した文字を zハットと記述する。 以下、 本明細書において、 同様に記載する。 ) は、 ブロックの画素値を近似した 平面で示される近似値を示し、 a ノ、ットは、 プロックの画素値を近似した平面の 空間方向 Xの傾きを示し、 bハットは、 ブロックの画素値を近似した平面の空間 方向 Yの傾きを示す。 式 (2 5 ) において、 c ノ、ットは、 プロックの画素値を近 似した平面のオフセット (切片) を示す。
繰り返し判定部 2 2 3は、 式 ( 2 5 ) で示される、 近似値とプロックの対応す る画素の画素値との誤差 ei力 S、 最も大きい画素を棄却する。 このようにするこ とで、 細線が射影された画素、 すなわち定常性を有する画素が棄却されることに なる。 繰り返し判定部 2 2 3は、 棄却した画素を示す棄却情報を平面近似部 2 2 2に供給する。
さらに、 繰り返し判定部 2 2 3は、 標準誤差を算出して、 標準誤差が、 予め定 めた近似終了判定用の閾値以上であり、 プロックの画素のうち、 半分以上の画素 が棄却されていないとき、 繰り返し判定部 2 2 3は、 平面近似部 2 2 2に、 プロ ックに含まれる画素のうち、 棄却された画素を除いた画素を対象として、 平面に よる近似の処理を繰り返させる。
定常性を有する画素が棄却されるので、 棄却された画素を除いた画素を対象と して平面で近似をすることにより、 平面は、 非定常成分を近似することになる。 繰り返し判定部 223は、 標準誤差が、 近似終了判定用の閾値未満であるとき、 または、 ブロックの画素のうち、 半分以上の画素が棄却されたとき、 平面による 近似を終了する。
5 X 5の画素からなるブロックについて、 標準誤差 es は、 例えば、 式 (2 6) で算出される。
Figure imgf000071_0001
=∑ ((Zj-(aXi+Dyj+c)}/(n-3)
• · · (26) ここで、 nは、 画素の数である。
なお、 繰り返し判定部 223は、 標準誤差に限らず、 ブロックに含まれる全て の画素についての誤差の 2乗の和を算出して、 以下の処理を実行するようにして もよい。
ここで、 ラスタスキャン方向に 1画素ずつずれたプロックを平面で近似すると き、 図 59に示すように、 図中黒丸で示す、 定常性を有する画素、 すなわち細線 の成分を含む画素は、 複数回棄却されることになる。
繰り返し判定部 223は、 平面による近似を終了したとき、 ブロックの画素値 を近似した平面を示す情報 (式 (24) の平面の傾きおよび切片) を、 非定常成 分情報として出力する。
なお、 繰り返し判定部 223は、 画素毎の棄却された回数と予め定めた閾値と を比較して、 棄却された回数が閾値以上である画素を定常成分を含む画素である として、 定常成分を含む画素を示す情報を定常成分情報として出力するようにし てもよい。 この場合、 頂点検出部 20 2乃至定常性方向検出部 205は、 定常成 分情報で示される、 定常成分を含む画素を対象として、 それぞれの処理を実行す る。
図 60乃至図 67を参照して、 非定常成分抽出の処理の結果の例を説明する。 図 60は、 細線が含まれる画像から、 元の画像の 2 X 2の画素の画素値の平均 値を画素値として生成した入力画像の例を示す図である。
図 6 1は、 図 6 0で示される画像を、 棄却をしないで平面で近似した結果得ら れる標準誤差を画素値とした画像を示す図である。 図 6 1で示される例において、 注目している 1つの画素に対する 5 X 5の画素からなるプロックを平面で近似し た。 図 6 1において、 白い画素はより大きい画素値、 すなわち、 より大きい標準 誤差を有する画素であり、 黒い画素はより小さい画素値、 すなわち、 より小さい 標準誤差を有する画素である。
図 6 1から、 棄却をしないで平面で近似した結果得られる標準誤差を画素値と した場合、 非定常部の周辺に広く、 大きな値が求められていることが確認できる。 図 6 2乃至図 6 7で示される例において、 注目している 1つの画素に対する 7 X 7の画素からなるブロックを平面で近似した。 7 X 7の画素からなるプロック を平面で近似する場合、 1つの画素が 4 9のブロックに繰り返し含まれることに なるので、 定常成分を含む画素は、 最も多くて 4 9回、 棄却されることになる。 図 6 2は、 図 6 0で示される画像を、 棄却をして平面で近似したとき、 得られ る標準誤差を画素値とした画像である。
図 6 2において、 白い画素はより大きい画素値、 すなわち、 より大きい標準誤 差を有する画素であり、 黒い画素はより小さい画素値、 すなわち、 より小さい標 準誤差を有する画素である。 棄却をしない場合に比較して、 棄却をした場合、 全 体として、 標準誤差がより小さくなることがわかる。
図 6 3は、 図 6 0で示される画像を、 棄却をして平面で近似したとき、 棄却さ れた回数を画素値とした画像を示す図である。 図 6 3において、 白い画素はより 大きい画素値、 すなわち、 棄却された回数がより多い画素であり、 黒い画素はよ り小さい画素値、 すなわち、 棄却された回数がより少ない画素である。
図 6 3から、 細線の画像が射影された画素は、 より多く棄却されていることが わかる。 棄却された回数を画素値とした画像を用いて、 入力画像の非定常部をマ スクする画像を生成することも可能である。
図 6 4は、 ブロックの画素値を近似した平面の空間方向 Xの傾きを画素値とし た画像を示す図である。 図 6 5は、 ブロックの画素値を近似した平面の空間方向 Yの傾きを画素値とした画像を示す図である。
図 6 6は、 ブロックの画素値を近似した平面で示される近似値からなる画像を 示す図である。 図 6 6で示される画像からは、 細線が消えていることがわかる。 図 6 7は、 図 6 0で示される、 元の画像の 2 X 2の画素のプロックの平均値を 画素の画素値として生成した画像と、 図 6 6で示される、 平面で示される近似値 からなる画像との差分からなる画像を示す図である。 図 6 7の画像の画素値は、 非定常成分が除去されるので、 細線の画像が射影された値のみを含む。 図 6 7か らもわかるように、 元の画素値と近似した平面で示される近似値との差分からな る画像では、 元の画像の定常成分がうまく抽出できていることが確認できる。 棄却された回数、 プロックの画素の画素値を近似する平面の空間方向 Xの傾き、 プロックの画素の画素値を近似する平面の空間方向 Yの傾き、 プロックの画素の 画素値を近似する平面で示される近似値、 および誤差 は、 入力画像の特徴量 としても利用することができる。
図 6 8は、 ステップ S 2 0 1に対応する、 図 5 8に構成を示す非定常成分抽出 部 2 0 1による、 非定常成分の抽出の処理を説明するフローチャートである。 ステップ S 2 2 1において、 プロック抽出部 2 2 1は、 入力画素から、 所定の 数の画素からなるプロックを抽出し、 抽出したプロックを平面近似部 2 2 2に供 給する。 例えば、 ブロック抽出部 2 2 1は、 入力画素から、 まだ、 選択されてい ない画素のうち、 1つの画素を選択し、 選択された画素を中心とする 7 X 7の画 素からなるプロックを抽出する。 例えば、 ブロック抽出部 2 2 1は、 ラスタスキ ャン順に画素を選択することができる。
ステップ S 2 2 2において、 平面近似部 2 2 2は、 抽出されたブロックを平面 で近似する。 平面近似部 2 2 2は、 例えば、 回帰の処理により、 抽出されたプロ ックの画素の画素値を、 平面で近似する。 例えば、 平面近似部 2 2 2は、 回帰の 処理により、 抽出されたブロックの画素のうち、 棄却された画素を除いた画素の 画素ィ直を、 平面で近似する。 ステップ S 2 2 3において、 繰り返し判定部 2 2 3 は、 繰り返し判定を実行する。 例えば、 プロックの画素の画素値と近似した平面 の近似値とから標準誤差を算出し、 棄却された画素の数を力ゥントすることによ り、 繰り返し判定を実行する。
ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 標準誤差が閾値以上で あるか否かを判定し、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画素 のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上である か否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却されておらず、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進むようにし てもよい。
ステップ S 2 2 5において、 繰り返し判定部 2 2 3は、 ブロックの画素毎に、 画素の画素値と近似した平面の近似値との誤差を算出し、 誤差が最も大きい画素 を棄却し、 平面近似部2 2 2に通知する。 手続きは、 ステップ S 2 2 2に戻り、 棄却された画素を除いた、 プロックの画素を対象として、 平面による近似の処理 および繰り返し判定の処理が繰り返される。
ステップ S 2 2 5において、 ラスタスキャン方向に 1画素ずつずれたブロック がステップ S 2 2 1の処理で抽出される場合、 図 5 9に示すように、 細線の成分 を含む画素 (図中の黒丸で示す) は、 複数回棄却されることになる。
ステップ S 2 2 4において、 標準誤差が閾値以上でないと判定された場合、 プ 口ックが平面で近似されたので、 ステップ S 2 2 6に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画素 のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上である か否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却されたか、 また は標準誤差が閾値以上でないと判定された場合、 ステップ S 2 2 5に進むように してもよい。
ステップ S 2 2 6において、 繰り返し判定部 2 2 3は、 ブロックの画素の画素 2004/001585
73
値を近似する平面の傾きおよび切片を、 非定常成分情報として出力する。
ステップ S 2 2 7において、 ブロック抽出部 2 2 1は、 入力画像の 1つの画面 の全画素について処理を終了したか否かを判定し、 まだ処理の対象となってない 画素があると判定された場合、 ステップ S 2 2 1に戻り、 まだ処理の対象となつ ていない画素からブロックを抽出して、 上述した処理を繰り返す。
ステップ S 2 2 7において、 入力画像の 1つの画面の全画素について、 処理を 終了したと判定された場合、 処理は終了する。
このように、 図 5 8に構成を示す非定常成分抽出部 2 0 1は、 入力画像から非 定常成分を抽出することができる。 非定常成分抽出部 2 0 1が入力画像の非定常 成分を抽出するので、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画 像と、 非定常成分抽出部 2 0 1で抽出された非定常成分との差分を求めることに より、 定常成分を含む差分を対象として処理を実行することができる。
なお、 平面による近似の処理において算出される、 棄却した場合の標準誤差、 棄却しない場合の標準誤差、 画素の棄却された回数、 平面の空間方向 Xの傾き (式 (2 4 ) における aハット) 、 平面の空間方向 Yの傾き (式 (2 4 ) にお ける bハッ ト) 、 平面で置き換えたときのレベル (式 (2 4 ) における cハツ ト) 、 および入力画像の画素値と平面で示される近似値との差分は、 特徴量とし て利用することができる。
図 6 9は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 5 8に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の処理を説明 するフローチヤ一トである。 ステップ S 2 4 1乃至ステップ S 2 4 5の処理は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明は省略す る。
ステップ S 2 4 6において、 繰り返し判定部 2 2 3は、 平面で示される近似値 と入力画像の画素値との差分を、 入力画像の定常成分として出力する。 すなわち、 繰り返し判定部 2 2 3は、 平面による近似値と、 真値である画素値との差分を出 力する。 なお、 繰り返し判定部 2 2 3は、 平面で示される近似値と入力画像の画素値と の差分が、 所定の閾値以上である画素の画素値を、 入力画像の定常成分として出 力するようにしてもよい。
ステップ S 2 4 7の処理は、 ステップ S 2 2 7の処理と同様なので、 その説明 は省略する。
平面が非定常成分を近似しているので、 非定常成分抽出部 2 0 1は、 入力画像 の各画素の画素値から、 画素値を近似する平面で示される近似値を引き算するこ とにより、 入力画像から非定常成分を除去することができる。 この場合、 頂点検 出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像の定常成分、 すなわち細線の画 像が射影された値のみを処理の対象とすることができ、 頂点検出部 2 0 2乃至連 続性検出部 2 0 4における処理がより容易になる。
図 7 0は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 5 8に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の他の処理を 説明するフローチヤ一トである。 ステップ S 2 6 1乃至ステップ S 2 6 5の処理 は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明は省 略する。
ステップ S 2 6 6において、 繰り返し判定部 2 2 3は、 画素毎の、 棄却の回数 を記憶し、 ステップ S 2 6 2に戻り、 処理を繰り返す。
ステップ S 2 6 4において、 標準誤差が閾値以上でないと判定された場合、 プ ロックが平面で近似されたので、 ステップ S 2 6 7に進み、 繰り返し判定部 2 2 3は、 入力画像の 1つの画面の全画素について処理を終了したか否かを判定し、 まだ処理の対象となってない画素があると判定された場合、 ステップ S 2 6 1に 戻り、 まだ処理の対象となっていない画素についてブロックを抽出して、 上述し た処理を繰り返す。
ステップ S 2 6 7において、 入力画像の 1つの画面の全画素について、 処理を 終了したと判定された場合、 ステップ S 2 6 8に進み、 繰り返し判定部 2 2 3は、 まだ選択されていない画素から 1つの画素を選択し、 選択された画素について、. 棄却の回数が、 閾値以上であるか否かを判定する。 例えば、 繰り返し判定部 2 2 3は、 ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 予 め記憶している閾値以上であるか否かを判定する。
ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値以 上であると判定された場合、 選択された画素が定常成分を含むので、 ステップ S 2 6 9に進み、 繰り返し判定部 2 2 3は、 選択された画素の画素値 (入力画像に おける画素値) を入力画像の定常成分として出力し、 ステップ S 2 7 0に進む。 ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値以 上でないと判定された場合、 選択された画素が定常成分を含まないので、 ステツ プ S 2 6 9の処理をスキップして、 手続きは、 ステップ S 2 7 0に進む。 すなわ ち、 棄却の回数が、 閾値以上でないと判定された画素は、 画素値が出力されない。 なお、 棄却の回数が、 閾値以上でないと判定された画素について、 繰り返し判 定部 2 2 3は、 0を設定した画素値を出力するようにしてもよい。
ステップ S 2 7 0において、 繰り返し判定部 2 2 3は、 入力画像の 1つの画面 の全画素について、 棄却の回数が閾値以上であるか否かの判定の処理を終了した か否かを判定し、 全画素について処理を終了していないと判定された場合、 まだ 処理の対象となってない画素があるので、 ステップ S 2 6 8に戻り、 まだ処理の 対象となっていない画素から 1つの画素を選択して、 上述した処理を操り返す。 ステップ S 2 7 0において、 入力画像の 1つの画面の全画素について処理を終 了したと判定された場合、 処理は終了する。
このように、 非定常成分抽出部 2 0 1は、 定常成分情報として、 入力画像の画 素のうち、 定常成分を含む画素の画素値を出力することができる。 すなわち、 非 定常成分抽出部 2 0 1は、 入力画像の画素のうち、 細線の画像の成分を含む画素 の画素値を出力することができる。
図 7 1は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 5 8に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出のさらに他の 処理を説明するフローチヤ一トである。 ステップ S 2 8 1乃至ステップ S 2 8 8 の^;理は、 ステップ S 2 6 1乃至ステップ S 2 6 8の処理と同様なので、 その説 明は省略する。
ステップ S 2 8 9において、 繰り返し判定部 2 2 3は、 平面で示される近似値 と、 選択された画素の画素値との差分を入力画像の定常成分として出力する。 す なわち、 繰り返し判定部 2 2 3は、 入力画像から非定常成分を除去した画像を定 常性情報として出力する。
ステップ S 2 9 0の処理は、 ステップ S 2 7 0の処理と同様なので、 その説明 は省略する。
このように、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した 画像を定常性情報として出力することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した、 第 1の画像データの複数の画素の画素値の不連続部を検出し、 検 出された不連続部からデータの定常性を検出し、 検出されたデータの定常性を基 に、 現実世界の光信号の定常性を推定することにより光信号を近似するモデル (関数) を生成し、 生成された関数に基づき第 2の画像データを生成するように した場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理結果を得 ることができるようになる。
図 7 2は、 データ定常性検出部 1 0 1の他の構成を示すプロック図である。 図 4 1に示す場合と同様の部分には、 同一の番号を付してあり、 その説明は省略す る。
図 7 2で構成が示されるデータ定常性検出部 1 0 1において、 連続性検出部 2 0 4により検出された単調増減領域の中の、 第 1の単調増減領域に配される複数 の第 1の画素の画素値の変化と、 第 1の単調増減領域に隣接する第 2の単調増減 領域に配される、 複数の第 1の画素に隣接する複数の第 2の画素の画素値の変化 とに基づいて、 定常領域の連続性の方向が検出される。
図 7 2で構成が示されるデータ定常性検出部 1 0 1において、 入力画像は、 非 定常成分抽出部 2 0 1およびデータ定常性方向検出部 3 0 1に供給される。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 3 およびデータ定常性方向検出部 3 0 1に供給する。
連続性検出部 2 0 4は、 頂点情報、 および連続している領域 (細線領域 (単調 増減領域) ) を示すデータ定常性情報をデータ定常性方向検出部 3 0 1に供給す る。
データ定常性方向検出部 3 0 1は、 入力画像、 頂点検出部 2 0 2から供給され た頂点を示す頂点情報、 および連続性検出部 2 0 4により検出された連続してい る領域に属する画素値を基に、 データの定常性を有する定常領域の連続する方向 である、 定常領域の連続性の方向を検出する。 データ定常性方向検出部 3 0 1は、 頂点情報、 検出された連続している領域、 および定常領域の連続性の方向を示す データ定常性情報を出力する。
図 7 3は、 データ定常性方向検出部 3 0 1の構成を示すブロック図である。 す なわち、 データ定常性方向検出部 3 0 1は、 画素値変化検出部 3 2 1および方向 検出部 3 2 2を含む。
画素値変化検出部 3 2 1は、 入力画像、 頂点検出部 2 0 2から供給された頂点 を示す頂点情報、 および連続性検出部 2 0 4により検出された連続している領域 (細線領域 (単調増減領域) ) に属する画素値を基に、 領域における画素値の変 化を検出し、 画素値の変化を示す情報を方向検出部 3 2 2に供給する。
より具体的には、 画素値変化検出部 3 2 1は、 連続性検出部 2 0 4によって検 出された連続している領域毎に、 頂点の画素値と、 領域に属する各画素の画素値 との差分を計算する。 また、 画素値変化検出部 3 2 1は、 領域に属する画素であ つて、 領域と隣接している他の領域の頂点と隣接している画素の画素値と、 領域 に属する各画素の画素値との差分を計算する。 画素値変化検出部 3 2 1は、 領域 に属する各画素に対応して、 頂点の画素値との差分、 および領域と隣接している 他の領域の頂点と隣接している画素の画素値と、 領域に属する各画素の画素値と の差分を示す情報を方向検出部 3 2 2に供給する。
方向検出部 3 2 2は、 画素値変化検出部 3 2 1から供給された、 画素値の変化 を示す情報を基に、 データの定常性を有する定常領域の連続する方向である、 定 常領域の連続性の方向を検出する。
より具体的には、 方向検出部 3 2 2は、 領域に属する頂点の画素値と領域に属 する画素の画素値との差分で示される頂点からの減分が、 領域と隣接している他 の領域における、 頂点と隣接している画素の画素値と、 領域に属する画素と隣接 する画素の画素値との差分で示される増分と一致するとき、 領域と隣接する領域 とから定まる方向を、 定常領域の連続性の方向として検出する。
図 7 4は、 細かい繰り返し模様をイメージセンサであるセンサ 2で撮像したと き現れるビー 1、状の画像、 いわゆるモアレが含まれている入力画像の例を示す図 である。
モアレを含む画像においては、 図 7 5に示すように、 単に、 細線領域に隣接す る画素が含まれているか否かによって連続性を検出した場合、 正しい細線の方向
(定常領域の連続性の方向) Aと共に、 間違った細線の方向 Bが検出されてしま
5。
そこで、 本発明においては、 細線の画像が射影されたデータ 3の性質を利用し て、 データ 3における定常領域の連続性の正しい方向を求める。
図 7 6は、 細線の画像が射影されたデータ 3の画素を示す図である。 図 7 6に おいて、 横方向は、 空間方向 Xを示し、 縦方向は、 空間方向 Yを示す。 図 7 6に おいて、 2本の点線の間の領域は、 1本の細線の画像が射影された領域を示す。 図 7 6において、 Pは、 頂点を示す。
図 7 7は、 図 7 6の細線の画像が射影されたデータ 3における、 3列の画素の 画素値を示す図である。
図 7 7において、 図の上方向は、 画素値を示し、 図の右上方向は、 空間方向 Y を示し、 図の右下方向は、 空間方向 Xを示す。 図 7 7において、 Pは、 頂点を示 す。
図 7 7に示すように、 細線の画像が射影されたデータ 3の画素の画素値で表さ れる波形は、 模式的に円弧状になる。 細線の画像は、 部位にかかわらず、 ほぼ同等の径を有し、 同じレベルを有する ので、 一定の長さの細線の画像を射影することにより得られた画素値の総和は、 常に一定になる。 換言すれば、 一定の長さの細線の画像が複数の画素の画素値に 射影されているとき、 複数の画素の画素値のうち、 一定の長さの細線の画像が射 影された値は、 一定になる。
すなわち、 細線領域に属する画素において、 頂点 Pに比較して、 画素値が減 少しているとき、 減少した画素値に対応する細線の画像は、 他の細線領域の他の 画素に射影されている。
図 7 2で構成が示されるデータ定常性検出部 1 0 1は、 一定の長さの細線の画 像が射影された画素値の総和が、 常に一定になる性質を利用して、 細線の方向に 対応する、 定常領域の連続性の正しい方向を求める。 すなわち、 図 7 2で構成が 示されるデータ定常性検出部 1 0 1は、 細線領域に属する画素において、 画素値 が減少しているとき、 細線の正しい方向に対応する位置の細線領域の画素の画素 値が、 減少分に対応して増加することを利用して、 細線の方向に対応する、 定常 領域の連続性の正しい方向を求める。
図 7 8に示すように、 頂点 Pの画素に隣接する画素であって、 頂点 Pと同じ 細線領域に属する画素 の画素値が、 頂点 Pの画素値に比較して、 減少してい るとき、 減少した画素値は、 画素 eiに隣接する画素であって、 頂点 Pの属する 細線領域に隣接する細線領域に属する画素 e2に分配されたと考えられる。
すなわち、 図 7 9に示すように、 頂点 Pの画素値から画素 eiの画素値への減 少分 Aの絶対値は、 頂点 Pの属する細線領域に隣接する細線領域に属し、 頂点 P に隣接する画素 から、 画素 に隣接する画素 e2への増加分 Bの絶対値に等し い。
さらに、 図 8 0に示すように、 頂点 Pと同じ細線領域に属し、 画素 eiにさら に隣接する画素 e4の画素値が、 頂点 P の画素値に比較して、 減少しているとき、 減少した画素値は、 画素 e4に隣接する画素であって、 頂点 Pの属する細線領域 に隣接する細線領域に属する画素 e5に分配されたと考えられる。 図 8 1に示すように、 頂点 Pの画素値から画素 e4の画素値への減少分 Cの絶 対値は、 頂点 Pの属する細線領域に隣接する細線領域に属し、 頂点 Pに隣接す る画素 e3から、 画素 e4に隣接する画素 e5への増加分 Dの絶対値に等しい。
データ定常性方向検出部 3 0 1は、 1つの細線領城に 2つ以上の細線領域が連 続しているとき、 細線領域の画素値の変化に対応して、 画素値が変化する画素値 を含む細線領域を定常性方向として検出する。 すなわち、 データ定常性方向検出 部 3 0 1は、 1つの細線領域に 2つ以上の細線領域が連続しているとき、 細線領 域の画素値の増加に対応して、 画素値が減少する画素値を含む細線領域を定常性 方向として検出するか、 細線領域の画素値の減少に対応して、 画素値が増加する 画素値を含む細線領域を定常領域の連続性の方向として検出する。
図 8 2乃至図 8 4は、 処理の結果の例を示す図である。
図 8 2は、 入力された画像の例を示す図である。 図 8 2において、 図中の右上 がりに細線の画像が含まれている。
定常性の方向の検出の処理を実行しないで、 誤った方向を採用して画像を処理 した場合、 図 8 3に示すように、 細線の画像は、 消失してしまう。 図 8 3に示す 場合において、 図中の左上がりに細線の画像が含まれていると判断されたもので ある。
これに対して、 図 8 4に示すように、 定常性の方向の検出の処理を実行した場 合、 正しい定常性の方向が検出され、 細線の画像が生成されている。
次に、 図 8 5のフローチャートを参照して、 図 7 2で構成が示されるデータ定 常性検出部 1 0 1による、 データの定常性の検出の処理を説明する。
ステップ S 3 0 1乃至ステップ S 3 0 5の処理は、 それぞれ、 図 5 6のステツ プ S 2 0 1乃至ステップ S 2 0 5の処理と同様なので、 その説明は省略する。 ステップ S 3 0 6において、 データ定常性方向検出部 3 0 1は、 データの定常 性の方向の検出の処理を実行する。 データの定常性の方向の検出の処理の詳細は、 後述する。
ステップ S 3 0 7の処理は、 図 5 6のステップ S 2 0 6の処理と同様なので、 その説明は省略する。
次に、 ステップ S 3 0 6の処理に対応する、 データの定常性の方向の検出の処 理を図 8 6のフローチャートを参照して説明する。
ステップ S 3 3 1において、 データ定常性方向検出部 3 0 1の画素値変化検出 部 3 2 1は、 連続性検出部 2 0 4から供給されたデータ定常性情報を基に、 頂点 Pが属する細線領域である単調増減領域に連続している単調増減領域が 2つ以上 あるか否かを判定し、 頂点 Pが属する単調増減領域に連続している単調増減領 域が 2つ以上あると判定された場合、 正しい定常性方向を検出する必要があるの で、 ステップ S 3 3 2に進み、 画素値変化検出部 3 2 1は、 単調増減領域の画素 値を取得する。
ステップ S 3 3 3において、 画素値変化検出部 3 2 1は、 頂点 Pが属する単 調増減領域の画素の画素値の変化分を計算する。 画素値変化検出部 3 2 1は、 計 算された、 頂点 Pが属する細単調増減領域の画素の画素値の変化分を方向検出 部 3 2 2に供給する。 例えば、 画素値変化検出部 3 2 1は、 頂点 Pが属する細 単調増減領域の画素について、 頂点 Pの画素値を基準として、 画素値の減少分 を計算する。
ステップ S 3 3 4において、 画素値変化検出部 3 2 1は、 頂点 Pが属する細 単調増減領域に隣接する単調増減領域の画素の画素値の変化分を計算する。 画素 値変化検出部 3 2 1は、 計算された、 頂点 Pが属する細単調増減領域に隣接す る単調増減領域の画素の画素値の変化分を方向検出部 3 2 2に供給する。 例えば、 画素値変化検出部 3 2 1は、 頂点 Pが属する細単調増減領域に隣接する単調増 減領域の画素について、 隣接する単調増減領域に属する画素であって、 頂点 P に隣接する画素の画素値を基準として、 画素値の増加分を計算する。
ステップ S 3 3 5において、 方向検出部 3 2 2は、 頂点 Pが属する細単調増 減領域の画素の画素値の変化分の絶対値と、 頂点 Pが属する細単調増減領域に 隣接する単調増減領域の画素の画素値の変化分の絶対値とを比較する。 例えば、 方向検出部 3 2 2は、 頂点 Pが属する細単調増減領域の画素についての、 頂点 P の画素値を基準とした画素値の減少分の絶対値と、 頂点 Pが属する細単調増減 領域に隣接する単調増減領域の画素についての、 隣接する単調増減領域に属する 画素であって、 頂点 Pに隣接する画素の画素値を基準とした画素値の増加分の 絶対値とを比較する。
ステップ S 3 3 6において、 方向検出部 3 2 2は、 ステップ S 3 3 5の処理で 比較された絶対値の差が小さい隣接する単調増減領域と、 頂点 Pが属する細単 調増減領域とから決まる方向を、 データの定常性の方向とし、 処理は終了する。 方向検出部 3 2 2は、 データの定常性を有する領域を示す情報、 およびデータの 定常性の方向を示す情報を含むデータ定常性情報を出力する。
例えば、 方向検出部 3 2 2は、 頂点 Pを始点とし、 絶対値の差が小さい隣接 する単調増減領域の頂点を終点とするベタ トルを定常方向を示すベタトルに設定 する。
ステップ S 3 3 1において、 頂点 Pが属する細線領域に連続している細線領 域が 2つ以上ないと判定された場合、 正しいデータの定常性の方向を検出する必 要がないので、 ステップ S 3 3 2乃至ステップ S 3 3 6の処理はスキップされ、 処理は終了する。
このように、 図 7 2で構成が示されるデータ定常性検出部 1 0 1は、 データの 定常性を有する領域を検出すると共に、 データの定常性の方向を検出することが できる。
なお、 入力画像に平面がフィッティングされたとき、 入力画像の画素の画素値 から、 フィッティングされた平面で近似される近似値を引き算した値 (差分値) を基に、 データの定常性の方向を検出することもできる。
図 8 7は、 フィッティングされた平面で近似される近似値を入力画像の画素の 画素値から引き算した差分値を基に、 データの定常性の方向を検出するデータ定 常性検出部 1 0 1の構成を示すプロック図である。
図 8 7で構成が示されるデータ定常性検出部 1 0 1において、 データ定常性方 向検出部 3 0 1は、 フィッティングされた平面で近似される近似値を入力画像の 画素の画素値から引き算した差分値から、 単調増減領域の画素値の変化を検出す る。 データ定常性方向検出部 3 0 1は、 差分値から検出された、 単調増減領域の 画素値の変化を基に、 定常領域の連続性の方向を検出する。
このように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一部 が欠落した画像データ内の複数の画素の画素値の不連続部を検出し、 不連続部か ら画素値の変化の頂点を検出し、 頂点から単調に画素値が増加または減少してい る単調増減領域を検出し、 検出された単調増減領域の中の、 他の単調増減領域が 画面上の隣接する位置に存在する単調増減領域を、 画像データの定常性を有する 定常領域として検出し、 定常領域の連続性の方向を検出するようにした場合、 定 常領域の連続性の正しい方向を検出することができるようになる。
また、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落 した画像データ内の複数の画素の画素値の不連続部を検出し、 不連続部から画素 値の変化の頂点を検出し、 頂点から単調に画素値が増加または減少している単調 増減領域を検出し、 検出された単調増減領域の中の、 他の単調増減領域が画面上 の隣接する位置に存在する単調増減領域を、 画像データの定常性を有する定常領 域として検出し、 検出された単調増減領域の中の、 第 1の単調増減領域に配され る複数の第 1の画素の画素値の変化と、 第 1の単調増減領域に隣接する第 2の単 調増減領域に配される、 複数の第 1の画素に隣接する複数の第 2の画素の画素値 の変化とに基づいて、 定常領域の連続性の方向を検出するようにした場合、 定常 領域の連続性の正しい方向を検出することができるようになる。
次に、 実世界 1の信号の推定について説明する。
図 8 8は、 実世界推定部 1 0 2の構成を示すプロック図である。
図 8 8に構成を示す実世界推定部 1 0 2においては、 入力画像、 および定常性 検出部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号である画 像における、 細線の幅が検出され、 細線のレベル (実世界 1の信号の光の強度) が推定される。
線幅検出部 2 1 0 1は、 定常性検出部 1 0 1から供給された、 細線の画像が射 影された画素からなる、 細線領域である定常領域を示すデータ定常性情報を基に、 細線の幅を検出する。 線幅検出部 2 1 0 1は、 データ定常性情報と共に、 検出さ れた細線の幅を示す細線幅情報を信号レベル推定部 2 1 0 2に供給する。
信号レベル推定部 2 1 0 2は、 入力画像、 線幅検出部 2 1 0 1から供給された 細線の幅を示す細線幅情報、 およびデータ定常性情報を基に、 実世界 1の信号で ある、 細線の画像のレベル、 すなわち光の強度のレベルを推定し、 細線の幅およ ぴ細線の画像のレベルを示す実世界推定情報を出力する。
図 8 9および図 9 0は、 実世界 1の信号における、 細線の幅を検出する処理を 説明する図である。
図 8 9および図 9 0において、 太線で囲む領域 (4つの四角からなる領域) は、 1つの画素を示し、 点線で囲む領域は、 細線の画像が射影された画素からなる、 細線領域を示し、 丸は、 細線領域の重心を示す。 図 8 9および図 9 0において、 斜線は、 センサ 2に入射された細線の画像を示す。 斜線は、 センサ 2に、 実世界 1の細線の画像が射影された領域を示しているとも言える。
図 8 9および図 9 0において、 Sは、 細線領域の重心の位置から算出される傾 きを示し、 Dは、 細線領域の重複である。 ここで、 傾き Sは、 細線領域が隣接し ているので、 画素を単位とした、 重心と重心との距離である。 また、 細線領域の 重複 Dとは、 2つの細線領域において、 隣接している画素の数である。
図 8 9および図 9 0において、 Wは、 細線の幅を示す。
図 8 9において、 傾き Sは、 2であり、 重複 Dは、 2である。
図 9 0において、 傾き Sは、 3であり、 重複 Dは、 1である。
細線領域が隣接し、 細線領域が隣接する方向の重心と重心の距離は、 1画素で あるので、 W : D=1 : Sが成立し、 細線の幅 Wは、 重複 D/傾き Sで求めることがで きる。
例えば、 図 8 9で示されるように、 傾き Sは、 2であり、 重複 Dは、 2であ るとき、 2/2は、 1であるから、 細線の幅 Wは、 1である。 また、 例えば、 図 9 0で示されるように、 傾き Sは、 3であり、 重複 Dは、 1であるとき、 細線の 幅 Wは、 1/3である。
線幅検出部 2 1 0 1は、 このように、 細線領域の重心の位置から算出される傾 き、 およぴ細線領域の重複から、 細線の幅を検出する。
図 9 1は、 実世界 1の信号における、 細線の信号のレベルを推定する処理を説 明する図である。
図 9 1において、 太線で囲む領域 (4つの四角からなる領域) は、 1つの画素 を示し、 点線で囲む領域は、 細線の画像が射影された画素からなる、 細線領域を 示す。 図 9 1において、 Eは、 細線領域の画素を単位とした、 細線領域の長さを 示し、 Dは、 細線領域の重複 (他の細線領域に隣接している画素の数) である。 細線の信号のレベルは、 処理単位 (細線領域) 内で一定であると近似し、 細線 が射影された画素の画素値に射影された、 細線以外の画像のレベルは、 隣接して いる画素の画素値に対するレベルに等しいと近似する。
細線の信号のレベルを cとしたとき、 細線領域に射影された信号 (画像) に おける、 図中の、 細線の信号が射影された部分の左側の部分のレベルを A とし、 図中の、 細線の信号が射影された部分の右側の部分のレベルを Bとする。
このとき、 式 (2 7) が成立する。
細線領域の画素値の総和 = (E-D) /2*A+(E- D)/2*B+D*C ■ · · (2 7) 細線の幅が一定であり、 細線領域の幅は、 1画素なので、 細線領域の細線 (の 信号が射影された部分) の面積は、 細線領域の重複 Dに等しい。 細線領域の幅 は、 1画素なので、 細線領域の画素を単位とした、 細線領域の面積は、 細線領域 の長さ Eに等しい。
細/锒領域のうち、 細線の左側の面積は、 (E- D)/2である。 細線領域のうち、 細 線の右側の面積は、 (E- D)/2である。
式 (2 7) の右辺の第 1項は、 左側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が射影された画素値の部分であり、 式 (2 8) で表すこ とができる。
A =∑ aj Aj =∑V(E-D)x (i+0.5) Aj • · · (2 8)
式 (2 8) において、 Ai は、 左側に隣接している画素の画素値を示す。
式 (2 8) において、 ひ i は、 左側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が、 細線領域の画素に射影される面積の割合を示す。 す なわち、 a, は、 細線領域の画素の画素値に含まれている、 左側に隣接している 画素の画素値と同じ画素値の割合を示す。
iは、 細線領域の左側に隣接している画素の位置を示す。
例えば、 図 9 1において、 細線領域の画素の画素値に含まれている、 細線領域 の左側に隣接している画素の画素値 A。 と同じ画素値の割合は、 α。である。 図 9 1において、 細線領域の画素の画素値に含まれている、 細線領域の左側に隣接 している画素の画素値 At と同じ画素値の割合は、 αι である。 図 9 1において、 細線領域の画素の画素値に含まれている、 細線領域の左側に隣接している画素の 画素値 Α2 と同じ画素値の割合は、 ο;2である。
式 (2 7) の右辺の第 2項は、 右側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が射影された画素値の部分であり、 式 (2 9) で表すこ とができる。
Figure imgf000088_0001
• · · (2 9)
式 (2 9) において、 Bj は、 右側に隣接している画素の画素値を示す。
式 (2 9) において、 . は、 右側に隣接している画素に射影された信号のレ ベルと同じレベルの信号が、 細線領域の画素に射影される面積の割合を示す。 す なわち、 」 は、 細線領域の画素の画素値に含まれている、 右側に隣接している 画素の画素値と同じ画素値の割合を示す。
jは、 細線領域の右側に隣接している画素の位置を示す。
例えば、 図 9 1において、 細線領域の画素の画素値に含まれている、 細線領域 の右側に隣接している画素の画素値 B。 と同じ画素値の割合は、 。である。 図 9 1において、 細線領域の画素の画素値に含まれている、 細線領域の右側に隣接 している画素の画素値 と同じ画素値の割合は、 8 i である。 図 9 1において、 細線領域の画素の画素値に含まれている、 細線領域の右側に隣接している画素の 画素値 B2 と同じ画素値の割合は、 ]3 2である。
このように、 信号レベル推定部 2 1 0 2は、 式 ( 2 3 ) および式 ( 2 9 ) を基 に、 細線領域に含まれる画素値のうちの、 細線以外の画像の画素値を算出し、 式 ( 2 7 ) を基に、 細線領域の画素値から細線以外の画像の画素値を除去すること により、 細線領域に含まれる画素値のうちの、 細線のみの画像の画素値を求める。 そして、 信号レベル推定部 2 1 0 2は、 細線のみの画像の画素値と細線の面積と から、 細線の信号のレベルを求める。 より具体的には、 信号レベル推定部 2 1 0 2は、 細線領域に含まれる画素値のうちの、 細線のみの画像の画素値を、 細線領 域の細線の面積、 すなわち細線領域の重複!)で割り算することにより、 細線の 信号のレベルを算出する。
信号レベル推定部 2 1 0 2は、 実世界 1の信号における、 細線の幅、 およぴ細 線の信号のレベルを示す実世界推定情報を出力する。
本発明の手法では、 細線の波形を画素ではなく幾何学的に記述しているので、 どのような解像度でも使用することができる。
次に、 ステップ S 1 0 2の処理に対応する、 実世界の推定の処理を図 9 2のフ ローチャートを参照して説明する。 ステップ S 2 1 0 1において、 線幅検出部 2 1 0 1は、 データ定常性情報を基 に、 細線の幅を検出する。 例えば、 線幅検出部 2 1 0 1は、 細線領域の重心の位 置から算出される傾き、 および細線領域の重複から、 重複を傾きで割り算するこ とにより、 実世界 1の信号における、 細線の幅を推定する。
ステップ S 2 1 0 2において、 信号レベル推定部 2 1 0 2は、 細線の幅、 およ び細線領域に隣接する画素の画素値を基に、 細線の信号のレベルを推定し、 推定 された細線の幅および細線の信号のレベルを示す実世界推定情報を出力して、 処 理は終了する。 例えば、 信号レベル推定部 2 1 0 2は、 細線領域に含まれる細線 以外の画像が射影された画素値を算出し、 細線領域から細線以外の画像が射影さ れた画素値を除去することにより、 細線のみの画像が射影された画素値を求めて、 求められた細線のみの画像が射影された画素値と細線の面積とから、 細線の信号 のレベルを算出することにより、 実世界 1の信号における、 細線のレベルを推定 する。
このように、 実世界推定部 1 0 2は、 実世界 1の信号の細線の幅およぴレベル を推定することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した第 1の画像データの、 データの定常性を検出し、 データの定常性に 対応する現実世界の光信号の波形を表すモデルに基いて、 第 1の画像データの定 常性から現実世界の光信号の波形を推定し、 推定された光信号を第 2の画像デー タに変換するようにした場合、 現実世界の光信号に対して、 より正確で、 より精 度の高い処理結果を得ることができるようになる。
図 9 3は、 実世界推定部 1 0 2の他の構成を示すプロック図である。
図 9 3に構成を示す実世界推定部 1 0 2においては、 入力画像、 およびデータ 定常性検出部 1 0 1から供給されたデータ定常性情報を基に、 領域が再度検出さ れ、 再度検出された領域を基に、 実世界 1の信号である画像における、 細線の幅 が検出され、 実世界 1の信号の光の強度 (レベル) が推定される。 例えば、 図 9 3に構成を示す実世界推定部 1 0 2においては、 細線の画像が射影された画素か らなる定常性領域が再度検出され、 再度検出された領域を基に、 実世界 1の信号 である画像における、 細線の幅が検出され、 実世界 1の信号の光の強度が推定さ れる。
データ定常性検出部 1 0 1から供給され、 図 9 3に構成を示す実世界推定部 1 0 2に入力されるデータ定常性情報には、 データ 3である入力画像のうちの、 細 線の画像が射影された定常成分以外の非定常成分を示す非定常成分情報、 定常領 域の中の単調増減領域を示す単調増減領域情報、 および定常領域を示す情報など が含まれている。 例えば、 データ定常性情報に含まれる非定常成分情報は、 入力 画像における背景などの非定常成分を近似する平面の傾きおよび切片からなる。 „〜™
PCT/JP2004/001585
89
実世界推定部 1 0 2に入力されたデータ定常性情報は、 境界検出部 2 1 2 1に 供給される。 実世界推定部 1 0 2に入力された入力画像は、 境界検出部 2 1 2 1 および信号レベル推定部 2 1 0 2に供給される。
境界検出部 2 1 2 1は、 データ定常性情報に含まれる非定常成分情報、 および 入力画像から、 細線の画像が射影された定常成分のみからなる画像を生成し、 定 常成分のみからなる画像を基に、 画素に射影された、 実世界 1の信号である細線 の画像が射影された割合を示す分配比を算出し、 算出された分配比から細線領域 の境界を示す回帰直線を算出することにより、 定常領域である細線領域を再ぴ検 出する。
図 9 4は、 境界検出部 2 1 2 1の構成を示すブロック図である。
分配比算出部 2 1 3 1は、 データ定常性情報、 データ定常性情報に含まれる非 定常成分情報、 および入力画像から、 細線の画像が射影された定常成分のみから なる画像を生成する。 より具体的には、 分配比算出部 2 1 3 1は、 データ定常性 情報に含まれる単調増減領域情報を基に、 入力画像から、 定常領域の中の隣り合 う単調増減領域を検出し、 検出された単調増減領域に属する画素の画素値から、 定常成分情報に含まれる傾きおよび切片で示される平面で近似される近似値を引 き算することにより、 細線の画像が射影された定常成分のみからなる画像を生成 する。
なお、 分配比算出部 2 1 3 1は、 入力画像の画素の画素値から、 定常成分情報 に含まれる傾きおょぴ切片で示される平面で近似される近似値を引き算すること により、 細線の画像が射影された定常成分のみからなる画像を生成するようにし てもよい。
分配比算出部 2 1 3 1は、 生成された定常成分のみからなる画像を基に、 実世 界 1の信号である細線の画像が、 定常領域の中の隣り合う単調増減領域に属する 2つの画素に分配された割合を示す分配比を算出する。 分配比算出部 2 1 3 1は、 算出した分配比を回帰直線算出部 2 1 3 2に供給する。
図 9 5乃至図 9 7を参照して、 分配比算出部 2 1 3 1における、 分配比の算出 の処理を説明する。
図 9 5の左側の 2列の数値は、 入力画像の画素値から、 定常成分情報に含まれ る傾きおよび切片で示される平面で近似される近似値を引き算することにより、 算出された画像のうち、 縦に 2列の画素の画素値を示す。 図 9 5の左側の四角で 囲む 2つの領域は、 隣り合う 2つの単調増減領域である、 単調増減領域 2 1 4 1 一 1および単調増減領域 2 1 4 1— 2を示す。 すなわち、 単調増減領域 2 1 4 1 - 1および単調増減領域 2 1 4 1— 2に示す数値は、 データ定常性検出部 1 0 1 において検出された定常性領域である単調増減領域に属する画素の画素値を示す。 図 9 5の右側の 1列の数値は、 図 9 5の左側の 2列の画素の画素値のうち、 横 に並ぶ画素の画素値を加算した値を示す。 すなわち、 図 9 5の右側の 1列の数値 は、 縦に 1列の画素からなる単調増減領域であって、 2つの隣接するものについ て、 横に隣接する画素毎に、 細線の画像が射影された画素値を加算した値を示す。 例えば、 それぞれ、 縦に 1列の画素からなり、 隣接する単調増減領域 2 1 4 1 一 1および単調増減領域 2 1 4 1一 2のいずれかに属し、 横に隣接する画素の画 素値が、 2および 5 8であるとき、 加算した値は、 6 0である。 それぞれ、 縦に 1列の画素からなり、 隣接する単調増減領域 2 1 4 1一 1および単調増減領域 2 1 4 1一 2のいずれかに属し、 横に隣接する画素の画素値が、 1および 6 5であ るとき、 加算した値は、 6 6である。
図 9 5のお側の 1列の数値、 すなわち、 縦に 1列の画素からなり、 2つの隣接 する単調増減領域の横方向に隣接する画素について、 細線の画像が射影された画 素値を加算した値は、 ほぼ一定となることがわかる。
同様に、 横に 1列の画素からなり、 2つの隣接する単調増減領域の縦方向に隣 接する画素について、 細線の画像が射影された画素値を加算した値は、 ほぼ一定 となる。
分配比算出部 2 1 3 1は、 2つの隣接する単調増減領域の隣接する画素につい て、 細線の画像が射影された画素値を加算した値が、 ほぼ一定となる性質を利用 して、 細線の画像が 1列の画素の画素値にどのように分配されているかを算出す る。
分配比算出部 2 1 3 1は、 図 9 6に示すように、 縦に 1列の画素からなる単調 増減領域であって、 2つの隣接するものに属する画素の画素値を、 横に隣接する 画素毎に、 細線の画像が射影された画素値を加算した値で割り算することにより、 2つの隣接する単調増減領域に属する各画素について、 分配比を算出する。 ただ し、 算出された結果、 1 0 0を超える分配比には、 1 0 0が設定される。
例えば、 図 9 6に示すように、 縦に 1列の画素からなる単調増減領域であって、 2つの隣接するものに属する、 横に隣接する画素の画素値が、 それぞれ2および 5 8であるとき、 加算した値が 6 0なので、 それぞれの画素に対して、 3 . 5お ょぴ 9 6 . 5である分配比が算出される。 縦に 1列の画素からなる単調増減領域 であって、 2つの隣接するものに属する、 横に隣接する画素の画素値が、 それぞ れ 1および 6 5であるとき、 加算した値が 6 5なので、 それぞれの画素に対して、 1 . 5および 9 8 . 5である分配比が算出される。
この場合において、 3つの単調増減領域が隣接する場合、 どちらの列から計算 するかは、 図 9 7で示されるように、 横に隣接する画素毎に、 細線の画像が射影 された画素値を加算した、 2つの値のうち、 頂点 Pの画素値により近い値を基に、 分配比が算出される。
例えば、 頂点 Pの画素値が 8 1であり、 注目している単調増減領域に属する画 素の画素値が 7 9であるとき、 左側に隣接する画素の画素値が 3であり、 右側に 隣接する画素の画素値が一 1である場合、 左側に隣接する画素の画素値を加算し た値が、 8 2であり、 右側に隣接する画素の画素値を加算した値が、 7 8なので、 頂点 Pの画素値 8 1により近い、 8 2が選択され、 左側に隣接する画素を基に、 分配比が算出される。 同様に、 頂点 Pの画素値が 8 1であり、 注目している単調 増減領域に属する画素の画素値が 7 5であるとき、 左側に隣接する画素の画素値 が 0であり、 右側に隣接する画素の画素値が 3である場合、 左側に隣接する画素 の画素値を加算した値が、 7 5であり、 右側に隣接する画素の画素値を加算した 値が、 7 8なので、 頂点 Pの画素値 8 1により近い、 7 8が選択され、 右側に隣 接する画素を基に、 分配比が算出される。
このように、 分配比算出部 2 1 3 1は、 縦に 1列の画素からなる単調増減領域 について、 分配比を算出する。
分配比算出部 2 1 3 1は、 同様の処理で、 横に 1列の画素からなる単調増減領 域について、 分配比を算出する。
回帰直線算出部 2 1 3 2は、 単調増減領域の境界が直線であると仮定して、 分 配比算出部 2 1 3 1において算出された分配比を基に、 単調增減領域の境界を示 す回帰直線を算出することにより、 定常領域の中の単調増減領域を再び検出する。 図 9 8および図 9 9を参照して、 回帰直線算出部 2 1 3 2における、 単調増減 領域の境界を示す回帰直線の算出の処理を説明する。
図 9 8において、 白丸は、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4
1一 5の上側の境界に位置する画素を示す。 回帰直線算出部 2 1 3 2は、 回帰の 処理により、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の上側の 境界について回帰直線を算出する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増 減領域 2 1 4 1一 1乃至単調増減領域 2 1 4 1一 5の上側の境界に位置する画素 との距離の自乗の和が最小となる直線 Aを算出する。
また、 図 9 8において、 黒丸は、 単調増減領域 2 1 4 1 - 1乃至単調増減領域
2 1 4 1— 5の下側の境界に位置する画素を示す。 回帰直線算出部 2 1 3 2は、 回帰の処理により、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の 下側の境界について回帰直線を算出する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の下側の境界に位置す る画素との距離の自乗の和が最小となる直線 Bを算出する。
回帰直線算出部 2 1 3 2は、 算出された回帰直線を基に、 単調増減領域の境界 を決定することにより、 定常領域の中の単調増減領域を再び検出する。
図 9 9に示すように、 回帰直線算出部 2 1 3 2は、 算出された直線 Aを基に、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の上側の境界を決定す る。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1— 1乃至単調増 減領域 2 1 4 1 - 5のそれぞれについて、 算出された直線 Aに最も近い画素から 上側の境界を決定する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1一 1乃至単調増減領域 2 1 4 1一 5のそれぞれについて、 算出された直線 A に最も近い画素が領域に含まれるように上側の境界を決定する。
図 9 9に示すように、 回帰直線算出部 2 1 3 2は、 算出された直線 Bを基に、 単調増減領域 2 1 4 1— 1乃至単調増減領域 2 1 4 1— 5の下側の境界を決定す る。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1一 1乃至単調増 減領域 2 1 4 1— 5のそれぞれについて、 算出された直線 Bに最も近い画素から 下側の境界を決定する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域 2 1 4 1 _ 1乃至単調増減領域 2 1 4 1— 5のそれぞれについて、 算出された直線 B に最も近い画素が領域に含まれるように上側の境界を決定する。
このように、 回帰直線算出部 2 1 3 2は、 データ定常性検出部 1 0 1により検 出された定常領域の境界を回帰する回帰線に基づいて、 頂点から単調に画素値が 増加または減少している領域を再び検出する。 すなわち、 回帰直線算出部 2 1 3 2は、 算出された回帰直線を基に、 単調増減領域の境界を決定することにより、 定常領域の中の単調増減領域である領域を再び検出し、 検出した領域を示す領域 情報を線幅検出部 2 1 0 1に供給する。
以上のように、 境界検出部 2 1 2 1は、 画素に射影された、 実世界 1の信号で ある細線の画像が射影された割合を示す分配比を算出し、 算出された分配比から 単調増減領域の境界を示す回帰直線を算出することにより、 定常領域の中の単調 増減領域を再び検出する。 このようにすることで、 より正確な単調増減領域を検 出することができる。
図 9 3に示す線幅検出部 2 1 0 1は、 境界検出部 2 1 2 1から供給された、 再 度検出された領域を示す領域情報を基に、 図 8 8に示す場合と同様の処理で、 細 線の幅を検出する。 線幅検出部 2 1 0 1は、 データ定常性情報と共に、 検出され た細線の幅を示す細線幅情報を信号レベル推定部 2 1 0 2に供給する。
図 9 3に示す信号レベル推定部 2 1 0 2の処理は、 図 8 8に示す場合と同様の 処理なので、 その説明は省略する。
図 1 0 0は、 ステップ S 1 0 2の処理に対応する、 図 9 3に構成を示す実世界 推定部 1 0 2による、 実世界の推定の処理を説明するフローチヤ一トである。 ステップ S 2 1 2 1において、 境界検出部 2 1 2 1は、 データ定常性検出部 1 0 1により検出された定常領域に属する画素の画素値に基づいて、 再ぴ領域を検 出する、 境界検出の処理を実行する。 境界検出の処理の詳細は、 後述する。
ステップ S 2 1 2 2およびステップ S 2 1 2 3の処理は、 ステップ S 2 1 0 1 およびステップ S 2 1 0 2の処理と同様なので、 その説明は省略する。
図 1 0 1は、 ステップ S 2 1 2 1の処理に対応する、 境界検出の処理を説明す るフローチャートである。
ステップ S 2 1 3 1において、 分配比算出部 2 1 3 1は、 単調増減領域を示す データ定常性情報および入力画像を基に、 細線の画像が射影された割合を示す分 配比を算出する。 例えば、 分配比算出部 2 1 3 1は、 データ定常性情報に含まれ る単調増減領域情報を基に、 入力画像から、 定常領域の中の隣り合う単調増減領 域を検出し、 検出された単調増減領域に属する画素の画素値から、 定常成分情報 に含まれる傾きおよび切片で示される平面で近似される近似値を引き算すること により、 細線の画像が射影された定常成分のみからなる画像を生成する。 そして、 分配比算出部 2 1 3 1は、 1列の画素からなる単調増減領域であって、 2つの隣 接するものに属する画素の画素値を、 隣接する画素の画素値の和で割り算するこ とにより、 2つの隣接する単調増減領域に属する各画素について、 分配比を算出 する。
分配比算出部 2 1 3 1は、 算出された分配比を 0帰直線算出部 2 1 3 2に供給 する。
ステップ S 2 1 3 2において、 回帰直線算出部 2 1 3 2は、 細線の画像が射影 された割合を示す分配比を基に、 単調増減領域の境界を示す回帰直線を算出する ことにより、 定常領域の中の領域を再び検出する。 例えば、 回帰直線算出部 2 1 3 2は、 単調増減領域の境界が直線であると仮定して、 単調増減領域の一端の境 界を示す回帰直線を算出し、 単調增減領域の他の一端の境界を示す回帰直線を算 出することにより、 定常領域の中の単調増減領域を再び検出する。
回帰直線算出部 2 1 3 2は、 再び検出された、 定常領域の中の領域を示す領域 情報を線幅検出部 2 1 0 1に供給して、 処理は終了する。
このように、 図 9 3に構成を示す実世界推定部 1 0 2は、 細線の画像が射影さ れた画素からなる領域を再度検出し、 再度検出された領域を基に、 実世界 1の信 号である画像における、 細線の幅を検出し、 実世界 1の信号の光の強度 (レべ ル) を推定する。 このようにすることで、 実世界 1の信号に対して、 より正確に、 細線の幅を検出し、 より正確に、 光の強度を推定することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した第 1の画像データにおける、 複数の画素の画素値の不連続部を検出 し、 検出された不連続部から、 データの定常性を有する定常領域を検出し、 検出 された定常領域に属する画素の画素値に基づいて、 再び領域を検出し、 再び検出 された領域に基づいて実世界を推定するようにした場合、 現実世界の事象に対し て、 より正確で、 より精度の高い処理結果を得ることができるようになる。
次に、 図 1 0 2を参照して、 定常性を有する領域における、 画素毎の空間方向 の近似関数の微分値を実世界推定情報として出力する実世界推定部 1 0 2につい て説明する。
参照画素抽出部 2 2 0 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の角度、 または、 領域の情報) に基づいて、 入力画像の各画 素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像の画素 の画素値を近似する近似関数を求めるために必要な参照画素の情報 (演算に必要 な注目画素周辺の複数の画素の位置、 および、 画素値) を抽出して、 近似関数推 定部 2 2 0 2に出力する。
近似関数推定部 2 2 0 2は、 参照画素抽出部 2 2 0 1より入力された参照画素 の情報に基づいて注目画素周辺の画素の画素値を近似的に記述する近似関数を最 小自乗法に基づいて推定し、 推定した近似関数を微分処理部 2 2 0 3に出力する。 微分処理部 2 2 0 3は、 近似関数推定部 2 2 0 2より入力された近似関数に基 づいて、 データ定常性情報の角度 (例えば、 細線や 2値エッジの所定の軸に対す る角度:傾き) に応じて、 注目画素から生成しょうとする画素の位置のシフト量 を求め、 そのシフト量に応じた近似関数上の位置における微分値 (定常性に対応 する線からの 1次元方向に沿った距離に対応する各画素の画素値を近似する関数 の微分値) を演算し、 さらに、 注目画素の位置、 画素値、 および、 定常性の傾き の情報を付加して、 これを実世界推定情報として画像生成部 1 0 3に出力する。 次に、 図 1 0 3のフローチャートを参照して、 図 1 0 2の実世界推定部 1. 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 0 1において、 参照画素抽出部 2 2 0 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての角度、 および、 領域の 情報を取得する。
ステップ S 2 2 0 2において、 参照画素抽出部 2 2 0 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 0 3において、 参照画像抽出部 2 2 0 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 1◦に進 み、 その注目画素については、 処理領域外であることを近似関数推定部 2 2 0 2 を介して、 微分処理部 2 2 0 3に伝え、 これに応じて、 微分処理部 2 2 0 3が、 対応する注目画素についての微分値を 0として、 さらに、 その注目画素の画素値 を付加して実世界推定情報として画像生成部 1 0 3に出力すると共に、 その処理 は、 ステップ S 2 2 1 1に進む。 また、 注目画素が処理領域のものであると判定 された場合、 その処理は、 ステップ S 2 2 0 4に進む。
ステップ S 2 2 0 4において、 参照画素抽出部 2 2 0 1は、 データ定常性情報 に含まれる角度の情報から、 データ定常性の有する方向が、 水平方向に近い角度 力 \ または、 垂直に近い角度であるか否かを判定する。 すなわち、 参照画素抽出 部 2 2 0 1は、 データ定常性の有する角度 Θが、 0度 く 45度、 または、 135 4001585
97
度≤ 0く 180度となる場合、 注目画素の定常性の方向は、 水平方向に近いと判定 し、 データ定常性の有する角度 0が、 45度≤ 0 <135度となる場合、 注目画素 の定常性の方向は、 垂直方向に近いと判定する。
ステップ S 2 20 5において、 参照画素抽出部 2 2 0 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 近 似関数推定部 2 20 2に出力する。 すなわち、 参照画素は、 後述する近似関数を 演算する際に使用されるデータとなるので、 傾きに応じて抽出されることが望ま しい。 従って、 水平方向、 または、 垂直方向のいずれかの判定方向に対応して、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例えば、 図 1 0 4で示されるように、 傾き Gf が垂直方向に近いと、 垂直方向であると判定され る。 この場合、 参照画素抽出部 2 20 1は、 例えば、 図 1 04で示されるように、 図 1 0 4中の中央の画素 (0, 0) を注目画素とするとき、 画素 (一 1, 2) , (一 1, 1) , (一 1, 0) , (一 1, 一 1) , (一 1, 一 2) , (0, 2) , (0, 1) , (0, 0) , (0, 一 1) , (0, 一 2) , (1, 2) , (1 , 1) , (1, 0) , (1, 一 1) , (1, 一 2) のそれぞれの画素値を抽出する。 尚、 図 1 0 4においては、 各画素の水平方向、 および、 垂直方向の大きさが 1で あるものとする。
すなわち、 参照画素抽出部 2 2 0 1は、 注目画素を中心として垂直 (上下) 方 向にそれぞれ 2画素 X水平 (左右) 方向にそれぞれ 1画素の合計 1 5画素となる ように、 垂直方向に長い範囲の画素を参照画素として抽出する。
逆に、 水平方向であると判定された場合、 注目画素を中心として垂直 (上下) 方向にそれぞれ 1画素 X水平 (左右) 方向にそれぞれ 2画素の合計 1 5画素とな るように、 水平方向に長い範囲の画素を参照画素として抽出して、 近似関数推定 部 2 2 0 2に出力する。 もちろん、 参照画素は、 上述のように 1 5画素に限定さ れるものではなく、 それ以外の個数であってもよい。
ステップ S 2 20 6において、 近似関数推定部 2 2 0 2は、 参照画素抽出部 2 2 0 1より入力された参照画素の情報に基づいて、 最小自乗法により近似関数 f(x)を推定し、 微分処理部 2 2 0 3に出力する。
すなわち、 近似関数 f(x)は、 以下の式 (3 0) で示されるような多項式であ る。 f (X) =¾'1}(Π + ¾ΧΠ~1 + ^ ·-Μί η+Ί ■ · · (3 0) このように、 式 (3 0) の多項式の各係数 ^乃至 Wn + 1が求められれば、 各 参照画素の画素値 (参照画素値) を近似する近似関数 f(x)が求められることに なる。 しかしながら、 係数の数よりも多くの参照画素値が必要となるので、 例え ば、 参照画素が、 図 1 0 4で示されるような場合、 合計 1 5画素であるので、 多 項式の係数は、 1 5個までしか求められない。 そこで、 この場合、 多項式は、 1 4次までの多項式とし、 係数 ^乃至 W15 を求めることにより近似関数を推定す るものとする。 尚、 今の場合、 1 5次の多項式からなる近似関数 f(x)を設定し て、 連立方程式としてもよい。
従って、 図 1 04で示される 1 5個の参照画素値を用いるとき、 近似関数推定 部 2 2 0 2は、 以下の式 (3 1) を、 最小自乗法を用いて解くことにより推定す る。
P (一 1, 一 2) =f (― 1一 Cx (- 2) )
P (一 1 , — 1) =f (一 1一 Cx (— 1) )
P (- 1 , 0) =f (— 1) (=f (一 1一 Cx (0) ) )
P (- 1 , 1) =f (一 1一 Cx ( 1) )
P (— 1, 2) =f (- 1 -Cx (2) )
P (0, ― 2) =f (0 -Cx (一 2) )
P (0, 一 1) =f (0 -Cx (_ 1) )
P (0, 0) =f (0) ( = f (0 -Cx (0) ) )
P (0, 1) =f (0 -Cx ( 1) )
P (0, 2) =f (0 -Cx (2) ) P ( 1, - 2) =f ( 1 -Cx (一 2) )
P ( 1 , - 1) =f ( 1 -Cx (— 1) )
P ( 1, 0) =f (1) (=f (1 -Cx (0) ) )
P ( 1, 1 ) =f ( 1— Cx ( 1) )
P ( 1, 2) =f ( 1 -Cx (2) )
• · · (3 1) 尚、 多項式の次数にあわせて、 参照画素の数を変えるようにしてもよい。 ここで、 Cx (ty)は、 シフト量であり、 定常性の傾きが Gf で示されるとき、 Cx(ty)=tyZGf で定義される。 このシフト量 Cx (ty)は、 空間方向 Y = 0の位 置上で定義される近似関数 f(x)が、 傾き Gf に沿って、 連続している (定常性 を有している) ことを前提としたとき、 空間方向 Y=tyの位置における、 空間方 向 Xに対するずれ幅を示すものである。 従って、 例えば、 空間方向 Y = 0の位置 上で近似関数が f(x)として定義されている場合、 この近似関数 f(x)は、 空間方 向 Y=tyにおいては、 傾き Gf に沿って空間方向 Xについて Cx(ty)だけずれてい るはずなので、 関数は、 f(x— Cx(ty)) ( = f (x-ty/Gf )) で定義されることに なる。
ステップ S 2 2 0 7において、 微分処理部 2 2 0 3は、 近似関数推定部 2 2 0 2より入力された近似関数 f(x)に基づいて、 生成しようとする画素の位置にお ける、 シフト量を求める。
すなわち、 水平方向、 および、 垂直方向にそれぞれ 2倍の密度 (合計 4倍の密 度) となるように画素を生成する場合、 微分処理部 2 20 3は、 例えば、 まず、 垂直方向に 2倍の密度となる画素 Pa, Pbに 2分割するために、 図 1 0 5で示さ れるように、 注目画素の中心位置が Pin (Xin, Yin) での微分値を求めるため、 中心位置の Pin (Xin, Yin) のシフト量を求める。 このシフト量は、 Cx (0)とな るため、 実質的には 0となる。 尚、 図 1 0 5中において、 画素 Pinは、 (Xin, Yin) を略重心位置とする正方形であり、 画素 Pa, Pbは、 (Xin, Yin+0.25) 、 (Xin, Yin-0.25) をそれぞれ略重心位置とする図中水平方向に長い長方形で W
100
ある。
ステップ S 2 2 0 8において、 微分処理部 2 2 Q 3は、 近似関数 f (x)を微分 して、 近似関数の 1次微分関数 f (x) 'を求め、 求められたシフ ト量に応じた位置 での微分値を求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する c すなわち、 今の場合、 微分処理部 2 2 0 3は、 微分値 f (Xin) 'を求め、 その位置 (今の場合、 注目画素 (Xi n, Yin) ) と、 その画素値、 および、 定常性の方向 の傾きの情報とを付加して出力する。
ステップ S 2 2 0 9において、 微分処理部 2 2 0 3は、 求められている密度の 画素を生成するのに必要なだけの微分値が求められているか否かを判定する。 例 えば、 今の場合、 2倍の密度となるための微分値のみしか求められていない (空 間方向 Y方向について 2倍の密度となるための微分値のみしか求められていな い) ので、 求められている密度の画素を生成するのに必要なだけの微分値が求め られていないと判定し、 その処理は、 ステップ S 2 2 0 7に戻る。
ステップ S 2 2 0 7において、 微分処理部 2 2 0 3は、 再度、 近似関数推定部 2 2 0 2より入力された近似関数 f (x)に基づいて、 生成しょうとする画素の位 置における、 シフ ト量を求める。 すなわち、 微分処理部 2 2 0 3は、 今の場合、 2分割された画素 Pa, Pbのそれぞれを 2分割するために必要な微分値をそれぞ れ求める。 画素 Pa, Pbの画素の位置は、 図 1 0 5における黒丸で示すそれぞれ の位置であるので、 微分処理部 2 2 0 3は、 それぞれの位置に対応するシフト量 を求める。 画素 Pa, Pbのシフ ト量は、 それぞれ Cx (0. 25) , Cx (— 0. 25)とな る。
ステップ S 2 2 0 8において、 微分処理部 2 2 0 3は、 近似関数 f (x)を 1次 微分して、 画素 Pa, Pbのそれぞれに対応したシフト量に応じた位置での微分値 を求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する。
すなわち、 図 1 0 4で示した参照画素を使用する場合、 微分処理部 2 2 0 3は、 図 1 0 6で示すように、 求められた近似関数 f (x)について微分関数 f (x) 'を求 め、 空間方向 Xについて、 シフ ト量 Cx (0. 25) , Cx (— 0. 25)だけずれた位置と なる (Xin— Cx (0. 25) ) と (Xin— Cx ( - 0. 25) ) の位置での微分値をそれぞ れ f (Xin— Cx (0. 25) } ' , f (Xin— Cx ( - 0. 25) ) 'として求め、 その微分値 に対応する位置情報を付加して、 これを実世界推定情報として出力する。 尚、 最 初の処理で画素値の情報が出力されているので画素値の情報は付加されない。 ステップ S 2 2 0 9において、 再び、 微分処理部 2 2 0 3は、 求められている 密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定す る。 例えば、 今の場合、 4倍の密度となるための微分値が求められたことになる ので、 求められている密度の画素を生成するのに必要なだけの微分値が求められ たと判定し、 その処理は、 ステップ S 2 2 1 1に進む。
ステップ S 2 2 1 1において、 参照画素抽出部 2 2 0 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2 2 0 2に戻る。 また、 ステップ S 2 2 1 1において、 全ての画素を 処理したと判定した場合、 その処理は、 終了する。
上述のように、 入力画像について、 水平方向、 および、 垂直方向に 4倍の密度 となるように画素を生成する場合、 画素は、 分割される画素の中央の位置の近似 関数の微分値を用いて、 外揷補間により分割されるので、 4倍密度の画素を生成 するには、 合計 3個の微分値の情報が必要となる。
すなわち、 図 1 0 5で示されるように、 1画素について最終的には、 画素 P O 1 , P 0 2 , P 0 3 , P 0 4の 4画素 (図 1 0 5において、 画素 P O l , P 0 2 , P 0 3 , P 0 4は、 図中の 4個のバッ印の位置を重心位置とする正方形であり、 各辺の長さは、 画素 Pinが、 それぞれ 1であるので、 画素 P 0 1, P 0 2 , P 0 3, P 0 4は、 それぞれ略 0 . 5となる) の生成に必要な微分値が必要となる ので、 4倍密度の画素を生成するには、 まず、 水平方向、 または、 垂直方向 (今 の場合、 垂直方向) に 2倍密度の画素を生成し (上述の最初のステップ S 2 2 0 7 , S 2 2 0 8の処理) 、 さらに、 分割された 2画素を、 それぞれ最初に分割し た 7こ:方向と垂直の方向 (今の場合、 水平方向) に分割する (上述の 2回目のステツ プ S 2 2 0 7 , S 2 2 0 8の処理) ためである。 尚、 以上の例においては、 4倍密度の画素を演算する際の微分値を例として説 明してきたが、 それ以上の密度の画素を演算する場合、 ステップ S 2 2 0 7乃至 S 2 2 0 9の処理を繰り返すことにより、 画素値の演算に必要なさらに多くの微 分値を求めるようにしてもよい。 また、 以上の例については、 倍密度の画素値を 求める例について説明してきたが、 近似関数 f (x)は連続関数であるので、 倍密 度以外の画素値についても必要な微分値を求めることが可能となる。
以上によれば、 注目画素近傍の画素の画素値を近似する近似関数を求め、 空間 方向の画素位置に対応する位置の微分値を実世界推定情報として出力することが 可能となる。
以上の図 1 0 2において説明した実世界推定部 1 0 2においては、 画像を生成 するのに必要な微分値を実世界推定情報として出力していたが、 微分値とは、 必 要な位置での近似関数 f (X)の傾きと同値のものである。
そこで、 次は、 図 1 0 7を参照して、 近似関数 f (x)を求めることなく、 画素 生成に必要な近似関数 f (x)上の傾きのみを直接求めて、 実世界推定情報として 出力する実世界推定部 1 0 2について説明する。
参照画素抽出部 2 2 1 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の角度、 または、 領域の情報) に基づいて、 入力画像の各画 素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像から傾 きを求めるために必要な参照画素の情報 (演算に必要な注目画素を含む垂直方向 に並ぶ周辺の複数の画素、 または、 注目画素を含む水平方向に並ぶ周辺の複数の 画素の位置、 および、 それぞれの画素値の情報) を抽出して、 傾き推定部 2 2 1 2に出力する。
傾き推定部 2 2 1 2は、 参照画素抽出部 2 2 1 1より入力された参照画素の情 報に基づいて、 画素生成に必要な画素位置の傾きの情報を生成して、 実世界推定 情報として画像生成部 1 0 3に出力する。 より詳細には、 傾き推定部 2 2 1 2は、 画素間の画素値の差分情報を用いて、 実世界を近似的に表現する近似関数 f (χ) 上の注目画素の位置における傾きを求め、 これに、 注目画素の位置情報、 画素値、 および、 定常性の方向の傾きの情報を実世界推定情報として出力する。
次に、 図 1 0 8のフローチャートを参照して、 図 1 0 7の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 2 1において、 参照画素抽出部 2 2 1 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての角度、 および、 領域の 情報を取得する。
ステップ S 2 2 2 2において、 参照画素抽出部 2 2 1 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 2 3において、 参照画像抽出部 2 2 1 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 2 8に進 み、 その注目画素については、 処理領域外であることを傾き推定部 2 2 1 2に伝 え、 これに応じて、 傾き推定部 2 2 1 2が、 対応する注目画素についての傾きを 0として、 さらに、 その注目画素の画素値を付加して実世界推定情報として画像 生成部 1 0 3に出力すると共に、 その処理は、 ステップ S 2 2 2 9に進む。 また、 注目画素が処理領域のものであると判定された場合、 その処理は、 ステップ S 2 2 2 4に進む。
ステップ S 2 2 2 4において、 参照画素抽出部 2 2 1 1は、 データ定常性情報 に含まれる角度の情報から、 データ定常性の有する方向が、 水平方向に近い角度 力 \ または、 垂直に近い角度であるか否かを判定する。 すなわち、 参照画素抽出 部 2 2 1 1は、 データ定常性の有する角度 0が、 0度 S < 45度、 または、 135 度≤ Θ < 180度となる場合、 注目画素の定常性の方向は、 水平方向に近いと判定 し、 データ定常性の有する角度 Θが、 45度≤ Θ < 135度となる場合、 注目画素 の定常性の方向は、 垂直方向に近いと判定する。
ステップ S 2 2 2 5において、 参照画素抽出部 2 2 1 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 傾 き推定部 2 2 1 2に出力する。 すなわち、 参照画素は、 後述する傾きを演算する 際に使用されるデータとなるので、 定常性の方向を示す傾きに応じて抽出される ことが望ましい。 従って、 水平方向、 または、 垂直方向のいずれかの判定方向に 対応して、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例え ば、 傾きが垂直方向に近いと判定された場合、 参照画素抽出部 22 1 1は、 図 1 09で示されるように、 図 1 09中の中央の画素 (0, 0) を注目画素とすると き、 画素 (0, 2) , (0, 1) , (0, 0) , (0, 一 1 ) , (0, - 2) の それぞれの画素値を抽出する。 尚、 図 109においては、 各画素の大きさが水平 方向、 および、 垂直方向についてそれぞれ 1であるものとする。
すなわち、 参照画素抽出部 22 1 1は、 注目画素を中心として垂直 (上下) 方 向にそれぞれ 2画素の合計 5画素となるように、 垂直方向に長い範囲の画素を参 照画素として抽出する。
逆に、 水平方向であると判定された場合、 注目画素を中心として水平 (左右) 方向に 2画素の合計 5画素となるように、 水平方向に長い範囲の画素を参照画素 として抽出して、 近似関数推定部 2202に出力する。 もちろん、 参照画素は、 上述のように 5画素に限定されるものではなく、 それ以外の個数であってもよい ステップ S 2226において、 傾き推定部 22 1 2は、 参照画素抽出部 221 1より入力された参照画素の情報と、 定常性方向の傾き Gf に基づいて、 それぞ れの画素値のシフト量を演算する。 すなわち、 空間方向 Y=0に対応する近似関 数 f(x)を基準とした場合、 空間方向 Y =— 2, 一 1, 1, 2に対応する近似関 数は、 図 1 09で示されるように、 定常性の傾き Gf に沿って連続していること になるので、 各近似関数は、 f(x-Cx(2)), f (x-Cx(l)), f (x-Cx(-l)), f (x — Cx(_2))のように記述され、 空間方向 Y =— 2, _ 1, 1, 2毎に、 各シフ ト量分だけ空間方向 Xにずれた関数として表現される。
そこで、 傾き推定部 2 2 1 2は、 これらのシフト量 Cx (- 2) 乃至 Cx (2) を求める。 例えば、 参照画素が、 図 1 09で示されるように抽出された場合、 そ のシフ ト量は、 図中の参照画素 (0, 2) は、 Cx(2) = 2/Gf となり、 参照画 素 (0, 1) は、 Cx( l ) = l ZGf となり、 参照画素 (0, 0) は、 Cx(0) = 0 となり、 参照画素 (0, 一 1〉 は、 Cx (— l) = _ l/Gf となり、 参照画素 (0, 一 2) は、 Cx(- 2) =- 2/Gf となる。
ステップ S 2 2 2 7において、 傾き推定部 2 2 1 2は、 注目画素の位置におけ る近似関数 f(x)上の傾きを演算する (推定する) 。 例えば、 図 1 0 9で示され るように、 注目画素について定常性の方向が、 垂直方向に近い角度の場合、 水平 方向に隣接する画素間では画素値が大きく異なり、 垂直方向の画素間では、 画素 間の変化が小さく、 変化が類似していることから、 傾き推定部 2 2 1 2は、 垂直 方向の画素間の変化をシフト量による空間方向 Xの変化と捕らえることにより、 垂直方向の画素間の差分を水平方向の画素間の差分に置き換えて、 注目画素の位 置における近似関数 f(x)上での傾きを求める。
すなわち、 現実世界を近似的に記述する近似関数 f(x)が存在すると仮定する と、 上述のシフ ト量と各参照画素の画素値との関係は、 図 1 1 0で示されるよう なものとなる。 ここで、 図 1 0 9の各画素の画素値は、 上から P (0, 2) , P (0, 1) , P (0, 0) , P (0, 一 1 ) , P (0, - 2) で表される。 結果と して、 注目画素 (0, 0) 近傍の画素値 Pとシフ ト量 Cxは、 (P, C x) = (P (0, 2) , 一 Cx (2) ) , (P (0, 1) , 一 Cx (1) ) , (P (0, — 1) ) , -Cx (— 1) ) , (P (0, 一 2) , -Cx (一 2) ) , (P (0, 0) , 0) の 5組の関係が得られることになる。
ところで、 画素値 P、 シフ ト量 Cx、 および、 傾き Kx (近似関数 f(x)上の傾 き) は、 以下のような式 (3 2) のような関係が成立することになる。
P = K X X Cx
• · · ( 3 2) 上述の式 (3 2) は、 変数 Kxについての 1変数の関数であるので、 傾き推定 部 2 2 1 2は、 この変数 Kx (傾き) について、 1変数の最小自乗法により傾き K Xを求める。
すなわち、 傾き推定部 2 2 1 2は、 以下に示すような式 (3 3) のような正規 方程式を解くことにより、 注目画素の傾きを求め、 注目画素の画素値、 および、 定常性の方向の傾きの情報を付加して、 実世界推定情報として画像生成部 1 0 3 に出力する。
111
<i_ \ j ί I /
m
∑ ∑ (Cx XiI )
i =1
• · - ( 3 3 ) ここで、 iは、 上述の参照画素の画素値 Pとシフト量 Cの組をそれぞれ識別す る番号であり、 1乃至 πιである。 また、 mは、 注目画素を含む参照画素の個数と なる。
ステップ S 2 2 2 9において、 参照画素抽出部 2 2 1 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2 2 2 2に戻る。 また、 ステップ S 2 2 2 9において、 全ての画素が 処理されたと判定された場合、 その処理は、 終了する。
尚、 上述の処理により実世界推定情報として出力される傾きは、 最終的に求め ようとする画素値を外揷補間して演算する際に使用される。 また、 以上の例にお いては、 2倍密度の画素を演算する際の傾きを例として説明してきたが、 それ以 上の密度の画素を演算する場合、 画素値の演算に必要な、 さらに多くの位置での 傾きを求めるようにしてもよい。
例えば、 図 1 0 5で示されるように、 水平方向に 2倍の密度で、 かつ、 垂直方 向に 2倍の密度の空間方向に合計 4倍の密度の画素を生成する場合、 上述したよ うに、 図 1 0 5中の Pin, Pa, Pbのそれぞれの位置に対応する近似関数 f (x)の 傾き K を求めるようにすればよい。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた が、 近似関数 f (x)は連続関数であるので、 倍密度以外の位置の画素の画素値に ついても必要な傾きを求めることが可能となる。
以上によれば、 注目画素近傍の画素の画素値を使用して、 実世界を近似的に表 現する近似関数を求めることなく、 空間方向の画素の生成必要な位置の近似関数 上の傾きを実世界推定情報として生成し、 さらに出力することが可能となる。 次に、 図 1 1 1を参照して、 定常性を有する領域における、 画素毎のフレーム 方向 (時間方向) の近似関数上の微分値を実世界推定情報として出力する実世界 推定部 1 0 2について説明する。
参照画素抽出部 2 2 3 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の動き (動きベク トル) 、 および、 領域の情報) に基づいて、 入力画像の各画素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像の画素の画素値を近似する近似関数を求めるために必要な参照画素の情 報 (演算に必要な注目画素周辺の複数の画素の位置、 および、 画素値) を抽出し て、 近似関数推定部 2 2 0 2に出力する。
近似関数推定部 2 2 3 2は、 参照画素抽出部 2 2 3 1より入力されたフレーム 方向の参照画素の情報に基づいて注目画素周辺の各画素の画素値を近似的に記述 する近似関数を最小自乗法に基づいて推定し、 推定した関数を微分処理部 2 2 3 3に出力する。
微分処理部 2 2 3 3は、 近似関数推定部 2 2 3 2より入力されたフレーム方向 の近似関数に基づいて、 データ定常性情報の動きに応じて、 注目画素から生成し ようとする画素の位置のフレーム方向のシフト量を求め、 そのシフト量に応じた フレーム方向の近似関数上の位置における微分値 (定常性に対応する線からの 1 次元方向に沿った距離に対応する各画素の画素値を近似する関数の微分値) を演 算し、 さらに、 注目画素の位置、 画素値、 および、 定常性の動きの情報を付加し て、 これを実世界推定情報として画像生成部 1 0 3に出力する。
次に、 図 1 1 2のフローチャートを参照して、 図 1 1 1の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 4 1において、 参照画素抽出部 2 2 3 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての動き、 および、 領域の 情報を取得する。 ステップ S 2 2 4 2において、 参照画素抽出部 2 2 3 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 4 3において、 参照画像抽出部 2 2 3 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 5 0に進 み、 その注目画素については、 処理領域外であることを近似関数推定部 2 2 3 2 を介して、 微分処理部 2 2 3 3に伝え、 これに応じて、 微分処理部 2 2 3 3が、 対応する注目画素についての微分値を 0として、 さらに、 その注目画素の画素値 を付加して実世界推定情報として画像生成部 1 0 3に出力すると共に、 その処理 は、 ステップ S 2 2 5 1に進む。 また、 注目画素が処理領域のものであると判定 された場合、 その処理は、 ステップ S 2 2 4 4に進む。
ステップ S 2 2 4 4において、 参照画素抽出部 2 2 3 1は、 データ定常性情報 に含まれる動きの情報から、 データ定常性の有する方向が、 空間方向に近い動き 力 \ または、 フレーム方向に近い動きであるか否かを判定する。 すなわち、 図 1 1 3で示されるように、 フレーム方向 Tと空間方向 Yからなる面において、 フレ ーム方向を基準軸とした、 時間と空間の面内の方向を示す角度を 0 Vとすれば、 参照画素抽出部 2 2 0 1は、 データ定常性の有する角度 θ Vが、 0度 ^ θ ν < 45 度、 または、 135度 θ ν < 180度となる場合、 注目画素の定常性の動きは、 フ レーム方向 (時間方向) に近いと判定し、 データ定常性の有する角度 0力 45 度≤ 0く 135度となる場合、 注目画素の定常性の方向は、 空間方向に近いと判定 する。
ステップ S 2 2 4 5において、 参照画素抽出部 2 2 0 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 近 似関数推定部 2 2 3 2に出力する。 すなわち、 参照画素は、 後述する近似関数を 演算する際に使用されるデータとなるので、 角度に応じて抽出されることが望ま しい。 従って、 フレーム方向、 または、 空間方向のいずれかの判定方向に対応し て、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例えば、 図 1 13で示されるように、 動き方向 Vf が空間方向に近いと、 空間方向であると 判定され、 この場合、 参照画素抽出部 2231は、 例えば、 図 1 1 3で示される ように、 図 1 1 3中の中央の画素 (t, y) = (0, 0) を注目画素とするとき、 画素 (t, y) = (— 1, 2) , (一 1, 1) , (- 1, 0) , (一 1, - 1) , (一 1 , ― 2) , (0, 2) , (0, 1 ) , (0 , 0) , (0, 一 1) , (0, -2) , (1, 2) , (1, 1) , (1, 0) , (1, — 1) , (1, 一 2) の それぞれの画素値を抽出する。 尚、 図 1 1 3においては、 各画素のフレーム方向、 および、 空間方向の大きさが 1であるものとする。
すなわち、 参照画素抽出部 2231は、 注目画素を中心として空間 (図中の上 下) 方向にそれぞれ 2画素 Xフレーム (図中の左右) 方向にそれぞれ 1フレーム 分の合計 1 5画素となるように、 フレーム方向に対して空間方向が長い範囲の画 素を参照画素として抽出する。
逆に、 フレーム方向であると判定された場合、 注目画素を中心として空間 (図 中の上下) 方向にそれぞれ 1画素 Xフレーム (図中の左右) 方向にそれぞれ 2フ レーム分の合計 15画素となるように、 フレーム方向に長い範囲の画素を参照画 素として抽出して、 近似関数推定部 2232に出力する。 もちろん、 参照画素は、 上述のように 1 5画素に限定されるものではなく、 それ以外の個数であってもよ い。
ステップ S 2246において、 近似関数推定部 2232は、 参照画素抽出部 2 231より入力された参照画素の情報に基づいて、 最小自乗法により近似関数 f(t)を推定し、 微分処理部 2233に出力する。
すなわち、 近似関数 f(t)は、 以下の式 (34) で示されるような多項式であ る。 f (t) = 1tn + \¾tn -i-. - . -f¾_1 ■ ■ ■ (34) このように、 式 (34) の多項式の各係数 ^乃至 Wn + 1が求められれば、 各 参照画素の画素値を近似するフレーム方向の近似関数 f(t)が求められることに なる。 しかしながら、 係数の数よりも多くの参照画素値が必要となるので、 例え ば、 参照画素が、 図 1 1 3で示されるような場合、 合計 1 5画素であるので、 多 項式の係数は、 1 5個までしか求められない。 そこで、 この場合、 多項式は、 1 4次までの多項式とし、 係数 乃至 W15 を求めることにより近似関数を推定す るものとする。 尚、 今の場合、 1 5次の多項式からなる近似関数 f(x)を設定し て、 連立方程式としてもよい。
従って、 図 1 1 3で示される 1 5個の参照画素値を用いるとき、 近似関数推定 部 223 2は、 以下の式 (3 5) を、 最小自乗法を用いて解くことにより推定す る。
P - 2) =f (一 1一 Ct (一 2) )
P 一 1) =f (- 1 -Ct (— 1) )
P 0) =f (- 1) (=f (一 1一 Ct (0) ) )
P 1) =f (- l -ct (1) )
PP (—一 11, 2) =f (_ 1— Ct (2) )
P 0 一 2) =f (O-Ct (- 2) )
P 0 - 1) =f (O-Ct (- 1) )
P 0 0) =f (0) ( = f (0 -Ct (0) ) )
P 0 1) =f (0 - Ct (1) )
P 0 2) =f (0 -Ct (2) )
P 一 2) =f (1 -Ct (一 2) )
P 1 - 1) =f ( l -ct (- 1) )
P 0) =f (1) (=f (1 -Ct (0) ) )
P 1) =f (1 -Ct (1) )
PP ( 1, 2) =f (1一 Ct (2) )
• · · (35) 尚、 多項式の次数にあわせて、 参照画素の数を変えるようにしてもよい。 ここで、 Ct(ty)は、 シフト量であり、 上述の Cx(ty)と同様のものであり、 定 常性の傾きが Vf で示されるとき、
Figure imgf000113_0001
で定義される。 このシフ ト 量 Ct(ty)は、 空間方向 Y = 0の位置上で定義される近似関数 f(t)が、 傾き Vf に沿って、 連続している (定常性を有している) ことを前提としたとき、 空間方 向 Y=tyの位置における、 フレーム方向 Tに対するずれ幅を示すものである。 従 つて、 例えば、 空間方向 Y==0の位置上で近似関数が f (t)として定義されてい る場合、 この近似関数 f(t)は、 空間方向 Y=tyにおいては、 フレーム方向 (時 間方向) Tについて Ct(ty)だけずれているはずなので、 関数は、 f (t-Ct(ty)) (=f (t-ty/Vf )) で定義されることになる。
ステップ S 2 24 7において、 微分処理部 2 2 3 3は、 近似関数推定部 2 2 3 2より入力された近似関数 f(t)に基づいて、 生成しょうとする画素の位置にお ける、 シフト量を求める。
すなわち、 フレーム方向、 および、 空間方向にそれぞれ 2倍の密度 (合計 4倍 の密度) となるように画素を生成する場合、 微分処理部 2 2 3 3は、 例えば、 ま ず、 空間方向に 2倍の密度となる画素 Pat, Pbtに 2分割するために、 図 1 1 4 で示されるように、 注目画素の中心位置が Pin (Tin, Yin) での微分値を求める ため、 中心位置の Pin (Tin, Yin) のシフ ト量を求める。 このシフ ト量は、 Ct(0)となるため、 実質的には 0となる。 尚、 図 1 1 4中において、 画素 Pinは、 (Tin, Yin) を略重心位置とする正方形であり、 画素 Pat, Pbtは、 (Tin, Yin+0.25) 、 (Tin, Yin— 0.25) をそれぞれ略重心位置とする図中水平方向に 長い長方形である。 また、 注目画素 Pinのフレーム方向 Tの長さが 1であると は、 1フレーム分のシャッタ時間に対応するものである。
ステップ S 2 24 8において、 微分処理部 2 2 3 3は、 近似関数 f(t)を微分 して、 近似関数の 1次微分関数 f(t)'を求め、 求められたシフ ト量に応じた位置 での微分値を求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する。 すなわち、 今の場合、 微分処理部 2 2 3 3は、 微分値 f (Tin)'を求め、 その位置 (今の場合、 注目画素 (Tin, Yin) ) と、 その画素値、 および、 定常性の方向 の動きの情報とを付加して出力する。
ステップ S 2 2 4 9において、 微分処理部 2 2 3 3は、 求められている密度の 画素を生成するのに必要なだけの微分値が求められているか否かを判定する 例 えば、 今の場合、 空間方向に 2倍の密度となるための微分値のみしか求められて いない (フレーム方向に 2倍の密度となるための微分値が求められていない) の で、 求められている密度の画素を生成するのに必要なだけの微分値が求められて いないと判定し、 その処理は、 ステップ S 2 2 4 7に戻る。
ステップ S 2 2 4 7において、 微分処理部 2 2 0 3は、 再度、 近似関数推定部 2 2 0 2より入力された近似関数 f (t)に基づいて、 生成しようとする画素の位 置における、 シフト量を求める。 すなわち、 微分処理部 2 2 0 3は、 今の場合、 2分割された画素 Pat , Pbtのそれぞれをさらに 2分割するために必要な微分値 をそれぞれ求める。 画素 Pa1;, Pbtの画素の位置は、 図 1 1 4における黒丸で示 すそれぞれの位置であるので、 微分処理部 2 2 3 3は、 それぞれの位置に対応す るシフト量を求める。 画素 Pat , Pbtのシフト量は、 それぞれ Ct (0. 25) , Ct ( _ 0. 25)となる。
ステップ S 2 2 4 8において、 微分処理部 2 2 3 3は、 近似関数 f (t)を微分 して、 画素 Pa Pbtのそれぞれに対応したシフト量に応じた位置での微分値を 求めて、 これを実世界推定情報として画像生成部 1 0 3に出力する。
すなわち、 図 1 1 3で示した参照画素を使用する場合、 微分処理部 2 2 3 3は、 図 1 1 5で示すように、 求められた近似関数 f (t)について微分関数 f (t) 'を求 め、 空間方向 Tについて、 シフト量 Ct (0. 25) , Ct (一 0. 25)だけずれた位置と なる (Tin— Ct (0. 25) ) と (Tin— Ct (— 0. 25) ) の位置での微分値をそれぞ れ f (Tin— Ct (0. 25) ) f (Tin -Ct (ー0. 25) ) 'として求め、 その微分値 に対応する位置情報を付加して、 これを実世界推定情報として出力する。 尚、 最 初の処理で画素値の情報が出力されているので画素値の情報は付加されない。 ステップ S 2 2 4 9において、 再び、 微分処理部 2 2 3 3は、 求められている 密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定す る。 例えば、 今の場合、 空間方向 Yとフレーム方向 Tについてそれぞれ 2倍 (合 計 4倍) の密度となるための微分値が求められたことになるので、 求められてい る密度の画素を生成するのに必要なだけの微分値が求められたと判定し、 その処 理は、 ステップ S 2 2 5 1に進む。
ステップ S 2 2 5 1において、 参照画素抽出部 2 2 3 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2 2 4 2に戻る。 また、 ステップ S 2 2 5 1において、 全ての画素を 処理したと判定した場合、 その処理は、 終了する。
上述のように、 入力画像について、 フレーム方向 (時間方向) 、 および、 空間 方向に 4倍の密度となるように画素を生成する場合、 画素は、 分割される画素の 中央の位置の近似関数の微分値を用いて、 外挿補間により分割されるので、 4倍 密度の画素を生成するには、 合計 3個の微分値の情報が必要となる。
すなわち、 図 1 1 4で示されるように、 1画素について最終的には、 画素 P O I t , P 0 2 t , P 0 3 t , P 0 4 tの 4画素 (図 1 1 4において、 画素 P 0 1 t , P 0 2 t , P 0 3 t , P 0 4 tは、 図中の 4個のバッ印の位置を重心位置と する正方形であり、 各辺の長さは、 画素 Pinが、 それぞれ 1であるので、 画素 P 0 1 t , P 0 2 t , P 0 3 t , P 0 4 tは、 それぞれ略 0 . 5となる) の生成 に必要な微分値が必要となるので、 4倍密度の画素を生成するには、 まず、 フレ ーム方向、 または、 空間方向に 2倍密度の画素を生成し (上述の最初のステップ S 2 2 4 7 , S 2 2 4 8の処理) 、 さらに、 分割された 2画素を、 それぞれ最初 に分割した方向と垂直の方向 (今の場合、 フレーム方向) に分割する (上述の 2 回目のステップ S 2 2 4 7 , S 2 2 4 8の処理) ためである。
尚、 以上の例においては、 4倍密度の画素を演算する際の微分値を例として説 明してきたが、 それ以上の密度の画素を演算する場合、 ステップ S 2 2 4 7乃至 S 2 2 4 9の処理を繰り返すことにより、 画素値の演算に必要なさらに多くの微 分値を求めるようにしてもよい。 また、 以上の例については、 倍密度の画素値を 求める例について説明してきたが、 近似関数 f (t)は連続関数であるので、 倍密 度以外の画素値についても必要な微分値を求めることが可能となる。
以上によれば、 注目画素近傍の画素の画素値を使用して、 各画素の画素値を近 似的に表現する近似関数を求め、 画素の生成必要な位置の微分値を実世界推定情 報として出力することが可能となる。
以上の図 1 1 1において説明した実世界推定部 1 0 2においては、 画像を生成 するのに必要な微分値を実世界推定情報として出力していたが、 微分値とは、 必 要な位置での近似関数 f (t)の傾きと同値のものである。
そこで、 次は、 図 1 1 6を参照して、 近似関数を求めることなく、 画素生成に 必要な、 近似関数上のフレーム方向の傾きのみを直接求めて、 実世界推定情報と して出力する実世界推定部 1 0 2について説明する。
参照画素抽出部 2 2 5 1は、 データ定常性検出部 1 0 1より入力されるデータ 定常性情報 (定常性の動き、 および、 領域の情報) に基づいて、 入力画像の各画 素が処理領域であるか否かを判定し、 処理領域である場合には、 入力画像から傾 きを求めるために必要な参照画素の情報 (演算に必要な注目画素を含む空間方向 に並ぶ周辺の複数の画素、 または、 注目画素を含むフレーム方向に並ぶ周辺の複 数の画素の位置、 および、 それぞれの画素値の情報) を抽出して、 傾き推定部 2
2 5 2に出力する。
傾き推定部 2 2 5 2は、 参照画素抽出部 2 2 5 1より入力された参照画素の情 報に基づいて、 画素生成に必要な画素位置の傾きの情報を生成して、 実世界推定 情報として画像生成部 1 0 3に出力する。 より詳細には、 傾き推定部 2 2 5 2は、 画素間の画素値の差分情報を用いて、 各参照画素の画素値を近似的に表現する近 似関数上の注目画素の位置におけるフレーム方向の傾きを求め、 これに、 注目画 素の位置情報、 画素値、 および、 定常性の方向の動きの情報を実世界推定情報と して出力する。
次に、 図 1 1 7のフローチヤ一トを参照して、 図 1 1 6の実世界推定部 1 0 2 による実世界推定の処理について説明する。
ステップ S 2 2 6 1において、 参照画素抽出部 2 2 5 1は、 入力画像と共に、 データ定常性検出部 1 0 1よりデータ定常性情報としての動き、 および、 領域の 情報を取得する。
ステップ S 2 2 6 2において、 参照画素抽出部 2 2 5 1は、 入力画像の未処理 画素から注目画素を設定する。
ステップ S 2 2 6 3において、 参照画像抽出部 2 2 5 1は、 データ定常性情報 の領域の情報に基づいて、 注目画素が、 処理領域のものであるか否かを判定し、 処理領域の画素ではないと判定した場合、 その処理は、 ステップ S 2 2 6 8に進 み、 その注目画素については、 処理領域外であることを傾き推定部 2 2 5 2に伝 え、 これに応じて、 傾き推定部 2 2 5 2が、 対応する注目画素についての傾きを 0として、 さらに、 その注目画素の画素値を付加して実世界推定情報として画像 生成部 1 0 3に出力すると共に、 その処理は、 ステップ S 2 2 6 9に進む。 また、 注目画素が処理領域のものであると判定された場合、 その処理は、 ステップ S 2 2 6 4に進む。
ステップ S 2 2 6 4において、 参照画素抽出部 2 2 1 1は、 データ定常性情報 に含まれる動きの情報から、 データ定常性の動きが、 フレーム方向に近い動き力 \ または、 空間方向に近い動きであるか否かを判定する。 すなわち、 フレーム方向 Tと空間方向 Yからなる面において、 フレーム方向を基準軸とした、 時間と空間 の面内の方向を示す角度を θ Vとすれば、 参照画素抽出部 2 2 5 1は、 データ定 常性の動きの角度 θ Vが、 0度≤ 0 V < 45度、 または、 135度≤ θ Vく 180度と なる場合、 注目画素の定常性の動きは、 フレーム方向に近いと判定し、 データ定 常性の有する角度 0 vが、 45度 ^ θ v < 135度となる場合、 注目画素の定常性 の動きは、 空間方向に近いと判定する。
ステップ S 2 2 6 5において、 参照画素抽出部 2 2 5 1は、 判定した方向に対 応した参照画素の位置情報、 および、 画素値をそれぞれ入力画像から抽出し、 傾 き推定部 2 2 5 2に出力する。 すなわち、 参照画素は、 後述する傾きを演算する 際に使用されるデータとなるので、 定常性の動きに応じて抽出されることが望ま しい。 従って、 フレーム方向、 または、 空間方向のいずれかの判定方向に対応し て、 その方向に長い範囲の参照画素が抽出される。 より具体的には、 例えば、 動 きが空間方向に近いと判定された場合、 参照画素抽出部 225 1は、 図 1 18で 示されるように、 図 118中の中央の画素 ( t , y) = (0, 0) を注目画素と するとき、 画素 ( t , y ) = (0, 2) , (0, 1 ) , (0, 0) , (0, 一 1) , (0, - 2) のそれぞれの画素値を抽出する。 尚、 図 1 18においては、 各画素の大きさがフレーム方向、 および、 空間方向についてそれぞれ 1であるも のとする。
すなわち、 参照画素抽出部 2251は、 注目画素を中心として空間 (図中の上 下) 方向にそれぞれ 2画素の合計 5画素となるように、 空間方向に長い範囲の画 素を参照画素として抽出する。
逆に、 フレーム方向であると判定された場合、 注目画素を中心としてフレーム (図中の左右) 方向に 2画素の合計 5画素となるように、 水平方向に長い範囲の 画素を参照画素として抽出して、 近似関数推定部 2252に出力する。 もちろん、 参照画素は、 上述のように 5画素に限定されるものではなく、 それ以外の個数で あってもよい。
ステップ S 2266において、 傾き推定部 2252は、 参照画素抽出部 225 1より入力された参照画素の情報と、 定常性方向の動き Vf の方向に基づいて、 それぞれの画素値のシフ ト量を演算する。 すなわち、 空間方向 Y=0に対応する 近似関数 f(t)を基準とした場合、 空間方向 Y =— 2, -1, 1, 2に対応する 近似関数は、 図 1 18で示されるように、 定常性の傾き Vf に沿って連続してい ることになるので、 各近似関数は、 f(t一 Ct(2)), f (t-ct(D), f (t-ct (- 1)), f (t一 Ct (一 2))のように記述され、 空間方向 Y =— 2, 一 1, 1, 2毎に、 各シフト量分だけフレーム方向 τにずれた関数として表現される。
そこで、 傾き推定部 2252は、 これらのシフト量 Ct (- 2) 乃至 Ct (2) を求める。 例えば、 参照画素が、 図 1 18で示されるように抽出された場合、 そ のシフト量は、 図中の参照画素 (0, 2) は、 Ct(2) = 2 Vf となり、 参照画 素 (0, 1) は、 Ct(l)= 1/Vf となり、 参照画素 (0, 0) は、 ct(o) = o となり、 参照画素 (0, 一 1) は、 Ct (- 1)=- 1/V{ となり、 参照画素 (0, — 2) は、 Ct(— 2)=— 2/Vf となる。 傾き推定部 2 2 5 2は、 これらのシフ ト量 Ct (一 2) 乃至 Ct (2) を求める。
ステップ S 2 2 6 7において、 傾き推定部 2 2 5 2は、 注目画素のフレーム方 向の傾きを演算する (推定する) 。 例えば、 図 1 1 8で示されるように、 注目画 素について定常性の方向が、 空間方向に近い角度の場合、 フレーム方向に隣接す る画素間では画素値が大きく異なるので、 空間方向の画素間では、 画素間の変化 が小さく、 変化が類似していることから、 傾き推定部 2 2 5 2は、 空間方向の画 素間の変化をシフト量によるフレーム方向 Tの変化と捕らえることにより、 空間 方向の画素間の差分をフレーム方向の画素間の差分に置き換えて、 注目画素での 傾きを求める。
すなわち、 現実世界を近似的に記述する関数 f(t)が存在すると仮定すると、 上述のシフト量と各参照画素の画素値との関係は、 図 1 1 9で示されるようなも のとなる。 ここで、 図 1 1 9の各画素の画素値は、 上から P (0, 2) , P (0, 1) , P (0, 0) , P (0 , — 1) , P (0, - 2) で表される。 結果として、 注目画素 (0, 0) 近傍の画素値 P とシフト量 Ct は、 (P, Ct) = (P (0, 2) , -Ct (2) ) , (P (0, 1 ) , 一 Ct ( 1 ) ) , (P (0, - 1) ) , -Ct (一 1) ) , (P (0, 一 2) , 一 Ct (- 2) ) , (P (0, 0) , 0) の 5組の関係が得られることになる。
ところで、 画素値 P、 シフト量 C t、 および、 傾き K t (近似関数 f(t)上の 傾き) は、 以下のような式 (3 6) のような関係が成立することになる。
P = K t X C t
• · · (3 6) 上述の式 (3 6) は、 変数 K tについての 1変数の関数であるので、 傾き推定 部 2 2 1 2は、 この変数 K t (傾き) について、 1変数の最小自乗法により傾き
K tを求める。
すなわち、 傾き推定部 2 2 5 2は、 以下に示すような式 (3 7) のような正規 方程式を解くことにより、 注目画素の傾きを求め、 注目画素の画素値、 および、 定常性の方向の傾きの情報を付加して、 実世界推定情報として画像生成部 1 0 3 に出力する。
1
Figure imgf000120_0001
《 - 1
∑ (Ct i )2
i =l
■ · · ( 3 7 ) ここで、 iは、 上述の参照画素の画素値 Pとシフト量 C tの組をそれぞれ識別 する番号であり、 1乃至 mである。 また、 mは、 注目画素を含む参照画素の個数 となる。
ステップ S 2 2 6 9において、 参照画素抽出部 2 2 5 1は、 全ての画素を処理 したか否かを判定し、 全ての画素を処理していないと判定した場合、 その処理は、 ステップ S 2 2 6 2に戻る。 また、 ステップ S 2 2 6 9において、 全ての画素が 処理されたと判定された場合、 その処理は、 終了する。
尚、 上述の処理により実世界推定情報として出力されるフレーム方向の傾きは、 最終的に求めようとする画素値を外揷補間して演算する際に使用される。 また、 以上の例においては、 2倍密度の画素を演算する際の傾きを例として説明してき たが、 それ以上の密度の画素を演算する場合、 画素値の演算に必要な、 さらに多 くの位置での傾きを求めるようにしてもよレ、。
例えば、 図 1 0 5で示されるように、 水平方向に 2倍の密度で、 かつ、 フレー ム方向に 2倍の密度の時空間方向に合計 4倍の密度の画素を生成する場合、 上述 したように、 図 1 0 5中の P in , Pat , Pbtのそれぞれの位置に対応する近似関 数 f (t)の傾き K tを求めるようにすればよい。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 力 近似関数 f (t)は連続関数であるので、 倍密度以外の位置の画素の画素値に ついても必要な傾きを求めることが可能となる。 言うまでもなく、 フレーム方向、 または、 空間方向に対する近似関数上の傾き、 または、 微分値を求める処理の順序は問わない。 さらに、 空間方向において、 上 述の例においては、 空間方向 Yとフレーム方向 Tとの関係を用いて、 説明してき たが、 空間方向 Xとフレーム方向 Tとの関係を用いたものであってもよい。 さら に、 時空間方向のいずれか 2次元の関係から (いずれから 1次元の方向の) 傾き、 または、 微分値を選択的に求めるようにしてもよい。
以上によれば、 注目画素近傍の画素の画素値を使用して、 実世界を近似的に表 現するフレーム方向の近似関数を求めることなく、 画素の生成必要な位置のフレ ーム方向 (時間方向) の近似関数上の傾きを実世界推定情報として生成し、 さら に出力することが可能となる。
次に、 図 1 2 0乃至図 1 5 0を参照して、 実世界推定部 1 0 2 (図 3 ) の実施 の形態の他の例について説明する。
図 1 2 0は、 この例の実施の形態の原理を説明する図である。
図 1 2 0で示されるように、 センサ 2に入射される画像である、 実世界 1の信 号 (光の強度の分布) は、 所定の関数 Fで表される。 なお、 以下、 この例の実施 の形態の説明においては、 画像である、 実世界 1の信号を、 特に光信号と称し、 関数 Fを、 特に光信号関数 Fと称する。
この例の実施の形態においては、 光信号関数 Fで表される実世界 1の光信号が 所定の定常性を有する場合、 実世界推定部 1 0 2が、 センサ 2からの入力画像 (定常性に対応するデータの定常性を含む画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画像のデータの定常性に対応するデータ定 常性情報) を使用して、 光信号関数 Fを所定の関数 f で近似することによって、 光信号関数 Fを推定する。 なお、 以下、 この例の実施の形態の説明においては、 関数土'を、 特に近似関数 f と称する。
換言すると、 この例の実施の形態においては、 実世界推定部 1 0 2が、 近似関 数 f で表されるモデル 1 6 1 (図 7 ) を用いて、 光信号関数 Fで表される画像 (実世界 1の光信号) を近似 (記述) する。 従って、 以下、 この例の実施の形態 を、 関数近似手法と称する。
ここで、 関数近似手法の具体的な説明に入る前に、 本願出願人が関数近似手法 を発明するに至った背景について説明する。
図 121は、 センサ 2が CCDとされる場合の積分効果を説明する図である。 図 121で示されるように、 センサ 2の平面上には、 複数の検出素子 2— 1が 配置されている。
図 1 21の例では、 検出素子 2- 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向で ある Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t方向とされている。
また、 図 121の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャッタ時 間 (露光時間) が 1とされている。
さらに、 図 1 21の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 ( t方向) の原 点 (1方向の位置1 =0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 およ び t方向に- 0.5乃至 0.5の範囲で光信号関数 F (X, y, t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (38) で表される。
^+0.5 ^+0.5 +0.5
P = I — Λ 0.5 n ^— A 0.5 c ^ I - Λ0.5 - F(K, y, t)dxdydt
■ · ■ (3 8) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (3 8 ) で示される画素値 Pを出力することになる。 図 1 2 2は、 センサ 2の積分効果の具体的な例を説明する図である。
0 1 2 2において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 1 2
1 ) を表している。
実世界 1の光信号のうちの 1部分 (以下、 このような部分を、 領域と称する)
2 3 0 1は、 所定の定常性を有する領域の一例を表している。
なお、 実際には、 領域 2 3 0 1は連続した光信号の 1部分 (連続した領域) で ある。 これに対して、 図 1 2 2においては、 領域 2 3 0 1は、 2 0個の小領域 (正方形の領域) に区分されているように示されている。 これは、 領域 2 3 0 1 の大きさが、 X方向に対して 4個分、 かつ Y方向に対して 5個分のセンサ 2の検 出素子 (画素) が並んだ大きさに相当することを表すためである。 即ち、 領域 2
3 0 1内の 2 0個の小領域 (仮想領域) のそれぞれは 1つの画素に相当する。 また、 領域 2 3 0 1のうちの図中白い部分は細線に対応する光信号を表してい る。 従って、 領域 2 3 0 1は、 細線が続く方向に定常性を有していることになる。 そこで、 以下、 領域 2 3 0 1を、 細線含有実世界領域 2 3 0 1と称する。
この場合、 細線含有実世界領域 2 3 0 1 (実世界 1の光信号の 1部分) がセン サ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画素 値) の領域 2 3 0 2 (以下、 細線含有データ領域 2 3 0 2と称する) が出力され る。
なお、 細線含有データ領域 2 3 0 2の各画素のそれぞれは、 図中、 画像として 示されているが、 実際には、 所定の 1つの値を表すデータである。 即ち、 細線含 有実世界領域 2 3 0 1は、 センサ 2の積分効果により、 所定の 1つの画素値をそ れぞれ有する 2 0個の画素 ( X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個の画素) に区分された細線含有データ領域 2 3 0 2に変化してしまう (歪ん でしまう) 。
図 1 2 3は、 センサ 2の積分効果の具体的な他の例 (図 1 2 2とは異なる例) を説明する図である。 図 1 2 3において、 X方向と Y方向は、 センサ 2の X方向と Υ方向 (図 1 2 1 ) を表している。
実世界 1の光信号の 1部分 (領域) 2 3 0 3は、 所定の定常性を有する領域の 他の例 (図 1 2 2の細線含有実世界領域 2 3 0 1とは異なる例) を表している。 なお、 領域 2 3 0 3は、 細線含有実世界領域 2 3 0 1と同じ大きさを有する領 域である。 即ち、 細線含有実世界領域 2 3 0 1と同様に、 領域 2 3 0 3も、 実際 には連続した実世界 1の光信号の 1部分 (連続した領域) であるが、 図 1 2 3に おいては、 センサ 2の 1画素に相当する 2 0個の小領域 (正方形の領域) に区分 されているように示されている。
また、 領域 2 3 0 3は、 所定の第 1の光の強度 (値) を有する第 1の部分と、 所定の第 2の光の強度 (値) を有する第 2の部分のエッジを含んでいる。 従って、 領域 2 3 0 3は、 エッジが続く方向に定常性を有していることになる。 そこで、 以下、 領域 2 3 0 3を、 2値エッジ含有実世界領域 2 3 0 3と称する。
この場合、 2値エッジ含有実世界領域 2 3 0 3 (実世界 1の光信号の 1部分) がセンサ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画素値) の領域 2 3 0 4 (以下、 2値エッジ含有データ領域 2 3 0 4と称す る) が出力される。
なお、 2値ェッジ含有データ領域 2 3 0 4の各画素値のそれぞれは、 細線含有 データ領域 2 3 0 2と同様に、 図中、 画像として表現されているが、 実際には、 所定の値を表すデータである。 即ち、 2値エッジ含有実世界領域 2 3 0 3は、 セ ンサ 2の積分効果により、 所定の 1つの画素値をそれぞれ有する 2 0個の画素 ( X方向に 4画素分、 かつ Υ方向に 5画素分の総計 2 0個の画素) に区分された 2値ェッジ含有データ領域 2 3 0 4に変化してしまう (歪んでしまう) 。
従来の画像処理装置は、 このような細線含有データ領域 2 3 0 2や 2値ェッジ 含有データ領域 2 3 0 4等、 センサ 2から出力された画像データを原点 (基準) とするとともに、 画像データを処理の対象として、 それ以降の画像処理を行って いた。 即ち、 センサ 2から出力された画像データは、 積分効果により実世界 1の 光信号とは異なるもの (歪んだもの) となっているにも関わらず、 従来の画像処 理装置は、 その実世界 1の光信号とは異なるデータを正として画像処理を行って レヽた。
その結果、 従来の画像処理装置では、 センサ 2から出力された段階で、 実世界 のディテールがつぶれてしまった波形 (画像データ) を基準として、 その波形か ら、 元のディテールを復元することは非常に困難であるという課題があった。 そこで、 関数近似手法においては、 この課題を解決するために、 上述したよう に (図 1 2 0で示されるように) 、 実世界推定部 1 0 2が、 細線含有データ領域 2 3 0 2や 2値エッジ含有データ領域 2 3 0 4のようなセンサ 2から出力された 画像データ (入力画像) から、 光信号関数 F (実世界 1の光信号) を近似関数 f で近似することによって、 光信号関数 Fを推定する。
これにより、 実世界推定部 1 0 2より後段において (いまの場合、 図 3の画像 生成部 1 0 3 ) 、 積分効果が考慮された画像データ、 即ち、 近似関数 f により 表現可能な画像データを原点として、 その処理を実行することが可能になる。 以下、 図面を参照して、 このような関数近似手法のうちの 3つの具体的な手法 (第 1乃至第 3の関数近似手法) のそれぞれについて個別に説明していく。 はじめに、 図 1 2 4乃至図 1 3 8を参照して、 第 1の関数近似手法について説 明する。
図 1 2 4は、 上述した図 1 2 2で示される細線含有実世界領域 2 3 0 1を再度 表した図である。
図 1 2 4において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 1 2 1 ) を表している。
第 1の関数近似手法は、 例えば、 図 1 2 4で示されるような細線含有実世界領 域 2 3 0 1に対応する光信号関数 F (x,y,t)を X方向 (図中矢印 2 3 1 1の方 向) に射影した 1次元の波形 (以下、 このような波形を、 X断面波形 F (x)と称 する) を、 n次 (nは、 任意の整数) の多項式である近似関数 f (x)で近似する手 法である。 従って、 以下、 第 1の関数近似手法を、 特に、 1次元多項式近似手法 と称する。
なお、 1次元多項式近似手法において、 近似の対象となる X断面波形 F(x)ほ、 勿論、 図 1 24の細線含有実世界領域 230 1に対応するものに限定されない。 即ち、 後述するように、 1次元多項式近似手法においては、 定常性を有する実世 界 1の光信号に対応する X断面波形 F(x)であれば、 いずれのものでも近似する ことが可能である。
また、 光信号関数 F(x, y, t)の射影の方向は X方向に限定されず、 Y方向また は t方向でもよい。 即ち、 1次元多項式近似手法においては、 光信号関数
F(x, y, t)を Y方向に射影した関数 F(y)を、 所定の近似関数 f (y)で近似すること も可能であるし、 光信号関数 F(x,y,t)を t方向に射影した関数 F(t)を、 所定の 近似関数 f (t)で近似することも可能である。
より詳細には、 1次元多項式近似手法は、 例えば、 X断面波形 F(x)を、 次の 式 (3 9) で示されるような、 n次の多項式である近似関数 f(x)で近似する手 法である。
n
f (X) = 0+ 1X+W2X+ . · · +WnXn = WjX1
i=0
• · · (3 9) 即ち、 1次元多項式近似手法においては、 実世界推定部 10 2が、 式 (3 9) の) Tiの係数 (特徴量) ^ を演算することで、 X断面波形 F(x)を推定する。
この特徴量^の演算方法は、 特に限定されず、 例えば、 次の第 1乃至第 3の 方法が使用可能である。
即ち、 第 1の方法は、 従来から利用されている方法である。
これに対して、 第 2の方法は、 本願出願人が新たに発明した方法であって、 第 1の方法に対して、 さらに、 空間方向の定常性を考慮した方法である。
しかしながら、 後述するように、 第 1の方法と第 2の方法においては、 センサ 2の積分効果が考慮されていない。 従って、 第 1の方法または第 2の方法により 演算された特徴量 を上述した式 (3 9) に代入して得られる近似関数 f(x)は、 入力画像の近似関数ではあるが、 厳密には、 X断面波形 F (x)の近似関数とは言 えない。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに考 盧して特徴量^ を演算する第 3の方法を発明した。 この第 3の方法により演算 された特徴量 ^ を、 上述した式 ( 3 9 ) に代入して得られる近似関数 ί' (χ)は、 センサ 2の積分効果を考慮している点で、 X断面波形 F (X)の近似関数であると
¾ん c 。
このように、 厳密には、 第 1の方法と第 2の方法は、 1次元多項式近似手法と は言えず、 第 3の方法のみが 1次元多項式近似手法であると言える。
換言すると、 図 1 2 5で示されるように、 第 2の方法は、 1次元多項式近似手 法とは異なる、 本発明の実世界推定部 1 0 2の実施の形態である。 即ち、 図 1 2 5は、 第 2の方法に対応する実施の形態の原理を説明する図である。
図 1 2 5で示されるように、 第 2の方法に対応する実施の形態においては、 光 信号関数 Fで表される実世界 1の光信号が所定の定常性を有する場合、 実世界推 定部 1 0 2が、 センサ 2からの入力画像 (定常性に対応するデータの定常性を含 む画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画 像のデータの定常性に対応するデータ定常性情報) を使用して、 X断面波形
F (x)を近似するのではなく、 センサ 2からの入力画像を所定の近似関数 f2 (X)で 近似する。
このように、 第 2の方法は、 センサ 2の積分効果を考慮せず、 入力画像の近似 に留まっている点で、 第 3の方法と同一レベルの手法であるとは言い難い。 しか しながら、 第 2の方法は、 空間方向の定常性を考慮している点で、 従来の第 1の 方法よりも優れた手法である。
以下、 第 1の方法、 第 2の方法、 および第 3の方法のそれぞれの詳細について、 その順番で個別に説明していく。
なお、 以下、 第 1の方法、 第 2の方法、 およぴ第 3の方法により生成される近 似関数 f (x)のそれぞれを、 他の方法のものと区別する場合、 特に、 近似関数 f L (x) ^ 近似関数 f2 (x)、 および近似関数 f3 (x)とそれぞれ称する。
はじめに、 第 1の方法の詳細について説明する。
第 1の方法においては、 上述した式 (3 9) で示される近似関数 (X)が、 図
1 2 6の細線含有実世界領域 2 3 0 1内で成り立つとして、 次の予測方程式 (4 0) を定義する。
P(x, y) = (x +e
- · · (40) 式 (40) において、 Xは、 注目画素からの X方向に対する相対的な画素位置 を表している。 yは、 注目画素からの Y方向に対する相対的な画素位置を表して いる。 eは、 誤差を表している。 具体的には、 例えば、 いま、 図 1 2 6で示され るように、 注目画素が、 細線含有データ領域 2 3 0 2 (細線含有実世界領域 2 3 0 1 (図 1 24) がセンサ 2により検出されて、 出力されたデータ) のうちの、 図中、 左から X方向に 2画素目であって、 下から Y方向に 3画素目の画素である とする。 また、 注目画素の中心を原点(0,0)とし、 センサ 2の X方向と Y方向 (図 1 2 1) のそれぞれに平行な X軸と y軸を軸とする座標系 (以下、 注目画 素座標系と称する) が設定されているとする。 この場合、 注目画素座標系の座標 値(x,y)が、 相対画素位置を表すことになる。
また、 式 (4 0) において、 P(x,y)は、 相対画素位置(x,y)における画素値を 表している。 具体的には、 いまの場合、 細線含有データ領域 2 3 0 2内の
P(x, y)は、 図 1 2 7で示されるようになる。
図 1 2 7は、 この画素値 P(x,y)をグラフ化したものを表している。
図 1 2 7において、 各グラフのそれぞれの縦軸は、 画素値を表しており、 横軸 は、 注目画素からの X方向の相対位置 Xを表している。 また、 図中、 上から 1 番目のグラフの点線は入力画素値 P , -2)を、 上から 2番目のグラフの 3点鎖線 は入力画素値 P(x,- 1)を、 上から 3番目のグラフの実線は入力画素値 Ρ(χ,0)を、 上から 4番目のグラフの 1点鎖線は入力画素値 Ρ , 1)を、 上から 5番目 (下か ら 1番目) のグラフの 2点鎖線は入力画素値 Ρ(χ, 2)を、 それぞれ表している。 上述した式 (40) に対して、 図 1 27で示される 20個の入力画素値 P(x, - 2) , P (x, -1) , P ( , 0) , P (x, 1) , P (x, 2) (ただし、 xは、 一 1乃至 2のうちのいず れかの整数値) のそれぞれを代入すると、 次の式 (4 1) で示される 20個の方 程式が生成される。 なお、 ek は、 1乃至 20のうちのいずれかの整数値) の それぞれは、 誤差を表している。
P
P
Figure imgf000129_0001
• · · (41) 式 (41) は、 20個の方程式より構成されているので、 近似関数: ^ (x)の特 徴量 ^の個数が 20個より少ない場合、 即ち、 近似関数 (X)が 1 9次より少 ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 ^ の算出が 可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 いま、 近似関数 :)の次数が 5次とされた場合、 式 (4 1) を利用 して最小自乗法により演算された近似関数 (X) (演算された特徴量 ^ により 生成される近似関数 ^ (x)) は、 図 1 28で示される曲線のようになる。
なお、 図 1 28において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。
即ち、 図 1 26の細線含有データ領域 2302を構成する 20個の画素値
P(x,y)のそれぞれ (図 1 27で示される入力画素値
P (X, -2), P (x, -1), P (x, 0), P (X, 1), P (x, 2)のそれぞれ) を、 例えば、 x軸に沿つ てそのまま足しこむ (Y方向の相対位置 yを一定とみなして、 図 1 27で示さ れる 5つのグラフを重ねる) と、 図 1 28で示されるような、 X軸に平行な複数 の線 (点線、 3点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。
ただし、 図 1 28においては、 点線は入力画素値 P(x,- 2)を、 3点鎖線は入力 画素値 P(x,_l)を、 実線は入力画素値 P(x,0)を、 1点鎖線は入力画素値 P(x,l) を、 2点鎖線は入力画素値 P(x, 2)を、 それぞれ表している。 また、 同一の画素 値の場合、 実際には 2本以上の線が重なることになるが、 図 1 28においては、 各線の区別がつくように、 各線のそれぞれが重ならないように描画されている。 そして、 このように分布した 20個の入力画素値
P ( , -2), P (X, -1), P (x, 0) , P (X, 1), P (x, 2)のそれぞれと、 値 (x)の誤差が最小 となるような回帰曲線 (最小自乗法により演算された特徴量 Wi を上述した式
(38) に代入して得られる近似関数 (X) ) 力 図 1 28で示される曲線 (近 似関数 となる。
このように、 近似関数 (X)は、 Y方向の画素値 (注目画素からの X方向の相 対位置 が同一の画素値) Ρ(χ, -2),Ρ(χ, -1),Ρ(χ,0),Ρ(χ, l),P(x, 2)の平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。 即ち、 光信号が有する空間方 向の定常性を考慮することなく、 近似関数 (X)が生成されている。
例えば、 いまの場合、 近似の対象は、 細線含有実世界領域 230 1 (図 1 2 4) とされている。 この細線含有実世界領域 230 1は、 図 1 29で示されるよ うに、 傾き GFで表される空間方向の定常性を有している。 なお、 図 1 2 9にお いて、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 1 2 1) を表している。 従って、 データ定常性検出部 1 0 1 (図 1 2 0 ) は、 空間方向の定常性の傾き GFに対応するデータ定常性情報として、 図 1 2 9で示されるような角度 0 (傾 き GF に対応する傾き Gf で表されるデータの定常性の方向と、 X方向のなす角度 Θ ) を出力することができる。
しかしながら、 第 1の方法においては、 データ定常性検出部 1 0 1より出力さ れるデータ定常性情報は一切用いられていない。
換言すると、 図 1 2 9で示されるように、 細線含有実世界領域 2 3 0 1の空間 方向の定常性の方向は略角度 0方向である。 しかしながら、 第 1の方法は、 細線 含有実世界領域 2 3 0 1の空間方向の定常性の方向は Y方向であると仮定して (即ち、 角度 0が 9 0度であると仮定して) 、 近似関数 (X)の特徴量^ を演 算する方法である。
このため、 近似関数 (X)は、 その波形が鈍り、 元の画素値よりディテールが 減少する関数となってしまう。 換言すると、 図示はしないが、 第 1の方法により 生成される近似関数 (X)は、 実際の X断面波形 F (x)とは大きく異なる波形と なってしまう。
そこで、 本願出願人は、 第 1の方法に対して、 空間方向の定常性をさらに考慮 して (角度 0を利用して) 特徴量^ を演算する第 2の方法を発明した。
即ち、 第 2の方法は、 細線含有実世界領域 2 3 0 1の定常性の方向は略角度 0 方向であるとして、 近似関数 f2 (x) の特徴量 Wi を演算する方法である。
具体的には、 例えば、 空間方向の定常性に対応するデータの定常性を表す傾き Gf は、 次の式 (4 2 ) で表される。
Gf = tan θ =
「 dx
• · · ( 4 2 ) なお、 式 ( 4 2 ) において、 dxは、 図 1 2 9で示されるような X方向の微小 移動量を表しており、 dyは、 図 1 2 9で示されるような dxに対する Y方向の微 小移動量を表している。 この場合、 シフト量 Cx (y)を、 次の式 (4 3) のように定義すると、 第 2の方 法においては、 第 1の方法で利用した式 (40) に相当する式は、 次の式 (4 4) のようになる。
C M = 1 · ■ · (4 3)
P(x, y) = fゥ (x— Gx (y; j +e
• · · (44) 即ち、 第 1の方法で利用した式 (4 0) は、 画素の中心の位置(x、y)のうちの X方向の位置 Xが、 同一の位置に位置する画素の画素値 P(x, y)はいずれも同じ 値であることを表している。 換言すると、 式 (4 0) は、 同じ画素値の画素が Y 方向に続いている (Y方向に定常性がある) ことを表している。
これに対して、 第 2の方法で利用する式 (44) は、 画素の中心の位置が , y)である画素の画素値 P(x,y)は、 注目画素 (その中心の位置が原点(0,0)で ある画素) から X方向に Xだけ離れた場所に位置する画素の画素値 (^f2 (x)) とは一致せず、 その画素からさらに X方向にシフト量 Cx (y)だけ離れた場所に位 置する画素 (注目画素から X方向に x + Cx (y)だけ離れた場所に位置する画素) の画素値 ( (x + Cx (y)) ) と同じ値であることを表している。 換言すると、 式 (4 4) は、 同じ画素値の画素が、 シフト量 Cx (y)に対応する角度 Θ方向に続 いている (略角度 Θ方向に定常性がある) ことを表している。
このように、 シフト量 Cx (y)が、 空間方向の定常性 (いまの場合、 図 1 2 9の 傾き GFで表される定常性 (厳密には、 傾き Gf で表されるデータの定常性) ) を 考慮した補正量であり、 シフト量 Cx (y)により式 (4 0) を補正したものが式 (44) となる。
この場合、 図 1 2 6で示される細線含有データ領域 2 3 0 2の 2 0個の画素値 P(x,y) (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃至 2のうちのいずれかの整数値) のそれぞれを、 上述した式 (44) に代入すると 次の式 (45) で示される 20個の方程式が生成される。
P(-1, -2) =f2(-1-Cx(-2))+e1
P(0,一 2) =f2(0-Cx(-2))+e2
Ρ(Ί, -2) =f2(1-Cx(-2))+e3
P(2, -2) =f2(2-Cx(-2))+e4
P(-1,-1) =fり(一 1— Gx(-1))+e5
P(0, -1) =f2(0-Cx(-1))+e6
P(1,— 1) =f2(1-Cx(-1))+e7
P(2,— 1) =f2(2-Cx(-1))+e8
P(-1,0) =f2(-1)+e9
P(0,0) =f2(0)+e10
P(1,0) =f2(1)+e"
P(2,0) =f2(2)+e12
P(-1,1) =f2(-1-Cx(1))+e13
P(0,1) =f2(0— Gx(1))+e14
P(1,1) =f2(1-Cx(1))+e15
P(2,1) =f2(2-Cx(1))+e16
P(-1,2) =f2(-1-Cx(2))+e17
P(0,2) =f2(0-Cx(2))+e18
P(1,2) =f2(1-Cx(2))+e19
P(2,2) =f2(2-Cx(2))+e20
• ■ · (45) 式 (45) は、 上述した式 (4 1) と同様に、 20個の方程式より構成されて いる。 従って、 第 1の方法と同様に第 2の方法においても、 近似関数 f2 (x)の特 徴量 ^ の個数が 20個より少ない場合、 即ち、 近似関数 f2 (X)が 1 9次より少 ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 ^ の算出が 可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 第 1の方法と同様に近似関数 f2 (X)の次数が 5次とされた場合、 第 2 の方法においては、 次のようにして特徴量 ^ が演算される。
即ち、 図 1 30は、 式 (45) の左辺で示される画素値 P (x, y)をグラフ化し たものを表している。 図 1 30で示される 5つのグラフのそれぞれは、 基本的に 図 1 27で示されるものと同一である。 図 1 3 0で示されるように、 最大の画素値 (細線に対応する画素値) は、 傾き Gf で表されるデータの定常性の方向に続いている。
そこで、 第 2の方法においては、 図 1 3 0で示される
入力画素値 P (x, -2) , P (x, -1) , P (x, 0) , P (x, 1) , P (x, 2)のそれぞれを、 例えば、 x軸に沿って足しこむ場合、 第 1の方法のようにそのまま足しこむ (yを一定と みなして、 図 1 3 0で示される状態のまま 5つのグラフを重ねる) のではなく、 図 1 3 1で示される状態に変化させてから足しこむ。
即ち、 図 1 3 1は、 図 1 3 0で示される
入力画素値 P (x, -2), P (x, - 1),P (x,0) , P (x, 1), P (x, 2)のそれぞれを、 上述した 式 (4 3 ) で示されるシフ ト量 Cx (y)だけシフ トさせた状態を表している。 換言 すると、 図 1 3 1は、 図 1 3 0で示される 5つのグラフを、 データの定常性の実 際の方向を表す傾き GFを、 あたかも傾き GF 'とするように (図中、 点線の直線 を実線の直線とするように) 移動させた状態を表している。
図 1 3 1の状態で、 入力画素値 P (X, -2) , P (X, - 1), P (X, 0) , P (x, 1), P (x, 2)の それぞれを、 例えば、 X軸に沿って足しこむと (図 1 3 1で示される状態で 5つ のグラフを重ねると) 、 図 1 3 2で示されるような、 X軸に平行な複数の線 (点 線、 3点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。
なお、 図 1 3 2において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。 また、 点線は入力画素値 P (x,- 2)を、 3点鎖線は入力 画素値 P (x,- 1)を、 実線は入力画素値 P (x,0)を、 1点鎖線は入力画素値 P (x, 1) を、 2点鎖線は入力画素値 P (x, 2)を、 それぞれ表している。 さらに、 同一の画 素値の場合、 実際には 2本以上の線が重なることになるが、 図 1 3 2においては、 各線の区別がつくように、 各線のそれぞれが重ならないように描画されている。 そして、 このように分布した 2 0個の入力画素値 P ( X, y)のそれぞれ (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 — 2乃至 2のうちのいずれ かの整数値) と、 値 f2 (x+Cx (y) )の誤差が最小となるような回帰曲線 (最小自 乗法により演算された特徴量 Wi を上述した式 (3 8 ) に代入して得られる近似 関数 f2 (x) ) は、 図 1 3 2の実線で示される曲線 f2 (X)となる。
このように、 第 2の方法により生成された近似関数 f2 (x)は、 データ定常性検 出部 1 0 1 (図 1 2 0 ) より出力される角度 Θ方向 (即ち、 ほぼ空間方向の定常 性の方向) の入力画素値 P (x, y)の平均値を X方向に結んだ曲線を表すことにな る。
これに対して、 上述したように、 第 1の方法により生成された近似関数 (X) は、 Y方向 (即ち、 空間方向の定常性とは異なる方向) の入力画素値 P (x, y)の 平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。
従って、 図 1 3 2で示されるように、 第 2の方法により生成された近似関数 f2 (x)は、 第 1の方法により生成された近似関数 (X)よりも、 その波形の鈍り 度合いが減少し、 かつ、 元の画素値に対するディテールの減り具合も減少する関 数となる。 換言すると、 図示はしないが、 第 2の方法により生成される近似関数 f2 (X)は、 第 1の方法により生成される近似関数 (X)よりも実際の X断面波形 F (x)により近い波形となる。
しカゝしながら、 上述したように、 近似関数 f2 (x)は、 空間方向の定常性が考慮 されたものではあるが、 入力画像 (入力画素値) を原点 (基準) として生成され たものに他ならない。 即ち、 上述した図 1 2 5で示されるように、 近似関数 f2 (x)は、 X断面波形 F (x)とは異なる入力画像を近似したに過ぎず、 X断面波形 F (x)を近似したとは言い難い。 換言すると、 第 2の方法は、 上述した式 (4 4 ) が成立するとして特徴量 Wi を演算する方法であり、 上述した式 (3 8 ) の 関係は考慮していない (センサ 2の積分効果を考慮していない) 。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに考 慮することで近似関数 f 3 (x)の特徴量 ^ を演算する第 3の方法を発明した。 即ち、 第 3の方法は、 空間混合領域の概念を導入した方法である。
第 3の方法の説明の前に、 図 1 3 3を参照して、 空間混合領域について説明す る。
図 1 3 3において、 実世界 1の光信号の 1部分 2 3 2 1 (以下、 領域 2 3 2 1 と称する) は、 センサ 2の 1つの検出素子 (画素) と同じ面積を有する領域を表 している。
領域 2 3 2 1がセンサ 2に検出されると、 センサ 2からは、 領域 2 3 2 1が時 空間方向 (X方向,Υ方向,および t方向) に積分された値 (1つの画素値) 2 3 2 2が出力される。 なお、 画素値 2 3 2 2は、 図中、 画像として表現されている が、 実際には、 所定の値を表すデータである。
実世界 1の領域 2 3 2 1は、 前景 (例えば、 上述した細線) に対応する光信号 (図中白い領域) と、 背景に対応する光信号 (図中黒い領域) に明確に区分され る。
これに対して、 画素値 2 3 2 2は、 前景に対応する実世界 1の光信号と、 背景 に対応する実世界 1の光信号が積分された値である。 換言すると、 画素値 2 3 2 2は、 前景に対応する光のレベルと背景に対応する光のレベルが空間的に混合さ れたレベルに対応する値である。
このように、 実世界 1の光信号のうちの 1画素 (センサ 2の検出素子) に対応 する部分が、 同一レベルの光信号が空間的に一様に分布する部分ではなく、 前景 と背景のように異なるレベルの光信号のそれぞれが分布する部分である場合、 そ の領域は、 センサ 2により検出されると、 センサ 2の積分効果により、 異なる光 のレベルがあたかも空間的に混合されて (空間方向に積分されて) 1つの画素値 となってしまう。 このように、 前景に対する画像 (実世界 1の光信号) と、 背景 に対する画像 (実世界 1の光信号) が空間的に積分されている画素からなる領域 を、 ここでは、 空間混合領域と称している。
従って、 第 3の方法においては、 実世界推定部 1 0 2 (図 1 2 0 ) 力 S、 実世界 1の元の領域 2 3 2 1 (実世界 1の光信号のうちの、 センサ 2の 1画素に対応す る部分 2 3 2 1 ) を表す X断面波形 F (x)を、 例えば、 図 1 3 4で示されるよう な、 1次の多項式である近似関数 f3 (X)で近似することによって、 X断面波形 F (x)を推定する。
即ち、 図 1 3 4は、 空間混合領域である画素値 2 3 2 2 (図 1 3 3 ) に対応す る近似関数 f3 (x)、 即ち、 実世界 1の領域 2 3 3 1内の実線 (図 1 3 3) に対応 する X断面波形 F ( x ) を近似する近似関数 f3 (X)の例を表している。 図 1 3 4 において、 図中水平方向の軸は、 画素値 2 3 2 2に対応する画素の左下端 xsか ら右下端 X. までの辺 (図 1 3 3) に平行な軸を表しており、 X 軸とされている 図中垂直方向の軸は、 画素値を表す軸とされている。
図 1 34において、 近似関数 f3 (x)を xs から xe の範囲 (画素幅) で積分した ものが、 センサ 2から出力される画素値 P (x,y)とほぼ一致する (誤差 eだけ存 在する) として、 次の式 (4 6) を定義する。
9 Θ
r f3(x)dx+e (w0+ 1x+w2x +… +wnx ) dx+e
yn _Y n n+1_ n+1
一 xs) + · ·■ +wn——^― +wn n+1 +e ■ · · (4 6) いまの場合、 図 1 2 9で示される細線含有データ領域 2 3 0 2の 20個の画素 値 P (x,y) (ただし、 Xは、 — 1乃至 2のうちのいずれかの整数値。 yは、 一 2 乃至 2のうちのいずれかの整数値) から、 近似関数 f3 (X)の特徴量 が算出さ れるので、 式 (4 6) の画素値 Pは、 画素値 P(x,y)となる。
また、 第 2の方法と同様に、 空間方向の定常性も考慮する必要があるので、 式 (4 6) の積分範囲の開始位置 xs と終了位置 xe のそれぞれは、 シフト量 Cx (y) にも依存することになる。 即ち、 式 (4 6) の積分範囲の開始位置 xs と終了位 置 xeのそれぞれは、 次の式 (4 7) のように表される。
xs = x-Cx (y) -0.5
χΩ = x-Cv(y) +0.5
· · · (4 7) この場合、 図 1 2 9で示される細線含有データ領域 2 3 0 2の各画素値それぞ れ、 即ち、 図 1 3 0で示される入力画素値 P(x,- 2),P(x, - 1) , P (x, 0), P (x, 1), P (x, 2)のそれぞれ (ただし、 xは、 一 1乃至 2のうちのい ずれかの整数値) を、 上述した式 (46) (積分範囲は、 上述した式 (47) ) に代入すると次の式 (48) で示される 20個の方程式が生成される。
«-1-Cx(-2) +0.5 f
p (一 ι,— Cx(2)一 0.5
.
dX+e3, dx+e4, P )dx+e
Figure imgf000138_0001
3
r0-Cx{-1)+0.5 ヽ 丄
P(0, -1 Jo-cx(-i)-o.5 f3(x)dx+e6
Γ1-0χΗ)+0.5^ t 、」
P(1, -1 '1-Cx(」- 一 3(x)dx+e7,
1、 f
-0.5
Figure imgf000138_0002
Γ-1+0.5 、
P(-1,0 J -1-0.5 f3(x)dx+e9, f3(x)dx+e10,
Figure imgf000138_0003
P(1'0)
Figure imgf000139_0001
f3(x)dx+e",
P(2,0) =J2_0_5 f3(x)dx+e12, ( 13, P(01) 3(x) dX+e1 - P(11 ) 3(x) dX+e15-
Ρ(2'1) (x)dx+e16
P(-1'2)
Figure imgf000139_0002
¾(x)dx+e17, o-cx(2)-o.5 f3(x)dx+e18
Figure imgf000139_0003
广 *22--CCxx〈〈22)) ++00..E5 、
P(2'2) =J 22--Ccx..^(2) --00.55 f3(x)dx+e20
■ · · (48) 式 (48) は、 上述した式 (45) と同様に、 20個の方程式より構成されて いる。 従って、 第 2の方法と同様に第 3の方法においても、 近似関数 f3 (X)の特 徴量 Wi の個数が 20個より少ない場合、 即ち、 近似関数 f3 (x)が 1 9次より少 ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 ^ の算出が 可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 近似関数 f3 (X)の次数が 5次とされた場合、 式 (48 ) を利用して最 小自乗法により演算された近似関数 f 3 (X) (演算された特徴量 ^ により生成さ れる近似関数 f3 (x)) は、 図 1 3 5の実線で示される曲線のようになる。
なお、 図 1 3 5において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。 図 1 3 5で示されるように、 第 3の方法により生成された近似関数 (X) (図 中、 実線で示される曲線) は、 第 2の方法により生成された近似関数 f 2 (X) (図 中、 点線で示される曲線) と比較すると、 x = 0における画素値が大きくなり、 また、 曲線の傾斜の度合いも急な波形となる。 これは、 入力画素よりディティル が増加して、 入力画素の解像度とは無関係となっているためである。 即ち、 近似 関数 f3 (x) は、 X断面波形 F (x)を近似していると言える。 従って、 図示はしな いが、 近似関数 f3 (x)は、 近似関数 f2 )よりも X断面波形 F (X)に近い波形と なる。
図 1 3 6は、 このような 1次多項式近似手法を利用する実世界推定部 1 0 2の 構成例を表している。
図 1 3 6において、 実世界推定部 1 0 2は、 例えば、 特徴量 ^ を上述した第 3の方法 (最小自乗法) により演算し、 演算した特徴量 を利用して上述した 式 (3 9 ) の近似関数 f (x)を生成することで、 X断面波形 F (x)を推定する。
図 1 3 6で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 3 3 1、 入力画像記憶部 2 3 3 2、 入力画素値取得部 2 3 3 3、 積分成分演算部 2 3 3 4、 正規方程式生成部 2 3 3 5、 および近似関数生成部 2 3 3 6が設けられている。 条件設定部 2 3 3 1は、 注目画素に対応する X断面波形 F (x)を推定するため に使用する画素の範囲 (以下、 タップ範囲と称する) や、 近似関数 f (x)の次数 nを設定する。
入力画像記憶部 2 3 3 2は、 センサ 2からの入力画像 (画素値) を一次的に格 納する。
入力画素値取得部 2 3 3 3は、 入力画像記憶部 2 3 3 2に記憶された入力画像 のうちの、 条件設定部 2 2 3 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 2 3 3 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。 なお、 入力画素値テ一ブルの具体 例については後述する。 ところで、 ここでは、 実世界推定部 10 2は、 上述した式 (46) と式 (4 7) を利用して最小自乗法により近似関数 f(x)の特徴量 Wi を演算するが、 上述 した式 (46) は、 次の式 (49) のように表現することができる。
X
P( , y) 6 i
n (x-Cx(y) +0.5)i+1-(x-Cx(y) -0.5)ί+1
=∑ Wj x
S i —: +e
i=0 1 + 1
=∑ W| xSi (xs, g) +e
i=0
• · · (49) 式 (49) において、 Si (xs,xe) は、 i 次項の積分成分を表している。 即ち. 積分成分 Si (xs,xe)は、 次の式 (50) で示される。
Sj(Xs,Xe〉 =
(50) 積分成分演算部 2334は、 この積分成分 Si (xs、xe)を演算する。
具体的には、 式 (50) で示される積分成分 Si (xs,xe) (ただし、 値 xs と値 xeは、 上述した式 (46) で示される値) は、 相対画素位置(x,y)、 シフト量 Cx (y)、 および、 i次項の iが既知であれば演算可能である。 また、 これらのう ちの、 相対画素位置(x,y)は注目画素とタップ範囲により、 シフト量 Cx (y)は角 度 0により (上述した式 (4 1) と式 (43) により) 、 iの範囲は次数 nによ り、 それぞれ決定される。
従って、 積分成分演算部 2 334は、 条件設定部 233 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 10 1より出力されたデータ定 常性情報のうちの角度 Θに基づいて積分成分 Si (xs,xe)を演算し、 その演算結果 を積分成分テーブルとして正規方程式生成部 23 35に供給する。
正規方程式生成部 23 3 5は、 入力画素値取得部 23 3 3より供給された入力 画素値テーブルと、 積分成分演算部 2334より供給された積分成分テーブルを 利用して、 上述した式 (4 6 ) 、 即ち、 式 (4 9 ) の右辺の特徴量 を最小自 乗法で求める場合の正規方程式を生成し、 それを正規方程式テーブルとして近似 関数生成部 2 3 3 6に供給する。 なお、 正規方程式の具体例については後述する。 近似関数生成部 2 3 3 6は、 正規方程式生成部 2 3 3 5より供給された正規方 程式テーブルに含まれる正規方程式を行列解放で解くことにより、 上述した式 ( 4 9 ) の特徴量 Wi (即ち、 1次元多項式である近似関数 f (x)の係数 Wi ) のそ れぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 1 3 7のフローチャートを参照して、 1次元多項式近似手法を利用す る実世界推定部 i 0 2 (図 1 3 6 ) の実世界の推定処理 (図 4 0のステップ S 1 0 2の処理) について説明する。
例えば、 いま、 センサ 2から出力された 1フレームの入力画像であって、 上述 した図 1 2 2の細線含有データ領域 2 3 0 2を含む入力画像が、 既に入力画像記 憶部 2 3 3 2に記憶されているとする。 また、 データ定常性検出部 1 0 1が、 ス テツプ S 1 0 1 (図 4 0 ) の定常性の検出の処理において、 細線含有データ領域 2 3 0 2に対してその処理を施して、 データ定常性情報として角度 0を既に出力 しているとする。
この場合、 図 1 3 7のステップ S 2 3 0 1において、 条件設定部 2 3 3 1は、 条件 (タップ範囲と次数) を設定する。
例えば、 いま、 図 1 3 8で示されるタップ範囲 2 3 5 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 1 3 8は、 タップ範囲の一例を説明する図である。 図 1 3 8において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 1 2 1 ) を表している。 また、 タップ範囲 2 3 5 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個 の画素 (図中、 2 0個の正方形) からなる画素群を表している。
さらに、 図 1 3 8で示されるように、 注目画素が、 タップ範囲 2 3 5 1のうち の、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとする。 また、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x,y) (注目画 TJP2004/001585
141
素の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 1 38で示 されるような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付される とする。
図 1 37に戻り、 ステップ S 230 2において、 条件設定部 233 1は、 注目 画素を設定する。
ステップ S 230 3において、 入力画素値取得部 2 33 3は、 条件設定部 23 3 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 23 33は、 細線含有データ領域 2302 (図 126) を取得し、 入力画素値テーブルとして、 20個の入力画素値 P(l)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係は、 次の式 (5 1) で示される関係とされる。 ただし、 式 (5 1) において、 左辺が 入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。
P(0) = P(0,0)
P(1) = II P(-1,2)
P(2) = II II 11 P(0,2)
P(3) = P(1 o r,一2)
P(4)
P(5) = P(-1,1 h) 、 ^_
PC6) = P(0,1)
P(7) = P(1,1)
P(8) = P(2,1)
P(9) = P(-1,0)
P(10) = P(1,0)
P(11) = P(2,0)
P(12) = P(-1, -1)
P(13) = P(0,一 1)
P(14) = P(1, -1)
P(15)
P(16) = P(— 1,— 2)
P(17)
P(18) = P(1, -2)
P(19)
• · · (5 1) ステップ S 2304において、 積分成分演算部 23 34は、 条件設定部 233 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 101より供給されたデータ定常性情報 (角度 Θ) に基づいて積分成分を演算し- 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x,y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 23 34は、 上述し た式 (50) の積分成分 Si (xs,xe)を、 次の式 (5 2) の左辺で示される稍分成 分 Si (1)といった 1の関数として演算する。
S; ( 1 ) = Si (xs,xe) ■ ■ ■ (5 2)
具体的には、 いまの場合、 次の式 (53) で示される積分成分 Si (1)が演算さ れる。 -0.5-Cx(2))
)
.5-Cx(D)
.5-CX(D) O
Figure imgf000145_0001
), -0.5-Cx(-D)
Sj (13) -s (-0.5-0χ(-1),0.5-0χ(-1))
Sj (14) =s (0.5-Cx(-1), 1.5-Cx(-D)
Sj (15) =s (1.5-CX(-1),2.5-CX(-D)
Sj (16) =s (-1.5-Cx(-2), -0.5-Cx(-2))
Sj (17) =s j(-0.5-Cx(-2),0.5-Cx(-2))
Sj (18) =s i(0.5-Gx(-2),1.5-Cx(-2))
Sj (19) =s i(1.5-Cx(-2),2.5-Cx(-2))
- · · ( 5 3) なお、 式 (5 3) において、 左辺が積分成分 Si ( 1 )を表し、 右辺が積分成分 Si (xs > xe)を表している。 即ち、 いまの場合、 iは 0乃至 5であるので、 2 0個 の S。(1), 2 0個の Si (1), 2 0個の S2 (1), 2 0個の S3 (1), 2 0個の S4 (1), 2 0 個の S5 (1)の総計 1 2 0個の Si (1)が演算されることになる。
より具体的には、 はじめに、 積分成分演算部 2 3 3 4は、 データ定常性検出部 1 0 1より供給された角度 Θを使用して、
シフ ト量 Cx (- 2),CX (- 1),CX (1), CX (2)のそれぞれを演算する。 次に、 積分成分 演算部 2 3 3 4は、 演算したシフト量 Cx (- 2), CX (-1),CX (1), CX (2)を使用して 式 (5 2) の右辺に示される 2 0個の積分成分 Si ( , )のそれぞれを、 i=0 乃至 5のそれぞれについて演算する。 即ち、 1 2 0個の積分成分 Si (xs , xe)が演 算される。 なお、 この積分成分 Si (xs,xe)の演算においては、 上述した式 (5 0) が使用される。 そして、 積分成分演算部 23 34は、 式 (53) に従って、
5∑ :
演算した 1 20個の積分成分 Si (xs,xe)のそれぞれを、 対応する積分成分 Si (1) に変換し、 変換した 1 20個の積分成分 Si (1)を含む積分成分テーブルを生成す る。
なお、 ステップ S 2303の処理とステップ S 2304の処理の順序は、 図 1 37の例に限定されず、 ステップ S 2304の処理が先に実行されてもよいし、
S 2303の処理とステップ S 2304の処理が同時に実行されてもよ い。
次に、 ステップ S 23◦ 5において、 正規方程式生成部 23 3 5は、 ステップ S 2303の処理で入力画素値取得部 23 33により生成された入力画素値テー ブルと、 ステップ S 2304の処理で積分成分演算部 23 34により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 s s o 1(49) に対応する 次の式 (54) の特徴量 を演算する。 で、 それに対応する正規方程式は、 次 の式 (5 5) のように表される。
P(l) xS; -e
(54)
Sn(l)P{l)
Figure imgf000146_0001
· · · (55) なお、 式 (5 5) において、 Lは、 タップ範囲の画素の番号 lのうちの最大値 を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具体的 には、 いまの場合、 n=5となり、 L=l 9となる。
式 (55) で示される正規方程式の各行列のそれぞれを、 次の式 (5 6) 乃至 (58) のように定義すると、 正規方程式は、 次の式 (5 9) のように表される c 0(l)Sn(l)
n(i)sn
(56)
(5 7)
Figure imgf000147_0001
(5 8)
¾T¾T =
(5 9) 式 (5 7) で示されるように、 行列 WMATの各成分は、 求めたい特徴量 ^で ある。 従って、 式 (5 9) において、 左辺の行列 SMAT と右辺の行列 PMATが決 定されれば、 行列解法によって行列 WMAT (即ち、 特徴量^) の算出が可能であ 。
具体的には、 式 (5 6) で示されるように、 行列 SMAT の各成分は、 上述し十/ 積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成分演 算部 2 3 3 4より供給された積分成分テープルに含まれているので、 正規方程式 生成部 2 3 3 5は、 積分成分テーブルを利用して行列 SMAT の各成分を演算する ことができる。
また、 式 (5 8) で示されるように、 行列 PMAT の各成分は、 積分成分 Si (1) と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行列 S MATの各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素値取得部 2 3 3 3より供給された入力画素値テーブルに含まれているの で、 正規方程式生成部 2 3 3 5は、 積分成分テーブルと入力画素値テーブルを利 用して行列 PMAr の各成分を演算することができる。
このようにして、 正規方程式生成部 2 3 3 5は、 行列 SMAT と行列 PMAT の各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMATの各成分) を正規方程式 テーブルとして近似関数生成部 2 3 3 6に出力する。
正規方程式生成部 2 3 3 5より正規方程式テーブルが出力されると、 ステップ S 2 3 0 6において、 近似関数生成部 2 3 3 6は、 正規方程式テーブルに基づい て、 上述した式 (5 9) の行列 WMAT の各成分である特徴量 Wi (即ち、 1次元多 項式である近似関数 f(x)の係数 Wi) を演算する。
具体的には、 上述した式 (5 9) の正規方程式は、 次の式 (6 0) のように変 形できる。 隨 = ¾AT AT
• · · (6 0) 式 (60) において、 左辺の行列 WMAT の各成分が、 求めたい特徴量 ^ であ る。 また、 行列 SMAT と行列 PMAT のそれぞれの各成分は、 正規方程式生成部 2 3 35より供給された正規方程式テーブルに含まれている。 従って、 近似関数生 成部 23 3 6は、 正規方程式テーブルを利用して、 式 (60) の右辺の行列演算 を行うことで行列 WMAT を演算し、 その演算結果 (特徴量 Wi) を画像生成部 1 0 3に出力する。
ステップ S 230 7において、 近似関数生成部 23 36は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 307において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2302に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 23 02乃至 S 2307の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 307において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
なお、 以上のようにして演算された係数 (特徴量) Wi により生成される近似 関数 f(x)の波形は、 上述した図 1 35の近似関数 f3 (x)のような波形となる。 このように、 1次元多項式近似手法においては、 1次元の X断面波形 F(x)と 同一形状の波形が定常性の方向に連なっていると仮定して、 1次元の多項式であ る近似関数 f(x)の特徴量が演算される。 従って、 1次元多項式近似手法におい ては、 他の関数近似手法に比較して、 少ない演算処理量で近似関数 f(x)の特徴 量の算出が可能となる。
換言すると、 1次元多項式近似手法においては、 例えば、 図 1 20 (図 3) の データ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサの複数 の検出素子 (例えば、 図 1 2 1のセンサ 2の検出素子 2— 1) により実世界 1の 光信号 (例えば、 図 1 22の実世界 1の光信号の 1部分 230 1) が射影され、 実世界 1の光信号の定常性 (例えば、 図 1 29の傾き GF で表される定常性) の 一部が欠落した、 検出素子 2— 1により射影された画素値 (例えば、 図 1 27の 各グラフに示される入力画素値 P (X, y) ) を有する複数の画素からなる画像デー タ (例えば、 図 1 2 2の画像データ (入力画像の領域) 2 3 0 2 ) におけるデー タの定常性 (例えば、 図 1 2 9の傾き Gf で表されるデータの定常性) を検出す る。
例えば、 図 1 2 0 (図 3 ) の実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向のうち 1次元方向 (例えば、 図 1 2 4の矢印 2 3 1 1、 即ち、 X方向) の位置に対応す る画素の画素値 (例えば、 上述した式 ( 4 6 ) の左辺である入力画素値 P ) が、 1次元方向の積分効果により取得された画素値 (例えば、 式 (4 6 ) の右辺に示 されるように、 近似関数 f3 (X)が X方向に積分された値) であるとして、 実世界 1の光信号を表す光信号関数 F (具体的には、 X断面波形 F ( X ) ) を所定の近 似関数 f (具体的には、 例えば、 図 1 3 5の近似関数 f 3 (X) ) で近似することで、 光信号関数 Fを推定する。
詳細には、 例えば、 実世界推定部 1 0 2は、 定常性検出手部 1 0 1により検出 されたデータの定常性に対応する線 (例えば、 図 1 3 1の傾き Gf に対応する線 (点線) ) からの 1次元方向 (例えば、 X方向) に沿った距離 (例えば、 図 1 3 1のシフト量 Cx (y) ) に対応する画素の画素値が、 1次元方向の積分効果により 取得された画素値 (例えば、 上述した式 (4 6 ) に示されるような積分範囲で、 式 (4 6 ) の右辺に示されるように、 近似関数 f 3 (X)が X方向に積分された値) であるとして、 光信号関数 Fを近似関数 f で近似することにより、 光信号関数 F を推定する。
従って、 1次元多項式近似手法においては、 他の関数近似手法に比較して、 少 ない演算処理量で近似関数 f (x)の特徴量の算出が可能となる。
次に、 図 1 3 9乃至図 1 4 5を参照して、 第 2の関数近似手法について説明す る。
即ち、 第 2の関数近似手法とは、 例えば、 図 1 3 9で示されるような、 傾き GFで表される空間方向の定常性を有する実世界 1の光信号を、 X— Y平面上 (空間方向の 1方向である X方向と、 X方向に垂直な Y方向に水平な平面上) の 波形 F (X, y)とみなし、 2次元の多項式である近似関数 f (x, y)で波形 F (x, y)を 近似することによって、 その波形 F (x, y)を推定する手法である。 従って、 以下、 第 2の関数近似手法を、 2次元多項式近似手法と称する。
なお、 図 1 3 9において、 図中、 水平方向は、 空間方向の 1方向である X方向 を、 右上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 それぞれ表している。 GFは、 空間方向の定常性の傾きを表している。
また、 2次元多項式近似手法の説明においても、 センサ 2は、 図 1 4 0で示さ れるような、 複数の検出素子 2— 1がその平面上に配置されて構成される C C D とされる。
図 1 4 0の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向で ある Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t方向とされている。
また、 図 1 4 0の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時 間 (露光時間) が 1とされている。
さらに、 図 1 4 0の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0 ) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 (1方向の位置1 = 0 ) とされている。
この場合、 空間方向の原点 (x = 0, y = 0 ) にその中心が存在する検出素子 2— 1は、 X方向に- 0. 5乃至 0. 5の範囲、 Y方向に- 0. 5乃至 0. 5の範囲、 およ び t方向に- 0. 5乃至 0. 5の範囲で光信号関数 F (x, y, t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2 — 1から出力される画 素直 Pは、 次の式 (6 1〉 で表される。 X+0.5 广 +0,5 r+0.5
-0.51θ.5 -0.5 F(X,y,t)dXdydt
• · · (6 1) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (6 1) で示される画素値 Pを出力することになる。 ところで、 上述したように、 2次元多項式近似手法は、 実世界 1の光信号を、 例えば、 図 1 3 9で示されるような波形 F(x,y)として扱い、 その 2次元の波形 F(x,y)を、 2次元の多項式である近似関数 f (x, y)に近似する手法である。
そこで、 はじめに、 このような近似関数 f(x,y)を 2次元の多項式で表現する 手法について説明する。
上述したように、 実世界 1の光信号は、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする光信号関数 F(x,y, t)で表される。 この光信号関数
F(x,y,t)を、 Y方向の任意の位置 yにおいて、 X方向に射影した 1次元の波形 を、 ここでは、 X断面波形 F(X)と称している。
この X断面波形 F (x) に注目すると、 実世界 1の信号が、 空間方向の所定の 方向に定常性を有している場合、 X断面波形 F ( X ) と同一形状の波形がその定 常性の方向に連なっていると考えることができる。 例えば、 図 1 3 9の例では、 X断面波形 F ( X ) と同一形状の波形が、 傾き GPの方向に連なっている。 換言 すると、 X断面波形 F ( X) と同一形状の波形が傾き GFの方向に連なって、 波 形 F(x, y)が形成されているとも言える。
従って、 波形 F(x, y)を近似する近似関数 f (X, y)の波形は、 X断面波形 F(x) を近似する近似関数 f(x)と同一形状の波形が連なって形成されると考えること で、 近似関数 f (X, y)を 2次元の多項式で表現することが可能になる。
さらに詳細に、 近似関数 f(x,y)の表現方法について説明する。
例えば、 いま、 上述した図 1 3 9で示されるような、 実世界 1の光信号、 即ち、 傾き GFで表される空間方向の定常性を有する光信号が、 センサ 2 (図 140) により検出されて入力画像 (画素値) として出力されたとする。 さらに、 図 1 4 1で示されるように、 データ定常性検出部 1 0 1 (図 3) 、 この入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 20個 の画素 (図中、 点線で表される 20個の正方形) から構成される入力画像の領域 240 1に対してその処理を実行し、 データ定常性情報の 1つとして角度 Θ (傾 き GF に対応する傾き Gf で表されるデータの定常性の方向と、 X方向とのなす角 度 0 ) を出力したとする。
なお、 入力画像の領域 240 1において、 図中水平方向は、 空間方向の 1方 向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y方向 を表している。
また、 図 1 4 1中、 左から 2画素目であって、 下から 3画素目の画素が注目画 素とされ、 その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定さ れている。 そして、 原点(0,0)を通る角度 0の直線 (データの定常性の方向を表 す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離と称す る) が x'と記述されている。
さらに、 図 1 4 1中、 右側のグラフは、 X断面波形 F(x')が近似された関数で あって、 n次 (n は、 任意の整数) の多項式である近似関数 f(x')を表している c 右側のグラフの軸のうち、 図中水平方向の軸は、 断面方向距離を表しており、 図 中垂直方向の軸は、 画素値を表している。
この場合、 図 1 4 1で示される近似関数 f(x')は、 n次の多項式であるので、 次の式 (6 2) のように表される。
π
f (X,) = WQ+W^' +W2X' +… +WnX,n = ∑ WjX"
i=0
• · · (6 2) また、 角度 0が決定されていることから、 原点(0,0)を通る角度 0の直線は一 意に決まり、 Y方向の任意の位置 yにおける、 直線の X方向の位置 力 次の 式 (6 3) のように表される。 ただし、 式 (6 3) において、 sは cot eを表し ている。 Xl = s X y ■ · · (6 3)
即ち、 図 141で示されるように、 傾き Gf で表されるデータの定常性に対応 する直線上の点は、 座標値 , y)で表される。
式 (63) より、 断面方向距離 x'は、 次の式 (64) のように表される。
x, = X— X! = X— s X y ■ - ■ (64)
従って、 入力画像の領域 240 1内の任意の位置(x,y)における近似関数 f (x,y)は、 式 (6 2) と式 (64) より、 次の式 (6 5) のように示される。
π .
f (X, y; = j; Wj (x-s )1
i=0
• · · (65) なお、 式 (65) において、 Wi は、 近似関数 f(x,y)の係数を表している。 な お、 近似関数 f(x,y)を含む近似関数 ίの係数 ^ を、 近似関数 f の特徴量と位置 づけることもできる。 従って、 以下、 近似関数 f の係数 ^ を、 近似関数 f の特 徴量 とも称する。
このようにして、 角度 0が既知であれば、 2次元波形の近似関数 f(x,y)を、 式 (6 5) の多項式として表現することができる。
従って、 実世界推定部 1 02は、 式 (6 5) の特徴量 wiを演算することがで きれば、 図 1 39で示されるような波形 F(x,y)を推定することができる。
そこで、 以下、 式 (6 5) の特徴量 を演算する手法について説明する。
即ち、 式 (6 5) で表される近似関数 f (x,y)を、 画素 (センサ 2の検出素子 2- 1 (図 140) ) に対応する積分範囲 (空間方向の積分範囲) で積分すれば、 その積分値が、 画素の画素値の推定値となる。 このことを、 式で表現したものが、 次の式 (6 6) である。 なお、 2次元多項式近似手法においては、 時間方向 tは 一定値とみなされるので、 式 (66) は、 空間方向 (X方向と Y方法) の位置 x, yを変数とする方程式とされている。 p(x' y)
Figure imgf000154_0001
1 sxy)'+e
i—0 • · · ( 6 6 ) 式 (6 6 ) において、 P (x,y)は、 センサ 2からの入力画像のうちの、 その中 心位置が位置(x,y) (注目画素からの相対位置(x, y) ) に存在する画素の画素値 を表している。 また、 eは、 誤差を表している。
このように、 2次元多項式近似手法においては、 入力画素値 P (x, y)と、 2次 元の多項式である近似関数 f (X, y)の関係を、 式 (6 6 ) で表現することが可能 であるので、 実世界推定部 1 0 2は、 式 (6 6 ) を利用して、 特徴量 を、 例 えば、 最小自乗法等により演算することで (演算した特徵量 wiを式 (6 4 ) に 代入して近似関数 f (x, y)を生成することで) 、 2次元の関数 F (x,y) (傾き GF (図 1 3 9 ) で表される空間方向の定常性を有する実世界 1の光信号を、 空間方 向に着目して表した波形 F (X,y) ) を推定することが可能となる。
図 1 4 2は、 このような 2次元多項式近似手法を利用する実世界推定部 1 0 2 の構成例を表している。
図 1 4 2で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 4 2 1、 入力画像記憶部 2 4 2 2、 入力画素値取得部 2 4 2 3、 積分成分演算部 2 4 2 4、 正規方程式生成部 2 4 2 5、 および近似関数生成部 2 4 2 6が設けられている。 条件設定部 2 4 2 1は、 注目画素に対応する関数 F (x,y)を推定するために使 用する画素の範囲 (タップ範囲) や、 近似関数 f (x,y)の次数 nを設定する。
入力画像記憶部 2 4 2 2は、 センサ 2からの入力画像 (画素値) を一次格納す る。
入力画素値取得部 2 4 2 3は、 入力画像記憶部 2 4 2 2に記憶された入力画像 のうちの、 条件設定部 2 4 2 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部2 4 2 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。 なお、 入力画素値テーブルの具体 例については後述する。
ところで、 上述したように、 2次元多項式近似手法を利用する実世界推定部 1 0 2は、 上述した式 (6 6) を最小自乗法で解くことにより、 上述した式 (6
5) で示される近似関数 f (x,y)の特徴量 ^ を演算する。
式 (6 6) は、 次の式 (6 7) 乃至式 (6 9) を用いることで得られる次の式 (70) を使用することで、 次の式 (7 1 ) のように表現することができる。
X
X1 dx =
+1
(6 7)
Figure imgf000156_0001
(6 8)
Figure imgf000156_0002
(6 9)
J
Figure imgf000156_0003
(70) P(x,y) =
i
Figure imgf000157_0001
- (x+0.5-sxy-0.5s)l+2-(x-0.5-s x y+0.5s)l+2 + (x-0.5-s x y-0.5s)i+2] +e
n
= ∑ WjSj (x-0.5, x+0.5, y-0.5, y+0.5) +e
i=0
… (71) 式 ( 7 1 ) において、 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 i次項の積分成分 を表している。 即ち、 積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 次の式 (72) で示される通りである。.
S; (x-0.5, x+0.5, y-0.5, y+0.5) =
(x+0.5-s xy+0.5s)i+2 - (x+0, 5-s xv-0.5s)i+z - (x-0.5-s x y+0, 5s)i+2 + (x-0.5-s xy-0.5s)i+2
一 一 s(i+1)(i+2)
• · · (72) 積分成分演算部 2424は、 この積分成分 Si (X- 0.5, x+0.5, y_0.5, y+0.5) を演算する。
具体的には、 式 (72) で示される
積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 相対画素位置(x, y)、 上述した式 (6 5) における変数 s、 および、 i次項の iが既知であれば、 演算可能である。 これらのうちの、 相対画素位置(x,y)は注目画素とタップ範囲により、 変数 sは cot Θであるので角度 0により、 i の範囲は次数 n により、 それぞれ決定される c 従って、 積分成分演算部 2424は、 条件設定部 242 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデータ定 常性情報のうちの角度 Θに基づいて積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) を演算し、 その演算結果を積分成分テーブルとして正規方程式生成部 2425に 供給する。
正規方程式生成部 2425は、 入力画素値取得部 242 3より供給された入力 画素値テーブルと、 積分成分演算部 2 4 2 4より供給された積分成分テーブルを 利用して、 上述した式 (6 6 ) 、 即ち、 式 (7 1 ) を最小自乗法で求める場合の 正規方程式を生成し、 それを正規方程式テ一ブルとして近似関数生成部 2 4 2 6 に出力する。 なお、 正規方程式の具体例については後述する。
近似関数生成部 2 4 2 6は、 正規方程式生成部 2 4 2 5より供給された正規方 程式テーブルに含まれる正規方程式を行列解放で解くことにより、 上述した式
( 6 6 ) の特徴量 Wi (即ち、 2次元多項式である近似関数 f (X, y)の係数 Wi ) の それぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 1 4 3のフローチャートを参照して、 2次元多項式近似手法が適用さ れる実世界の推定処理 (図 4 0のステップ S 1 0 2の処理) について説明する。 例えば、 いま、 傾き GFで表される空間方向の定常性を有する実世界 1の光信 号が、 センサ 2 (図 1 4 0 ) により検出されて、 1フレームに対応する入力画像 として、 入力画像記憶部 2 4 2 2に既に記憶されているとする。 また、 データ定 常性検出部 1 0 1が、 ステップ S 1 0 1 (図 4 0 ) の定常性の検出の処理におい て、 入力画像のうちの、 上述した図 1 4 1で示される領域 2 4 0 1に対して処理 を施して、 データ定常性情報として角度 eを既に出力しているとする。
この場合、 ステップ S 2 4 0 1において、 条件設定部 2 4 2 1は、 条件 (タツ プ範囲と次数) を設定する。
例えば、 いま、 図 1 4 4で示されるタップ範囲 2 4 4 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 1 4 4は、 タップ範囲の一例を説明する図である。 図 1 4 4において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 1 4 0 ) を表している。 また、 タップ範囲 2 4 4 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個 の画素 (図中、 2 0個の正方形) からなる画素群を表している。
さらに、 図 1 4 4に示されるように、 注目画素が、 タップ範囲 2 4 4 1のうち の、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとする。 また、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x, y) (注目画 素の中心(0,0〉を原点とする注目画素座標系の座標値) に応じて、 図 144で示 されるような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付される とする。
図 143に戻り、 ステップ S 2402において、 条件設定部 242 1は、 注目 画素を設定する。
ステップ S 240 3において、 入力画素値取得部 2423は、 条件設定部 24 21により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 2423は、 入力画像の領域 2401 (図 14 1) を取得し、 入力画素値テーブルとして、 2 0個の入力画素値 P(l)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係は、 次の式 (73) で示される関係とされる。 ただし、 式 (73) において、 左辺が 入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。
p(0) = P(0,0)
P(1) = P(-1,2)
Figure imgf000160_0001
• · · (73)
2404において、 積分成分演算部 2424は、 条件設定部 242 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 10 1より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x,y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部2424は、 上述し た式 (72) の積分成分 Si (x-0.5, x+0.5, y-0.5 y+0.5)を、 次の式 (74) の 左辺で示される積分成分 Si (1)といった 1の関数として演算する。
Si ( 1 ) = Si (x-0.5 x+0.5, y-0.5, y+0.5) · · ■ (74)
具体的には、 いまの場合、 次の式 (75) で示される積分成分 Si (1)が演算さ れる。 s (0) =s (—0.5, 0.5, -0.5, 0.5)
s (1) =s (-1.5,一 0.5,1.5, 2.5)
s (2) 一 s (一 5, 0.5, 1.5, 2.5)
s (3) (0.5,1.5,1.5, 2.5}
s (4) =S (1.5, 2.5,1.5, 2.5)
s (5) =s (-1.5, -0.5, 0.5, 1.5)
s (6) =s (-0.5, 0.5, 0.5, 1.5)
s (7) =s (0.5,1.5, 0.5, 1.5)
s (8) =s (1.5, 2.5, 0.5,1.5)
s (9) =s (-1.5, -0.5, -0.5, 0.5)
Sj (10) =s (0.5,1.5, -0.5, 0.5)
Si (11) =s (1.5, 2.5,一 0.5, 0.5)
Si (12) =s (-1.5, -0.5,-1.5, -0.5)
Sj (13) =s (一 0· 5, 0.5, -1.5, -0.5)
Sj (14) =s (0.5,1.5, -1.5, -0.5)
Sj (15) =s (1.5, 2.5, -1.5, -0.5)
Sj (16) =s (-1.5,一 0.5, -2.5, -1.5)
Sj (17) =s (-0.5, 0.5, -2.5, -1.5)
Sj (18) =s (0.5,1.5, -2.5, -1.5)
Si (19) =s (1.5, 2.5, -2.5, -1.5)
(75) なお、 式 (75) において、 左辺が積分成分 Si ( 1 )を表し、 右辺が積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5)を表している。 即ち、 いまの場合、 iは 0乃至 5 であるので、 20個の S。(1), 20個の (1), 20個の S2 (1), 20個の S3 (1), 20個の S4 (1), 20個の S5 (1)の総計 1 20個の Si (1)が演算されることにな る。
より具体的には、 はじめに、 積分成分演算部 2424は、 データ定常性検出部 101より供給された角度 0に対する cot0を演算し、 それを変数 sとする。 次 に、 積分成分演算部 2424は、 演算した変数 sを使用して式 (74) の右辺で 示される 20個の積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) のそれぞれを、 i=0 乃至 5のそれぞれについて演算する。 即ち、 1 20個の
積分成分 Si (X- 0.5, x+0.5, y - 0.5, y+0.5) が演算されることになる。 なお、 この 積分成分 Si (x_0.5, x+0.5, y-0.5, y+0.5) の演算においては、 上述した式 (7 2) が使用される。 そして、 積分成分演算部 24 24は、 式 (7 5) に従って、 演算した 1 20個の積分成分 Si (X- 0.5, x+0.5, y-0.5, y+0.5)のそれぞれを、 対 応する Si (1)のそれぞれに変換し、 変換した 1 2 0個の Si (1)を含む積分成分テ —ブルを生成する。
なお、 ステップ S 24 0 3の処理とステップ S 24 04の処理の順序は、 図 1
4 3の例に限定されず、 ステップ S 2 40 4の処理が先に実行されてもよいし、 ステップ S 24 0 3の処理とステップ S 2404の処理が同時に実行されてもよ い。
次に、 ステップ S 24 0 5において、 正規方程式生成部 24 2 5は、 ステップ
5 240 3の処理で入力画素値取得部 24 2 3により生成された入力画素値テー ブルと、 ステップ S 24 04の処理で積分成分演算部 24 24により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 上述した式 (7 1) を利用して最小自乗法により特 徴量 ^が演算される (ただし、 式 (7 0) において、
積分成分 Si (X- 0.5, x+0.5, y - 0.5, y+0.5)は、 式 (74) により変換される
Si(l)が使用される) ので、 それに対応する正規方程式は、 次の式 (7 6) のよ うに表される。
Figure imgf000162_0001
• · · (7 6) なお、 式 (7 6) において、 Lは、 タップ範囲の画素の番号 1のうちの最大値 を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具体的 こは、 いまの場合、 n=5となり、 L=l 9となる。
式 (76) で示される正規方程式の各行列のそれぞれを、 次の式 (77) 乃至
∑ J
(79) のよ sうに定義すると、 正規方程式は、 次の式 (80) のように表現され る'
(77)
Figure imgf000163_0001
(78)
∑ S0(I)P(I)
i=o
PMAT =
l=0
(79)
¾T¾T = i画
(80) 式 (78) で示されるように、 行列 WMATの各成分は、 求めたい特徴量 ^ で ある。 従って、 式 (8 0) において、 左辺の行列 SMAT と右辺の行列 PMATが決 定されれば、 行列解法によって行列 WMAT の演算が可能になる。
具体的には、 式 ( 7 7) で示されるように、 行列 SMAT の各成分は、 上述した 積分成分 Si (1)で演算可能である。 即ち、 積分成分 Si (1)は、 積分成分演算部 2
4 24より供給された積分成分テーブルに含まれているので、 正規方程式生成部 24 2 5は、 積分成分テーブルを利用して行列 SMAT の各成分を演算することが できる。
また、 式 (7 9) で示されるように、 行列 PMATの各成分は、 積分成分 Si (1) と入力画素値 P(l)で演算可能である。 即ち、 積分成分 Si (1)は、
行列 SMAT の各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素値取得部 2 4 2 3より供給された入力画素値テーブルに含ま れているので、 正規方程式生成部 24 2 5は、 積分成分テーブルと入力画素値テ 一プルを利用して行列 PMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 24 2 5は、 行列 SMAT と行列 PMAT の各 成分を演算し、 その演算結果 (行列 sMAT と行列 PMAT の各成分) を正規方程式 テーブルとして近似関数生成部 24 2 6に出力する。
正規方程式生成部 24 2 5より正規方程式テーブルが出力されると、 ステップ
5 24 0 6において、 近似関数生成部 24 2 6は、 正規方程式テーブルに基づい て、 上述した式 (8 0) の行列 WMAT の各成分である特徴量 (即ち、 2次元多 項式である近似関数 f(x, y)の係数^) を演算する。
具体的には、 上述した式 (8 0) の正規方程式は、 次の式 (8 1) のように変 形できる。
¾Γ = ¾ΑΤ¾ΑΤ
· · · (8 1 ) 式 (8 1 ) において、 左辺の行列 WMATの各成分が、 求めたい特徴量 であ る。 また、 行列 SM A T と行列 PM A Tのそれぞれの各成分は、 正規方程式生成部 2 4 2 5より供給された正規方程式テーブルに含まれている。 従って、 近似関数生 成部 2 4 2 6は、 正規方程式テーブルを利用して、 式 ( 8 1 ) の右辺の行列演算 を行うことで行列 WM A T を演算し、 その演算結果 (特徴量 を画像生成部 1 0 3に出力する。
ステップ S 2 4 0 7において、 近似関数生成部 2 4 2 6は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 4 0 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2 4 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 4 0 2乃至 S 2 4 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 4 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
以上、 2次元多項式近似手法の説明として、 空間方向 (X方向と Y方向) に対 する近似関数 f (x,y)の係数 (特徴量) Wi を演算する例を用いたが、 2次元多項 式近似手法は、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対し ても適用可能である。
即ち、 上述した例は、 実世界 1の光信号が、 例えば、 傾き GF (図 1 3 9 ) で 表される空間方向の定常性を有する場合の例であったので、 上述した式 ( 6 6 ) で示されるような、 空間方向 (X方向と Y方向) の二次元積分が含まれる式が利 用された。 しかしながら、 二次元積分の考え方は、 空間方向だけによるものでは なく、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対して適用す ることも可能である。
換言すると、 2次元多項式近似手法においては、 推定したい光信号関数 F (X,y, t)が、 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方 向、 または、 Y方向と t方向) の定常性を有している場合であっても、 2次元の 多項式により近似することが可能である。 具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 その 物体の動きの方向は、 図 1 4 5で示されるような X-t平面においては、 傾き VF のように表される。 換言すると、 傾き VFは、 X - 1平面における時空間方向の定 常性の方向を表しているとも言える。 従って、 データ定常性検出部 1 0 1は、 上 述した角度 θ (X - Y平面における、 傾き GFで表される空間方向の定常性に対応 するデータ定常性情報) と同様に、 X - 1平面における時空間方向の定常性を表す 傾き VF に対応するデータ定常性情報として、 図 1 4 5で示されるような動き Θ
(厳密には、 図示はしないが、 傾き VF に対応する傾き vf で表されるデータの定 常性の方向と、 空間方向の X方向とのなす角度である動き を出力することが 可能である。
従って、 2次元多項式近似手法を利用する実世界推定部 1 0 2は、 動き Θを上 述した角度 Θの代わりとして使用すれば、 上述した方法と同様な方法で、 近似関 数 f (X, t)の係数 (特徴量) を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (6 6 ) ではなく、 次の式 (8 2 ) である。
Figure imgf000166_0001
• · · ( 8 2 ) なお、 式 (8 2 ) において、 sは cot 0 (ただし、 0は動きである) である。 また、 空間方向 Xの変わりに、 空間方向 Yに注目した近似関数 f (y, t)も、 上 述した近似関数 f (x、 t)と全く同様に取り扱うことが可能である。
このように、 2次元多項式近似手法においては、 例えば、 図 1 2 0 (図 3 ) の データ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサの複数 の検出素子 (例えば、 図 1 4 0のセンサ 2の検出素子 2 _ 1 ) により実世界 1 (図 1 2 0 ) の光信号が射影され、 実世界 1の光信号の定常性 (例えば、 図 1 3 9の傾き GFで表される定常性) の一部が欠落した、 検出素子 2— 1により射影 された画素値を有する複数の画素からなる画像データ (例えば、 図 1 2 0の入力 画像) におけるデータの定常性 (例えば、 図 1 4 1の傾き Gf で表されるデータ の定常性) を検出する。
そして、 例えば、 図 1 20 (図 3)の実世界推定部 1 0 2 (構成は、 図 1 4 2) が、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向のうち少なくとも 2次元方向 (例えば、 図 1 3 9と図 1 4 0の空間方向 Xと、 空間方向 Y) の位置に対応する画素の画素値 (例えば、 上 述した式 (6 5) の左辺である入力画素値 P (x、y)) が、 少なくとも 2次元方向 の積分効果により取得された画素値 (例えば、 式 (6 6) の右辺に示されるよう に、 上述した式 (6 5) で示される近似関数 f (X, y)が X方向と Y方向に積分さ れた値) であるとして、 実世界 1の光信号を表す光信号関数 F (具体的には、 図 1 3 9の関数 F(x,y)) を、 多項式である近似関数 f (例えば、 式 (6 5) で示 される近似関数 f(x, y)) で近似することで、 光信号関数 Fを推定する。
詳細には、 例えば、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により 検出されたデータの定常性に対応する線 (例えば、 図 1 4 1の傾き Gf に対応す る線 (矢印) ) からの少なくとも 2次元方向に沿った距離 (例えば、 図 1 4 1の 断面方向距離 X £) に対応する画素の画素値が、 少なくとも 2次元方向の積分効 果により取得された画素値であるとして、 現実世界の光信号を表す第 1の関数を、 多項式である第 2の関数で近似することで、 第 1の関数を推定する。
このように、 2次元多項式近似手法は、 1次元ではなく 2次元の積分効果を考 慮しているので、 1次元多項式近似手法に比較して、 より正確に実世界 1の光信 号を推定することが可能になる。
次に、 図 1 4 6乃至図 1 5 0を参照して、 第 3の関数近似手法について説明す る。
即ち、 第 3の関数近似手法とは、 例えば、 時空間方向のうちの所定の方向の定 常性を有する実世界 1の光信号が、 光信号関数 F(x, y, t)で表されることに注目 して、 近似関数 f (x, y, t)で光信号関数 F(x, y, t)を近似することによって、 光信 号関数 F(x, y,t)を推定する手法である。 従って、 以下、 第 3の関数近似手法を、 3次元関数近似手法と称する。 また、 3次元関数近似手法の説明においても、 センサ 2は、 図 1 46で示され るような、 複数の検出素子 2— 1がその平面上に配置されて構成される CCDと される。
図 1 4 6の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向で ある Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t方向とされている。
また、 図 1 4 6の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時 間 (露光時間) が 1とされている。
さらに、 図 1 4 6の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x == 0、 および Y方向の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 (1方向の位置セ = 0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 およ び t方向に- 0.5乃至 0.5の範囲で光信号関数 F(x,y,t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (8 3) で表される。
/ ++00丄..55 f++00..55 / r-++00..55 , 、
- ,
-0ο.5 J -0.丄5 J -0.5 s F(x, y t)dXdydt
- - - (8 3) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (8 3) で示される画素値 Pを出力することになる。 ところで、 上述したように、 3次元関数近似手法においては、 光信号関数 F(x, y, t)は、 3次元の近似関数 f (x, y, t)に近似される。 具体的には、 例えば、 近似関数 f(x,y,t)を、 N個の変数 (特徴量) を有する 関数とし、 式 (83) に対応する入力画素値 P(x,y,t)と近似関数 f (x,y,t)の関 係式を定義する。 これにより、 Nより大きい M個の入力画素値 P(x,y,t)が取得 されていれば、 定義された関係式から N個の変数 (特徴量) の算出が可能であ る。 即ち、 実世界推定部 1 0 2は、 M個の入力画素値 P(x,y,t)を取得して N個 の変数 (特徴量) を演算することで、 光信号関数 F(x,y,t)を推定することが可 能である。
この場合、 実世界推定部 1 02は、 センサ 2からの入力画像 (入力画素値) に 含まれるデータの定常性を縛りとして (即ち、 データ定常性検出部 10 1より出 力される入力画像に対するデータ定常性情報を利用して) 、 入力画像全体のうち の、 M個の入力画像 P(x,y,t)を抽出 (取得) する。 結果的に、 予測関数
f (x,y,t)は、 データの定常性に拘束されることになる。
例えば、 図 147で示されるように、 入力画像に対応する光信号関数
F(x,y,t)が、 傾き GFで表される空間方向の定常性を有している場合、 データ定 常性検出部 10 1は、 入力画像に対するデータ定常性情報として、 角度 Θ (傾き GFに対応する傾き Gf (図示せず) で表されるデータの定常性の方向と、 X方向 のなす角度 e) を出力することになる。
この場合、 光信号関数 F(x,y,t)を X方向に射影した 1次元の波形 (ここでは、 このような波形を、 X断面波形と称している) は、 Y方向のいずれの位置で射影 した場合であっても同一の形状であるとする。
即ち、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 0方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元 波形が時間方向 tに連なった 3次元波形を、 近似関数 f (x, y, t)で近似する。
換言すると、 注目画素の中心から Y方向に位置 yだけずれた X断面波形は、 注目画素の中心を通る X断面波形が X方向に所定の量 (角度 Θに応じて変化す る量) だけ移動した (シフトした) 波形となる。 なお、 以下、 このような量を、 シフト量と称する。 'このシフト量は、 次のようにして算出が可能である。
即ち、 傾き Vf (例えば、 図 147の傾き VF に対応する、 データの定常性の方 向を表す傾き Vf) と角度 0は、 次の式 (84) のように表される。
Gf = tan Θ = · · · (84) なお、 式 (84) において、 dx は、 X方向の微小移動量を表しており、 dy は、 dxに対する Y方向の微小移動量を表している。
従って、 X方向に対するシフト量を Cs (y)と記述すると、 次の式 (8 5) のよ うに表される。 cx(y) =
• ■ - (85) このようにして、 シフト量 Cx (y)を定義すると、 式 (8 3) に対応する入力画 素値 P(x,y, t)と近似関数 f (x,y,t)の関係式は、 次の式 (86) のように表され る。
P(x,y,t) = Γ 6 Γ f f (x,y,t)dxdydt+e
• · · (86) 式 (86) において、 eは、 誤差を表している。 ts は、 t方向の積分開始位 置を表しており、 te は、 t方向の積分終了位置を表している。 同様に、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表してい る。 また、 xsは、 X方向の積分開始位置を表しており、 xeは、 X方向の積分終 了位置を表している。 ただし、 具体的な各積分範囲のそれぞれは、 次の式 (8 7) で示される通りになる。 ts = t-0.5
te = t+0.5
ys = y-0.5
ye = y+0.5
Ks = x-Cx(y) -0.5
xe = x-Cx(y) +0.5
• ■ · (87) 式 (87) で示されるように、 注目画素から空間方向に(x,y)だけ離れて位置 する画素に対する X方向の積分範囲を、 シフト量 Cx (y)だけ移動させることで、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 0方向) に連なつ ていることを表すことが可能になる。
このように、 3次元関数近似手法においては、 画素値 P(x,y、t)と、 3次元の 近似関数 f(x,y,t)の関係を式 (86) (積分範囲は、 式 (87) ) で表すこと ができるので、 式 (86) と式 (87) を利用して、 近似関数 f(x,y,t)の N個 の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数
F(x,y,t) (例えば、 図 147で示されるような傾き VF表される空間方向の定常 性を有する光信号) の推定が可能となる。
なお、 光信号関数 F(x,y,t)で表される光信号が、 例えば、 図 147で示され るような傾き VFで表される空間方向の定常性を有している場合、 次のようにし て光信号関数 F(x, y, t)を近似してもよい。
即ち、 光信号関数 F(x,y,t)を Y方向に射影した 1次元の波形 (以下、 このよ うな波形を、 Y断面波形と称する) は、 X方向のいずれの位置で射影した場合で あっても同一の形状であるとする。
換言すると、 同一形状の Y断面波形が、 定常性の方向 (X方向に対して角度 0 方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元波形が時間方向 tに連なった 3次元波形を、 近似関数 f (x,y,t)で近似す る。 従って、 注目画素の中心から X方向に xだけずれた Y断面波形は、 注目画素 の中心を通る Υ断面波形が Υ方向に所定のシフト量 (角度 Θに応じて変化する シフ ト量) だけ移動した波形となる。
このシフト量は、 次のようにして算出が可能である。
即ち、 傾き GFが、 上述した式 (84) のように表されるので、 Y方向に対す るシフ ト量を Cy (X)と記述すると、 次の式 (88) のように表される。
Cy Cx) = Qf x x
• - · (88) このようにして、 シフト量 Cy (X)を定義すると、 式 (8 3) に対応する入力画 素値 P(x,y,t)と近似関数 f (x,y,t)の関係式は、 シフト量 Cx (y)を定義したとき と同様に、 上述した式 (86) で表される。
ただし、 今度は、 具体的な各積分範囲のそれぞれは、 次の式 (8 9) で示され る通りになる。 ts = t-0.5
te二 t+0.5
ys = y-Cy(x)-0.5
Figure imgf000172_0001
xs = x-0.5
xe = x+0.5 · · · (8 9) 式 (89) (および上述した式 (86) ) で示されるように、 注目画素から (x,y)だけ離れて位置する画素に対する Y方向の積分範囲を、 シフト量 Cy (X)だ け移動させることで、 同一形状の Y断面波形が、 定常性の方向 (X方向に対して 角度 Θ方向) に連なっていることを表すことが可能になる。
このように、 3次元関数近似手法においては、 上述した式 (86) の右辺の積 分範囲を式 (8 7) のみならず式 (8 9) とすることもできるので、 積分範囲と して式 (8 9) が採用された式 (86) を利用して、 近似関数 f(x,y,t)の n個 の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数
F(x, y,t) (傾き GFで表される空間方向の定常性を有する実世界 1の光信号) の 推定が可能となる。
このように、 積分範囲を表す式 (8 7) と式 (89) は、 定常性の方向にあわ せて周辺画素を X方向にシフトさせるか (式 (8 7) の場合) 、 或いは Y方向 にシフトさせるか (式 (89) の場合) の違いがあるだけであり、 本質的には同 じことを表している。
しかしながら、 定常性の方向 (傾き GF) に応じて、 光信号関数 F(x,y,t)を、 X断面波形の集まりと捉える力 \ Y断面波形の集まりと捉えるかが異なる。 即ち、 定常性の方向が Y方向に近い場合、 光信号関数 F(x,y,t)を、 X断面波形の集ま りと捉えた方が好適である。 これに対して、 定常性の方向が X 方向に近い場合、 光信号関数 F(x,y, t)を、 Y断面波形の集まりと捉えた方が好適である。
従って、 実世界推定部 10 2は、 積分範囲として式 (8 7) と式 (8 9) の両 方を用意しておき、 定常性の方向に応じて、 適宜式 (86) の右辺の積分範囲と して、 式 (8 7) と式 (8 9) のうちのいずれか一方を選択するとよい。
以上、 光信号関数 F(x,y,t)が空間方向 (X方向と Y方向) の定常性 (例えば、 図 147の傾き GPで表される空間方向の定常性) を有する場合についての 3次 元関数手法について説明したが、 3次元関数手法は、 図 148で示されるように、 光信号関数 F(X,y,t)が時空間方向 (X方向、 Y方向、 および t方向) の定常性 (傾き VFで表される定常性) を有する場合についても適用可能である。
即ち、 図 148において、 フレーム番号 #N-1のフレームに対応する光信号関 数が F(x、y、#N_l)とされ、 フレーム番号 #Nのフレームに対応する光信号関数が F(x、y、 )とされ、 かつ、 フレーム番号 #N+1のフレームに対応する光信号関数 が F(x、y、 +1)とされている。
なお、 図 148において、 図中、 水平方向は、 空間方向の 1方向である X方 向とされており、 右斜め上方向は、 空間方向の他方向である Y方向とされており、 かつ、 垂直方向は、 時間方向である t方向とされている。 また、 フレーム - 1は、 フレーム #Nに対して時間的に前のフ ームであり、 フレーム #N+1は、 フレーム #Nに対して時間的に後のフレームである。 即ち、 フ レーム - 1、 フレーム #N、 およびフレーム #N+1 は、 フレーム UN- 1、 フレーム #N、 およびフレーム飾 +1の順で表示される。
図 148の例では、 傾き VFで示される方向 (図中左下手前から右上奥の方 向) に沿つた断面の光のレベルがほぼ一定とされている。 従って、 図 148の例 では、 光信号関数 F(x,y,t)は、 傾き VFで表される時空間方向の定常性を有して いると言える。
この場合、 時空間方向の定常性を表す関数 C(x,y,t)を定義し、 かつ、 定義さ れた関数 C(x,y,t)を利用して、 上述した式 (86) の積分範囲を定義すれば、 上述した式 (87) や式 (8 9) と同様に、 近似関数 f (x,y,t)の N個の特徴量 の算出が可能になる。
関数 C(x,y,1:)は、 定常性の方向を表す関数であれば特に限定されない。 ただ し、 以下においては、 直線的な定常性であるとして、 それに対応する関数
C(x,y,t)として、 上述した空間方向の定常性を表す関数であるシフト量 Cx (y) (式 (85) ) ゃシフト量 Cy (x) (式 (8 7) ) に相当する、 Cx (t)と Cy (t)を 次のように定義するとする。
即ち、 上述した空間方向のデータの定常性を表す傾き Gf に対応する、 時空間 方向のデータの定常性の傾きを Vf とすると、 この傾き Vf を X方向の傾き (以 下、 Vf x と記述する) と Y方向の傾き (以下、 Vfy と記述する) に分割すると、 傾き Vfx は次の式 (90) で、 傾き Vfyは次の式 (9 1) で、 それぞれ表され る。
Figure imgf000174_0001
(90)
V fy dt • · · (9 1) この場合、 関数 Cx (t)は、 式 (9 0) で示される傾き Vf xを利用して、 次の式 (9 2) のように表される。
Wx t ) = ^ff / t 同様に、 関数 Cy (t)は、 式 (9 1) で示される傾き Vf y を利用して、 次の式 (9 3) のように表さ る。
Cy(t) =VfyXt
• · · (9 3) このようにして、 時空間方向の定常性 2 5 1 1を表す関数 Cx (t)と関数 Cy (t) を定義すると、 式 (8 6) の積分範囲は、 次の式 (9 4) のように表される。 ts = t一 0.5
te = t+0.5
ys = y-Cy(t)-0.5
ye = y-Cy(t)+0.5
xs = x-Cx(t)-0.5
xe = x-Cx(t)+0.5
• · · (9 4) このように、 3次元関数近似手法においては、 画素値 P(x,y、t)と、 3次元の 近似関数 f(x, y,t)の関係を式 (8 6) で表すことができるので、 その式 (8 6) の右辺の積分範囲として式 (94) を利用して、 近似関数 f(x,y,t)の n + 1個の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y, t) (時空間方向の所定の方向に定常性を有する実世界 1の光信号) を推 定することが可能となる。
図 1 4 9は、 このような 3次元関数近似手法を利用する実世界推定部 1 0 2の 構成例を表している。
なお、 3次元関数近似手法を利用する実世界推定部 1 0 2が演算する近似関数 PC蘭 004/001585
174 f(x,y,t) (実際には、 その特徴量 (係数) を演算する) は、 特に限定されない 力 以下の説明においては、 n (n=N-l) 次の多項式とされる。
図 1 4 9で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 5 2 1、 入力画像記憶部 2 5 2 2、 入力画素値取得部 2 5 2 3、 積分成分演算部 2 5 24、 正規方程式生成部 2 5 2 5、 および近似関数生成部 2 5 2 6が設けられている。 条件設定部 2 5 2 1は、 注目画素に対応する光信号関数 F(x,y,t)を推定する ために使用する画素の範囲 (タップ範囲) や、 近似関数 f(x,y,t)の次数 11を設 疋!"る。
入力画像記憶部 2 5 2 2は、 センサ 2からの入力画像 (画素値) を一次格納す る。
入力画素値取得部 2 5 2 3は、 入力画像記憶部 2 5 2 2に記憶された入力画像 のうちの、 条件設定部 2 5 2 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 2 5 2 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。
ところで、 上述したように、 3次元関数近似手法を利用する実世界推定部 1 0 2は、 上述した式 (8 6) (ただし積分範囲は、 式 (8 7) 、 式 (9 0) 、 また は式 (94) ) を利用して最小自乗法により近似関数 f(x,y)の N個の特徴量 (いまの場合、 各次の係数) を演算する。
式 (8 6) の右辺は、 その積分を演算することで、 次の式 (9 5) のように表 現することができる。
n
P(x, y, t) =∑ jSj (xs, xe, ys, ye, ts, te) +e
i=0
• · · (9 5) 式 (9 5) において、 Wi は、 i次項の係数 (特徴量) を表しており、 また、 Si (xs,xe ) ys, ye, ts,te) は、 i次項の積分成分を表している。 ただし、 xs は X 方向の積分範囲の開始位置を、 xe は X方向の積分範囲の終了位置を、 ys は Y方 向の積分範囲の開始位置を、 yeは Y方向の積分範囲の終了位置を、 ts は t方向 の積分範囲の開始位置を、 te は t方向の積分範囲の終了位置を、 それぞれ表し ている。
積分成分演算部 2524は、 この積分成分 Si (xs ,xe,ysJye,ts,te) を演算 する。
即ち、 積分成分演算部 25 24は、 条件設定部 25 2 1により設定されたタッ プ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデータ定常 性情報のうちの角度若しくは動き (積分範囲として、 上述した式 (8 7) 若しく は式 (90) が利用される場合には角度であり、 上述した式 (94) が利用され る場合には動きである) に基づいて積分成分 Si (xs,xe,ys,ye,ts,te) を演算 し、 その演算結果を積分成分テーブルとして正規方程式生成部 2525に供給す る。
正規方程式生成部 2525は、 入力画素値取得部 2523より供給された入力 画素値テーブルと、 積分成分演算部 2 524より供給された積分成分テーブルを 利用して、 上述した式 (95) を最小自乗法で求める場合の正規方程式を生成し、 それを正規方程式テーブルとして近似関数生成部 25 26に出力する。 正規方程 式の例については、 後述する。
近似関数生成部 2 526は、 正規方程式生成部 2525より供給された正規方 程式テーブルに含まれる正規方程式を行列解放で解くことにより、 特徴量
(いまの場合、 3次元多項式である画素値関数 f(x,y)の係数 ) のそれぞれを 演算し、 画像生成部 103に出力する。
次に、 図 1 50のフローチャートを参照して、 3次元関数近似手法が適用され る実世界の推定処理 (図 40のステップ S 1 02の処理) について説明する。 はじめに、 ステップ S 250 1において、 条件設定部 2 5 2 1は、 条件 (タツ プ範囲と次数) を設定する。
例えば、 いま、 L個の画素からなるタップ範囲が設定されたとする。 また、 各 画素のそれぞれに対して、 所定の番号 1 (1は、 0乃至 L一 1のうちのいずれか の整数値) が付されるとする。
次に、 ステップ S 2 5 0 2において、 条件設定部 2 5 2 1は、 注目画素を設定 する。
ステップ S 2 5 0 3において、 入力画素値取得部 2 5 2 3は、 条件設定部 2 5 2 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 いまの場合、 L個の入力画素値 P (X, y, ΐ)からなる テーブルが生成されることになる。 ここで、 L個の入力画素値 P (x,y,t)のそれ ぞれを、 その画素の番号 1の関数として P (l)と記述することにする。 即ち、 入 力画素値テーブルは、 L個の P (l)が含まれるテーブルとなる。
ステップ S 2 5 0 4において、 積分成分演算部 2 5 2 4は、 条件設定部 2 5 2 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度若しくは動き) に基づいて積分成 分を演算し、 積分成分テーブルを生成する。
ただし、 いまの場合、 上述したように、 入力画素値は、 P (X, y,t)でなく P (l) といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2 5 2 4 は、 上述した式 (9 5 ) の積分成分 Si (xs , xe , ys , ye , ts , te ) を、 積分成分 Si (1)といった 1 の関数として演算することになる。 即ち、 積分成分テーブルは、 L X i個の Si (1)が含まれるテーブルとなる。
なお、 ステップ S 2 5 0 3の処理とステップ S 2 5 0 4の処理の順序は、 図 1 5 0の例に限定されず、 ステップ S 2 5 0 4の処理が先に実行されてもよいし、 ステップ S 2 5 0 3の処理とステップ S 2 5 0 4の処理が同時に実行されてもよ い。
次に、 ステップ S 2 5 0 5において、 正規方程式生成部 2 5 2 5は、 ステップ S 2 5 0 3の処理で入力画素値取得部 2 5 2 3により生成された入力画素値テー プルと、 ステップ S 2 5 0 4の処理で積分成分演算部 2 5 2 4により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 (9 5 ) に対応する 04001585
177
次の式 (96) の特徴量 Wi を演算する。 で、 それに対応する正規方程式は、 次 の式 (97) のように表される。
P(l) =∑ WiSi (l)+e
(96)
Figure imgf000179_0001
• · · (97) 式 (97) で示される正規方程式の各行列のそれぞれを、 次の式 (98) 乃至 (I 00) のように定義すると、 正規方程式は、 次の式 (I 0 I) のように表さ れる。
Figure imgf000179_0002
(98) (9 9)
I)P(I)
Figure imgf000180_0001
• · · (1 00) 省 ¾T = PMAT
… - (1 01) 式 (99) で示されるように、 行列 WMATの各成分は、 求めたい特徴量 ^で ある。 従って、 式 (10 1) において、 左辺の行列 SMAT と右辺の行列 PMATが 決定されれば、 行列解法によって行列 WMAT (即ち、 特徴量 Wi) の算出が可能で ある。
具体的には、 式 (98) で示されるように、 行列 SMATの各成分は、 上述した 積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成分演 算部 25 24より供給された積分成分テーブルに含まれているので、 正規方程式 生成部 25 25は、 積分成分テーブルを利用して行列 SM ATの各成分を演算する ことができる。
また、 式 (l oo)で示されるように、 行列 Pmat の各成分は、 積分成分
Si (1)と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行 列 SMATの各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l) は、 入力画素値取得部 25 23より供給された入力画素値テーブルに含まれてい るので、 正規方程式生成部 252 5は、 積分成分テ一ブルと入力画素値テープル を利用して行列 PMATの各成分を演算することができる。
このようにして、 正規方程式生成部 25 25は、 行列 SMAT と行列 PMAT の各 成分を演算し、 その演算結果 (行列 sMAT と行列 PMAT の各成分) を正規方程式 テーブルとして近似関数生成部 25 26に出力する。
正規方程式生成部 25 26より正規方程式テーブルが出力されると、 ステップ S 2506において、 近似関数生成部 25 26は、 正規方程式テーブルに基づい て、 上述した式 (1 0 1) の行列 AT の各成分である特徴量 ^ (即ち、 近似関 数 f (x,y, t)の係数 Wi) を演算する。
具体的には、 上述した式 (10 1) の正規方程式は、 次の式 (102) のよう に変形できる。
¾T = SMATP AT
· · · ( 102) 式 (10 2) において、 左辺の行列 WM ATの各成分が、 求めたい特徴量 ^ で ある。 また、 行列 SMAT と行列 ΡΜΛΤのそれぞれの各成分は、 正規方程式生成部 25 25より供給された正規方程式テーブルに含まれている。 従って、 近似関数 生成部 25 26は、 正規方程式テーブルを利用して、 式 (10 2) の右辺の行列 演算を行うことで行列 WMAT を演算し、 その演算結果 (特徴量 を画像生成部 103に出力する。
ステップ S 2 50 7において、 近似関数生成部 25 26は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 50 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2502に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 25 0 2乃至 S 2 5 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 5 4 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
以上、 説明したように、 3次元関数近似手法は、 1次元や 2次元ではなく、 時 空間方向の 3次元の積分効果を考慮しているので、 1次元多項式近似手法や 2次 元多項式近似手法に比較して、 より正確に実世界 1の光信号を推定することが可 能になる。
換言すると、 3次元関数近似手法においては、 例えば、 図 1 2 0 (図 3 ) の実 世界推定部 1 0 2 (構成は、 例えば、 図 1 4 9 ) は、 それぞれ時空間積分効果を 有する、 センサの複数の検出素子 (例えば、 図 1 4 6のセンサ 2の検出素子 2— 1 ) により実世界 1の光信号が射影され、 実世界 1の光信号の定常性 (例えば、 図 1 4 7の傾き 611、 または、 図 1 4 8の傾き VFで表される定常性) の一部が欠 落した、 検出素子により射影された画素値を有する複数の画素からなる入力画像 の、 時空間方向のうち少なくとも 1次元方向 (例えば、 図 1 4 8の空間方向 X、 空間方向 Y、 および、 時間方向 tの 3次元方向) の位置に対応する前記画素の前 記画素値 (例えば、 式 (8 7 ) の左辺の入力画素値 P (x, y, z) ) 力 少なくとも 1次元方向の積分効果により取得された画素値 (例えば、 上述した式 (8 7 ) の 右辺に示されるように、 近似関数 f (x, y, t)が X方向、 Y方向、 および t方向の 3次元に積分された値) であるとして、 実世界の光信号を表す光信号関数 F (具 体的には、 例えば、 図 1 4 7や図 1 4 8の光信号関数 F (x, y, t) ) を所定の近似 関数 f (具体的には、 例えば、 式 (8 6 ) の右辺の近似関数 f (x,y,t) ) で近似 することで、 光信号関数 Fを推定する。
さらに、 例えば、 図 1 2 0 (図 3 ) のデータ定常性検出部 1 0 1が、 入力画像 のデータの定常性を検出した場合、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向の うち少なく とも 1次元方向の位置に対応する画素の画素値が、 少なくとも 1次元 方向の積分効果により取得された画素値であるとして、 光信号関数 Fを近似関 数 f で近似することで、 光信号関数 Fを推定する。
詳細には、 例えば、 実世界推定部 1 0 2は、 定常性検出部 1 0 1により検出さ れたデータの定常性に対応する線からの少なくとも 1次元方向に沿った距離 (例 えば、 上述した式 (8 5 ) のシフ ト量 Cx (y) ) に対応する画素の画素値が、 少な くとも 1次元方向の積分効果により取得された画素値 (例えば、 上述した式 (8 7 ) で示されるような積分範囲で、 式 (8 6 ) の右辺に示されるように、 近似関 数 f , y,t)が X方向、 Y方向、 および t方向の 3次元に積分された値) である として、 光信号関数 Fを近似関数で近似することで、 光信号関数を推定する。 従って、 3次元関数近似手法は、 より正確に実世界 1の光信号を推定すること が可能になる。
次に、 図 1 5 1乃至図 1 7 2を参照して、 画像生成部 1 0 3 (図 3 ) の実施の 形態の一例について説明する。
図 1 5 1は、 この例の実施の形態の原理を説明する図である。
図 1 5 1で示されるように、 この例の実施の形態においては、 実世界推定部 1 0 2が、 関数近似手法を利用することが前提とされている。 即ち、 センサ 2に入 射される画像である、 実世界 1の信号 (光の強度の分布) 1 所定の関数 Fで表 されるとして、 実世界推定部 1 0 2が、 センサ 2から出力された入力画像 (画素 値 P ) と、 データ定常性検出部 1 0 1から出力されたデータ定常性情報を使用し て、 関数 Fを所定の関数 f で近似することによって、 関数 Fを推定することが前 提とされている。
なお、 以下、 この例の実施の形態の説明においても、 画像である、 実世界 1の 信号を、 特に光信号と称し、 関数 Fを、 特に光信号関数 Fと称する。 また、 関数 f を、 特に近似関数 f と称する。
そこで、 この例の実施の形態においては、 このような前提に基づいて、 画像生 成部 1 0 3が、 データ定常性検出部 1 0 1から出力されたデータ定常性情報と、 実世界推定部 1 0 2から出力された実世界推定情報 (図 1 5 1の例では、 近似関 数 f の特徴量) を使用して、 近似関数 f を所定の時空間範囲で積分し、 その積 PC漏 00機 1585
182
分値を出力画素値 M (出力画像) として出力する。 なお、 この例の実施の形態に おいては、 入力画像の画素と出力画像の画素を区別するために、 入力画素値を P と記述し、 出力画素値を Mと記述する。
換言すると、 光信号関数 Fが 1度積分されて入力画素値 Pとなり、 その入力画 素値 Pから光信号関数 Fが推測され (近似関数 f で近似され) 、 推測された光 信号関数 F (即ち、 近似関数 f) が再度積分されて、 出力画素値 Mが生成される。 従って、 以下、 画像生成部 1 0 3が実行する近似関数 f の積分を、 再積分と称 する。 また、 この例の実施の形態を、 再積分手法と称する。
なお、 後述するように、 再積分手法において、 出力画素値 Mが生成される場合 の近似関数 f の積分範囲は、 入力画素値 Pが生成される場合の光信号関数 Fの 積分範囲 (即ち、 空間方向においては、 センサ 2の検出素子の縦幅と横幅であり、 時間方向においては、 センサ 2の露光時間である) に限定されず、 任意の積分範 囲が可能である。
例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲のうちの空 間方向の積分範囲を可変することで、 その積分範囲に応じて出力画像の画素ピッ チを可変することが可能になる。 即ち、 空間解像度の創造が可能になる。
同様に、 例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲の うちの時間方向の積分範囲を可変することで、 時間解像度の創造が可能になる。 以下、 図面を参照して、 このような再積分手法のうちの 3つの具体的な手法に ついてそれぞれ個別に説明していく。
即ち、 3つの具体的な手法とは、 関数近似手法の 3つの具体的な手法 (実世界 推定部 1 0 2の実施の形態の上述した 3つの具体的な例) のそれぞれに対応する 再積分手法である。
具体的には、 1つ目の手法は、 上述した 1次元多項式近似手法 (関数近似手法 の 1手法) に対応する再積分手法である。 従って、 1つ目の手法では 1次元の再 積分を行うことになるので、 以下、 このような再積分手法を、 1次元再積分手法 と称する。 2つ目の手法は、 上述した 2次元多項式近似手法 (関数近似手法の 1手法) に 対応する再積分手法である。 従って、 2つ目の手法では 2次元の再積分を行うこ とになるので、 以下、 このような再積分手法を、 2次元再積分手法と称する。
3つ目の手法は、 上述した 3次元関数近似手法 (関数近似手法の 1手法) に対 応する再積分手法である。 従って、 3つ目の手法では 3次元の再積分を行うこと になるので、 以下、 このような再積分手法を、 3次元再積分手法と称する。
以下、 1次元再積分手法、 2次元再積分手法、 および 3次元再積分手法のそれ ぞれの詳細について、 その順番で説明していく。
はじめに、 1次元再積分手法について説明する。
1次元再積分手法においては、 1次元多項式近似手法により近似関数 f (X)が 既に生成されていることが前提とされる。
即ち、 3次元の空間上の位置 x,y、 およぴ2、 並びに時刻 tを変数とする光信 号関数 F (x, y, t)を、 空間方向である X方向、 Y方向、 および Z方向、 並びに時 間方向である t方向のうちの所定の 1方向 (例えば、 X方向) に射影した 1次元 の波形 (再積分手法の説明においても、 このような波形のうちの X方向に射影 した波形を、 X断面波形 F (x)と称することにする) 力 n次 (nは、 任意の整 数) の多項式である近似関数 f (X)で近似されていることが前提とされる。
この場合、 1次元再積分手法においては、 出力画素値 Mは、 次の式 (1 0 3 ) のように演算される。 f (x) dx
• ■ · ( 1 0 3 ) なお、 式 (1 0 3 ) において、 xsは、 積分開始位置を表しており、 xe は、 積 分終了位置を表している。 また、 Geは、 所定のゲインを表している。
具体的には、 例えば、 いま、 実世界推測部 1 0 2が、 図 1 5 2で示されるよう な画素 3 1 0 1 (センサ 2の所定の 1つの検出素子に対応する画素 3 1 0 1 ) を 注目画素として、 図 1 5 2で示されるような近似関数 f (x) ( X断面波形 F (x)の 近似関数 f(x)) を既に生成しているとする。
なお、 図 1 5 2の例では、 画素 3 1 0 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 1 0 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空 間方向のうちの、 画素 3 1 0 1の 1辺に平行な方向 (図中水平方向) が X方向と され、 X方向に垂直な方向 (図中垂直方向) が Y方向とされている。
また、 図 1 5 2の下側に、 画素 3 1 0 1の中心が原点とされる空間方向 (X方 向と Y方向) の座標系 (以下、 注目画素座標系と称する) と、 その座標系におけ る画素 3 1 0 1が示されている。
さらに、 図 1 5 2の上方に、 y= 0 (yは、 図中下側で示される注目画素座標 系の Y方向の座標値) における近似関数 f(x)をグラフ化したものが示されてい る。 このグラフにおいて、 図中水平方向に平行な軸は、 図中下側で示される注目 画素座標系の X方向の X軸と同一の軸であり (原点も同一であり) 、 また、 図 中垂直方向に平行な軸は、 画素値を表す軸ときれている。
この場合、 近似関数 f(x)と画素 3 1 0 1の画素値 Pの間には、 次の式 (1 0 4) の関係が成立する。
Γ •00..55
P = J- -00.5 f (x) dX+e
• · · ( 1 0 4) また、 図 1 5 2で示されるように、 画素 3 1 0 1は、 傾き Gf で表される空間 方向のデータの定常性を有しているとする。 そして、 データ定常性検出部 1 0 1 (図 1 5 1 ) が、 傾き Gf で表されるデータの定常性に対応するデータ定常性情 報として、 図 1 5 2で示されるような角度 0を既に出力しているとする。
この場合、 例えば、 1次元再積分方法においては、 図 1 5 3で示されるように、 X方向に一 0. 5乃至 0. 5の範囲、 かつ Y方向に _ 0. 5乃至 0. 5の範囲 (図 1 5 2の画素 3 1 0 1が位置する範囲) に、 4個の画素 3 1 1 1乃至画素 3 1 1 4を新たに創造することが可能である。
なお、 図 1 5 3の下側に、 図 1 5 2のものと同一の注目画素座標系と、 その注 目画素座標系における画素 3 1 1 1乃至画素 3 1 14が示されている。 また、 図 1 53の上側に、 図 1 5 2のものと同一のグラフ (y-0における近似関数 f (X) をグラフ化したもの) が示されている。
具体的には、 図 1 53で示されるように、 1次元再積分方法においては、 次の 式 (1 05) により画素 3 1 1 1の画素値 M (1) の算出が、 次の式 (106) により画素 3 1 1 2の画素値 M (2) の算出が、 次の式 (107) により画素 3 1 1 3の画素値 M (3) の算出が、 次の式 (108) により画素 3 1 14の画素 値 M (4) の算出が、 それぞれ可能である。
¥ f (x)dx
(10 5) f (x)dx
xs2
(1 06)
Figure imgf000187_0001
(107) f (x)dx
xS4
• ■ · (108) なお、 式 (1 05) の xs i、 式 (106) の xsい 式 (1 07) の xs 3、 およ ぴ式 (1 08) の xs4 のそれぞれは、 対応する式の積分開始位置を表している, また、 式 (105) の xeい 式 (1 06) の xe 2、 式 (107) の xeい および 式 (1 08) の xe4のそれぞれは、 対応する式の積分終了位置を表している。 式 (10 5) 乃至式 (1 08) のそれぞれの右辺の積分範囲は、 画素 3 1 1 1 乃至画素 3 1 14のそれぞれの画素幅 (X方向の長さ) となる。 即ち、
xel - xsl,xe2- xs2,xe3- xs3,xe4-xs4のそれぞれは、 0. 5となる。 ただし、 いまの場合、 y=0における近似関数 f (X)と同一形状の 1次元の波形 ί Υ方向ではなく、 傾き Gf で表されるデータの定常性の方向 (即ち、 角度 0 方向) に連なっていると考えられる (実際には、 y=0における X断面波形 F(x) と同一形状の波形が定常性の方向に連なつている) 。 即ち、 図 1 5 3の注目画素 座標系における原点(0,0) (図 1 5 2の画素 3 1 0 1の中心) における画素値 f (0)を画素値 Π とした場合、 画素値 flが続く方向は、 Y方向ではなく、 傾き Gf で表されるデータの定常性の方向 (角度 6方向) である。
換言すると、 Y方向の所定の位置 y (ただし、 yは 0以外の数値) における近 似関数 f(x)の波形を考えた場合、 画素値 となる位置は、 位置 (0,y) ではな く、 位置 (0, y) から X方向に所定の量 (ここでも、 このような量をシフト量と 称することにする。 また、 シフト量は、 Y方向の位置 yに依存する量であるので、 このシフト量を Cx (y)と記述することにする) だけ移動した位置 (Cx (y),y) で ある。
従って、 上述した式 (1 0 5) 乃至式 (1 0 8) のそれぞれの右辺の積分範囲 として、 求めたい画素値 M (1) (ただし、 1は、 1乃至 4のうちのいずれかの 整数値) の中心が存在する Y方向の位置 yを考慮した範囲、 即ち、 シフト量 Cx (y)を考慮した積分範囲の設定が必要である。
具体的には、 例えば、 画素 3 1 1 1と画素 3 1 1 2の中心が存在する Y方向 の位置 yは、 y=0ではなく、 y=0.25である。
従って、 y=0.25における近似関数 f (X)の波形は、 y=0における近似関数 f (X)の波形を X方向にシフト量 Cx (0.25)だけ移動させた波形に相当する。
換言すると、 上述した式 (1 0 5) において、 画素 3 1 1 1に対する画素値 M(l)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs lから終了 位置 xe l まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs l =- 0.5から終了位置 xe l = 0までの範囲 (画素 3 1 1 1が X方向に占める範囲 そのもの) ではなく、 図 1 5 3で示される範囲、 即ち、 開始位置 xs l =- 0.5 + Cx (0.25)から終了位置 xe l = 0 + (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 „—
PCT/JP2004/001585
187
1を仮に移動させた場合における、 画素 3 1 1 1が X方向に占める範囲) とな る。
同様に、 上述した式 (106) において、 画素 3 1 1 2に対する画素値 M (2) は、 y=0における近似関数 f 0 を所定の積分範囲 (開始位置 xs2から終了位置 xe2まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs2 = 0 から終了位置 xe2 =0.5までの範囲 (画素 3 1 1 2の X方向に占める範囲そのも の) ではなく、 図 1 53で示される範囲、 即ち、 開始位置 xs2 = 0 +CX (0.25) から終了位置 xe l =0.5 + Cx (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 2を仮 に移動させた場合における、 画素 3 1 1 2の X方向に占める範囲) となる。
また、 例えば、 画素 3 1 1 3と画素 3 1 14の中心が存在する Y方向の位置 y は、 y=0ではなく、 y=- 0.25である。
従って、 y=-0.25における近似関数 f (X)の波形は、 y=0における近似関数 f(x)の波形を X方向にシフト量 Cx (- 0.25)だけ移動させた波形に相当する。 換言すると、 上述した式 (10 7) において、 画素 3 1 1 3に対する画素値 M(3)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs3から終了 位置 xe3 まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs 3 =- 0.5から終了位置 xe3 = 0までの範囲 (画素 3 1 1 3の X方向に占める範囲 そのもの) ではなく、 図 1 5 3で示される範囲、 即ち、 開始位置 xs3 =- 0.5 + Cx (- 0.25)から終了位置 xe3 = 0+Cx (-0.25) (シフト量 Cx (- 0.25)だけ画素 3 1 1 3を仮に移動させた場合における、 画素 3 1 1 3の X方向に占める範囲) となる。
同様に、 上述した式 (108) において、 画素 31 14に対する画素値 M(4) は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs4から終了位置 xe4 まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs4 = 0 から終了位置 xe4 =0.5までの範囲 (画素 3 1 14の X方向の占める範囲そのも の) ではなく、 図 1 53で示される範囲、 即ち、 開始位置 xs4 = 0+Cs (- 0.2S) から終了位置 xel=0.5 + Cx (-0.25) (シフト量 Cx (-0.25)だけ画素 31 14を 仮に移動させた場合における、 画素 3 1 1 4の X方向に占める範囲) となる。 従って、 画像生成部 1 0 2 (図 1 5 1) は、 上述した式 (1 0 5) 乃至式 (1 0 8) のそれぞれに、 上述した積分範囲のうちの対応するものを代入してそれぞ れ演算し、 それらの演算結果を出力画素値 M(l)乃至 M (4) のそれぞれとして 出力することになる。
このように、 画像生成部 1 0 2は、 1次元再積分手法を利用することで、 セン サ 2 (図 1 5 1 ) からの出力画素 3 1 0 1 (図 1 5 2) における画素として、 出 力画素 3 1 0 1よりも空間解像度の高い 4つの画素、 即ち、 画素 3 1 1 1乃至画 素 3 1 1 4 (図 1 5 3) を創造することができる。 さらに、 図示はしないが、 上 述したように、 画像生成部 1 0 2は、 画素 3 1 1 1乃至画素 3 1 1 4のみならず、 積分範囲を適宜変えることで、 出力画素 3 1 0 1に対して任意の倍率の空間解像 度の画素を劣化することなく創造することができる。
図 1 54は、 このような 1次元再積分手法を利用する画像生成部 1 0 3の構成 例を表している。
図 1 54で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 1 2 1、 特徴量記憶部 3 1 2 2、 積分成分演算部 3 1 2 3、 および出力画素値演算 部 3 1 24が設けられている。
条件設定部 3 1 2 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 1 54の例では、 近似関数 f (X)の特徴量) に基づいて近似関数 f(x)の次数 nを設定する。
条件設定部 3 1 2 1はまた、 近似関数 f(x)を再積分する場合 (出力画素値を 演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 1 2 1が設定する積 分範囲は、 画素の幅である必要は無い。 例えば、 近似関数 f (X) は空間方向 (X 方向) に積分されるので、 センサ 2 (図 1 5 1) からの入力画像の各画素の空間 的な大きさに対する、 出力画素 (画像生成部 1 0 3がこれから演算する画素) の 相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範囲の決定が可 能である。 従って、 条件設定部 3 1 2 1は、 積分範囲として、 例えば、 空間解像 度倍率を設定することもできる。
特徴量記憶部 3 1 22は、 実世界推定部 102より順次供給されてくる近似関 数 f(x)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3122は、 近似 関数 f (x) の特徴量の全てを記憶すると、 近似関数 f(x)の特徴量を全て含む 特徴量テーブルを生成し、 出力画素値演算部 3124に供給する。
ところで、 上述したように、 画像生成部 1 03は、 上述した式 (1 0 3) を利 用して出力画素値 Mを演算するが、 上述した式 (1 0 3) の右辺に含まれる近 似関数 f (X)は、 具体的には、 次の式 (10 9) のように表される。
n .
f (x) = Wj xx'dx
i=0
• · · (109) なお、 式 (1 09) において、 ^ は、 実世界推定部 10 2より供給される近 似関数 f(x)の特徴量を表している。
従って、 上述した式 (1 03) の右辺の近似関数 f(x)に、 式 (1 09) の近 似関数 f (X) を代入して、 式 (103) の右辺を展開 (演算) すると、 出力画 素値 Mは、 次の式 (1 10) のように表される。
M
Figure imgf000191_0001
= . j xkj (xs, x。)
i=0
• · · (1 1 0) 式 (1 1 0) において、 Ki (xs,xe) は、 i次項の積分成分を表している。 即 ち、 積分成分 (xs , xe ) は、 次の式 ( 1 1 1) で示される通りである。 kj cs, e) = 0ex 、" j+1 s
… (1 1 1) 積分成分演算部 3 1 2 3は、 この積分成分 ^ (xs,xe) を演算する。 具体的には、 式 (1 1 1) で示されるように、 積分成分 (xs , xe ) は、 積分 範囲の開始位置 xs、 および終了位置 xe、 ゲイン Ge、 並びに i次項の iが既知で あれば演算可能である。
これらのうちの、 ゲイン Ge は、 条件設定部 3 1 2 1により設定された空間解 像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 1 2 1により設定された次数 nにより決定される。 また、 積分範囲の開始位置 xs、 および終了位置 xe のそれぞれは、 これから生 成する出力画素の中心画素位置(X, y)および画素幅、 並びにデータの定常性の方 向を表すシフト量 Cx (y)により決定される。 なお、 (x,y)は、 実世界推定部 10 2が近似関数 f )を生成したときの注目画素の中心位置からの相対位置を表し ている。
さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそれ ぞれは、 条件設定部 3 1 2 1により設定された空間解像度倍率 (積分範囲) によ り決定される。
また、 シフト量' Cx (y)と、 データ定常性検出部 1 0 1より供給された角度 0は、 次の式 (1 1 2) と式 (1 1 3) のような関係が成り立つので、 シフト量 Cx (y) は角度 0により決定される。
Gf = tan0 _ = dy
dx
(1 1 2)
Gx(y) =
• · · (1 1 3) なお、 式 (1 1 2) において、 Gf は、 データの定常性の方向を表す傾きを表 しており、 Θは、 データ定常性検出部 10 1 (図 1 5 1) より出力されるデータ 定常性情報の 1つである角度 (空間方向の 1方向である X方向と、 傾き Gf で表 されるデータの定常性の方向とのなす角度) を表している。 また、 dxは、 X方 向の微小移動量を表しており、 dyは、 dxに対する Y方向 (X方向と垂直な空間 方向) の微小移動量を表している。
従って、 積分成分演算部 3 1 2 3は、 条件設定部 3 1 2 1により設定された次 数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1より出 力されたデータ定常性情報のうちの角度 0に基づいて積分成分 1 (xs , xe ) を演 算し、 その演算結果を積分成分テーブルとして出力画素値演算部 3 1 2 4に供給 する。
出力画素値演算部 3 1 2 4は、 特徴量記憶部 3 1 2 2より供給された特徴量テ —ブルと、 積分成分演算部 3 1 2 3より供給された積分成分テーブルを利用して、 上述した式 (1 1 0 ) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 1 5 5のフローチャートを参照して、 1次元再積分手法を利用する画 像生成部 1 0 3 (図 1 5 4 ) の画像の生成の処理 (図 4 0のステップ S 1 0 3の 処理) について説明する。
例えば、 いま、 上述した図 4 0のステップ S 1 0 2の処理で、 実世界推測部 1 0 2が、 上述した図 1 5 2で示されるような画素 3 1 0 1を注目画素として、 図 1 5 2で示されるような近似関数 f (x)を既に生成しているとする。
また、 上述した図 4 0のステップ S 1 0 1の処理で、 データ定常性検出部 1 0 1力 データ定常性情報として、 図 1 5 2で示されるような角度 0を既に出力し ているとする。
この場合、 121 1 5 5のステップ S 3 1 0 1において、 条件設定部 3 1 2 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4倍 密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設定さ れたとする。
即ち、 この場合、 図 1 5 3で示されるように、 X方向に一 0 . 5乃至◦. 5の 範囲、 かつ Y方向に一 0 . 5乃至 0 . 5の範囲 (図 1 5 2の画素 3 1 0 1の範 囲) に、 4個の画素 3 1 1 1乃至画素 3 1 1 4を新たに創造することが設定され たことになる。
ステップ S 3 1 0 2において、 特徴量記憶部 3 1 2 2は、 実世界推定部 1 0 2 より供給された近似関数 f(x)の特徴量を取得し、 特徴量テーブルを生成する。 いまの場合、 5次の多項式である近似関数 f(x)の係数 w。乃至 w5が実世界推定 部 1 0 2より供給されるので、 特徴量テープルとして、 (^, , w2,w3, w4,w5) が生成される。
ステップ S 3 1 0 3において、 積分成分演算部 3 1 2 3は、 条件設定部 3 1 2 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成する画素 3 1 1 1乃至画素 3 1 1 4のそれ ぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃至 4 のそれぞれが付されているとすると、 積分成分演算部 3 1 2 3は、 上述した式 (1 1 1 ) の積分成分 (xs , xe ) を、 次の式 (1 1 4) の左辺で示される積分 成分 Ki (l)といった 1 (ただし、 1はモード番号を表している) の関数として演 算する。
Ki ( 1 ) = Ki (xs )xe) ■ · ■ ( 1 1 4)
具体的には、 いまの場合、 次の式 (1 1 5) で示される積分成分 ^ (1)が演算 される。
(1) =k (一 0.5-Cx(-0.25),0-Cx(-0.25))
kj (2) =k (0-Cx(-0.25),0.5-Cx(-0.25))
kj (3) =k (一 0.5-Cv (0.25) , 0-Cx(0.25))
k| (4) = k (0-Cv(0.25),0.5-Cx(0.25))
• · · ( 1 1 5) なお、 式 ( 1 1 5) において、 左辺が積分成分 I (1)を表し、 右辺が積分成分 (xs,xe) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちのいずれ かであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個の (1), 6 個の (2), 6個の (3), 6個の (4)の総計 24個の ^ (1)が演算されるこ とになる。
より具体的には、 はじめに、 積分成分演算部 3 1 2 3は、 データ定常性検出部 1 0 1より供給された角度 Θを使用して、 上述した式 (1 1 2) と式 ( 1 1 3) よりシフト量 Cx (-0.25), および Cx (0.25)のそれぞれを演算する。
次に、 積分成分演算部 3 1 2 3は、 演算したシフト量 Cx (-0.25) s および Cx (0.25)を使用して、 式 ( 1 1 5) の 4つの式の各右辺の積分成分
(xs , xe ) のそれぞれを、 i=0乃至 5についてそれぞれ演算する。 なお、 この 積分成分 (xs,xe) の演算においては、 上述した式 (1 1 1 ) が使用される。 そして、 積分成分演算部 3 1 2 3は、 式 (1 1 5) に従って、 演算した 24個 の積分成分 Ki (xs )xe) のそれぞれを、 対応する積分成分 (1)に変換し、 変換 した 24個の積分成分 (1) (即ち、 6個の Ki (l)、 6個の Ki (2)、 6個の K4 (3)s および 6個の (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3 1 0 2の処理とステップ S 3 1 0 3の処理の順序は、 図 1 5 5の例に限定されず、 ステップ S 3 1 0 3の処理が先に実行されてもよいし、 ステップ S 3 1 0 2の処理とステップ S 3 1 0 3の処理が同時に実行されてもよ レ、。
次に、 ステップ S 3 1 04において、 出力画素値演算部 3 1 24は、 ステップ S 3 1 0 2の処理で特徴量記憶部 3 1 2 2により生成された特徴量テーブルと、 ステップ S 3 1 0 3の処理で積分成分演算部 3 1 2 3により生成された積分成分 テーブルに基づいて出力画素値 M(l)乃至 M (4)のそれぞれを演算する。
具体的には、 いまの場合、 出力画素値演算部 3 1 24は、 上述した式 (1 1 0) に対応する、 次の式 (1 1 6) 乃至式 (1 1 9) の右辺を演算することで、 画素 3 1 1 1 (モード番号 1の画素) の画素値 M(l)、 画素 3 1 1 2 (モード番 号 2の画素) の画素値 M (2)、 画素 3 1 1 3 (モード番号 3の画素) の画素値 M(3)、 および画素 3 1 1 4 (モード番号 4の画素) の画素値 M (4)のそれぞれを 演算する
_一_ 5
I
6)
Figure imgf000196_0001
7)
M(3) = £ W;ki(3)
i=0
8)
Figure imgf000196_0002
• · · (1 19) ステップ S 3105において、 出力画素値演算部 3 124は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3105において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3102に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 31 02乃至 S 3104の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 105において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3124は、 ステップ S 3 106において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 次に、 図 1 56乃至図 163を参照して、 所定の入力画像に対して、 1次元再 積分手法を適用して得られた出力画像と、 他の手法 (従来のクラス分類適応処 理) を適用して得られた出力画像の違いについて説明する。
図 1 56は、 入力画像の元の画像を示す図であり、 図 1 57は、 図 1 56の元 の画像に対応する画像データを示している。 図 157において、 図中垂直方向の 軸は、 画素値を示し、 図中右下方向の軸は、 画像の空間方向の一方向である X方 向を示し、 図中右上方向の軸は、 画像の空間方向の他の方向である Y方向を示す。 なお、 後述する図 1 5 9、 図 1 6 1、 およぴ図 1 6 3の軸のそれぞれは、 図 1 5 7の軸と対応している。
図 1 5 8は、 入力画像の例を示す図である。 図 1 5 8で示される入力画像は、 図 1 5 6で示される画像の 2 X 2の画素からなるブロックに属する画素の画素値 の平均値を、 1つの画素の画素値として生成された画像である。 即ち、 入力画像 は、 図 1 5 6で示される画像に、 センサの積分特性を模した、 空間方向の積分を 適用することにより得られた画像である。 また、 図 1 5 9は、 図 1 5 8の入力画 像に対応する画像データを示している。
図 1 5 6で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾 いた細線の画像が含まれている。 同様に、 図 1 5 8で示される入力画像において、 上下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 1 6 0は、 図 1 5 8で示される入力画像に、 従来のクラス分類適応処理を適 用して得られた画像 (以下、 図 1 6 0で示される画像を、 従来の画像と称する) を示す図である。 また、 図 1 6 1は、 従来の画像に対応する画像データを示して いる。
なお、 クラス分類適応処理は、 クラス分類処理と適応処理とからなり、 クラス 分類処理によって、 データを、 その性質に基づいてクラス分けし、 各クラスごと に適応処理を施すものである。 適応処理では、 例えば、 低画質または標準画質の 画像が、 所定のタップ係数を用いてマッピング (写像) されることにより、 高画 質の画像に変換される。
図 1 6 2は、 図 1 5 8で示される入力画像に、 本発明が適用される 1次元再積 分手法を適用して得られた画像 (以下、 図 1 6 2で示される画像を、 本発明の画 像と称する) を示す図である。 また、 図 1 6 3は、 本発明の画像に対応する画像 データを示している。
図 1 6 0の従来の画像と、 図 1 6 2の本発明の画像を比較するに、 従来の画像 においては、 細線の画像が、 図 1 5 6の元の画像とは異なるものになっているの に対して、 本発明の画像においては、 細線の画像が、 図 1 5 6の元の画像とほぼ 同じものになっていることがわかる。
この違いは、 従来のクラス分類適応処理は、 あくまでも図 1 5 8の入力画像を 基準 (原点) として処理を行う手法であるのに対して、 本発明の 1次元再積分手 法は、 細線の定常性を考慮して、 図 1 5 6の元の画像を推定し (元の画像に対応 する近似関数 f (x)を生成し) 、 推定した元の画像を基準 (原点) として処理を 行う (再積分して画素値を演算する) 手法であるからである。
このように、 1次元再積分手法においては、 1次元多項式近似手法により生成 された 1次元の多項式である近似関数 f (x) (実世界の X断面波形 F (x)の近似関 数 f (x) ) を基準 (原点) として、 近似関数 f (x)を任意の範囲に積分することで 出力画像 (画素値) が生成される。
従って、 1次元再積分手法においては、 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の光信号) により近い画像の出力が可能に なる。
換言すると、 1次元再積分手法においては、 図 1 5 1のデータ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサ 2の複数の検出素子により実 世界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠落した、 検出 素子により射影された画素値を有する複数の画素からなる入力画像におけるデー タの定常性を検出し、 実世界推定部 1 0 2が、 検出されたデータの定常性に対応 して、 入力画像の時空間方向のうち 1次元方向の位置に対応する画素の画素値が、 その 1次元方向の積分効果により取得された画素値であるとして、 実世界 1の光 信号を表す光信号関数 F (具体的には、 X断面波形 F (X) ) を、 所定の近似関数 f ( x ) で近似することで、 光信号関数 Fを推定していることが前提とされてい る。
詳細には、 例えば、 検出されたデータの定常性に対応する線からの 1次元方向 に沿った距離に対応する各画素の画素値が、 その 1次元方向の積分効果により取 得された画素値であるとして、 X断面波形 F (x)が近似関数 f (X)で近似されてい ることが前提とされている。
そして、 1次元再積分手法においては、 このような前提に基づいて、 例えば、 図 1 5 1 (図 3 ) の画像生成部 1 0 3が、 実世界推定部 1 0 2により推定された X断面波形 F ( x ) 、 即ち、 近似関数 f (X)を、 1次元方向の所望の単位で積分 することにより所望の大きさの画素に対応する画素値 Mを生成し、 それを出力 画像として出力する。
従って、 1次元再積分手法においては、 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の光信号) により近い画像の出力が可能に なる。
また、 1次元再積分手法においては、 上述したように、 積分範囲は任意なので、 積分範囲を可変することにより、 入力画像の解像度とは異なる解像度 (時間解像 度、 または空間解像度) を創造することも可能になる。 即ち、 入力画像の解像度 に対して、 整数値だけではなく任意の倍率の解像度の画像を生成することが可能 になる。
さらに、 1次元再積分手法においては、 他の再積分手法に比較して、 より少な い演算処理量で出力画像 (画素値) の算出が可能となる。
次に、 図 1 6 4乃至図 1 7 0を参照して、 2次元再積分手法について説明する。
2次元再積分手法においては、 2次元多項式近似手法により近似関数 f (X, y) が既に生成されていることが前提とされる。
即ち、 例えば、 図 1 6 4で示されるような、 傾き GFで表される空間方向の定 常性を有する実世界 1 (図 1 5 1 ) の光信号を表す画像関数 F (x, y, t)を、 空間 方向 ( X方向と Y方向) に射影した波形、 即ち、 X— Y平面上の波形 F (x,y)が、 n次 (nは、 任意の整数) の多項式である近似関数 f (x, y)に近似されていること が前提とされる。
図 1 6 4において、 図中、 水平方向は、 空間方向の 1方向である X方向を、 右 上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 それ ぞれ表している。 GPは、 空間方向の定常性の傾きを表している。
なお、 図 164の例では、 定常性の方向は、 空間方向 (X方向と Y方向) とさ れているため、 近似の対象とされる光信号の射影関数は、 関数 F(x,y)とされて いるが、 後述するように、 定常性の方向に応じて、 関数 F(x,t)や関数 F(y,t)が 近似の対象とされてもよい。
図 1 64の例の場合、 2次元再積分手法においては、 出力画素値 Mは、 次の式 (1 20) のように演算される。
e JXg
f(x, y)dxdy
'ys
- · · (1 20) なお、 式 (1 20) において、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開始 位置を表しており、 xeは、 X方向の積分終了位置を表している。 また、 Geは、 所定のゲインを表している。
式 (1 20) において、 積分範囲は任意に設定可能であるので、 2次元再積分 手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 1 5 1) からの入力画像の画素) に対して任意の倍率の空間解像度の画素を劣化す ることなく創造することが可能になる。
図 1 6 5は、 2次元再積分手法を利用する画像生成部 103の構成例を表して いる。
図 1 6 5で示されるように、 この例の画像生成部 1 03には、 条件設定部 32 0 1、 特徴量記憶部 3202、 積分成分演算部 320 3、 および出力画素値演算 部 3 204が設けられている。
条件設定部 3 20 1は、 実世界推定部 1 02より供給された実世界推定情報 (図 1 6 5の例では、 近似関数 f O,y)の特徴量) に基づいて近似関数 f (x,y)の 次数 nを設定する。
条件設定部 3 20 1はまた、 近似関数 f (x,y)を再積分する場合 (出力画素値 を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 2 0 1が設定する 積分範囲は、 画素の縦幅や横幅である必要は無い。 例えば、 近似関数 f (x, y) は空間方向 (X方向と Y方向) に積分されるので、 センサ 2からの入力画像の各 画素の空間的な大きさに対する、 出力画素 (画像生成部 1 0 3がこれから生成す る画秦) の相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範囲 の決定が可能である。 従って、 条件設定部 3 2 0 1は、 積分範囲として、 例えば、 空間解像度倍率を設定することもできる。
特徴量記憶部 3 2 0 2は、 実世界推定部 1 0 2より順次供給されてくる近似関 数 f (X , y)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 2 0 2は、 近 似関数 f (x, y)の特徴量の全てを記憶すると、 近似関数 f (x, y)の特徴量を全て含 む特徴量テーブルを生成し、 出力画素値演算部 3 2 0 4に供給する。
ここで、 近似関数 f (x, y)の詳細について説明する。
例えば、 いま、 上述した図 1 6 4で示されるような傾き GFで表される空間方 向の定常性を有する実世界 1 (図 1 5 1 ) の光信号 (波形 F (x,y) で表される光 信号)が、 センサ 2 (図 1 5 1 ) により検出されて入力画像 (画素値) として出 力されたとする。
さらに、 例えば、 図 1 6 6で示されるように、 データ定常性検出部 1 0 1 (図 3 ) 力 この入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素分の総 計 2 0個の画素 (図中、 点線で表される 2 0個の正方形) から構成される入力画 像の領域 3 2 2 1に対してその処理を実行し、 データ定常性情報の 1つとして角 度 0 (傾き GFに対応する傾き Gf で表されるデータの定常性の方向と、 X方向と のなす角度 6 ) を出力したとする。
なお、 実世界推定部 1 0 2から見ると、 データ定常性検出部 1 0 1は、 注目画 素における角度 Θを単に出力すればよいので、 データ定常性検出部 1 0 1の処理 範囲は、 上述した入力画像の領域 3 2 2 1に限定されない。
また、 入力画像の領域 3 2 2 1において、 図中水平方向は、 空間方向の 1方 向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y方向 を表している。
さらに、 図 1 6 6中、 左から 2画素目であって、 下から 3画素目の画素が注目 画素とされ、 その注目画素の中心を原点(0,0)とするように(X, y)座標系が設定 されている。 そして、 原点(ο,ο)を通る角度 eの直線 (データの定常性の方向を 表す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離と称 する) が x'とされている。
さらに、 図 1 6 6中、 右側のグラフは、 3次元の空間上の位置 X, y、 および z、 並びに時刻 tを変数とする画像関数 F(x,y,t)を、 Y方向の任意の位置 yにおい て、 X方向に射影した 1次元の波形 (以下、 このような波形を、 X断面波形
F(x')と称する) が近似された関数であって、 n次 (nは、 任意の整数) の多項 式である近似関数 f(x')を表している。 右側のグラフの軸のうち、 図中水平方向 の軸は、 断面方向距離を表しており、 図中垂直方向の軸は、 画素値を表している。 この場合、 図 1 6 6で示される近似関数 f(x,)は、 n次の多項式であるので、 次の式 (1 2 1) のように表される。
π
f (X,) = WQ+W^' +W X' + · · · +WNX,n = ∑ WjX"
i=0
… (1 2 1) また、 角度 0が決定されていることから、 原点(0,0)を通る角度 0の直線は一 意に決まり、 Y方向の任意の位置 yにおける、 直線の X方向の位置 iK 次の 式 (1 2 2) のように表される。 ただし、 式 ( 1 2 2) において、 sは cot Θを 表している。
x1 = s X y · · · ( 1 2 2)
即ち、 図 1 6 6で示されるように、 傾き Gf で表されるデータの定常性に対応 する直線上の点は、 座標値 (Xl , y)で表される。
式 ( 1 2 2) より、 断面方向距離 X'は、 次の式 ( 1 2 3) のように表される。
= χ— χι = x— s Xy · ■ · ( 1 2 3)
従って、 入力画像の領域 3 2 2 1内の任意の位置(x,y)における近似関数 f(x,y)は、 式 (1 21) と式 (1 2 3) より、 次の式 (1 24) のように示さ れる。
Figure imgf000203_0001
• · · (1 24) なお、 式 (1 24) において、 ^ は、 近似関数 f (x,y)の特徴量を表している 図 1 65に戻り、 式 (1 24) に含まれる特徴量 ^ i 実世界推定部 10 2 より供給され、 特徴量記憶部 3202に記憶される。 特徴量記憶部 3 202は、 式 (1 24) で表される特徴量 Wi の全てを記憶すると、 特徴量 を全て含む特 徴量テーブルを生成し、 出力画素値演算部 3204に供給する。
また、 上述した式 (1 20) の右辺の近似関数 f (x,y)に、 式 (1 24) の近 似関数 f (x,y) を代入して、 式 (1 20) の右辺を展開 (演算) すると、 出力 画素値 Mは、 次の式 (1 25) のように表される。
M p v v xfl-sxyfi)i+2-(xe - sxy 2 - (xs-sxy 2+(xs-sxys)i+2l
= 6e ∑ W; x
i=0 S
n
=∑ Wj Xki (xs> xe,ys, ye)
i=0
• · · (1 2 5) 式 (1 25) において、 (xs,xe,ys,ye) は、 i次項の積分成分を表してい る。 即ち、 積分成分 (xs,xe,ys,ye) は、 次の式 (1 26) で示される通り め 0 kj ( s. xe,ys, ye)
J+2 i+2 、i+2,
{ (xe-s x yj1 +2 - (xe-s x ys)け (xs-s x ye) + (xs-s x ys)IT )
= dx
e s(i+1)(i+2)
• · · (1 26) 積分成分演算部 320 3は、 この積分成分 (x5,xe,ys,ye) を演算する。 具体的には、 式 (1 25) と式 (1 26) で示されるように、 積分成分 PCT/JP2004/001585
202
(xs,xe,ys,ye) は、 積分範囲の X方向の開始位置 xs、 および X方向の終了位 置 xe、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 ye、 変数 s、 ゲイン Ge、 並びに i次項の iが既知であれば演算可能である。
これらのうちの、 ゲイン Ge は、 条件設定部 3 2 0 1により設定された空間解 像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 20 1により設定された次数 nにより決定される。 変数 sは、 上述したように、 cot Θであるので、 データ定常性検出部 1 0 1よ り出力される角度 0により決定される。
また、 積分範囲の X方向の開始位置 xs、 および X方向の終了位置 xe、 並びに、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 yeのそれぞれは、 こ れから生成する出力画素の中心画素位置(X, y)および画素幅により決定される。 なお、 (x,y)は、 実世界推定部 1 0 2が近似関数 f(x)を生成したときの注目画素 の中心位置からの相対位置を表している。
さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそれ ぞれは、 条件設定部 3 2 0 1により設定された空間解像度倍率 (積分範囲) によ り決定される。
従って、 積分成分演算部 3 20 3は、 条件設定部 3 20 1により設定された次 数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1より出 力されたデータ定常性情報のうちの角度 Θに基づいて
積分成分 Ki (xs,xe,ys,ye) を演算し、 その演算結果を積分成分テーブルとし て出力画素値演算部 3 204に供給する。
出力画素値演算部 3 2 04は、 特徴量記憶部 3 20 2より供給された特徴量テ 一ブルと、 積分成分演算部 3 2 0 3より供給された積分成分テーブルを利用して、 上述した式 (1 2 5) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 1 6 7のフローチャートを参照して、 2次元再積分手法を利用する画 像生成部 1 0 3 (図 1 6 6) の画像の生成の処理 (図 40のステップ S 1 0 3の „〜™
PCT/JP2004/001585
203
処理) について説明する。
例えば、 いま、 図 1 6 4で示される関数 F (x, y)で表される光信号がセンサ 2 に入射されて入力画像となり、 上述した図 4 0のステップ S 1 0 2の処理で、 実 世界推測部 1 0 2が、 その入力画像のうちの、 図 1 6 8で示されるような 1つの 画素 3 2 3 1を注目画素として、 関数 F (x,y)を近似する近似関数 f (x, y)を既に 生成しているとする。
なお、 図 1 6 8において、 画素 3 2 3 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 2 3 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空 間方向のうちの、 画素 3 2 3 1の 1辺に平行な方向が X方向とされ、 X方向に垂 直な方向が Y方向とされている。 さらに、 画素 3 2 3 1の中心が原点とされる空 間方向 (X方向と Y方向) の座標系 (以下、 注目画素座標系と称する) が設定さ れている。
また、 図 1 6 8において、 上述した図 4 0のステップ S 1 0 1の処理で、 デー タ定常性検出部 1 0 1が、 画素 3 2 3 1を注目画素として、 傾き Gf で表される データの定常性に対応するデータ定常性情報として、 角度 6を既に出力している とする。
図 1 6 7に戻り、 この場合、 ステップ S 3 2 0 1において、 条件設定部 3 2 0 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4倍 密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設定さ れたとする。
即ち、 この場合、 図 1 6 9で示されるように、 X方向に一 0 . 5乃至 0 . 5の 範囲、 かつ Y方向に一0 . 5乃至 0 . 5の範囲 (図 1 6 8の画素 3 2 3 1の範 囲) に、 4個の画素 3 2 4 1乃至画素 3 2 4 4を新たに創造することが設定され たことになる。 なお、 図 1 6 9においても、 図 1 6 8のものと同一の注目画素座 標系が示されている。
また、 図 1 6 9において、 M ( l)は、 これから生成される画素 3 2 4 1の画素 値を、 34 M(2)は、 これから生成される画素 3 24 2の画素値を、 M(3)は、 これか ら生成さ一一れる画素 3 24 3の画素値を、 M(4)は、 これから生成される画素 3 2 4 1の画素値を、 それぞれ表している。
図 1 6 7に戻り、 ステップ S 3 2 0 2において、 特徴量記憶部 3 2 0 2は、 実 世界推定部 1 0 2より供給された近似関数 f(x,y)の特徴量を取得し、 特徴量テ 一ブルを生成する。 いまの場合、 5次の多項式である近似関数 f(x)の係数 w。乃 至 w5 が実世界推定部 1 0 2より供給されるので、 特徴量テーブルとして、
w0 , w1 , w2 , w3 , w4 , w5) が生成される。
ステップ S 3 20 3において、 積分成分演算部 3 2 0 3は、 条件設定部 3 2 0 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1
0 1より供給されたデータ定常性情報 (角度 ø) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成される画素 3 2 4 1乃至画素 3 244のそ れぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃至 4のそれぞれが付されているとすると、 積分成分演算部 3 20 3は、 上述した式 ( 1 2 5) の積分成分 (xs,xe,ys,ye) を、 次の式 (1 2 7) の左辺で示さ れる積分成分 Ki (1)といった 1 (ただし、 1はモード番号を表している) の関数 として演算する。
^ ( 1 ) = Ki (xs,xe,ys > ye) · ' ■ ( 1 2 7 )
具体的には、 いまの場合、 次の式 (1 2 8) で示される積分成分 ^ (1)が演算 される。
Figure imgf000206_0001
(0, 0.5, 0, 0.5)
(一 0.5, 0,一 0.5,0)
(0, 0.5,一 0.5,0)
• · · ( 1 2 8) なお、 式 (1 2 8) において、 左辺が積分成分 ^ (1)を表し、 右辺が積分成分 Ki (xs,xe,ys,ye) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちの いずれかであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個の I ( 1 ), 6個の ( 2 ) , 6個の ( 3 ) , 6個の ( 4 )の総計 24個の I (1)が演 算されることになる。
より具体的には、 はじめに、 積分成分演算部 3 20 3は、 データ定常性検出部 1 0 1より供給された角度 Θを使用して、 上述した式 (1 22) の変数 s ( s = cot e ) を演算する。
次に、 積分成分演算部 3203は、 演算した変数 sを使用して、 式 (1 28) の 4つの式の各右辺の積分成分 (xs,xe, ys, ye) のそれぞれを、 i= 0乃至 5 についてそれぞれ演算する。 なお、 この積分成分 (xs,xe,ys,ye) の演算に おいては、 上述した式 (1 25) が使用される。
そして、 積分成分演算部 320 3は、 式 (1 28) に従って、 演算した 24個 の積分成分 (xs , xe , ys , ye ) のそれぞれを、 対応する積分成分 ^ (1)に変換し、 変換した 24個の積分成分 (1) (即ち、 6個の Ki (l)、 6個の (2)、 6個の (3)、 および 6個の (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3202の処理とステップ S 3 203の処理の順序は、 図 1 67の例に限定されず、 ステップ S 3 203の処理が先に実行されてもよいし、 ステップ S 3202の処理とステップ S 3203の処理が同時に実行されてもよ い。
次に、 ステップ S 3204において、 出力画素値演算部 3204は、 ステップ S 3 202の処理で特徴量記憶部 3202により生成された特徴量テーブルと、 ステップ S 3203の処理で積分成分演算部 3203により生成された積分成分 テーブルに基づいて出力画素値 M(l)乃至 M (4)のそれぞれを演算する。
具体的には、 いまの場合、 出力画素値演算部 3 204は、 上述した式 (1 2 5 ) に対応する、 次の式 (1 29) 乃至式 (1 3 2) の右辺のそれぞれを演算す ることで、 図 1 69で示される、 画素 3241 (モード番号 1の画素) の画素値 M(l)、 画素 3242 (モード番吾2の画素) の画素値 M(2)、 画素 3 243 (モ ード番号 3の画素) の画素値 M (3)、 および画素 3244 (モード番号 4の画 素) の画素値 M(4)のそれぞれを演算する。
Figure imgf000208_0001
(1 29)
M(2) = ∑ Wi Xk;(2)
i=0
(1 30)
Figure imgf000208_0002
(1 3 1)
Figure imgf000208_0003
· · · ( 1 3 2) ただし、 いまの場合、 式 (1 29) 乃至式 (1 3 2) の nは全て 5となる。 ステップ S 3 20 5において、 出力画素値演算部 3 204は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 20 5において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3202に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 32 02乃至 S 3204の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3205において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3204は、 ステップ S 3 206において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 このように、 2次元再積分手法を利用することで、 センサ 2 (図 1 5 1) から の入力画像の画素 3 23 1 (図 1 68) における画素として、 入力画素 323 1 よりも空間解像度の高い 4つの画素、 即ち、 画素 3241乃至画素 3244 (図 n
PCT/JP2004/001585
207
1 6 9 ) を創造することができる。 さらに、 図示はしないが、 上述したように、 画像生成部 1 0 3は、 画素 3 2 4 1乃至画素 3 2 4 4のみならず、 積分範囲を適 宜変えることで、 入力画素 3 2 3 1に対して任意の倍率の空間解像度の画素を劣 化することなく創造することができる。
以上、 2次元再積分手法の説明として、 空間方向 (X方向と Y方向) に対する 近似関数 f (x,y)を 2次元積分する例を用いたが、 2次元再積分手法は、 時空間 方向 (X方向と t方向、 または、 Y方向と t方向) に対しても適用可能である。 即ち、 上述した例は、 実世界 1 (図 1 5 1 ) の光信号が、 例えば、 図 1 6 4で 示されるような傾き GFで表される空間方向の定常性を有する場合の例であった ので、 上述した式 (1 2 0 ) で示されるような、 空間方向 (X方向と Y方向) の 二次元積分が含まれる式が利用された。 しかしながら、 二次元積分の考え方は、 空間方向だけによるものではなく、 時空間方向 (X方向と t方向、 または、 Y方 向と t方向) に対して適用することも可能である。
換言すると、 2次元再積分手法の前提となる 2次元多項式近似手法においては、 光信号を表す画像関数 F (x,y, t)が、 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方向、 または、 Y方向と t方向) の定常性を有している場 合であっても、 2次元の多項式により近似することが可能である。
具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 その 物体の動きの方向は、 図 1 7 0で示されるような X-t平面においては、 傾き のように表される。 換言すると、 傾き VFは、 X-t平面における時空間方向の定 常性の方向を表しているとも言える。 従って、 データ定常性検出部 1 0 1 (図 1 5 1 ) は、 上述した角度 0 (X- Y平面における、 空間方向の定常性を表す傾き GFに対応するデータ定常性情報) と同様に、 X - 1:平面における時空間方向の定 常性を表す傾き VF に対応するデ一タ定常性情報として、 図 1 7 0で示されるよ うな動き e (厳密には、 図示はしないが、 傾き vPに対応する傾き vf で表される データの定常性の方向と、 空間方向の X方向とのなす角度である動き 0 ) を出力 することが可能である。 また、 2次元多項式近似手法を利用する実世界推定部 102 (図 1 5 1) は、 動き 0を上述した角度 0の代わりとして使用すれば、 上述した方法と同様な方法 で、 近似関数 f(x,t)の係数 (特徴量) wi を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (1 24) ではなく、 次の式 (1 3 3) である。
n
f ( , y =∑ Wj (x-s><t)
i=0
• · · (1 33) なお、 式 (1 33) において、 sは cote (ただし、 Θは動きである) である。 従って、 2次元再積分手法を利用する画像生成部 1 03 (図 1 5 1) は、 次の 式 (1 34) の右辺に、 上述した式 (1 3 3) の f (X, t)を代入して、 演算する ことで、 画素値 Mを算出することが可能になる。
= GexJt Ιχ f (x,t)dxdt
• · · (1 34) なお、 式 (1 34) において、 tsは、 t方向の積分開始位置を表しており、 te は、 t方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開始 位置を表しており、 xe は、 X方向の積分終了位置を表している。 Ge は、 所定の ゲインを表している。
また、 空間方向 Xの変わりに、 空間方向 Yに注目した近似関数 f (y,t)も、 上 述した近似関数 f(x、t)と全く同様に取り扱うことが可能である。
ところで、 式 (1 33) において、 t方向を一定とみなし、 即ち、 t方向の積 分を無視して積分することで、 時間方向には積分されないデータ、 即ち、 動きボ ケのないデータを得ることが可能になる。 換言すると、 この手法は、 2次元の多 項式のうちの所定の 1次元を一定として再穑分する点で、 2次元再積分手法の 1 つとみなしてもよいし、 実際には、 X方向の 1次元の再積分をすることになると いう点で、 1次元再積分手法の 1つとみなしてもよい。 2004/001585
209
また、 式 (1 3 4 ) において、 積分範囲は任意に設定可能であるので、 2次元 再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 1 5 1 ) からの入力画像の画素) に対して任意の倍率の解像度の画素を劣化 することなく創造することが可能になる。
即ち、 2次元再積分手法においては、 時間方向 tの積分範囲を適宜変えること で、 時間解像度の創造が可能になる。 また、 空間方向 X (または、 空間方向 Y) の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間 方向 tと空間方向 Xの積分範囲のそれぞれを適宜変えることで、 時間解像度と空 間解像度の両方の創造が可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創造 は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再積分 手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて可能に なる。 即ち、 2次元再積分手法と後述する 3次元再積分手法ではじめて、 両方の 解像度の創造が可能になる。
また、 2次元再積分手法は、 1次元ではなく 2次元の積分効果を考慮している ので、 より実世界 1 (図 1 5 1 ) の光信号に近い画像を生成することも可能にな る。
換言すると、 2次元再積分手法においては、 例えば、 図 1 5 1 (図 3 ) のデー タ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサ 2の複数の 検出素子により実世界 1の光信号が射影され、 実世界 1の光信号の定常性 (例え ば、 図 1 6 4の傾き GFで表される定常性) の一部が欠落した、 検出素子により 射影された画素値を有する複数の画素からなる入力画像におけるデータの定常性 (例えば、 図 1 6 6の傾き Gf で表されるデータの定常性) を検出する。
そして、 例えば、 図 1 5 1 (図 3 )の実世界推定部 1 0 2が、 データ定常性検 出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方 向のうち少なくとも 2次元方向 (例えば、 図 1 6 4の空間方向 Xと、 空間方向 Y ) の位置に対応する画素の画素値が、 少なくとも 2次元方向の積分効果により 取得された画素値であるとして、 実世界 1の光信号を表す光信号関数 F (具体的 には、 図 1 6 4の関数 F(x,y)) を、 多項式である近似関数 f (x,y)で近似する ことで、 光信号関数 Fを推定することが前提とされている。
詳細には、 例えば、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により 検出されたデータの定常性に対応する線 (例えば、 図 1 6 6の傾き Gf に対応す る線 (矢印) ) からの少なくとも 2次元方向に沿った距離 (例えば、 図 1 6 6の 断面方向距離 X Ί に対応する画素の画素値が、 少なくとも 2次元方向の積分効 果により取得された画素値であるとして、 現実世界の光信号を表す第 1の関数を、 多項式である第 2の関数で近似することで、 第 1の関数を推定することが前提と されている。
2次元再積分手法においては、 このような前提に基づいて、 例えば、 図 1 5 1 (図 3) の画像生成部 1 0 3 (構成は、 図 1 6 5) 、 実世界推定部 1 0 2によ り推定された関数 F(x,y)、 即ち、 近似関数 f(x,y)を、 少なくとも 2次元方向の 所望の単位で積分する (例えば、 上述した式 (1 20) の右辺を演算する) こと により所望の大きさの画素 (例えば、 図 1 5 1の出力画像 (画素値 M) 。 具体的 には、 例えば、 図 1 6 9の画素 3 24 1乃至画素 3 244) に対応する画素値を 生成する。
従って、 2次元再積分手法においては、 時間解像度と空間解像度のうちのいず れか一方の創造のみならず、 両方の解像度の創造が可能になる。 また、 2次元再 積分手法においては、 1次元再積分手法に比較して、 より実世界 1 (図 1 5 1) の光信号に近い画像を生成することも可能になる。
次に、 図 1 7 1と図 1 7 2を参照して、 3次元再積分手法について説明する。 3次元再積分手法においては、 3次元関数近似手法により近似関数 f (x, y, t) が既に生成されていることが前提とされる。
この場合、 3次元再積分手法においては、 出力画素値 Mは、 次の式 (1 3 5) のように演算される。
Figure imgf000213_0001
f(x, y,t)dxdydt
• · · ( 1 3 5) なお、 式 (1 3 5) において、 ts は、 t方向の積分開始位置を表しており、 teは、 t方向の積分終了位置を表している。 同様に、 ysは、 Y方向の積分開始 位置を表しており、 yeは、 Y方向の積分終了位置を表している。 また、 xs は、 X方向の積分開始位置を表しており、 0は、 X方向の積分終了位置を表してい る。 さらに、 Ge は、 所定のゲインを表している。
式 ( 1 3 5) において、 積分範囲は任意に設定可能であるので、 3次元再積分 手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 1 5 1) からの入力画像の画素) に対して任意の倍率の時空間解像度の画素を劣化 することなく創造することが可能になる。 即ち、 空間方向の積分範囲を小さくす れば、 画素ピッチを自由に細かくできる。 逆に、 空間方向の積分範囲を大きくす れば、 画素ピッチを自由に大きくすることができる。 また、 時間方向の積分範囲 を小さくすれば、 実世界波形に基づいて時間解像度を創造できる。
図 1 7 1は、 3次元再積分手法を利用する画像生成部 1 0 3の構成例を表して いる。
図 1 7 1で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 3 0 1、 特徴量記憶部 3 3 0 2、 積分成分演算部 3 3 0 3、 および出力画素値演算 部 3 3 04が設けられている。
条件設定部 3 3 0 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 1 7 1の例では、 近似関数 f(x,y,t)の特徴量) に基づいて近似関数 f(x,y, t)の次数 nを設定する。
条件設定部 3 3 0 1はまた、 近似関数 f (x, y, t)を再積分する場合 (出力画素 値を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 3 0 1が設定す る積分範囲は、 画素の幅 (縦幅と横幅) やシャツタ時間そのものである必要は無 い。 例えば、 センサ 2 (図 1 5 1) からの入力画像の各画素の空間的な大きさに 対する、 出力画素 (画像生成部 103がこれから生成する画素) の相対的な大き さ (空間解像度の倍率) がわかれば、 具体的な空間方向の積分範囲の決定が可能 である。 同様に、 センサ 2 (図 1 5 1) のシャッタ時間に対する出力画素値の相 対的な時間 (時間解像度の倍率) がわかれば、 具体的な時間方向の積分範囲の決 定が可能である。 従って、 条件設定部 3 30 1は、 積分範囲として、 例えば、 空 間解像度倍率や時間解像度倍率を設定することもできる。
特徴量記憶部 3 302は、 実世界推定部 1 02より順次供給されてくる近似関 数 f (x,y,t)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 302は、 近似関数 f(x, y, t)の特徴量の全てを記憶すると、 近似関数 f(x, y, t)の特徴量を 全て含む特徴量テーブルを生成し、 出力画素値演算部 3 304に供給する。
ところで、 上述した式 (1 35) の右辺の近似関数 f (x,y)の右辺を展開 (演 算) すると、 出力画素値 Mは、 次の式 (1 36) のように表される。
M =え i Xki(xs, xe, ys, ye, ts, te)
i=0
• · · (1 36) 式 (1 36) において、 (xs,xe,ys,ye,ts,te) は、 i次項の積分成分を表 している。 ただし、 xs は X方向の積分範囲の開始位置を、 xeは X方向の積分範 囲の終了位置を、 ys は Y方向の積分範囲の開始位置を、 ye は Y方向の積分範囲 の終了位置を、 ts は t方向の積分範囲の開始位置を、 te は t方向の積分範囲の 終了位置を、 それぞれ表している。
積分成分演算部 3 303は、 この積分成分 Ki (xs,xe,ys,ye,ts,te) を演算 する。
具体的には、 積分成分演算部 3 303は、 条件設定部 3 30 1により設定され た次数、 および積分範囲 (空間解像度倍率や時間解像度倍率) 、 並びにデータ定 常性検出部 10 1より出力されたデータ定常性情報のうちの角度 0または動き 0 に基づいて積分成分 (xs, xe,ys )ye,ts,te) を演算し、 その演算結果を積分 成分テーブルとして出力画素値演算部 3 304に供給する。 出力画素値演算部 3 3 0 4は、 特徴量記憶部 3 3 0 2より供給された特徴量テ 一ブルと、 積分成分演算部 3 3 0 3より供給された積分成分テーブルを利用して、 上述した式 (1 3 6 ) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 1 7 2のフローチャートを参照して、 3次元再積分手法を利用する画 像生成部 1 0 3 (図 1 7 1 ) の画像の生成の処理 (図 4 0のステップ S 1 0 3の 処理) について説明する。
例えば、 いま、 上述した図 4 0のステップ S 1 0 2の処理で、 実世界推測部 1 0 2 (図 1 5 1 ) が、 入力画像のうちの、 所定の画素を注目画素として、 実世界 1 (図 1 5 1 ) の光信号を近似する近似関数 f (x, y, t)を既に生成しているとす る。
また、 上述した図 4 0のステップ S 1 0 1の処理で、 データ定常性検出部 1 0 1 (図 1 5 1 ) ί 実世界推定部 1 0 2と同じ画素を注目画素として、 データ定 常性情報として、 角度 0または動き Θを既に出力しているとする。
この場合、 図 1 7 2のステップ S 3 3 0 1において、 条件設定部 3 3 ◦ 1は、 条件 (次数と積分範囲) を設定する。
ステップ S 3 3 0 2において、 特徴量記憶部 3 3 0 2は、 実世界推定部 1 0 2 より供給された近似関数 f (x,y,t)の特徴量 Wi を取得し、 特徴量テーブルを生成 する。
ステップ S 3 3 0 3において、 積分成分演算部 3 3 0 3は、 条件設定部 3 3 0 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 0または動き 0 ) に基づいて積分成 分を演算し、 積分成分テーブルを生成する。
なお、 ステップ S 3 3 0 2の処理とステップ S 3 3 0 3の処理の順序は、 図 1 7 2の例に限定されず、 ステップ S 3 3 0 3の処理が先に実行されてもよいし、 ステップ S 3 3 0 2の処理とステップ S 3 3 0 3の処理が同時に実行されてもよ い。 次に、 ステップ S 3 3 0 4において、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 2の処理で特徴量記憶部 3 3 0 2により生成された特徴量テーブルと、 ステップ S 3 3 0 3の処理で積分成分演算部 3 3 0 3により生成された積分成分 テーブルに基づいて各出力画素値のそれぞれを演算する。
ステップ S 3 3 0 5において、 出力画素値演算部 3 3 0 4は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 3 0 5において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 3 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 3 0 2乃至 S 3 3 0 4の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 3 0 5において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 6において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 このように、 上述した式 (1 3 5 ) において、 その積分範囲は任意に設定可能 であるので、 3次元再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 1 5 1 ) からの入力画像の画素) に対して任意の倍率の 解像度の画素を劣化することなく創造することが可能になる。
即ち、 3次元再積分手法においては、 時間方向の積分範囲を適宜変えることで、 時間解像度の創造が可能になる。 また、 空間方向の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間方向と空間方向の積分範囲のそれ ぞれを適宜変えることで、 時間解像度と空間解像度の両方の創造が可能になる。 具体的には、 3次元再積分手法においては、 2次元や 1次元に落とすときの近 似がないので精度の高い処理が可能になる。 また、 斜め方向の動きも 2次元に縮 退することなく処理することが可能になる。 さらに、 2次元に縮退していないの で各次元の加工が可能になる。 例えば、 2次元再積分手法において、 空間方向 ( X方向と Y方向) に縮退している場合には時間方向である t方向の加工ができ なくなってしまう。 これに対して、 3次元再積分手法においては、 時空間方向の いずれの加工も可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創造 は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再積分 手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて可能に なる。 即ち、 上述した 2次元再積分手法と 3次元再積分手法ではじめて、 両方の 解像度の創造が可能になる。
また、 3次元再積分手法は、 1次元や 2次元ではなく 3次元の積分効果を考慮 しているので、 より実世界 1 (図 1 5 1 ) の光信号に近い画像を生成することも 可能になる。
換言すると、 3次元再積分似手法においては、 例えば、 図 1 5 1 (図 3 ) の実 世界推定部 1 0 2は、 それぞれ時空間積分効果を有する、 センサ 2の複数の検出 素子により実世界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠 落した、 検出素子により射影された画素値を有する複数の画素からなる入力画像 の、 時空間方向のうち少なくとも 1次元方向の位置に対応する画素の画素値が、 少なくとも 1次元方向の積分効果により取得された画素値であるとして、 実世界 の光信号を表す光信号関数 Fを所定の近似関数 f で近似することで、 光信号関 数 Fを推定することが前提とされる。
さらに、 例えば、 図 1 5 1 (図 3 ) のデータ定常性検出部 1 0 1が、 入力画像 のデータの定常性を検出した場合、 実世界推定部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に対応して、 画像データの時空間方向の うち少なくとも 1次元方向の位置に対応する画素の画素値が、 少なくとも 1次元 方向の積分効果により取得された画素値であるとして、 光信号関数 Fを近似関 数 f で近似することで、 光信号関数 Fを推定することが前提とされる。
詳細には、 例えば、 実世界推定部 1 0 2は、 定常性検出部 1 0 1により検出さ れたデータの定常性に対応する線からの少なくとも 1次元方向に沿った距離に対 応する画素の画素値が、 少なくとも 1次元方向の積分効果により取得された画素 値であるとして、 光信号関数 Fを近似関数で近似することで、 光信号関数を推 1585
216
定することが前提とされる。
3次元再積分手法においては、 例えば、 図 1 5 1 (図 3) の画像生成部 1 0 3 (構成は、 図 1 7 1 ) 実世界推定部 1 0 2により推定された光信号関数 F、 即ち、 近似関数 f を、 少なくとも 1次元方向の所望の単位で積分する (例えば、 上述した式 ( 1 3 5) の右辺を演算する) ことにより所望の大きさの画素に対応 する画素値を生成する。
従って、 3次元再積分手法は、 従来の画像生成手法や、 上述した 1次元または 2次元再積分手法に比較して、 より実世界 1 (図 1 5 1) の光信号に近い画像を 生成することも可能になる。
次に、 図 1 7 3を参照して、 実世界推定部 1 0 2より入力される実世界推定情 報が、 参照画素の各画素値を近似的に表現する近似関数 f(x)上の、 各画素の微 分値、 または、 傾きの情報である場合、 各画素の微分値、 または、 傾きに基づい て、 新たに画素を生成し、 画像を出力する画像生成部 1 0 3について説明する。 尚、 ここでいう微分値は、 参照画素の各画素値を近似的に表現する近似関数 . f(x)を求めた後、 その近似関数 f(x)から得られる 1次微分式 f(x)' (近似関数 がフレーム方向の場合、 近似関数 f(t)から得られる 1次微分式 f(t)' ) を用い て、 所定の位置で得られる値のことである。 また、 ここでいう傾きは、 上述の近 似関数 f(x) (または、 f(t)) を求めることなく、 所定の位置における周辺画素 の画素値から直接得られる近似関数 f (X)上の所定の位置の傾きのことを示して いる。 しかしながら、 微分値は、 近似関数 f(x)の所定の位置での傾きなので、 いずれも、 上記近似関数 f(x)上の所定の位置における傾きである。 そこで、 実 世界推定部 1 0 2より入力される実世界推定情報としての微分値と傾きについて は、 図 1 7 3、 および、 図 1 7 7の画像生成部 1 0 3の説明においては、 統一し て近似関数 f(x) (または、 f (ΐ)) 上の傾きと称する。
傾き取得部 3 40 1は、 実世界推定部 1 0 2より入力される参照画素の画素値 を近似的に表現する近似関数 f(x)についての、 各画素の傾きの情報と、 対応す る画素の画素値、 および、 定常性の方向の傾きを取得して、 外揷補間部 3 4 0 2 に出力する。
外揷補間部 3 4 0 2は、 傾き取得部 3 4 0 1より入力された各画素の近似関数 f (x)上の傾きと、 対応する画素の画素値、 および、 定常性の方向の傾きに基づ いて、 外揷補間により、 入力画像よりも所定の倍率の高密度の画素を生成し、 出 力画像として出力する。
次に、 図 1 7 4のフローチヤ一トを参照して、 図 1 7 3の画像生成部 1 0 3に よる画像の生成の処理について説明する。
ステップ S 3 4 0 1において、 傾き取得部 3 4 0 1は、 実世界推定部 1 0 2よ り入力されてくる、 各画素の近似関数 f (x)上の傾き (微分値) 、 位置、 画素値、 および、 定常性の方向の傾きの情報を実世界推定情報として取得する。
このとき、 例えば、 入力画像に対して空間方向 X、 および、 空間方向 Yについ てそれぞれ 2倍 (合計 4倍〉 の密度の画素からなる画像を生成する場合、 実世界 推定部 1 0 2からは、 図 1 7 5で示されるような画素 P inに対して、 傾き f (Xin) ' (画素 Pinの中央位置における傾き) , f (Xin— Cx ( _ 0. 25) ) ' (画素 Pinから Y方向に 2倍密度の画素が生成されるときの画素 Paの中央位置の傾 き) , f (Xin— Cx (0. 25) ) ' (画素 Pinから Y方向に 2倍密度の画素が生成され るときの画素 P bの中央位置の傾き) 、 画素 Pinの位置、 画素値、 および、 定常 性の方向の傾き G f の情報が入力される。
ステップ S 3 4 0 2において、 傾き取得部 3 4 0 1は、 入力された実世界推定 情報のうち、 対応する注目画素の情報を選択し、 外挿補間部 3 4 0 2に出力する。 ステップ S 3 4 0 3において、 外挿補間部 3 4 0 2は、 入力された画素の位置 情報と定常性の方向の傾き G f からシフト量を求める。
ここで、 シフ ト量 Cx (ty)は、 定常性の傾きが G f で示されるとき、 Cx (ty) = tyZ Gf で定義される。 このシフ ト量 Cx (ty)は、 空間方向 Y = 0の位置上で定義 される近似関数 f (X)が、 空間方向 Y=tyの位置における、 空間方向 Xに対する ずれ幅を示すものである。 従って、 例えば、 空間方向 Y = 0の位置上で近似関数 が f (x)として定義されている場合、 この近似関数 f (x)は、 空間方向 Y=tyにお PC蘭 004/001585
218
いては、 空間方向 Xについて Cx(ty)だけずれた関数となるので、 近似関数は、 f (x-Cx(ty)) ( = f (x-ty/Gf)) で定義されることになる。
例えば、 図 1 7 5で示されるような画素 Pinの場合、 図中の 1画素 (図中の 1画素の大きさは、 水平方向、 および、 垂直方向ともに 1であるものとする) を 垂直方向に 2分割するとき (垂直方向に倍密度の画素を生成するとき) 、 外揷捕 間部 3 40 2は、 求めようとする画素 Pa, Pbのシフト量を求める。 すなわち、 今の場合、 画素 Pa, Pbは、 画素 Pinからみて、 空間方向 Yについて、 それぞれ 一 0.25, 0.25だけシフトしているので、 画素 Pa, Pbのシフト量は、 それぞれ Cx (一 0.25) , Cx (0.25) となる。 尚、 図 1 7 5中において、 画素 Pinは、
(Xin, Yin) を略重心位置とする正方形であり、 画素 Pa, Pbは、 (Xin,
Yin+0.25) 、 (Xin, Yin— 0.25) をそれぞれ略重心位置とする図中水平方向に 長い長方形である。
ステップ S 3 404において、 外揷補間部 34 0 2は、 ステップ S 3 40 3の 処理で求められたシフト量 Cx、 実世界推定情報として取得された画素 Pinの近 似関数 f(x)上の注目画素上での傾き f (Xin)'、 および、 画素 Pinの画素値に基 づいて、 以下の式 (1 3 7) , 式 (1 3 8) により外揷補間を用いて画素 Pa, Pbの画素値を求める。
Pa=Pin-f (Xin)' XCx(0.25)
• · · ( 1 3 7) Pb=Pin-f (Xin)' XCx (— 0.25)
• · · ( 1 3 8) 以上の式 (1 3 7) , 式 (1 3 8) において、 Pa, Pb, P inは、 画素 Pa, Pb,
Pinの画素値を示す。
すなわち、 図 1 7 6で示されるように、 注目画素 Pinにおける傾き f (Xin)'に、 X方向の移動距離、 すなわち、 シフ ト量を乗じることにより画素値の変化量を設 定し、 注目画素の画素値を基準として、 新たに生成する画素の画素値を設定する c
3 40 5において、 外揷捕間部 34 0 2は、 所定の解像度の画素が 得られたか否かを判定する。 例えば、 所定の解像度が入力画像の画素に対して、 垂直方向に 2倍の密度の画素であれば、 以上の処理により、 外挿補間部 340 2 は、 所定の解像度の画像が得られたと判定することになるが、 例えば、 入力画像 の画素に対して、 4倍の密度 (水平方向に 2倍 X垂直方向に 2倍) の画素が所望 とされていた場合、 以上の処理では、 所定の解像度の画素が得られていないこと になる。 そこで、 4倍の密度の画像が所望とされていた画像である場合、 外揷補 間部 3 40 2は、 所定の解像度の画素が得られていないと判定し、 その処理は、 ステップ S 3 4 0 3に戻る。
ステップ S 3 4 0 3において、 外揷補間部 3 4 0 2は、 2回目の処理で、 求め ようとする画素 P 0 1, P 0 2, P 0 3 , および P 04 (注目画素 Pinに対し て 4倍となる密度の画素) を生成しようとする画素の中心位置からのシフト量を それぞれ求める。 すなわち、 今の場合、 画素 P 0 1, P 0 2は、 画素 Paから得 られるものなので、 画素 Paからのシフト量がそれぞれ求められることになる。 ここで、 画素 P O l , P 0 2は、 画素 Paからみて空間方向 Xについて、 それぞ れー 0.25, 0.25だけシフトしているので、 その値そのものがシフト量となる
(空間方向 Xについてシフトしているため) 。 同様にして、 画素 P 0 3, P 04 は、 画素 Pbからみて空間方向 Xについて、 それぞれ一 0.25, 0.25だけシフトし ているので、 その値そのものがシフト量となる。 尚、 図 1 7 5において、 画素 P 0 1, P 0 2 , P 0 3, P 04は、 図中の 4個のバッ印の位置を重心位置とする 正方形であり、 各辺の長さは、 画素 Pinが、 それぞれ 1であるので、 画素 P O 1, P 0 2 , P 0 3 , P 04は、 それぞれ略 0. 5となる。
ステップ S 3 404において、 外揷補間部 34 0 2は、 ステップ S 3 40 3の 処理で求められたシフト量 Cx、 実世界推定情報として取得された画素 Pa, Pbの 近似関数 f (x)上の所定の位置での
傾き f (Xin— Cx (— 0.25))' , f (Xin— Cx (0.25) ) '、 および、 上述の処理で求めら れた画素 Pa, Pbの画素値に基づいて、 外揷補間により以下の式 ( 1 3 9) 乃至 式 (1 4 2) により画素 P 0 1 , P 0 2, P 0 3 , P 04の画素値を求め、 図示 せぬメモリに記憶させる。
P 0 1 =Pa + f (Xin-Cx(0.25))' X (一 0.25)
( 1 3 9)
P 0 2 =Pa + f (Xin-Cx(0.25)), X (0.25)
( 1 4 0)
P 0 3 =Pb + f (Xin-Cx(-0.25))' X (— 0.25)
( 1 4 1)
P 04 =Pb + f (Xin-Cx(-0.25))' X (0.25)
• · · ( 1 4 2) 上述の式 (1 3 9) 乃至式 (1 4 2) において、 P 0 1乃至 P 0 4は、 画素 P 0 1乃至 P 0 4のそれぞれの画素値を示す。
ステップ S 3 40 5において、 外揷補間部 34 0 2は、 所定の解像度の画素が 得られたか否かを判定し、 今の場合、 所望とされていた 4倍の密度の画素が得ら れたことになるので、 外揷補間部 34 0 2は、 所定の解像度の画素が得られたと 判定し、 その処理は、 ステップ S 34 0 6に進む。
ステップ S 3 4 0 6において、 傾き取得部 34 0 1は、 全ての画素で処理がな されたか否かを判定し、 まだ、 全ての画素について処理がなされていないと判定 した場合、 その処理は、 ステップ S 3 40 2に戻り、 それ以降の処理が繰り返さ れる。
ステップ S 3 4 0 6において、 傾き取得部 34 0 1は、 全ての画素について処 理がなされたと判定した場合、 ステップ S 3 40 7において、 外揷補間部 3 40 2は、 図示せぬメモリに記憶されている、 生成された画素からなる画像を出力す る。
すなわち、 図 1 7 6で示されるように、 近似関数 f(x)上の傾き f (χ)'を用い て、 その傾きを求めた注目画素から空間方向 Xに離れた距離に応じて、 新たな画 素の画素値が外揷補間により求められる。
尚、 以上の例においては、 4倍密度の画素を演算する際の傾き (微分値) を例 PCT/JP2004/001585
221
として説明してきたが、 さらに多くの位置における、 傾きの情報が、 実世界推定 情報として得られれば、 上述と同様の手法で、 それ以上の空間方向の密度の画素 を演算する事も可能である。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 力 近似関数 f (x)は連続関数であるので、 倍密度以外の画素値についても必要 な傾き (微分値) の情報が得られれば、 さらに高密度の画素からなる画像を生成 することが可能となる。
以上によれば、 実世界推定情報として供給される入力画像の各画素の画素値を 空間方向に近似する近似関数 f (x)の傾き (または、 微分値) f (x) 'の情報に基づ いて、 入力画像よりも高解像度の画像の画素を生成することが可能となる。
次に、 図 1 7 7を参照して、 実世界推定部 1 0 2より入力される実世界推定情 報が、 参照画素の画素値を近似的に表現するフレーム方向 (時間方向) の関数 f (t)上の、 各画素の微分値、 または、 傾きの情報である場合、 各画素の微分値、 または、 傾きに基づいて、 新たに画素を生成し、 画像を出力する画像生成部 1 0 3について説明する。
傾き取得部 3 4 1 1は、 実世界推定部 1 0 2より入力される参照画素の画素値 を近似的に表現する近似関数 f (t)上の、 各画素の位置における傾きの情報と、 対応する画素の画素値、 および、 定常性の動きを取得して、 外挿補間部 3 4 1 2 に出力する。
外揷補間部 3 4 1 2は、 傾き取得部 3 4 1 1より入力された各画素の近似関数 f (t)上の傾きと、 対応する画素の画素値、 および、 定常性の動きに基づいて、 外揷補間により、 入力画像よりも所定の倍率の高密度の画素を生成し、 出力画像 として出力する。
次に、 図 1 7 8のフローチヤ一トを参照して、 図 1 7 7の画像生成部 1 0 3に よる画像の生成の処理について説明する。
ステップ S 3 4 2 1において、 傾き取得部 3 4 1 1は、 実世界推定部 1 0 2よ り入力されてくる、 各画素の近似関数 f (t)上の傾き (微分値) 、 位置、 画素値、 および、 定常性の動きの情報を実世界推定情報として取得する。
このとき、 例えば、 入力画像に対して空間方向、 および、 フレーム方向にそれ ぞれ 2倍 (合計 4倍) の密度の画素からなる画像を生成する場合、 実世界推定部 1 0 2からは、 図 1 7 9で示されるような画素 Pinに対して、 傾き f (Tin)' (画素 Pinの中央位置における傾き) , f (Tin-Ct(0.25)), (画素 Pinから Y方 向に 2倍密度の画素が生成されるときの画素 Patの中央位置の傾き) , f(Tin— Ct(-0.25))' (画素 Pinから Y方向に 2倍密度の画素が生成されるときの画素 Pbtの中央位置の傾き) 、 画素 Pinの位置、 画素値、 および、 定常性の動き
(動きべクトル) の情報が入力される。
ステップ S 3 4 2 2において、 傾き取得部 3 4 1 1は、 入力された実世界推定 情報のうち、 対応する注目画素の情報を選択し、 外揷補間部 3 4 1 2に出力する。 ステップ S 3 4 2 3において、 外挿補間部 34 1 2は、 入力された画素の位置 情報と定常性の方向の傾きからシフト量を求める。
ここで、 シフ ト量 Ct(ty)は、 定常性の動き (フレーム方向と空間方向からな る面に対する傾き) が Vf で示されるとき、
Figure imgf000224_0001
で定義される。 こ のシフト量 Ct(ty)は、 空間方向 Y = 0の位置上で定義される近似関数 f(t)が、 空間方向 Y=tyの位置における、 フレーム方向 Tに対するずれ幅を示すものであ る。 従って、 例えば、 空間方向 Y=0の位置上で近似関数が f(t)として定義さ れている場合、 この近似関数 f(t)は、 空間方向 Y=tyにおいては、 空間方向 T について Ct(ty)だけずれた関数となるので、 近似関数は、 f(t— Ct(ty)) (= f(t-ty/Vf)) で定義されることになる。
例えば、 図 1 7 9で示されるような画素 Pinの場合、 図中の 1画素 (図中の 1画素の大きさは、 フレーム方向、 および、 空間方向ともに 1であるものとす る) を空間方向に 2分割するとき (空間方向に倍密度の画素を生成するとき) 、 外揷捕間部 34 1 2は、 求めようとする画素 Pat, Pb tのシフ ト量を求める。 す なわち、 今の場合、 画素 Pat, Pbtは、 画素 Pinからみて、 空問方向 Yについて、 それぞれ 0.25, — 0.25 だけシフトしているので、 画素 Pat, Pbt のシフト量は、 それぞれ Ct (0.25) , Ct (— 0.25) となる。 尚、 図 1 7 9中において、 画素 Pinは、 (Xin, Yin) を略重心位置とする正方形であり、 画素 Pat, Pbtは、
(Xin, Yin+0.25) 、 (Xin, Yin— 0.25) をそれぞれ略重心位置とする図中水平 方向に長い長方形である。
ステップ S 3 4 24において、 外揷捕間部 3 4 1 2は、 ステップ S 3 4 2 3の 処理で求められたシフト量、 実世界推定情報として取得された画素 Pinの近似 関数 f(t)上の注目画素上での傾き f (Tin)'、 および、 画素 Pinの画素値に基づ いて、 外揷捕間により以下の式 (1 4 3) , 式 (1 44) により画素 Pat, Pbt の画素値を求める。
Pat = Pin-f (Tin)' XCt(0.25)
• · · ( 1 4 3)
Pbt = Pin-f (Xin)' XCt(-0.25)
• · · (1 44) 以上の式 (1 4 3) , 式 (1 4 4) において、 Pat, Pbt, Pin は、 画素 Pat, Pbt, Pinの画素値を示す。
すなわち、 図 1 8 0で示されるように、 注目画素 Pinにおける傾き f (Xin)'に、 X方向の移動距離、 すなわち、 シフト量を乗じることにより画素値の変化量を設 定し、 注目画素の画素値を基準として、 新たに生成する画素の画素値を設定する。 ステップ S 3 42 5において、 外揷補間部 34 1 2は、 所定の解像度の画素が 得られたか否かを判定する。 例えば、 所定の解像度が入力画像の画素に対して、 空間方向に 2倍の密度の画素であれば、 以上の処理により、 外揷補間部 3 4 0 2 は、 所定の解像度の画像が得られたと判定することになるが、 例えば、 入力画像 の画素に対して、 4倍の密度 (フレーム方向に 2倍 X空間方向に 2倍) の画素が 所望とされていた場合、 以上の処理では、 所定の解像度の画素が得られていない ことになる。 そこで、 4倍の密度の画像が所望とされていた画像である場合、 外 揷補間部 3 4 1 2は、 所定の解像度の画素が得られていないと判定し、 その処理 は、 ステップ S 34 2 3に戻る。 ステップ S 3 4 2 3において、 外揷補間部 3 4 1 2は、 2回目の処理で、 求め ようとする画素 P O I t , P 0 2 t , P 0 3 t , および P 04 t (注目画素 Pin に対して 4倍となる密度の画素) を生成しようとする画素の中心位置からのシフ ト量をそれぞれ求める。 すなわち、 今の場合、 画素 P 0 1 t , P 0 2 tは、 画素 Patから得られるものなので、 画素 Patからのシフ ト量がそれぞれ求められるこ とになる。 ここで、 画素 P O I t , 0 2 tは、 画素 Patからみてフレーム方向 Tについて、 それぞれ一 0.25, 0.25だけシフトしているので、 その値そのもの がシフ ト量となる (空間方向 Xについてシフ トしているため) 。 同様にして、 画 素 P 0 3 t, P 04 tは、 画素 Pbtからみてフレーム方向 Tについて、 それぞ れー 0.25, 0.25だけシフトしているので、 その値そのものがシフト量となる。 尚、 図 1 7 9において、 画素 P 0 1 t , P 0 2 t , P 0 3 t , P 04 tは、 図中 の 4個のバッ印の位置を重心位置とする正方形であり、 各辺の長さは、 画素 Pin ヽ それぞれ 1であるので、 画素 P 0 1 t , P 0 2 t , P 0 3 t , P 04 tは、 それぞれ略 0. 5となる。
ステップ S 3 4 24において、 外揷補間部 34 1 2は、 ステップ S 3 4 2 3の 処理で求められたシフ ト量 Ct、 実世界推定情報として取得された画素 Pa t , Pbtの近似関数 f(t)上の所定の位置での傾き f (Tin— Ct(0.25))', f (Tin— Ct (一 0.25))'、 および、 上述の処理で求められた画素 Pat, Pbtの画素値に基づ いて、 外揷捕間により以下の式 (1 4 5) 乃至式 (1 4 8) により画素 P O l t , P 0 2 t , P 0 3 t , P 04 tの画素値を求め、 図示せぬメモリに記憶させる。
P O l t =Pat + f (Tin-Ct(0.25))' X (一 0.25)
• · ■ ( 1 4 5)
P 0 2 t =Pat + f (Tin-Ct(0.25))' X (0.25)
• · · ( 1 4 6) P 0 3 t =Pbt + f (Tin-Ct(~0.25)), X (一 0.25)
• · · ( 1 4 7)
P 0 4 t =Pbt + f (Tin-Ct(-0.25)), X (0.25) • · · ( 1 4 8 ) 上述の式 (1 3 9 ) 乃至式 (1 4 2 ) において、 P 0 1 t乃至 P 0 4 tは、 画 素 P 0 1 t乃至 P 0 4 tのそれぞれの画素値を示す。
ステップ S 3 4 2 5において、 外揷補間部 3 4 1 2は、 所定の解像度の画素が 得られたか否かを判定し、 今の場合、 所望とされていた 4倍密度の画素が得られ たことになるので、 外揷補間部 3 4 1 2は、 所定の解像度の画素が得られたと判 定し、 その処理は、 ステップ S 3 4 2 6に進む。
ステップ S 3 4 2 6において、 傾き取得部 3 4 1 1は、 全ての画素で処理がな されたか否かを判定し、 まだ、 全ての画素について処理がなされていないと判定 した場合、 その処理は、 ステップ S 3 4 2 2に戻り、 それ以降の処理が繰り返さ れる。
ステップ S 3 4 2 6において、 傾き取得部 3 4 1 1は、 全ての画素について処 理がなされたと判定された場合、 ステップ S 3 4 2 7において、 外挿補間部 3 4 1 2は、 図示せぬメモリに記憶されている、 生成された画素からなる画像を出力 する。
すなわち、 図 1 8 0で示されるように、 近似関数 f (t)上の傾き f (t) 'を用い て、 その傾きを求めた注目画素からフレーム方向 Tに離れたフレーム数に応じて、 新たな画素の画素値が外揷補間により求められる。
尚、 以上の例においては、 4倍密度の画素を演算する際の傾き (微分値) を例 として説明してきたが、 さらに多くの位置における、 傾きの情報が、 実世界推定 情報として得られれば、 上述と同様の手法で、 それ以上のフレーム方向の密度の 画素を演算する事も可能である。
また、 以上の例については、 倍密度の画素値を求める例について説明してきた 1S 近似関数 f (t)は連続関数であるので、 倍密度以外の画素値についても必要 な傾き (微分値) の情報が得られれば、 さらに高密度の画素からなる画像を生成 することが可能となる。
以上の処理により、 実世界推定情報として供給される入力画像の各画素の画素 値をフレーム方向に近似する近似関数 f (t)の傾き (または、 微分値) f (t) 'の情 報に基づいて、 入力画像よりも高解像度の画像の画素をフレーム方向にも生成す ることが可能となる。
以上によれば、 それぞれ時空間積分効果を有する、 センサの複数の検出素子に より現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した、 検出素子により射影された画素値を有する複数の画素からなる画像データにおけ るデータの定常性を検出し、 検出された定常性に対応して、 画像データ内の注目 画素に対して時空間方向のうち 1次元方向にシフトした位置の複数画素の画素値 の傾きを、 現実世界の光信号に対応する関数として推定し、 注目画素の中心位置 から 1次元方向にシフトした位置を中心とする傾きを有する直線の前記注目画素 内に配される両端の値を注目画素よりも高解像度の画素の画素値として生成する ようにしたので、 入力画像よりも時空間方向に高解像度の画素を生成することが 可能となる。
次に、 図 1 8 1乃至図 2 0 6を参照して、 画像生成部 1 0 3 (図 3 ) の実施の 形態のさらに他の例について説明する。
図 1 8 1は、 この例の実施の形態が適用される画像生成部 1 0 3の構成例を表 している。
図 1 8 1で示される画像生成部 1 0 3には、 従来のクラス分類適応処理を実行 するクラス分類適応処理部 3 5 0 1、 クラス分類適応処理に対する捕正の処理 (処理の詳細については後述する) を実行するクラス分類適応処理補正部 3 5 0 2、 および、 クラス分類適応処理部 3 5 0 1より出力された画像と、 クラス分類 適応処理補正部 3 5 0 2より出力された画像を加算し、 加算した画像を出力画像 として外部に出力する加算部 3 5 0 3が設けられている。
なお、 以下、 クラス分類適応処理部 3 5 0 1より出力される画像を、 予測画像 と称し、 クラス分類適応処理補正部 3 5 0 2より出力される画像を、 補正画像、 または、 差分予測画像と称する。 ただし、 予測画像と差分予測画像の名称の由来 についてはそれぞれ後述する。 JP2004/001585
227
また、 この例の実施の形態においては、 クラス分類適応処理は、 例えば、 入力 画像の空間解像度を向上する処理であるとする。 即ち、 標準解像度の画像である 入力画像を、 高解像度の画像である予測画像に変換する処理であるとする。 なお、 以下、 標準解像度の画像を、 適宜、 SD (Standard Definition)画像と 称する。 また、 SD画像を構成する画素を、 適宜、 S D画素と称する。
これに対して、 以下、 高解像度の画像を、 適宜、 HD Oligh Definition)画像 と称する。 また、 HD画像を構成する画素を、 適宜、 HD画素と称する。
具体的には、 この例の実施の形態においては、 クラス分類適応処理とは、 次の ような処理である。
即ち、 はじめに、 入力画像 (SD画像) の注目画素 (SD画素) における、 予 測画像 (HD画像) の HD画素を求めるために、 注目画素を含めた、 その付近に 配置される SD画素 (以下、 このような SD画素を、 クラスタップと称する) の 特徴量のそれぞれを求めて、 その特徴量毎に予め分類されたクラスを特定する (クラスタップ群のクラスコードを特定する) 。
そして、 予め設定された複数の係数群 (各係数群のそれぞれは、 所定の 1つの クラスコードに対応している) のうちの、 特定されたクラスコードに対応する係 数群を構成する各係数と、 注目画素を含めた、 その付近の SD画素 (以下、 この ような入力画像の SD画素を、 予測タップと称する。 なお、 予測タップは、 クラ スタップと同じこともある) とを用いて積和演算を実行することで、 入力画像 (SD画像) の注目画素 (SD画素) における、 予測画像 (HD画像) の HD画 素を求めるものである。
従って、 この例の実施の形態においては、 入力画像 (SD画像) は、 クラス分 類適応処理部 3 5 0 1において、 従来のクラス分類適応処理が施されて予測画像 (HD画像) となり、 さらに、 加算部 3 5 0 3において、 その予測画像が、 クラ ス分類適応処理補正部 3 5 0 2からの補正画像で補正されて (補正画像が加算さ れて) 出力画像 (HD画像) となる。
即ち、 この例の実施の形態は、 定常性の観点からは、 定常性を用いて処理を行 „〜™
PCT/JP2004/001585
228
う画像処理装置 (図 3 ) のうちの画像生成部 1 0 3の 1つの実施の形態であると 言える。 これに対して、 クラス分類適応処理の観点からは、 センサ 2とクラス分 類適応処理部 3 5 0 1から構成される従来の画像処理装置に対して、 クラス分類 適応処理の補正を行うために、 データ定常性検出部 1 0 1、 実世界推定部 1 0 2、 クラス分類適応処理補正部 3 5 0 2、 およぴ加算部 3 5 0 3をさらに付加した画 像処理装置の実施の形態であるとも言える。
従って、 以下、 この例の実施の形態を、 上述した再積分手法に対して、 クラス 分類適応処理補正手法と称する。
クラス分類適応処理補正手法を利用する画像生成部 1 0 3についてさらに詳し く説明する。
図 1 8 1において、 画像である、 実世界 1の信号 (光の強度の分布) がセンサ 2に入射されると、 センサ 2からは入力画像が出力される。 この入力画像は、 デ ータ定常性検出部 1 0 1に入力されるとともに、 画像生成部 1 0 3のクラス分類 適応処理部 3 5 0 1に入力される。
クラス分類適応処理部 3 5 0 1は、 入力画像に対して、 従来のクラス分類適応 処理を施して予測画像を生成し、 加算部 3 5 0 3に出力する。
このように、 クラス分類適応処理部 3 5 0 1は、 センサ 2からの入力画像 (画 像データ) を基準とするとともに、 入力画像そのものを処理の対象としている。 即ち、 センサ 2からの入力画像は、 上述した積分効果により実世界 1の信号とは 異なるもの (歪んだもの) となっているにも関わらず、 クラス分類適応処理部 3 5 0 1は、 その実世界 1の信号とは異なる入力画像を正として処理を行っている。 その結果、 センサ 2から出力された段階で実世界 1のディテールがつぶれてし まった入力画像 (S D画像) は、 クラス分類適応処理によりたとえ H D画像とさ れても、 元のディテールが完全に復元されないことがあるという課題が発生して しまう。
そこで、 この課題を解決するために、 クラス分類適応処理補正手法においては、 画像生成部 1 0 3のクラス分類適応処理補正部 3 5 0 2が、 センサ 2からの入力 画像ではなく、 センサ 2に入射される前の元の画像 (所定の定常性を有する実世 界 1の信号〉 を推定する情報 (実世界推定情報) を基準とするとともに、 その実 世界推定情報を処理の対象として、 クラス分類適応処理部 3 5 0 1より出力され た予測画像を補正するための補正画像を生成する。
この実世界推定情報は、 データ定常性検出部 1 0 1と実世界推定部 1 0 2によ り生成される。
即ち、 データ定常性検出部 1 0 1は、 センサ 2からの入力画像に含まれるデー タの定常性 (センサ 2に入射された実世界 1の信号が有する定常性に対応するデ ータの定常性) を検出し、 その検出結果をデータ定常性情報として実世界推定部 1 0 2に出力する。
なお、 データ定常性情報は、 図 1 8 1の例では角度とされているが、 角度に限 定されず、 上述した様々な情報が使用可能である。
実世界推定部 1 0 2は、 入力された角度 (データ定常性情報) に基づいて、 実 世界推定情報を生成し、 画像生成部 1 0 3のクラス分類適応処理補正部 3 5 0 2 に出力する。
なお、 実世界推定情報は、 図 1 8 1の例では特徴量画像 (その詳細は後述す る) とされているが、 特徴量画像に限定されず、 上述した様々な情報が使用可能 である。
クラス分類適応処理補正部 3 5 0 2は、 入力された特徴量画像 (実世界推定情 報) に基づいて補正画像を生成し、 加算部 3 5 0 3に出力する。
加算部 3 5 0 3は、 クラス分類適応処理部 3 5 0 1より出力された予測画像と、 クラス分類適応処理補正部 3 5 0 2より出力された補正画像を加算し、 加算した 画像 (H D画像) を出力画像として外部に出力する。
このようにして出力された出力画像は、 予測画像よりもより実世界 1の信号 (画像) に近い画像となる。 即ち、 クラス分類適応処理補正手法は、 上述した課 題を解決することが可能な手法である。
さらに、 図 1 8 1のように信号処理装置 (画像処理装置) 4を構成することで、 1フレームの全体的に処理をアプライすることが可能になる。 即ち、 後述する併 用手法を利用する信号処理装置 (例えば、 後述する図 2 0 7 ) 等では、 画素の領 域特定をした上で出力画像を生成する必要があるが、 図 1 8 1の信号処理装置 4 は、 この領域特定が不要になるという効果を奏することが可能になる。
次に、 画像生成部 1 0 3のうちのクラス分類適応処理部 3 5 0 1の詳細につい て説明する。
図 1 8 2は、 クラス分類適応処理部 3 5 0 1の構成例を表している。
図 1 8 2において、 センサ 2より入力された入力画像 ( S D画像) は、 領域抽 出部 3 5 1 1と領域抽出部 3 5 1 5にそれぞれ供給される。 領域抽出部 3 5 1 1 は、 供給された入力画像から、 クラス分類を行うために必要なクラスタップ (注 目画素 (S D画素) を含む予め設定された位置に存在する S D画素) を抽出し、 パターン検出部 3 5 1 2に出力する。 パターン検出部 3 5 1 2は、 入力されたク ラスタップに基づいて入力画像のパターンを検出する。
クラスコード決定部 3 5 1 3は、 パターン検出部 3 5 1 2で検出されたパター ンに基づいてクラスコードを決定し、 係数メモリ 3 5 1 4、 および、 領域抽出部 3 5 1 5に出力する。 係数メモリ 3 5 1 4は、 学習により予め求められたクラス コード毎の係数を記憶しており、 クラスコード決定部 3 5 1 3より入力されたク ラスコードに対応する係数を読み出し、 予測演算部 3 5 1 6に出力する。
なお、 係数メモリ 3 5 1 4の係数の学習処理については、 図 1 8 4のクラス分 類適応処理用学習部のプロック図を参照して後述する。
また、 係数メモリ 3 5 1 4に記憶される係数は、 後述するように、 予測画像 (H D画像) を生成するときに使用される係数である。 従って、 以下、 係数メモ リ 3 5 1 4に記憶される係数を、 他の係数と区別するために、 予測係数と称する。 領域抽出部 3 5 1 5は、 クラスコード決定部 3 5 1 3より入力されたクラスコ 一ドに基づいて、 センサ 2より入力された入力画像 ( S D画像) から、 予測画像 (H D画像) を予測生成するのに必要な予測タップ (注目画素を含む予め設定さ れた位置に存在する S D画素) をクラスコードに対応して抽出し、 予測演算部 3 5 1 6に出力する。
予測演算部 3 5 1 6は、 領域抽出部 3 5 1 5より入力された予測タップと、 係 数メモリ 3 5 1 4より入力された予測係数とを用いて積和演算を実行し、 入力画 像 (SD画像) の注目画素 (SD画素) における、 予測画像 (HD画像) の HD 画素を生成し、 加算部 3 5 0 3に出力する。
より詳細には、 係数メモリ 3 5 1 4は、 クラスコード決定部 3 5 1 3より供給 されるクラスコードに対応する予測係数を、 予測演算部 3 5 1 6に出力する。 予 測演算部 3 5 1 6は、 領域抽出部 3 5 1 5より供給される入力画像の所定の画素 位置の画素値から抽出された予測タップと、 係数メモリ 3 5 1 4より供給された 予測係数とを用いて、 次の式 (1 4 9) で示される積和演算を実行することによ り、 予測画像 (HD画像) の HD画素を求める (予測推定する) 。
Figure imgf000233_0001
• · · ( 1 4 9) 式 (1 4 9) において、 q'は、 予測画像 (HD画像) の HD画素を表してい る。 Ci (iは、 1乃至 nの整数値) のそれぞれは、 予測タップ (SD画素) のそ れぞれを表している。 また、 d i のそれぞれは、 予測係数のそれぞれを表してい る。
このように、 クラス分類適応処理部 3 5 0 1は、 SD画像 (入力画像) から、 それに対する HD画像を予測推定するので、 ここでは、 クラス分類適応処理部 3 5 0 1から出力される HD画像を、 予測画像と称している。
図 1 8 3は、 このようなクラス分類適応処理部 3 5 0 1の係数メモリ 3 5 1 4 に記憶される予測係数 (式 (1 4 9) における d を決定するための学習装置 (予測係数の算出装置) を表している。
なお、 クラス分類適応処理補正手法においては、 係数メモリ 3 5 1 4の他に、 クラス分類適応処理補正部 3 5 0 2の係数メモリ (後述する図 1 9 1で示される 補正係数メモリ 3 5 5 4) が設けられている。 従って、 図 1 8 3で示されるよう に、 クラス分類適応処理手法における学習装置 3 5 0 4には、 クラス分類適応処 理部 3 5 0 1の係数メモリ 3 5 1 4に記憶される予測係数 (式 (1 4 9 ) におけ る d J を決定するための学習部 3 5 2 1 (以下、 クラス分類適応処理用学習部 3 5 2 1と称する) の他に、 クラス分類適応処理捕正部 3 5 0 2の捕正係数メモ リ 3 5 5 4に記憶される係数を決定するための学習部 3 5 6 1 (以下、 クラス分 類適応処理補正用学習部 3 5 6 1と称する) が設けられている。
従って、 以下、 クラス分類適応処理用学習部 3 5 2 1における教師画像を第 1 の教師画像と称するのに対して、 クラス分類適応処理捕正用学習部 3 5 6 1にお ける教師画像を第 2の教師画像と称する。 同様に、 以下、 クラス分類適応処理用 学習部 3 5 2 1における生徒画像を第 1の生徒画像と称するのに対して、 クラス 分類適応処理補正用学習部 3 5 6 1における生徒画像を第 2の生徒画像と称する。 なお、 クラス分類適応処理補正用学習部 3 5 6 1については後述する。
図 1 8 4は、 クラス分類適応処理用学習部 3 5 2 1の詳細な構成例を表してい る。
図 1 8 4において、 所定の画像が、 第 1の教師画像 (H D画像) としてダウン コンパ一ト部 3 5 3 1と正規方程式生成部 3 5 3 6のそれぞれに入力されるとと もに、 クラス分類適応処理補正用学習部 3 5 6 1 (図 1 8 3 ) に入力される。 ダウンコンバート部 3 5 3 1は、 入力された第 1の教師画像 (H D画像) から、 第 1の教師画像よりも解像度の低い第 1の生徒画像 (S D画像) を生成し (第 1 の教師画像をダウンコンバートしたものを第 1の生徒画像とし) 、 領域抽出部 3 5 3 2、 領域抽出部 3 5 3 5、 およびクラス分類適応処理補正用学習部 3 5 6 1 (図 1 8 3 ) のそれぞれに出力する。
このように、 クラス分類適応処理用学習部 3 5 2 1には、 ダウンコンバート部 3 5 3 1が設けられているので、 第 1の教師画像 (H D画像) は、 上述したセン サ 2 (図 1 8 1 ) からの入力画像よりも高解像度の画像である必要は無い。 なぜ ならば、 第 1の教師画像がダウンコンバートされた (解像度が下げられた) 第 1 の生徒画像を S D画像とすれば、 第 1の生徒画像に対する第 1の教師画像が H D 画像になるからである。 従って、 第 1の教師画像は、 例えば、 センサ 2からの入 力画像そのものとされてもよい。
領域抽出部 3 5 3 2は、 供給された第 1の生徒画像 ( S D画像) から、 クラス 分類を行うために必要なクラスタップ (S D画素) を抽出し、 パターン検出部 3 5 3 3に出力する。 パターン検出部 3 5 3 3は、 入力されたクラスタップのパタ ーンを検出し、 その検出結果をクラスコード決定部 3 5 3 4に出力する。 クラス コード決定部 3 5 3 4は、 入力されたパターンに対応するクラスコードを決定し、 そのクラスコードを領域抽出部 3 5 3 5、 および、 正規方程式生成部 3 5 3 6の それぞれに出力する。
領域抽出部 3 5 3 5は、 クラスコード決定部 3 5 3 4より入力されたクラスコ 一ドに基づいて、 ダウンコンバート部 3 5 3 1より入力された第 1の生徒画像 ( S D画像) から予測タップ (S D画素) を抽出し、 正規方程式生成部 3 5 3 6 と予測演算部 3 5 5 8のそれぞれに出力する。
なお、 以上の領域抽出部 3 5 3 2、 パターン検出部 3 5 3 3、 クラスコード決 定部 3 5 3 4、 および領域抽出部 3 5 3 5のそれぞれは、 図 1 8 2のクラス分類 適応処理部 3 5 0 1の領域抽出部 3 5 1 1、 パターン検出部 3 5 1 2、 クラスコ ード決定部 3 5 1 3、 および、 領域抽出部 3 5 1 5のそれぞれと、 基本的に同様 の構成と機能を有するものである。
正規方程式生成部 3 5 3 6は、 クラスコード決定部 3 5 3 4より入力された全 てのクラスコードに対して、 クラスコード毎に、 領域抽出部 3 5 3 5より入力さ れる第 1の生徒画像 (S D画像) の予測タップ (S D画素) と、 第 1の教師画像 ( H D画像) の H D画素とから正規方程式を生成し、 係数決定部 3 5 3 7に供給 する。 係数決定部 3 5 3 7は、 正規方程式生成部 3 5 3 7より所定のクラスコー ドに対応する正規方程式が供給されてきたとき、 その正規方程式より予測係数の それぞれを演算し、 係数メモリ 3 5 1 4にクラスコードと関連付けて記憶させる とともに、 予測演算部 3 5 3 8に供給する。
正規方程式生成部 3 5 3 6と、 係数決定部 3 5 3 7についてさらに詳しく説明 する。
上述した式 (149〉 において、 学習前は予測係数 のそれぞれが未定係数 である。 学習は、 クラスコード毎に複数の教師画像 (HD画像) の HD画素を入 力することによって行う。 所定のクラスコードに対応する H D画素が m個存在し、 m個の HD画素のそれぞれを、 qk ( kは、 1乃至 mの整数値) と記述する場合、 式 (149) から、 次の式 (1 50) が設定される。
Figure imgf000236_0001
■ · · (1 50) 即ち、 式 (1 50) は、 右辺の演算をすることで、 所定の HD画素 qk を予測 推定することができることを表している。 なお、 式 (1 50) において、 ekは 誤差を表している。 即ち、 右辺の演算結果である予測画像 (HD画像) の HD画 素 qk'が、 実際の HD画素 qk と厳密には一致せず、 所定の誤差 ekを含む。
そこで、 式 (1 50) において、 例えば、 誤差 の自乗和を最小にするよう な予測係数 学習により求まればよい。
具体的には、 例えば、 : m>nとなるように、 HD画素 ¾を学習により集める ことができれば、 最小自乗法によって予測係数 がー意に決定される。
即ち、 式 (1 50) の右辺の予測係数 を最小自乗法で求める場合の正規方 程式は、 次の式 (1 5 1) で表される。
Figure imgf000236_0002
• - · (1 5 1) 従って、 式 (1 5 1) で示される正規方程式が生成されれば、 その正規方程式 を解くことで予測係数 がー意に決定されることになる。
具体的には、 式 (1 5 1) で示される正規方程式の各行列のそれぞれを、 次の 式 (1 52) 乃至 c (1 54) のように定義すると、 正規方程式は、 次の式 (1 5
n
5 ) のように表さ^ Lる。
m
∑ ClkX C1k ∑ ©Ik X °nk
k=1 k=1 k=1
m m
1 c2k x c1k ∑ kxc2k c2k X cnk
k=1 k=1 m
∑ cnkxc1k ∑ cnk c2k k ∑ cnk x cnk
k=1 k=l k=1
(1 52) di d2
D AT =
dn
(1 5 3)
∑ c1kxqk
k=1
m k=1
(1 54)
G隠 D隠 = 0匪
(1 5 5) 式 (1 5 3) で示されるように、 行列 DMAT の各成分は、 求めたい予測係数 di である。 従って、 式 (1 5 5) において、 左辺の行列 CMAT と右辺の
行列 QMATが決定されれば、 行列解法によって行列 DMAT (即ち、 予測係数 ) の算出が可能である。
より具体的には、 式 ( 1 5 2) で示されるように、 行列 CM A T の各成分は、 予 測タップ ci kが既知であれば演算可能である。 予測タップ ci k は、 領域抽出部 3 5 3 5により抽出されるので、 正規方程式生成部 3 5 3 6は、 領域抽出部 3 5 3 5より供給されてくる予測タップ ci kのそれぞれを利用して行列 CMAT の各成 分を演算することができる。
また、 式 (1 54) で示されるように、 行列 QMAT の各成分は、 予測タップ cl k と HD画素 ¾が既知であれば演算可能である。 予測タップ ci kは、
行列 CMAT の各成分に含まれるものと同一のものであり、 また、 HD画素 ¾ は、 予測タップ ci k に含まれる注目画素 (第 1の生徒画像の SD画素) に対する第 1の教師画像の HD画素である。 従って、 正規方程式生成部 3 5 3 6は、 領域抽 出部 3 5 3 5より供給された予測タップ ci k と、 第 1の教師画像を利用して行 列 QMATの各成分を演算することができる。
このようにして、 正規方程式生成部 3 5 3 6は、 クラスコード毎に、
行列 CMAT と行列 QMATの各成分を演算し、 その演算結果をクラスコードに対応 付けて係数決定部 3 5 3 7に供給する。
係数決定部 3 5 3 7は、 供給された所定のクラスコードに対応する正規方程式 に基づいて、 上述した式 (1 5 5) の行列 DMAT の各成分である予測係数 を 演算する。
具体的には、 上述した式 (1 5 5) の正規方程式は、 次の式 (1 5 6) のよう に変形できる。
0斷丁 = ( TQ匪
( 1 5 6) 式 (1 5 6) において、 左辺の行列 DMATの各成分が、 求めたい予測係数 である。 また、 行列 CMAT と行列 QMATのそれぞれの各成分は、 正規方程式生成 部 3 5 3 6より供給されるものである。 従って、 係数決定部 3 5 3 7は、 正規方 程式生成部 3 5 3 6より所定のクラスコードに対応する行列 CMAT と行列 QMAT のそれぞれの各成分が供給されてきたとき、 式 (1 5 6) の右辺の行列演算を行 うことで行列 DMAT を演算し、 その演算結果 (予測係数 ) をクラスコードに 対応付けて係数メモリ 3 5 1 4に記憶させるとともに、 予測演算部 3 5 3 8に供 給する。
予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5より入力された予測タップと、 係 数決定部 3 5 3 7により決定された予測係数とを用いて積和演算を実行し、 第 1 の生徒画像 (SD画像) の注目画素 (SD画素) における、 予測画像 (第 1の教 師画像を予測する画像) の HD画素を生成し、 それを学習用予測画像としてクラ ス分類適応処理補正用学習部 3 5 6 1 (図 1 8 3) に出力する。
より詳細には、 予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5より供給される第 1の生徒画像の所定の画素位置の画素値から抽出された予測タップを、 Ci (i は、 1乃至 nの整数値) とし、 係数決定部 3 5 3 7より供給された予測係数を、 d , として、 上述した式 (1 4 9) で示される積和演算を実行することにより、 学習 用予測画像 (HD画像) の HD画素 q,を求める (第 1の教師画像を予測推定す る) 。
ここで、 01 8 5乃至図 1 9 0を参照して、 上述した従来のクラス分類適応処 理 (クラス分類適応処理部 3 5 0 1) が有する課題、 即ち、 図 1 8 1において、 センサ 2から出力された段階で実世界 1のディテールがつぶれてしまつた入力画 像 (SD画像) は、 クラス分類適応処理部 3 5 0 1によりたとえ HD画像 (実世 界 1の信号を予測する予測画像) とされても、 元のディテールが完全に復元され ないことがあるという課題について説明する。
図 1 8 5は、 クラス分類適応処理部 3 5 0 1の処理結果の例を表している。 図 1 8 5において、 HD画像 3 54 1は、 図中上下方向から、 ほぼ 5度時計方 向に傾いた細線の画像が含まれる画像である。 また、 SD画像 3 54 2は、 HD 画像 3 54 1の 2 X 2の画素 (HD画素) からなるブロックに属する画素 (HD画 素) の画素値の平均値を、 1つの画素 (SD画素) の画素値として生成された画 像である。 即ち、 SD画像 3 54 2は、 HD画像 3 5 4 1がダウンコンバートさ れた (解像度が落とされた) 画像である。
換言すると、 HD画像 3 5 4 1は、 センサ 2 (図 1 8 1 ) に入射される前の画 像 (実世界 1 (図 1 8 1) の信号) を模した画像であるとする。 この場合、 SD 画像 3 54 2は、 HD画像 3 54 1に、 センサ 2の積分特性を模した、 空間方向 の積分を適用することにより得られた画像に相当することなる。 即ち、 SD画像 3 54 2は、 センサ 2からの入力画像を模した画像となる。
また、 SD画像 3 54 2をクラス分類適応処理部 3 5 0 1 (図 1 8 1 ) に入力 させ、 クラス分類適応処理部 3 5 0 1より出力された予測画像が、 予測画像 3 5 4 3である。 即ち、 予測画像 3 54 3は、 従来のクラス分類適応処理により生成 された HD画像 (元の HD画像 3 54 1と同一解像度の画像) である。 ただし、 クラス分類適応処理部 3 5 0 1が予測演算に使用した予測係数 (係数メモリ 3 5 1 4 (図 1 8 2) に記憶された予測係数) は、 HD画像 3 54 1を第 1の教師画 像とし、 かつ SD画像 3 54 2を第 1の生徒画像として、 クラス分類適応処理用 学習部 3 5 6 1 (図 1 8 4) に学習演算させたものである。
HD画像 3 5 4 1、 S D画像 3 54 2、 および予測画像 3 5 4 3のそれぞれを 比較するに、 予測画像 3 54 3は、 SD画像 3 5 4 2よりも、 HD画像 3 5 4 1 により近い画像となっていることがわかる。
この比較結果は、 クラス分類適応処理部 3 5 0 1が、 HD画像 3 5 4 1のディ テールがつぶれてしまつた S D画像 3 54 2に対して、 従来のクラス分類適応処 理を施すことで、 元のディテールが復元された予測画像 3 54 3を生成すること ができるということを意味している。
しかしながら、 予測画像 3 54 3と HD画像 3 54 1を比較するに、 予測画像 3 54 3は、 HD画像 3 54 1を完全に復元した画像であるとは言い難い。 そこで、 本願出願人は、 予測画像 3 5 4 3が H D画像 3 5 4 1を完全に復元で きていない理由を調查するために、 所定の加算器 3 5 4 6により、 H D画像3 5 4 1と、 予測画像 3 5 4 3の反転入力との加算画像、 即ち、 H D画像 3 5 4 1と 予測画像 3 5 4 3の差分画像 (画素の差分が大の場合、 白に近い画素とし、 画素 の差分が小の場合、 黒に近い画素とした画像) 3 5 4 4を生成した。
同様に、 本願出願人は、 所定の加算器 3 5 4 7により、 H D画像 3 5 4 1と、 S D画像 3 5 4 2の反転入力との加算画像、 即ち、 H D画像 3 5 4 1と S D画像 3 5 4 2の差分画像 (画素の差分が大の場合、 白に近い画素とし、 画素の差分が 小の場合、 黒に近い画素とした画像) 3 5 4 5を生成した。
そして、 本願出願人は、 このようにして生成された差分画像 3 5 4 4と差分画 像 3 5 4 5を比較することによって、 次のような調査結果を得た。
即ち、 H D画像 3 5 4 1と S D画像 3 5 4 2の差分の大きい領域 (差分画像 3 5 4 5の白に近い領域) と、 H D画像 3 5 4 1と予測画像 3 5 4 3の差分の大き い領域 (差分画像 3 5 4 4の白に近い領域) はほぼ対応している。
換言すると、 予測画像 3 5 4 3が H D画像 3 5 4 1を完全に復元できていない 領域は、 予測画像 3 5 4 3のうちの、 H D画像 3 5 4 1と S D画像 3 5 4 2の差 分の大きい領域 (差分画像 3 5 4 5の白に近い領域) にほぼ一致する。
そこで、 本願出願人は、 この調査結果の要因を解明するために、 さらに次のよ うな調査を行った。
即ち、 本願出願人は、 まず、 H D画像 3 5 4 1と予測画像 3 5 4 3の差分の小 さい領域 (差分画像 3 5 4 4の黒に近い領域) において、 H D画像 3 5 4 1の具 体的な画素値、 S D画像 3 5 4 2の具体的な画素値、 および H D画像 3 5 4 1に 対応する実際の波形 (実世界 1の信号) を調査した。 その調査結果が、 図 1 8 6 と図 1 8 7に示されている。
図 1 8 6は、 調査した領域のうちの一例を示している。 なお、 図 1 8 6におい て、 図中、 水平方向は、 空間方向の 1方向である X方向とされており、 また、 垂 直方向は、 空間方向の他方向である Y方向とされている。 即ち、 本願出願人は、 HD画像 3 5 4 1と予測画像 3 5 4 3の差分の小さい領 域の一例として、 図 1 8 6で示される、 差分画像 3 5 44の領域 3 5 44— 1に ついて調査した。
図 1 8 7は、 図 1 8 6で示される領域 3 544 - 1に含まれる X方向に連続し た 6個の HD画素のうちの、 図中左から 4個分の HD画素に対応する、 HD画像 3 54 1の具体的な画素値、 SD画像 3 5 4 2の具体的な画素値、 および、 実際 の波形 (実世界 1の信号) のそれぞれをプロットしたものを表している。
図 1 8 7において、 縦軸は画素値を、 横軸は空間方向 Xに平行な X軸を、 そ れぞれ表している。 X軸において、 原点は、 差分画像 3 5 44の 6個の HD画素 のうちの図中左から 3番目の HD画素の左端の位置とされており、 その原点を基 準として座標値が付されている。 ただし、 X軸の座標値は、 差分画像 3 544の HD画素の画素幅を 0.5として付されている。 即ち、 差分画像 3 5 44は HD 画像であるので、 HD画像 3 54 1の画素幅 Lt (以下、 HD画素幅 Lt と称す る) も 0.5になる。 従って、 いまの場合、 SD画像 3 5 4 2の画素幅 (以下、 SD画素幅 Ls と称する) は、 HD画素幅 Lt の 2倍になるので、 SD画素幅 Ls は 1になる。
また、 図 1 8 7において、 実線は、 HD画像 3 5 4 1の画素値を、 点線は、 S D画像 3 54 2の画素値を、 一点鎖線は、 実世界 1の信号の X断面波形を、 それ ぞれ表している。 ただし、 実世界 1の信号の波形を実際に描写することは困難で あるので、 図 1 8 7で示される一点鎖線は、 上述した 1次元多項式近似手法 (図 1 8 1の実世界推定部 1 0 2の 1実施形態) により X断面波形が近似された近似 関数 f(x)が示されている。
次に、 本願出願人は、 上述した差分の小さい領域の調査と同様に、 HD画像 3 5 4 1と予測画像 3 54 3の差分の大きい領域 (差分画像 3 5 44の白に近い領 域) においても、 HD画像 3 5 4 1の具体的な画素値、 SD画像 3 5 4 2の具体 的な画素値、 および HD画像 3 5 4 1に対応する実際の波形 (実世界 1の信号) を調査した。 その調査結果が、 図 1 8 8と図 1 8 9に示されている。 図 1 8 8は、 調査した領域のうちの一例を示している。 なお、 図 1 8 8におい て、 図中、 水平方向は、 空間方向の 1方向である X方向とされており、 また、 垂 直方向は、 空間方向の他方向である Y方向とされている。
即ち、 本願出願人は、 HD画像 3 5 4 1と予測画像 3 5 4 3の差分の大きい領 域の一例として、 図 1 8 8で示される、 差分画像 3 5 44の領域 3 5 44— 2に ついて調査した。
図 1 8 9は、 図 1 8 8で示される領域 3 5 44— 2に含まれる X方向に連続し た 6個の HD画素のうちの、 図中左から 4個分の HD画素に対応する、 HD画像 3 54 1の具体的な画素値、 SD画像 3 5 4 2の具体的な画素値、 および実際の 波形 (実世界 1の信号) のそれぞれをプロットしたものを表している。
図 1 8 9において、 縦軸は画素値を、 横軸は空間方向 Xに平行な X軸を、 そ れぞれ表している。 X軸において、 原点は、 差分画像 3 5 44の 6個の HD画素 のうちの図中左から 3番目の HD画素の左端の位置とされており、 その原点を基 準として座標値が付されている。 ただし、 X軸の座標値は、 SD画素幅 Ls を 1 として付されている。
図 1 8 9において、 実線は、 HD画像 3 54 1の画素値を、 点線は、 SD画像 3 54 2の画素値を、 一点鎖線は、 実世界 1の信号の X断面波形を、 それぞれ表 している。 ただし、 図 1 8 9で示される一点鎖線は、 図 1 8 7で示される一点鎖 線と同様に、 X断面波形が近似された近似関数 f(x)が示されている。
図 1 8 7と図 1 8 9を比較するに、 両者の近似関数 f(x)の波形の形状より、 いずれの領域も細線の領域を含んでいることがわかる。
しかしながら、 図 1 8 7においては、 細線の領域は、 ほぼ x=0から x=lの範 囲に存在するのに対して、 図 1 8 9においては、 細線の領域は、 ほぼ x=- 0.5か ら x=0.5の範囲に存在する。 即ち、 図 1 8 7においては、 x=0から x=lの範囲 に存在する SD画像 3 5 4 2の 1つの S D画素内に細線の領域がほぼ含まれるこ とになる。 これに対して、 図 1 8 9においては、 =0から x=lの範囲に存在する SD画像 3 54 2の 1つの SD画素内に、 細線の領域が一部だけ含まれる (細線 と背景の境目が含まれる) ことになる。
従って、 図 1 8 7で示される状態の場合、 x=0から x=1.0の範囲に存在する H D画像 3 5 4 1の 2つの HD画素の画素値 (図中、 実線) の差は小さくなる。 そ の結果、 当然ながら、 これら 2つの HD画素の画素値の平均値である、 SD画像 3 5 4 2の 1つの SD画素の画素値 (図中、 点線) と、 HD画像 3 5 4 1の 2つ の H D画素の画素値のそれぞれとの差分は小さいものになる。
このような状態で (図 1 8 7で示される状態で) 、 x=0から x=1.0の範囲に存 在する SD画像 3 5 4 2の 1つの SD画素が注目画素とされて、 従来のクラス分 類適応処理により x=0から 0の範囲に 2つの HD画素 (予測画像 3 5 4 3 の画素) が生成された場合について考える。 この場合、 図 1 8 6で示されるよう に、 生成された予測画像 3 5 4 3の HD画素は、 HD画像 3 5 4 1の HD画素を ほぼ正確に予測したものになる。 即ち、 図 1 8 6で示されるように、 領域 3 54 4一 1においては、 予測画像 3 54 3の HD画素と、 HD画像 3 5 4 1のHD画 素の差分も小さくなるので、 黒に近い画像が表示される。
これに対して、 図 1 8 9で示される状態の場合、 x=0から χ=1·0の範囲に存在 する HD画像 3 5 4 1の 2つの HD画素の画素値 (図中、 実線) の差は大きくな る。 その結果、 当然ながら、 これら 2つの HD画素の画素値の平均値である、 S D画像 3 5 4 2の 1つの SD画素の画素値 (図中、 点線) と、 HD画像 3 5 4 1 の 2つの HD画素の画素値のそれぞれとの差分は、 図 1 8 7の対応する差分に対 して大きなものになる。
このような状態で (図 1 8 9で示される状態で) 、 χ=0から χ=1.0の範囲に存 在する SD画像 3 5 4 2の 1つの SD画素が注目画素とされて、 従来のクラス分 類適応処理により x=0から x=1.0の範囲に HD画素 (予測画像 3 5 4 3の画 素) が生成された場合について考える。 この場合、 図 1 8 8で示されるように、 生成された予測画像 3 5 4 3の HD画素は、 HD画像 3 5 4 1の HD画素を正確 に予測したものとはならない。 即ち、 図 1 8 8で示されるように、 領域 3 5 44 一 2においては、 予測画像 3 54 3の HD画素と、 HD画像 3 54 1の HD画素 の差分も大きなものになってしまうので、 白に近い画像が表示される。
ところで、 図 1 8 7と図 1 8 9の実世界 1の信号の近似関数 f(x) (図中、 一 点鎖線) のそれぞれを比較するに、 図 1 8 7においては、 x=0から x=lの範囲で の近似関数 f(x)の変化量は小さいのに対して、 図 1 8 9においては、 X=0から x=lの範囲での近似関数 f(x)の変化量は大きいことがわかる。
従って、 図 1 8 7で示される x=0から x=1.0の範囲に存在する SD画像 3 5 4 2の 1つの SD画素は、 S D画素内での近似関数 f (X)の変化量が小さい (即 ち、 実世界 1の信号の変化量が小さい) SD画素と言える。
このような観点から、 上述した調査結果を言いなおすと、 例えば、 図 1 8 7で 示される x=0から x=1.0の範囲に存在する SD画素のような、 SD画素内での 近似関数 f(x)の変化が少ない (即ち、 実世界 1の信号の変化が少ない) SD画 素から、 従来のクラス分類適応処理により HD画素が生成されると、 生成された HD画素は、 実世界 1の信号 (いまの場合、 細線の画像) をほぼ正確に予測した ものとなる。
これに対して、 図 1 8 9で示される x=0から x=l.0の範囲に存在する SD画 像 3 5 4 2の 1つの SD画素は、 SD画素内での近似関数 f(x)の変化量が大き い (即ち、 実世界 1の信号の変化量が大きい) SD画素と言える。
このような観点から、 上述した調査結果を言いなおすと、 例えば、 図 1 8 9で 示される x=0から x=1.0の範囲に存在する SD画素のような、 SD画素内での 近似関数 f(x)の変化が大きい (即ち、 実世界 1の信号の変化が大きい) SD画 素から、 従来のクラス分類適応処理により HD画素が生成されると、 生成された HD画素は、 実世界 1の信号 (いまの場合、 細線の画像) を正確に予測したもの とはならない。
以上の調査結果をまとめると、 図 1 9◦で示されるような状態の場合、 従来の 画素間の信号処理 (例えば、 クラス分類適応処理) では、 画素内のディテールを 復元することは困難であるということである。
即ち、 図 1 90は、 本願出願人が上述したような調査を行った結果として、 得 られた知見を説明する図である。
図 1 9 0において、 図中水平方向は、 センサ 2 (図 1 8 1) の検出素子が並ん でいる方向 (空間方向) のうちの 1方向である X方向を表しており、 図中垂直方 向は、 光のレベルまたは画素値を表している。 点線は、 画像である、 実世界 1 (図 1 8 1 ) の信号の X断面波形 F(x)を表しており、 実線は、 X断面波形 F(x) で表される実世界 1の信号 (画像) がセンサ 2に入射された場合、 センサ 2から 出力される画素値 Pを表している。 また、 センサ 2の 1つの検出素子の幅 (X方 向の長さ) は、 Lc と記述されており、 ΔΡは、 センサ 2の 1つの検出素子の幅 Lc、 即ち、 センサ 2の画素幅 Lc内における X断面波形 F(x)の変化量を表してい る。
ところで、 上述した SD画像 3 54 2 (図 1 8 5) は、 センサ 2からの入力画 像 (図 1 8 1) を模したものであるので、 SD画像 3 54 2の SD画素幅 Ls
(図 1 8 7と図 1 8 9) は、 センサ 2の画素幅 (検出素子の幅) し。 として考え ることができる。
また、 上述した調查においては、 細線に対応する実世界 1の信号 (近似関数 f(x)) に対する調査であつたが、 細線に限らず、 実世界 1の信号のレベルの変 化は存在する。
従って、 上述した調査結果を、 図 1 9 0で示される状態に当てはめると、 次の 通りになる。
即ち、 図 1 9 0で示されるような、 画素内において実世界 1の信号の変化量 (X断面波形 F(x)の変化量) ΔΡが大きい SD画素 (センサ 2からの出力画 素) が注目画素とされて、 従来のクラス分類適応処理により HD画素 (例えば、 図 1 8 1のクラス分類適応処理部 3 5 0 1から出力される予測画像の画素) が生 成された場合、 生成された HD画素は、 実世界 1の信号 (図 1 9 0の例では、 X 断面波形 F(x)) を正確に予測したものとはならない。
具体的には、 クラス分類適応処理をはじめとする従来の手法においては、 セン サ 2の画素の画素間の画像処理が行われている。 „〜™
PCT/JP2004/001585
245
即ち、 図 1 9 0で示されるように、 実世界 1では、 1画素内の領域で X断面波 形 F (X)の変化量 Δ Ρが大きい状態であっても、 センサ 2からは、 X断面波形 F (x)が積分された (厳密には、 実世界 1の信号が、 時空間方向に積分された) 1つの画素値 P ( 1画素内で均一の値 P ) のみが出力される。
従来の手法においては、 その画素値 Pが基準とされるとともに、 画素値 Pが処 理の対象とされて画像処理が行われている。 換言すると、 従来の手法においては、 画素内における実世界 1の信号 ( X断面波形 F (x) ) の変化、 即ち、 画素内のデ ィテールを無視して、 画像処理が行われている。
このように、 画素を最小の単位として処理する限り、 例えどのような画像処理 (クラス分類適応処理でも) を施したとしても、 画素内における実世界 1の信号 の変化を正確に再現することは困難である。 特に、 実世界 1の信号の変化量 Δ Ρ が大きい場合、 その困難さはより顕著なものとなる。
換言すると、 上述したクラス分類適応処理が有する課題、 即ち、 図 1 8 1にお いて、 センサ 2から出力された段階で実世界 1のディテールがつぶれてしまった 入力画像 (S D画像) は、 クラス分類適応処理によりたとえ H D画像とされても、 元のディテールが完全に復元されないことがあるという課題が発生する原因は、 画素内における実世界 1の信号の変化量 Δ Ρを考慮せずに、 画素 (1つの画素値 しか有しない画素) を最小の単位としてクラス分類適応処理が行われているから である。
この課題は、 クラス分類適応処理に限らず従来の画像処理手法の全てが有する 課題であり、 課題が発生する原因も全く同じである。
以上、 従来の画像処理手法が有する課題と、 その発生要因について説明した。 ところで、 上述したように、 本発明のデータ定常性検出部 1 0 1と実世界推定 部 1 0 2 (図 3 ) は、 実世界 1の信号が有する定常性を利用して、 センサ 2から の入力画像 (即ち、 画素内における、 実世界 1の信号の変化が無視された画像) から、 実世界 1の信号を推定することができる。 即ち、 実世界推定部 1 0 2は、 実世界 1の信号を推定することが可能な実世界推定情報を出力することができる。 従って、 この実世界推定情報から、 画素内における、 実世界 1の信号の変化量 の推定も可能である。
そこで、 本願出願人は、 従来のクラス分類適応処理により生成された予測画像 (画素内における、 実世界 1の信号の変化を考慮せずに、 実世界 1を予測した画 像) を、 実世界推定情報に基づいて生成される所定の捕正画像 (画素内における、 実世界 1の信号の変化に起因する予測画像の誤差を推定した画像) で補正するこ とで、 上述した課題の解決が可能になるという思想に基づいて、 例えば、 図 1 8 1で示されるような、 クラス分類適応処理補正手法を発明した。
即ち、 図 1 8 1において、 データ定常性検出部 1 0 1と実世界推定部 1 0 2が、 実世界推定情報を生成し、 クラス分類適応処理補正部 3 5 0 2が、 生成された実 世界推定情報に基づいて所定の補正画像を生成する。 そして、 加算部 3 5 0 3力 S、 クラス分類適応処理部 3 5 0 1より出力された予測画像を、 クラス分類適応処理 補正部 3 5 0 2より出力された補正画像で補正する (具体的には、 予測画像に補 正画像を加算した画像を出力画像として出力する) 。
クラス分類適応処理捕正手法を利用する画像生成部 1 0 3のうちの、 クラス分 類適応処理部 3 5 0 1の詳細については既に説明した。 また、 加算部 3 5 0 3は、 予測画像と補正画像を加算することができるものであれば、 その形態は特に限定 されず、 例えば、 従来より存在する、 様々な加算器やプログラム等を適用するこ とが可能である。
そこで、 以下、 残りのクラス分類適応処理補正部 3 5 0 2の詳細について説明 する。
はじめに、 クラス分類適応処理補正部 3 5 0 2の原理について説明する。
上述したように、 図 1 8 5において、 H D画像 3 5 4 1を、 センサ 2 (図 1 8 1 ) に入射される前の元の画像 (実世界 1の信号) とみなし、 かつ、 S D画像 3 5 4 2を、 センサ 2からの入力画像とみなすと、 予測画像 3 5 4 3が、 クラス分 類適応処理部 3 5 0 1より出力される予測画像 (元の画像 (H D画像 3 5 4 1 ) を予測した予測画像) となる。 „^,_
PCT/JP2004/001585
247
また、 H D画像 3 5 4 1力ゝら、 その予測画像 3 5 4 3を減算した画像が、 差分 画像 3 5 4 4である。
従つて、 クラス分類適応処理捕正部 3 5 0 2が、 差分画像 3 5 4 4を生成し、 その差分画像 3 5 4 4を補正画像として出力することができれば、 加算部 3 5 0 3が、 クラス分類適応処理部 3 5 0 1より出力された予測画像 3 5 4 3と、 クラ ス分類適応処理補正部 3 5 0 2より出力された差分画像 3 5 4 4 (補正画像) を 加算することで、 H D画像 3 5 4 1を復元することができる。
即ち、 クラス分類適応処理補正部 3 5 0 2が、 画像である、 実世界 1の信号 (センサ 2に入射される前の元の画像) と、 クラス分類適応処理部 3 5 0 1から 出力される予測画像との差分画像 (ただし、 クラス分類適応処理部 3 5 0 1から 出力される予測画像と同一解像度の画像) を適切に予測し、 予測した差分画像
(以下、 差分予測画像と称する。 これが、 上述した差分予測画像の名称の由来で ある) を補正画像として出力することができれば、 実世界 1の信号 (元の画像) をほぼ復元することができる。
ところで、 上述したように、 実世界 1の信号 (センサ 2に入射される前の元の 画像) と、 クラス分類適応処理部 3 5 0 1から出力される予測画像との差分 (誤 差) の度合いと、 入力画像の 1画素内における、 実世界 1の信号の変化量の度合 いは対応している。 また、 実世界推定部 1 0 2は、 実世界 1の信号自身を推定す ることができるので、 当然ながら、 入力画像の 1画素内における、 実世界 1の信 号の変化量の度合いを表す所定の特徴量を画素毎に算出することも可能である。 従って、 クラス分類適応処理補正部 3 5 0 2は、 入力画像の各画素のそれぞれ に対する特徴量を取得することで、 差分予測画像を生成する (差分画像を予測す る) ことができる。
そこで、 例えば、 クラス分類適応処理捕正部 3 5 0 2は、 実世界推定部 1 0 2 より、 特徴量を画素値とする画像 (以下、 このような画像を、 特徴量画像と称す る) を実世界推定情報として実世界推定部 1 0 2より入力する。
このとき、 特徴量画像の解像度は、 センサ 2からの入力画像と同一の解像度で 5
248
ある。 また、 補正画像 (差分予測画像) は、 クラス分類適応処理部 3 5 0 1より 出力される予測画像と同一の解像度である。
従って、 クラス分類適応処理補正部 3 5 0 2が、 特徴量画像を S D画像とし、 補正画像 (差分予測画像) を H D画像とし、 従来のクラス分類適応処理を利用し て、 特徴量画像から差分画像を予測演算すれば、 その予測演算の結果が、 適切な 差分予測画像となる。
以上、 クラス分類適応処理補正部 3 5 0 2の原理について説明した。
図 1 9 1は、 このような原理で動作するクラス分類適応処理補正部 3 5 0 2の 構成例を表している。
図 1 9 1において、 実世界推定部 1 0 2より入力された特徴量画像 (S D画 像) は、 領域抽出部 3 5 5 1と領域抽出部 3 5 5 5にそれぞれ供給される。 領域 抽出部 3 5 5 1は、 供給された特徴量画像から、 クラス分類を行うために必要な クラスタップ (注目画素を含む予め設定された位置に存在する S D画素) を抽出 し、 パターン検出部 3 5 5 2に出力する。 パターン検出部 3 5 5 2は、 入力され たクラスタップに基づいて特徴量画像のパターンを検出する。
クラスコード決定部 3 5 5 3は、 パターン検出部 3 5 5 2で検出されたパター ンに基づいてクラスコードを決定し、 捕正係数メモリ 3 5 5 4、 および、 領域抽 出部 3 5 5 5に出力する。 捕正係数メモリ 3 5 5 4は、 学習により予め求められ たクラスコード毎の係数を記憶しており、 クラスコード決定部 3 5 5 3より入力 されたクラスコードに対応する係数を読み出し、 補正演算部 3 5 5 6に出力する。 なお、 補正係数メモリ 3 5 5 4の係数の学習処理については、 図 1 9 2のクラ ス分類適応処理補正用学習部のプロック図を参照して後述する。
また、 補正係数メモリ 3 5 5 4に記憶される係数は、 後述するように、 差分画 像を予測する ( H D画像である差分予測画像を生成する ) ときに使用される予測 係数である。 しかしながら、 ここでは、 クラス分類適応処理部 3 5 0 1の係数メ モリ 3 5 1 4 (図 1 8 2 ) に記憶されている係数を、 予測係数と称している。 従 つて、 以下、 捕正係数メモリ 3 5 5 4に記憶される予測係数を、 係数メモリ 3 5 P T/JP2004/001585
249
14に記憶される予測係数と区別するために、 補正係数と称する。
領域抽出部 3 55 5は、 クラスコード決定部 3 55 3より入力されたクラスコ ードに基づいて、 実世界推定部 1 02より入力された特徴量画像 (SD画像) か ら、 差分画像 (HD画像) を予測する (HD画像である差分予測画像を生成す る) のに必要な予測タップ (注目画素を含む予め設定された位置に存在する SD 画素) をクラスコードに対応して抽出し、 補正演算部 3 5 56に出力する。 補正 演算部 35 56は、 領域抽出部 3 5 5 5より入力された予測タップと、 補正係数 メモリ 35 54より入力された補正係数とを用いて積和演算を実行し、 特徴量画 像 (SD画像) の注目画素 (SD画素) における、 差分予測画像 (HD画像) の HD画素を生成する。
より詳細には、 補正係数メモリ 35 54は、 クラスコード決定部 35 53より 供給されるクラスコードに対応する補正係数を、 補正演算部 3 556に出力する。 捕正演算部 35 56は、 領域抽出部 355 5より供給される入力画像の所定の画 素位置の画素値から抽出された予測タップ (SD画素) と、 補正係数メモリ 3 5 54より供給された補正係数とを用いて、 次の式 (1 57) で示される積和演算 を実行することにより、 差分予測画像 (HD画像) の HD画素を求める (差分画 像を予測推定する) 。
n
= ∑ j aj
i=0
• · · (1 5 7) 式 (1 5 7) において、 は、 差分予測画像 (HD画像) の HD画素を表し ている。 ai (iは、 1乃至 nの整数値) のそれぞれは、 予測タップ (SD画素) のそれぞれを表している。 また、 g ; のそれぞれは、 補正係数のそれぞれを表し ている。
従って、 図 1 8 1において、 クラス分類適応処理部 3 50 1からは、 上述した 式 (149) で示される予測画像の HD画素 q が出力されるのに対して、 クラ ス分類適応処理補正部 3 502からは、 式 (1 5 7) で示される差分予測画像の HD画素 u が出力される。 そして、 加算部 3 5 0 3が、 予測画像の HD画素 q' と、 差分予測画像の HD画素 とを加算した画素 (以下、 o'と記述する) を、 出力画像の HD画素として外部に出力する。
即ち、 画像生成部 1 0 3より最終的に出力される出力画像の HD画素 0'は、 次の式 (1 5 8) で示されるようになる。
n n
ο' = a,+u, = ∑ dj xoj +∑ gj aj
i=0 i=0
• · · (1 5 8) 図 1 9 2は、 このようなクラス分類適応処理補正部 3 5 0 2の補正係数メモリ 3 5 5 4に記憶される補正係数 (上述した式 (1 5 6) における g J を決定す るための学習部、 即ち、 上述した図 1 8 3の学習装置 3 5 04のクラス分類適応 処理捕正用学習部 3 5 6 1の詳細な構成例を表している。
図 1 8 3において、 上述したように、 クラス分類適応処理用学習部 3 5 2 1は、 その学習処理を終了すると、 クラス分類適応処理補正用学習部 3 5 6 1に対して、 学習に利用した第 1の教師画像 (HD画像) と第 1の生徒画像 (SD画像) のそ れぞれを出力するともに、 学習により求められた予測係数を用いて第 1の生徒画 像から第 1の教師画像を予測した画像である、 学習用予測画像を出力してくる。 図 1 9 2に戻り、 これらのうちの第 1の生徒画像は、 データ定常性検出部 3 5 7 2に入力される。
一方、 これらのうちの第 1の教師画像と学習用予測画像は、 加算部 3 5 7 1に 入力される。 ただし、 学習用予測画像は、 反転入力される。
加算部 3 5 7 1は、 入力された第 1の教師画像と、 反転入力された学習用予測 画像を加算し、 即ち、 第 1の教師画像と学習用予測画像の差分画像を生成し、 そ れをクラス分類適応処理補正用学習部 3 5 6 1における教師画像 (この教師画像 を、 上述したように、 第 1の教師画像と区別するために、 第 2の教師画像と称す る) として正規方程式生成部 3 5 7 8に出力する。
データ定常性検出部 3 5 7 2は、 入力された第 1の生徒画像に含まれるデータ の定常性を検出し、 その検出結果をデータ定常性情報として実世界推定部 3 5 7 3に出力する。
実世界推定部 3 5 7 3は、 入力されたデータ定常性情報に基づいて、 特徴量画 像を生成し、 それをクラス分類適応処理捕正用学習部 3 5 6 1における生徒画像 (この生徒画像を、 上述したように、 第 1の生徒画像と区別するために、 第 2の 生徒画像と称する) として領域抽出部 3 5 7 4と領域抽出部 3 5 7 7のそれぞれ に出力する。
領域抽出部 3 5 7 4は、 供給された第 2の生徒画像 (S D画像) から、 クラス 分類を行うために必要な S D画素 (クラスタップ) を抽出し、 パターン検出部 3 5 7 5に出力する。 パターン検出部 3 5 7 5は、 入力されたクラスタップのパタ ーンを検出し、 検出結果をクラスコード決定部 3 5 7 6に出力する。 クラスコー ド決定部 3 5 7 6は、 入力されたパターンに対応するクラスコードを決定し、 そ のクラスコードを領域抽出部 3 5 7 7、 および、 正規方程式生成部 3 5 7 8のそ れぞれに出力する。
領域抽出部 3 5 7 7は、 クラスコード決定部 3 5 7 6より入力されたクラスコ ードに基づいて、 実世界推定部 3 5 7 3より入力された第 2の生徒画像 (S D画 像) から予測タップ (S D画素) を抽出し、 正規方程式生成部 3 5 7 8に出力す る。
なお、 以上の領域抽出部 3 5 7 4、 パターン検出部 3 5 7 5、 クラスコード決 定部 3 5 7 6、 および領域抽出部 3 5 7 7のそれぞれは、 図 1 9 1のクラス分類 適応処理補正部 3 5 0 2の領域抽出部 3 5 5 1、 パターン検出部 3 5 5 2、 クラ スコード決定部 3 5 5 3、 および、 領域抽出部 3 5 5 5のそれぞれと、 基本的に 同様の構成と機能を有するものである。 また、 以上のデータ定常性検出部 3 5 7 2、 および実世界推定部 3 5 7 3のそれぞれは、 図 1 8 1のデータ定常性検出部 1 0 1、 および実世界推定部 1 0 2のそれぞれと、 基本的に同様の構成と機能を 有するものである。
正規方程式生成部 3 5 7 8は、 クラスコード決定部 3 5 7 6より入力された全 5
252
てのクラスコードに対して、 クラスコード毎に、 領域抽出部 3 577より入力さ れる第 2の生徒画像 (SD画像) の予測タップ (SD画素) と、 第 2の教師画像 (HD画像) の HD画素とから正規方程式を生成し、 捕正係数決定部 3 57 9に 供給する。 捕正係数決定部 35 79は、 正規方程式生成部 35 78より所定のク ラスコードに対応する正規方程式が供給されてきたとき、 その正規方程式より補 正係数のそれぞれを演算し、 補正係数メモリ 3 5 54にクラスコードと関連付け て記憶させる。
正規方程式生成部 35 78と、 補正係数決定部 3 5 79についてさらに詳しく 説明する。
上述した式 (1 5 7) において、 学習前は補正係数 gi のそれぞれが未定係数 である。 学習は、 クラスコード毎に複数の教師画像 (HD画像) の HD画素を入 力することによって行う。 所定のクラスコードに対応する HD画素が m個存在し、 m個の HD画素のそれぞれを、 uk (kは、 1乃至 mの整数値) と記述する場合、 式 (1 57) から、 次の式 (1 5 9) が設定される。
Figure imgf000254_0001
• · · (1 5 9) 即ち、 式 (1 5 9) は、 右辺の演算をすることで、 所定の HD画素を予測推定 することができることを表している。 なお、 式 (1 5 9) において、 ekは誤差 を表している。 即ち、 右辺の演算結果である差分予測画像 (HD画像) の HD画 素 uk'が、 実際の差分画像の HD画素 uk と厳密には一致せず、 所定の誤差 ek を 含む。
そこで、 式 (1 5 6) において、 例えば、 誤差 ekの自乗和を最小にするよう な補正係数 ai が、 学習により求まればよい。
例えば、 m>nとなるように、 差分画像の HD画素 uk を学習により集めるこ とができれば、 最小自乗法によって捕正係数 ai がー意に決定される。
即ち、 式 (1 5 9) の右辺の補正係数 ai を最小自乗法で求める場合の正規方 程式は、 次の式 (1 6 0) で示される通りになる。
Figure imgf000255_0003
Figure imgf000255_0001
式 ( 1 6 0) で示される正規方程式の各行列のそれぞれを、 次の式 (1 6 1) 乃至 (1 6 3) のように定義すると、 正規方程式は、 次の式 (1 64) のよう 表される。
Figure imgf000255_0002
( 1 6 2)
Figure imgf000256_0001
• · · (1 6 3)
½AT¾T = ¾T
• · · (164) 式 (16 2) で示されるように、 行列 GMATの各成分は、 求めたい捕正係数 giである。 従って、 式 (1 64) において、 左辺の行列 AMAT と右辺の 行列 UMATが決定されれば、 行列解法によって行列 GMAT (即ち、 補正係数 gi) の算出が可能である。
具体的には、 式 (1 6 1) で示されるように、 行列 AMAT の各成分は、 予測タ ップ aikが既知であれば演算可能である。 予測タップ aikは、 領域抽出部 3 5 77により抽出されるので、 正規方程式生成部 3 5 78は、 領域抽出部 35 77 より供給されてくる予測タップ aikのそれぞれを利用して行列 AMAT の各成分を 演算することができる。
また、 式 (1 63) で示されるように、 行列 UMATの各成分は、 予測タップ aik と差分画像の HD画素 ukが既知であれば演算可能である。 予測タップ aik は、 行列 AMATの各成分に含まれるものと同一のものであり、 また、 差分画像の HD画素 ukは、 加算部 3 57 1より出力される第 2の教師画像の HD画素であ る。 従って、 正規方程式生成部 3 578は、 領域抽出部 3 577より供給された 予測タップ aik と、 第 2の教師画像 (第 1の教師画像と、 学習用予測画像の差 分画像) を利用して行列 UMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 35 78は、 クラスコード毎に、 行列 AMAT と行列 UMATの各成分を演算し、 その演算結果をクラスコードに対応 付けて補正係数決定部 3579に供給する。
補正係数決定部 3 57 9は、 供給された所定のクラスコードに対応する正規方 程式に基づいて、 上述した式 (1 64) の行列 GMAT の各成分である補正係数 gi を演算する。
具体的には、 上述した式 (1 64) の正規方程式は、 次の式 (1 6 5) のよう に変形できる。
6隠 = A隠 u隱
• · · (1 65) 式 (1 6 5) において、 左辺の行列 GMATの各成分が、 求めたい補正係数 gi である。 また、 行列 AMAT と行列 UMATのそれぞれの各成分は、 正規方程式生成 部 35 78より供給されるものである。 従って、 補正係数決定部 3 579は、 正 規方程式生成部 35 78より所定のクラスコードに対応する行列 AMAT と 行列 UMATのそれぞれの各成分が供給されてきたとき、 式 (1 65) の右辺の行 列演算を行うことで行列 GMATを演算し、 その演算結果 (補正係数 gi) をクラ スコードに対応付けて補正係数メモリ 3 5 54に記憶させる。
以上、 クラス分類適応処理補正部 3 502と、 それに付随する学習部である、 クラス分類適応処理補正用学習部 356 1の詳細について説明した。
ところで、 上述した特徴量画像は、 クラス分類適応処理補正部 3 50 2がそれ に基づいて補正画像 (差分予測画像) を生成することが可能なものであれば、 そ の形態は特に限定されない。 換言すると、 特徴量画像の各画素の画素値、 即ち、 特徴量は、 上述したように、 画素 (センサ 2 (図 1 8 1) の画素) 内における実 世界 1 (図 1 8 1) の信号の変化量の度合いを表すことができるものであれば、 特に、 限定されない。
例えば、 特徴量として、 画素内傾斜を適用することが可能である。
画素内傾斜とは、 ここで新しく定義した言葉である。 そこで、 以下、 画素内傾 斜について説明する。 上述したように、 図 1 8 1において、 画像である、 実世界 1の信号は、 3次元 の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする関数 F(x,y,t)で表 さ:^る。
また、 例えば、 画像である、 実世界 1の信号が、 空間方向の所定の方向に定常 性を有する場合、 関数 F(x,y,t)を、 空間方向である X方向、 Y方向、 および Z 方向のうちの所定の 1方向 (例えば、 X方向) に射影した 1次元の波形 (ここで も、 このような波形のうちの X方向に射影した波形を、 X断面波形 F(x)と称す ることにする) と同一形状の波形が、 定常性の方向に連なっていると考えること ができる。
従って、 実世界推定部 102は、 例えば、 データ定常性検出部 1 01より出力 される、 実世界 1の信号が有する定常性に対応するデータ定常性情報 (例えば、 角度) に基づいて、 X断面波形 F(x)を、 n次 (nは、 任意の整数) の多項式であ る近似関数 f )で近似することができる。
図 1 93は、 このような近似関数 f(x)の一例として、 次の式 (1 66) で示 される f4 (x) (5次の多項式である f4 (X)) と、 次の式 (1 6 7) で示される f5 (x) ( 1次の多項式である f5 (x)) をプロットしたものを表している。 f4(x) = w0+w1 X +w2x2 + 3x3 +w4x4 +W5X
• - · (1 66) f5 (X) = W0,+Wi,X
· · · (16 7) なお、 式 (1 66) の wQ乃至 wい 並びに、 式 (1 67) の w。'および 'の それぞれは、 実世界推定部 1 02が演算した各次の係数を表している。
また、 図 1 9 3において、 図中水平方向の X軸は、 注目画素の左端を原点 (x=0) とした場合における、 注目画素からの空間方向 Xの相対位置を表してレ、 る。 ただし、 軸においては、 センサ 2の検出素子の幅 Lcが 1とされている。 また、 図中垂直方向の軸は、 画素値を表している。 図 1 9 3で示されるように、 1次の近似関数 f5 (x) (式 (1 6 6 ) で示される 近似関数 f5 (x) ) は、 注目画素における X断面波形 F (x)を直線近似したもので ある。 この近似直線の傾きを、 ここでは、 画素内傾斜と称している。 即ち、 画素 内傾斜とは、 式 (1 6 7 ) における Xの係数 'である。
画素内傾斜が急な場合、 それは、 注目画素における、 X断面波形 F (x)の変化 量が大きいことを表している。 これに対して、 画素内傾斜が緩やかな場合、 それ は、 注目画素における、 X断面波形 F (X)の変化量が小さいことを表している。 このように、 画素內傾斜は、 画素 (センサ 2の画素) 内における実世界 1の信 号の変化量の度合いを適切に表すことができる。 従って、 特徴量として、 画素内 傾斜を適用することができる。
例えば、 図 1 9 4には、 画素内傾斜を特徴量として実際に生成された特徴量画 像が示されている。
即ち、 図 1 9 4において、 図中左側の画像は、 上述した図 1 8 5で示される S D画像 3 5 4 2と同一の画像を表している。 また、 図中右側の画像は、 左側の S D画像 3 5 4 2を構成する各画素のそれぞれに対して画素内傾斜を求め、 画素内 傾斜に対応する値を画素値としてプロットした特徴量画像 3 5 9 1を表している。 ただし、 特徴量画像 3 5 9 1は、 画素内傾斜がない場合 (近似直線が、 X方向に 平行な場合) 、 黒となり、 これに対して、 画素内傾斜が直角の場合 (近似直線が、 Y方向に平行な場合) 、 白となるように生成されている。
S D画像 3 5 4 2の領域 3 5 4 2— 1は、 上述した図 1 8 6の差分画像 3 5 4 4の領域 3 5 4 4 - 1 (上述した図 1 8 7を参照して、 画素内における実世界 1 の信号の変化量が小さい領域の一例として説明した領域) に対応する領域である。 この S D画像 3 5 4 2の領域 3 5 4 2 - 1に対応する特徴量画像 3 5 9 1の領域 が、 領域 3 5 9 1 - 1である。
また、 S D画像 3 5 4 2の領域 3 5 4 2— 2は、 上述した図 1 8 8の差分画像 3 5 4 4の領域 3 5 4 4 - 2 (上述した図 1 8 9を参照して、 画素内における実 世界 1の信号の変化量が大きい領域の 1例として説明した領域) に対応する領 域である。 この S D画像 3 5 4 2の領域 3 5 4 2 - 2に対応する特徴量画像 3 5 9 1の領域が、 領域 3 5 9 1— 2である。
S D画像 3 5 4 2の領域 3 5 4 2— 1と特徴量画像 3 5 9 1の領域 3 5 9 1—
1とを比較するに、 実世界 1の信号の変化量が小さい領域は、 特徴量画像 3 5 9 1においては、 黒に近い領域 (画素内傾斜が緩い領域) となっていることがわか る。
これに対して、 S D画像 3 5 4 2の領域 3 5 4 2 - 2と特徴量画像 3 5 9 1の 領域 3 5 9 1一 2とを比較するに、 実世界 1の信号の変化量が大きい領域は、 特 徴量画像 3 5 9 1においては、 白に近い領域 (画素内傾斜が急な領域) となって いることがわかる。
このように、 画素内傾斜に対応する値を画素として生成された特徴量画像は、 各画素内のそれぞれにおける実世界 1の信号の変化量の度合いを適切に表すこと ができる。
次に、 画素內傾斜の具体的な算出方法について説明する。
即ち、 注目画素における画素内傾斜を、 gradと記述すると、 画素内傾斜 grad は、 次の式 ( 1 6 8 ) で表される。
p 一 p
grad = 11 , リ
x n
… ( 1 6 8 ) 式 (1 6 8 ) において、 Pn は、 注目画素の画素値を表している。 P。は、 中心 画素の画素値を表している。
具体的には、 例えば、 図 1 9 5で示されるように、 センサ 2からの入力画像の うちの、 5 X 5の画素 (図中 5 X 5 = 2 5個の正方形) からなる領域であって、 所定のデータの定常性を有する領域 3 6 0 1 (以下、 定常領域 3 6 0 1と称す る) が存在した場合、 この定常領域 3 6 0 1の中心の画素 3 6 0 2が中心画素と される。 従って、 P。 は、 中心画素 3 6 0 2の画素値となる。 そして、 例えば、 画素 3 6 0 3が注目画素とされた場合、 Pn は、 注目画素 3 6 0 3の画素値とな る。
また、 式 (1 68) において、 xn 'は、 注目画素の中心点における断面方向距 離を表している。 なお、 ここでは、 中心画素 (図 1 9 5の例では、 画素 360 2) の中心を空間方向の原点(Ο,ϋ)とし、 その原点を通るデータの定常性の方向 と平行な直線 (図 1 95の例では、 直線 3604) を引いたとすると、 その直線 に対する X方向の相対的な距離を、 断面方向距離と称している。
図 1 96は、 図 1 9 5の定常領域 360 1内の各画素の断面方向距離を表した 図である。 即ち、 図 1 9 6において、 定常領域 3 60 1の各画素 (図中 5 X 5 = 25個の正方形) 内のそれぞれに記載されている値が、 対応する画素の断面方向 距離である。 例えば、 注目画素 3 603の断面距離 X は、 - 2 βである。
ただし、 各画素幅は、 X方向も Υ方向も 1とされている。 X方向の正方向は、 図中右方向とされている。 また、 /3は、 中心画素 3602の Υ方向に対して 1つ 隣 (図中 1つ下) の画素 3605の断面方向距離を表している。 この ]3は、 図 1 96で示されるような角度 Θ (直線 3604の方向と、 X方向のなす角度 0) 力 データ定常性検出部 1 0 1よりデータ定常性情報として出力されている場合、 次 の式 (1 6 9) を利用して簡単に演算することが可能である。 β = tan
• · · (1 69) このように、 画素内傾斜は、 中心画素 (図 1 9 6の例では画素 360 2) と注 目画素 (図 1 96の例では画素 3603) の 2つの入力画素値と、 角度 Θを利用 する簡単な演算で算出可能である。 従って、 実世界推定部 10 2は、 画素内傾斜 に対応する値を画素値とする画像を、 特徴量画像として生成すれば、 その処理量 を大幅に低減することが可能になる。
なお、 さらに精度のよい画素内傾斜を求めたい場合、 実世界推定部 1 02は、 注目画素の周辺画素を用いて最小自乗法により演算すればよい。 具体的には、 実 世界推定部 102は、 注目画素を含む m個 (mは 2以上の整数) の画素に対して 番号 i ( iは、 1乃至 m) を付与し、 番号 iの画素のそれぞれの入力画素値 Pi と断面方向距離 X を、 次の式 (1 7 0 ) の右辺に代入して注目画素における画 素内傾斜 gradを演算すればよい。 即ち、 式 (1 7 0 ) は、 上述した 1変数を最 小自乗法で求める式と同様の式である。
Figure imgf000262_0001
' · · ( 1 7 0 ) 次に、 図 1 9 7を参照して、 クラス分類適応処理補正手法を利用する画像生成 部 1 0 3 (図 1 8 1 ) の画像の生成の処理 (図 4 0のステップ S 1 0 3の処理) について説明する。
図 1 8 1において、 画像である、 実世界 1の信号がセンサ 2に入射されると、 センサ 2からは入力画像が出力される。 この入力画像は、 データ定常性検出部 1 0 1に入力されるとともに、 画像生成部 1 0 3のクラス分類適応処理部 3 5 0 1 に入力される。
そこで、 図 1 9 7のステップ S 3 5 0 1において、 クラス分類適応処理部 3 5 0 1は、 入力された入力画像 (S D画像) に対してクラス分類適応処理を施して、 予測画像 (H D画像) を生成し、 加算部 3 5 0 3に出力する。
なお、 以下、 このようなクラス分類適応処理部 3 5 0 1が実行するステップ S 3 5 0 1の処理を、 「入力画像クラス分類適応処理」 と称する。 この例の 「入力 画像クラス分類適応処理」 の詳細については、 図 1 9 8のフローチャートを参照 して後述する。
ステップ S 3 5 0 1の処理とほぼ同時に、 データ定常性検出部 1 0 1は、 入力 画像に含まれるデータの定常性を検出し、 その検出結果 (いまの場合、 角度) を データ定常性情報として実世界推定部 1 0 2に出力する (図 4 0のステップ S 1 0 1の処理) 。 実世界推定部 1 0 2は、 入力した角度 (データ定常性情報) に基づいて、 実世 界推定情報 (いまの場合、 S D画像である特徴量画像) を生成し、 画像生成部 1 0 3のクラス分類適応処理補正部 3 5 0 2に供給する (図 4 0のステップ S 1 0 2の処理) 。
そこで、 ステップ S 3 5 0 2において、 クラス分類適応処理補正部 3 5 0 2は、 供給された特徴量画像 ( S D画像) に対してクラス分類適応処理を施して、 差分 予測画像 (H D画像) を生成し (実際の画像 (実世界 1の信号) と、 クラス分類 適応処理部 3 5 0 1から出力された予測画像との差分画像 (ただし、 H D画像) を予測演算し) 、 それを補正画像として加算部 3 5 0 3に出力する。
なお、 以下、 このようなクラス分類適応処理補正部 3 5 0 2が実行するステツ プ S 3 5 0 2の処理を、 「クラス分類適応処理の補正処理」 と称する。 この例の 「クラス分類適応処理の補正処理」 の詳細については、 図 1 9 9のフローチヤ一 トを参照して後述する。
そして、 ステップ S 3 5 0 3において、 加算部 3 5 0 3力 ステップ S 3 5 0 1の処理でクラス分類適応処理部 3 5 0 1により生成された予測画像 (H D画 像) の注目画素 (H D画素) と、 その注目画素に対応する、 ステップ S 3 5 0 2 の処理でクラス分類適応処理補正部 3 5 0 2により生成された補正画像 (H D画 像) の画素 (H D画素) を加算し、 出力画像 (H D画像) の画素 (H D画素) を 生成する。
ステップ S 3 5 0 4において、 加算部 3 5 0 3は、 全画素の処理を終了したか 否かを判定する。
ステップ S 3 5 0 4において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 5 0 1に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 5 0 1乃至 S 3 5 0 3の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 5 0 4において、 全画素の 処理が終了されたと判定すると) 、 加算部 3 5 0 4は、 ステップ S 3 5 0 5にお いて、 出力画像 (HD画像) を外部に出力する。 その後、 画像の生成の処理は終 了となる。
次に、 図面を参照して、 この例における 「入力画像クラス分類適応処理 (ステ ップ S 350 1の処理) 」 、 および、 「クラス分類適応処理の補正処理 (ステツ プ S 3 50 2の処理) 」 のそれぞれの詳細について、 その順番で個別に説明する。 はじめに、 図 1 98のフローチヤ一トを参照して、 クラス分類適応処理部 3 5 0 1 (図 1 8 2) が実行する 「入力画像クラス分類適応処理」 の詳細について説 明する。
入力画像 (SD画像) がクラス分類適応処理部 350 1に入力されると、 ステ ップ S 35 2 1において、 領域抽出部 35 1 1と領域抽出部 3 5 1 5のそれぞれ は、 入力画像を入力する。
ステップ S 3 522において、 領域抽出部 35 1 1は、 入力画像の中から、 注 目画素 (SD画素) 、 および、 予め設定された注目画素からの相対位置 (1以上 の位置) のそれぞれに位置する画素 (SD画素) を、 クラスタップとして抽出し、 パターン検出部 35 1 2に供給する。
ステップ S 3 523において、 パターン検出部 35 1 2は、 供給されたクラス タップのバタ ンを検出し、 クラスコード決定部 3 5 1 3に供給する。
ステップ S 3 524において、 クラスコード決定部 3 5 1 3は、 予め設定され ている複数のクラスコードの中から、 供給されたクラスタップのパターンに適合 するクラスコードを決定し、 係数メモリ 3 5 14と領域抽出部 3 5 1 5のそれぞ れに供給する。
ステップ S 3 525において、 係数メモリ 35 14は、 予め学習処理により決 定された複数の予測係数 (群) の中から、 供給されたクラスコードに基づいてこ れから使用する予測係数 (群) を読み出し、 予測演算部 3 5 1 6に供給する。 なお、 学習処理については、 図 203のフローチャートを参照して後述する。 ステップ S 3 526において、 領域抽出部 35 1 5は、 供給されたクラスコー ドに対応して、 入力画像の中から、 注目画素 (SD画素) 、 および、 予め設定さ れた注目画素からの相対位置 (1以上の位置であって、 クラスタップの位置とは 独立して設定された位置。 ただし、 クラスタップの位置と同一の位置でもよい) のそれぞれに位置する画素 (S D画素) を、 予測タップとして抽出し、 予測演算 部 3 5 1 6に供給する。
ステップ S 3 5 2 7において、 予測演算部 3 5 1 6は、 領域抽出部 3 5 1 5よ り供給された予測タップを、 係数メモリ 3 5 1 4より供給された予測係数を用い て演算し、 予測画像 (H D画像) を生成して加算部 3 5 0 3に出力する。
具体的には、 予測演算部 3 5 1 6は、 領域抽出部 3 5 1 5より供給された予測 タップのそれぞれを Ci ( i は、 1乃至 nのうちのいずれかの整数) とし、 かつ、 係数メモリ 3 5 1 4より供給された予測係数のそれぞれを として、 上述した 式 (1 4 9 ) の右辺を演算することにより、 注目画素 (S D画素) における H D 画素 q を算出し、 それを予測画像 (H D画像) を構成する 1つの画素として加 算部 3 5 0 3に出力する。 これにより、 入力画像クラス分類適応処理が終了とな る。
次に、 図 1 9 9のフローチャートを参照して、 クラス分類適応処理補正部 3 5 0 2 (図 1 9 1 ) が実行する 「クラス分類適応処理の補正処理」 の詳細について 説明する。
実世界推定部 1 0 2より実世界推定情報として特徴量画像 (S D画像) がクラ ス分類適応処理補正部 3 5 0 2に入力されると、 ステップ S 3 5 4 1において、 領域抽出部 3 5 5 1と領域抽出部 3 5 5 5のそれぞれは、 特徴量画像を入力する。 ステップ S 3 5 4 2において、 領域抽出部 3 5 5 1は、 特徴量画像の中から、 注目画素 (S D画素) 、 および、 予め設定された注目画素からの相対位置 (1以 上の位置) のそれぞれに位置する画素 (S D画素) を、 クラスタップとして抽出 し、 パターン検出部 3 5 5 2に供給する。
具体的には、 この例においては、 例えば、 図 2 0 0で示されるようなクラスタ ップ (群) 3 6 2 1が抽出されるとする。 即ち、 図 2 0 0は、 クラスタップ配置 の一例を表している。 図 2 0 0において、 図中水平方向は、 空間方向の 1方向である X方向とされて おり、 図中垂直方向は、 空間方向の他方向である Y方向とされている。 また、 注 目画素は、 画素 3 6 2 1— 2とされている。
この場合、 図 2 0 0の例では、 注目画素 3 6 2 1— 2、 Y方向に対して注目画 素 3 6 2 1— 2の隣の画素 3 6 2 1 - 0および画素 3 6 2 1— 4、 並びに、 X方 向に対して注目画素 3 6 2 1— 2の隣の画素 3 6 2 1 - 1および画素 3 6 2 1 - 3の総計 5個の画素からなる画素群 3 6 2 1が、 クラスタップとして抽出される ことになる。
勿論、 クラスタップ配置は、 注目画素 3 6 2 1— 2を含む配置であれば、 図 2 0 0の例に限定されず、 様々な配置が可能である。
図 1 9 9に戻り、 ステップ S 3 5 4 3において、 パターン検出部 3 5 5 2は、 供給されたクラスタップのパターンを検出し、 クラスコード決定部 3 5 5 3に供 給する。
具体的には、 この例においては、 例えば、 パターン検出部 3 5 5 2は、 図 2 0 0で示される 5個のクラスタップ 3 6 2 1 _ 0乃至 3 6 2 1一 4のそれぞれの画 素値、 即ち、 特徴量の値 (例えば、 画素内傾斜) のそれぞれが、 予め設定された 複数のクラスのうちのいずれのクラスに属するのかを検出し、 それらの検出結果 を 1つにまとめたものをパターンとして出力する。
例えば、 いま、 図 2 0 1で示されるようなパターンが検出されたとする。 即ち、 図 2 0 1は、 クラスタップのパターンの一例を表している。
図 2 0 1において、 図中水平方向の軸は、 クラスタップを表しており、 図中垂 直方向の軸は、 画素内傾斜を表している。 また、 画素内傾斜により、 クラス 3 6 3 1、 クラス 3 6 3 2、 およびクラス 3 6 3 3の 3つのクラスが予め設定されて いるとする。
この場合、 図 2 0 1で示されるパターンは、 クラスタップ 3 6 2 1— 0はクラ ス 3 6 3 1に、 クラスタップ 3 6 2 1— 1はクラス 3 6 3 1に、 クラスタップ 3 6 2 1— 2はクラス 3 6 3 3に、 クラスタップ 3 6 2 1— 3はクラス 3 6 3 1に、 クラスタップ 3 6 2 1一 4はクラス 3 6 3 2に、 それぞれ属するパターンを表し ている。
このように、 5個のクラスタップ 3 6 2 1 - 0乃至 3 6 2 1 - 4のそれぞれは、 3つのクラス 3 6 3 1乃至 3 6 3 3のうちのいずれかに属することになる。 従つ て、 この例においては、 図 2 0 1で示されるパターンを含めて総計 2 7 3 ( = 3 " 5 ) 個のパターンが存在することになる。
図 1 9 9に戻り、 ステップ S 3 5 4 4において、 クラスコード決定部 3 5 5 3 は、 予め設定されている複数のクラスコードの中から、 供給されたクラスタップ のパターンに適合するクラスコ一ドを決定し、 補正係数メモリ 3 5 5 4と領域抽 出部 3 5 5 5のそれぞれに供給する。 いまの場合、 2 7 3個のパターンが存在す るので、 予め設定されているクラスコードの数も 2 7 3個 (または、 それ以上) となる。
ステップ S 3 5 4 5において、 補正係数メモリ 3 5 5 4は、 予め学習処理によ り決定された複数の捕正係数 (群) の中から、 供給されたクラスコードに基づい てこれから使用する補正係数 (群) を読み出し、 補正演算部 3 5 5 6に供給する。 補正係数メモリ 3 5 5 4に記憶されている補正係数 (群) のそれぞれは、 予め設 定されたクラスコードのうちのいずれかに対応付けられているので、' いまの場合、 補正係数 (群) の数は、 予め設定されているクラスコードの数と同数 (2 7 3個 以上) となる。
なお、 学習処理については、 図 2 0 3のフローチヤ一トを参照して後述する。 ステップ S 3 5 4 6において、 領域抽出部 3 5 5 5は、 供給されたクラスコー ドに対応して、 入力画像の中から、 注目画素 (S D画素) 、 および、 予め設定さ れた注目画素からの相対位置 (1以上の位置であって、 クラスタップの位置とは 独立して設定された位置。 ただし、 クラスタップの位置と同一の位置でもよい) のそれぞれに位置する画素 (S D画素) を、 予測タップとして抽出し、 補正演算 部 3 5 5 6に供給する。
具体的には、 この例においては、 例えば、 図 2 0 2で示されるような予測タツ プ (群) 364 1が抽出されるとする。 即ち、 図 20 2は、 予測タップ配置の一 例を表している。
図 202において、 図中水平方向は、 空間方向の 1方向である X方向とされて おり、 図中垂直方向は、 空間方向の他方向である Y方向とされている。 また、 注 目画素は、 画素 364 1— 1とされている。 即ち、 画素 3 641— 1は、 クラス タップ 362 1— 2 (図 200) に対応する画素である。
この場合、 図 202の例では、 注目画素 364 1 - 1を中心とする 5 X 5の画 素群 (総計 25個の画素からなる画素群) 364 1が、 予測タップ (群) として 抽出されることになる。
勿論、 予測タップ配置は、 注目画素 364 1— 1を含む配置であれば、 図 20 2の例に限定されず、 様々な配置が可能である。
図 1 99に戻り、 ステップ S 3547において、 補正演算部 35 56は、 領域 抽出部 3 5 55より供給された予測タップを、 補正係数メモリ 35 54より供給 された補正係数を用いて演算し、 差分予測画像 (HD画像) を生成し、 補正画像 として加算部 3 503に出力する。
より詳細には、 補正演算部 3556は、 領域抽出部 35 55より供給された予 測タップのそれぞれを a£ (iは、 1乃至 nのうちのいずれかの整数) とし、 力 つ、 補正係数メモリ 3 5 54より供給された補正係数のそれぞれを gi として、 上述した式 (1 5 7) の右辺を演算することにより、 注目画素 (SD画素) にお ける HD画素 u'を算出し、 それを補正画像 (HD画像) を構成する 1つの画素 として加算部 3 503に出力する。 これにより、 クラス分類適応処理の補正処理 は終了となる。
次に、 図 20 3のフローチャートを参照して、 学習装置 (図 18 3) の学習処 理、 即ち、 クラス分類適応処理部 3 50 1 (図 1 8 2 ) が使用する予測係数と、 クラス分類適応処理捕正部 3 502 (図 1 9 1) が使用する補正係数のそれぞれ を学習により生成する学習処理について説明する。
ステップ S 3 56 1において、 クラス分類適応処理用学習部 3521は、 クラ ス分類適応処理部 3 5 0 1が使用する予測係数を生成する。
即ち、 クラス分類適応処理用学習部 3 5 2 1は、 所定の画像を第 1の教師画像 (H D画像) として入力し、 その第 1の教師画像の解像度を下げて第 1の生徒画 像 ( S D画像) を生成する。
そして、 クラス分類適応処理用学習部 3 5 2 1は、 クラス分類適応処理により 第 1の生徒画像 (S D画像) から第 1の教師画像 (H D画像) を適切に予測する ことが可能な予測係数を生成し、 クラス分類適応処理部 3 5 0 1の係数メモリ 3 5 1 4 (図 1 8 2 ) に記憶させる。
なお、 以下、 このようなクラス分類適応処理用学習部 3 5 2 1が実行するステ ップ S 3 5 6 1の処理を、 「クラス分類適応処理用学習処理」 と称する。 この例 の 「クラス分類適応処理用学習処理」 の詳細については、 図 2 0 4のフローチヤ ートを参照して後述する。
クラス分類適応処理部 3 5 0 1が使用する予測係数が生成されると、 ステップ S 3 5 6 2において、 クラス分類適応処理補正用学習部 3 5 6 1は、 クラス分類 適応処理補正部 3 5 0 2が使用する捕正係数を生成する。
即ち、 クラス分類適応処理補正用学習部 3 5 6 1は、 クラス分類適応処理用学 習部 3 5 2 1より、 第 1の教師画像、 第 1の生徒画像、 および学習用予測画像 (クラス分類適応処理用学習部 3 5 2 1により生成された予測係数を用いて、 第 1の教師画像を予測した画像) のそれぞれを入力する。
次に、 クラス分類適応処理補正用学習部 3 5 6 1は、 第 2の教師画像として、 第 1の教師画像と学習用予測画像の差分画像を生成するとともに、 第 2の生徒画 像として、 第 1の生徒画像から特徴量画像を生成する。
そして、 クラス分類適応処理補正用学習部 3 5 6 1は、 クラス分類適応処理に より第 2の生徒画像 (S D画像) から第 2の教師画像 (H D画像) を適切に予測 することが可能な予測係数を生成し、 それを補正係数としてクラス分類適応処理 補正部 3 5 0 2の捕正係数メモリ 3 5 5 4に記憶させる。 これにより、 学習処理 は終了となる。 01585
268
なお、 以下、 このようなクラス分類適応処理補正用学習部 3 5 6 1が実行する ステップ S 3 5 6 2の処理を、 「クラス分類適応処理捕正用学習処理」 と称する。 この例の 「クラス分類適応処理補正用学習処理」 の詳細については、 図 2 0 5の フローチヤ一トを参照して後述する。 次に、 図面を参照して、 この例における 「クラス分類適応処理用学習処理 (ス テツプ S 3 5 6 1の処理) 」 、 および、 「クラス分類適応処理補正用学習処理
(ステップ S 3 5 6 2の処理) J のそれぞれの詳細について、 その順番で個別に 説明する。
はじめに、 図 2 0 4のフローチャートを参照して、 クラス分類適応処理用学習 部 3 5 2 1 (図 1 8 4 ) が実行する 「クラス分類適応処理用学習処理」 の詳細に ついて説明する。
ステップ S 3 5 8 1において、 ダウンコンバート部 3 5 3 1と正規方程式生成 部 3 5 3 6のそれぞれは、 供給された所定の画像を、 第 1の教師画像 (H D画 像) として入力する。 なお、 第 1の教師画像は、 上述したように、 クラス分類適 応処理補正用学習部 3 5 6 1にも入力される。
ステップ S 3 5 8 2において、 ダウンコンバート部 3 5 3 1は、 入力された第 1の教師画像をダウンコンバートして (解像度を落として) 第 1の生徒画像 (S D画像) を生成し、 領域抽出部 3 5 3 2と領域抽出部 3 5 3 5のそれぞれに供給 するとともに、 クラス分類適応処理補正用学習部 3 5 6 1にも出力する。
ステップ S 3 5 8 3において、 領域抽出部 3 5 3 2は、 供給された第 1の生徒 画像からクラスタップを抽出してパターン検出部 3 5 3 3に出力する。 なお、 ス テツプ S 3 5 8 3の処理は、 プロックに入力される情報と、 プロックから出力さ れる情報は厳密には違う情報であるが (以下、 このような違いを、 単に、 入出力 の違いと称する) 、 上述したステップ S 3 5 2 2 (図 1 9 8 ) の処理と基本的に 同様の処理である。
ステップ S 3 5 8 4において、 パターン検出部 3 5 3 3は、 供給されたクラス タップょりクラスコードを決定するためのパターンを検出し、 クラスコード決定 部 3 5 3 4に供給する。 なお、 ステップ S 3 5 84の処理は、 入出力の違いはあ るが、 上述したステップ S 3 5 2 3 (図 1 9 8) の処理と基本的に同様の処理で ある。
ステップ S 3 5 8 5において、 クラスコード決定部 3 5 34は、 供給されたク ラスタップのパターンに基づいてクラスコードを決定し、 領域抽出部 3 5 3 5と 正規方程式生成部 3 5 3 6のそれぞれに供給する。 なお、 ステップ S 3 5 8 5の 処理は、 入出力の違いはあるが、 上述したステップ S 3 5 24 (図 1 9 8) の処 理と基本的に同様の処理である。
ステップ S 3 5 8 6において、 領域抽出部 3 5 3 5は、 供給されたクラスコー ドに対応して、 第 1の生徒画像の中から予測タップを抽出し、 正規方程式生成部 3 5 3 6と予測演算部 3 5 3 8のそれぞれに供給する。 なお、 ステップ S 3 5 8 6の処理は、 入出力の違いはあるが、 上述したステップ S 3 5 2 6 (図 1 9 8) の処理と基本的に同様の処理である。
ステップ S 3 5 8 7において、 正規方程式生成部 3 5 3 6は、 領域抽出部 3 5 3 5より供給された予測タップ (SD画素) 、 および、 第 1の教師画像 (HD画 像) を構成する HD画素のうちの所定の HD画素から、 上述した式 (1 5 1 ) (即ち、 式 (1 5 5) ) で示される正規方程式を生成し、 クラスコード決定部 3 5 34より供給されたクラスコードとともに係数決定部 3 5 3 7に供給する。 ステップ S 3 5 8 8において、 係数決定部 3 5 3 7は、 供給された正規方程式 を解いて予測係数を決定し、 即ち、 上述した式 (1 5 6) の右辺を演算すること で予測係数を算出し、 供給されたクラスコードに対応付けて係数メモリ 3 5 1 4 に記憶させるとともに、 予測演算部 3 5 3 8に供給する。
ステップ S 3 5 8 9において、 予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5よ り供給された予測タップを、 係数決定部 3 5 3 7より供給された予測係数を用い て演算し、 学習用予測画像 (HD画素) を生成する。
具体的には、 予測演算部 3 5 3 8は、 領域抽出部 3 5 3 5より供給された予測 タップのそれぞれを (i は、 1乃至 nのうちのいずれかの整数) とし、 かつ、 係数決定部 3 5 3 7より供給された予測係数のそれぞれを として、 上述した 式 (1 4 9 ) の右辺を演算することにより、 第 1の教師画像の所定の H D画素 q を予測した H D画素 q を算出し、 た H D画素 q'を学習用予測画像の 1つの画素 とする。
ステップ S 3 5 9 0において、 全ての画素について処理が施されたか否かが判 定され、 全ての画素について処理が施されていないと判定された場合、 その処理 は、 ステップ S 3 5 8 3に戻る。 即ち、 全ての画素の処理が終了されるまで、 ス テツプ S 3 5 8 3乃至 S 3 5 9 0の処理が繰り返される。
そして、 ステップ S 3 5 9 0において、 全ての画素について処理が施されたと 判定された場合、 ステップ S 3 5 9 1において、 予測演算部 3 5 3 8は、 学習予 測画像 (ステップ S 3 5 8 9の処理毎に生成された各 H D画素 q'から構成され る H D画像) を、 クラス分類適応処理補正用学習部 3 5 6 1に出力する。 これに より、 クラス分類適応処理用学習処理は終了となる。
このように、 この例においては、 全ての画素の処理が終了された後、 第 1の教 師画像を予測した H D画像である学習用予測画像がクラス分類適応処理補正用学 習部 3 5 6 1に出力される。 即ち、 全ての H D画素 (予測画素) がー括して出力 される。
しかしながら、 全ての画素が一括して出力されることは必須ではなく、 ステツ プ S 3 5 8 9の処理で H D画素 (予測画素) が生成される毎に、 クラス分類適応 処理補正用学習部 3 5 6 1に出力されてもよい。 この場合、 ステップ S 3 5 9 1 の処理は省略される。
次に、 図 2 0 5のフローチャートを参照して、 クラス分類適応処理補正用学習 部 3 5 6 1 (図 1 9 2 ) が実行する 「クラス分類適応処理補正用学習処理」 の詳 細について説明する。
クラス分類適応処理用学習部 3 5 2 1より第 1の教師画像 (I- I D画像) と学習 用予測画像 (H D画像) が入力されると、 ステップ S 3 6 0 1において、 加算部 3 5 7 1は、 第 1の教師画像から学習用予測画像を減算し、 差分画像 (H D画 像) を生成し、 それを第 2の教師画像として正規方程式生成部 3 5 7 8に供給す る。
また、 クラス分類適応処理用学習部 3 5 2 1より第 1の生徒画像 (S D画像) が入力されると、 ステップ S 3 6 0 2において、 データ定常性検出部 3 5 7 2と 実世界推定部 3 5 7 3は、 入力された第 1の生徒画像 (S D画像) から特徴量画 像を生成し、 それを第 2の生徒画像として領域抽出部 3 5 7 4と領域抽出部 3 5 7 7のそれぞれに供給する。
即ち、 データ定常性検出部 3 5 7 2は、 第 1の生徒画像に含まれるデータの定 常性を検出し、 その検出結果 (いまの場合、 角度) をデータ定常性情報として実 世界推定部 3 5 7 3に出力する。 なお、 ステップ S 3 6 0 2のデータ定常性検出 部 3 5 7 2の処理は、 入出力の違いはあるが、 上述した図 4 0のステップ S 1 0 1の処理と基本的に同様の処理である。
実世界推定部 3 5 7 3は、 入力した角度 (データ定常性情報) に基づいて、 実 世界推定情報 (いまの場合、 S D画像である特徴量画像) を生成し、 それを第 2 の生徒画像として領域抽出部 3 5 7 4と領域抽出部 3 5 7 7のそれぞれに供給す る。 なお、 ステップ S 3 6 0 2の実世界推定部 3 5 7 3の処理は、 入出力の違い はあるが、 上述した図 4 0のステップ S 1 0 2の処理と基本的に同様の処理であ る。
また、 ステップ S 3 6 0 1と S 3 6 0 2の処理の順番は、 図 2 0 5の例に限定 されない。 即ち、 ステップ S 3 6 0 2の処理が先に実行されてもよいし、 ステツ プ S 3 6 0 1と S 3 6 0 2の処理が同時に実行されてもよい。
ステップ S 3 6 0 3において、 領域抽出部 3 5 7 4は、 供給された第 2の生徒 画像 (特徴量画像) からクラスタップを抽出してパターン検出部 3 5 7 5に出力 する。 なお、 ステップ S 3 6 0 3の処理は、 入出力の違いはあるが、 上述したス テツプ S 3 5 4 2 (図 1 9 9 ) の処理と基本的に同様の処理である。 即ち、 いま の場合、 ill 2 0 0で示される配置の画素群 3 6 2 1がクラスタップとして抽出さ れる。 2004/001585
272
ステップ S 3 6 0 4において、 パターン検出部 3 5 7 5は、 供給されたクラス タップょりクラスコードを決定するためのパターンを検出し、 クラスコード決定 部 3 5 7 6に供給する。 なお、 ステップ S 3 6 0 4の処理は、 入出力の違いはあ るが、 上述したステップ S 3 5 4 3 (図 1 9 9 ) の処理と基本的に同様の処理で ある。 即ち、 いまの場合、 学習処理が終了されるときには、 少なくとも 2 7 3個 のパターンが検出されることになる。
ステップ S 3 6 0 5において、 クラスコード決定部 3 5 7 6は、 供給されたク ラスタップのパターンに基づいてクラスコードを決定し、 領域抽出部 3 5 7 7と 正規方程式生成部 3 5 7 8のそれぞれに供給する。 なお、 ステップ S 3 6 0 5の 処理は、 入出力の違いはあるが、 上述したステップ S 3 5 4 4 (図 1 9 9 ) の処 理と基本的に同様の処理である。 即ち、 いまの場合、 学習処理が終了されるとき には、 少なくとも 2 7 3個のクラスコードが決定されることになる。
ステップ S 3 6 0 6において、 領域抽出部 3 5 7 7は、 供給されたクラスコー ドに対応して、 第 2の生徒画像 (特徴量画像) の中から予測タップを抽出し、 正 規方程式生成部 3 5 7 8に供給する。 なお、 ステップ S 3 6 0 6の処理は、 入出 力の違いはあるが、 上述したステップ S 3 5 4 6 (図 1 9 9 ) の処理と基本的に 同様の処理である。 即ち、 いまの場合、 図 2 0 2で示される配置の画素群 3 6 4 1が予測タップとして抽出される。
ステップ S 3 6 0 7において、 正規方程式生成部 3 5 7 8は、 領域抽出部 3 5 7 7より供給された予測タップ (S D画素) 、 および、 第 2の教師画像 (H D画 像である、 第 1の教師画像と学習用予測画像の差分画像) を構成する H D画素の うちの所定の H D画素から、 上述した式 (1 6 0 ) (即ち、 式 (1 6 4 ) ) で示 される正規方程式を生成し、 クラスコード決定部 3 5 7 6より供給されたクラス コードとともに補正係数決定部 3 5 7 9に供給する。
ステップ S 3 6 0 8において、 補正係数決定部 3 5 7 9は、 供給された正規方 程式を解いて補正係数を決定し、 即ち、 上述した式 (1 6 5 ) の右辺を演算する ことで捕正係数を算出し、 供給されたクラスコードに対応付けて捕正係数メモリ 3 5 5 4に記憶させる。
ステップ S 3 6 0 9において、 全ての画素について処理が施されたか否かが判 定され、 全ての画素について処理が施されていないと判定された場合、 その処理 は、 ステップ S 3 6 0 3に戻る。 即ち、 全ての画素の処理が終了されるまで、 ス テツプ S 3 6 0 3乃至 S 3 6 0 9の処理が繰り返される。
そして、 ステップ S 3 6 0 9において、 全ての画素について処理が施されたと 判定された場合、 クラス分類適応処理補正用学習処理は終了となる。
以上、 説明したように、 クラス分類適応補正処理手法においては、 クラス分類 適応処理部 3 5 0 1より出力された予測画像に対して、 クラス分類適応処理補正 部 3 5 0 2より出力された補正画像 (差分予測画像) が加算されて出力される。 例えば、 上述した図 1 8 5で示される H D画像 3 5 4 1の解像度を落とした画 像である S D画像 3 5 4 2が入力画像とされた場合、 クラス分類適応処理部 3 5 0 1からは、 図 2 0 6で示される予測画像 3 5 4 3が出力される。 そして、 この 予測画像 3 5 4 3に、 クラス分類適応処理補正部 3 5 0 2より出力された捕正画 像 (図示せず) が加算されると (補正画像により補正されると) 、 図 1 8 6で示 される出力画像 3 6 5 1となる。
出力画像 3 6 5 1、 予測画像 3 5 4 3、 および、 元の画像である H D画像 3 5 4 1 (図 1 8 5 ) のそれぞれを比較するに、 出力画像 3 6 5 1は、 予測画像 3 5
4 3よりも H D画像 3 5 4 1により近い画像になっていることがわかる。
このように、 クラス分類適応処理補正手法においては、 クラス分類適応処理を 含む従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1 の信号) により近い画像の出力が可能になる。
換言すると、 クラス分類適応処理補正手法においては、 例えば、 図 1 8 1のデ ータ定常性検出部 1 0 1が、 それぞれ時空間積分効果を有する、 センサ (例えば、 図 1 8 1のセンサ 2 ) の複数の検出素子により図 1 8 1の実世界 1の光信号が射 影され、 現実世界の光信号の定常性の一部が欠落した、 検出素子により射影され た画素値を有する複数の画素からなる入力画像 (図 1 8 1 ) におけるデータの定 常性を検出する。
例えば、 図 1 8 1の実世界推定部 102は、 検出されたデータの定常性に対応 して、 実世界 1の光信号を表す光信号関数 F (x) (図 1 90) が有する実世界 特徴 (例えば、 図 1 8 1の特徴量画像を構成する画素に対応する特徴量) を検出 することで、 実世界 1の光信号を推定する。
詳細には、 例えば、 実世界推定部 1 02は、 出されたデータの定常性に対応す る線 (例えば、 図 1 9 5の線 3604) からの少なくとも 1次元方向に沿つた距 離 (例えば、 図 1 9 5の断面方向距離 Χη') に対応する画素の画素値が、 少なく とも 1次元方向の積分効果により取得された画素値であるとして、 光信号関数 F ( X ) を、 例えば、 図 1 9 3の近似関数 f5 ( X ) で近似し、 所定画素 (例えば、 図 1 9 5の画素 3603) 内における近似関数 f5 (x) の傾斜である画素内傾 斜 (例えば、 上述した式 (1 68) の gradであり、 式 (1 6 7) の xの係数 w 1 ') を、 実世界特徴として検出することで、 実世界 1の光信号を推定する。 そして、 例えば、 図 1 8 1の画像生成部 103が、 実世界推定手段により検出 された実世界特徴に基いて、 入力画像よりも高質な出力画像 (図 1 8 1) を予測 し生成する。
詳細には、 例えば、 画像生成部 103において、 例えば、 図 18 1のクラス分 類適応処理部 3 50 1が、 出力画像における注目画素の周辺に位置する、 実世界 1の光信号の定常性が欠落した入力画像内の複数の画素の画素値から注目画素の 画素値 (例えば、 図 1 8 1の予測画像の画素であり、 上述した式 (1 58) の q') を予測する。
一方、 例えば、 図 1 8 1のクラス分類適応処理補正部 3 502は、 例えば、 図 1 8 1の実世界推定部 1 02より供給された特徴量画像 (実世界推定情報) から、 クラス分類適応処理部 3 50 1により予測された予測画像の注目画素の画素値を 補正する補正項 (例えば、 図 18 1の補正画像 (差分予測画像) の画素であり、 式 (1 58) の u ') を予測する。
そして、 例えば、 図 1 8 1の加算部 3503は、 クラス分類適応処理部 3 50 1により予測された予測画像の注目画素の画素値を、 クラス分類適応処理部 3 5 0 1により予測された補正項で補正する (例えば、 式 (1 5 8 ) のように演算す る) 。
また、 クラス分類適応処理補正手法においては、 例えば、 図 1 8 2の係数メモ リ 3 5 1 4に記憶される予測係数を学習により決定する図 1 8 3のクラス分類適 応処理学習部 3 5 2 1と、 例えば、 図 1 9 1の補正係数メモリ 3 5 5 4に記憶さ れる補正係数を学習により決定する図 1 8 3のクラス分類適応処理補正用学習部 3 5 6 1を有する図 1 8 3の学習装置 3 5 0 4が設けられている。
詳細には、 例えば、 図 1 8 4のクラス分類適応処理学習部 3 5 2 1には、 学習 用画像データをダウンコンバートするダウンコンバート部 3 5 3 1、 並びに、 学 習用画像データを第 1の教師画像とし、 ダウンコンパ一ト部 3 5 3 1によりダウ ンコンバートされた学習用画像データを第 1の生徒画像とし、 第 1の教師画像と 第 1の生徒画像の関係を学習することにより、 予測係数を生成する係数決定部 3 5 3 7、 および、 領域抽出部 3 5 3 2乃至正規方程式生成部 3 5 3 6が設けられ ている。
クラス分類適応処理学習部 3 5 2 1にはさらに、 例えば、 係数決定部 3 5 3 7 により生成 (決定) された予測係数を使用して、 第 1の生徒画像から第 1の教師 画像を予測する画像データとして、 学習用予測画像を生成する予測演算部 3 5 3 8が設けられている。
また、 例えば、 図 1 9 2のクラス分類適応処理補正用学習部 3 5 6 1には、 第 1の生徒画像におけるデータの定常性を検出し、 検出したデータの定常性に基づ いて、 第 1の生徒画像を構成する各画素のそれぞれに対応する実世界特徴を検出 し、 検出した実世界特徴に対応する値を画素値とする特徴量画像 (具体的には、 例えば、 図 1 9 4の特徴量画像 3 5 9 1 ) を、 第 2の生徒画像 (例えば、 図 1 9 2の第 2の生徒画像) として生成するデータ定常性検出部 3 5 7 2および実世界 推定部 3 5 7 3、 第 1の教師画像と、 学習用予測画像の差分からなる画像データ (差分画像) を、 第 2教師画像として生成する加算部 3 5 7 1、 並びに、 第 2の 教師画像と、 第 2の生徒画像の関係を学習することにより、 補正係数を生成する 補正係数決定部 3 5 7 9、 および領域抽出部 3 5 7 4乃至正規方程式生成部 3 5 7 8が設けられている。
従って、 クラス分類適応処理補正手法においては、 クラス分類適応処理を含む 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の信 号) により近い画像の出力が可能になる。
なお、 クラス分類適応処理は、 上述したように、 S D画像には含まれていない 1 HD画像に含まれる成分が再現される点で、 例えば、 単なる補間処理とは異 なる。 即ち、 上述した式 ( 1 4 9 ) や式 ( 1 5 7 ) だけを見る限りは、 いわゆる 補間フィルタを用いての補間処理と同一に見えるが、 クラス分類適応処理では、 その補間フィルタの係数に相当する予測係数 または補足係数 gi が、 教師デー タと生徒データ (第 1の教師画像と第 1の生徒画像、 または、 第 2の教師画像と 第 2の生徒画像) を用いての学習により求められるため、 HD画像に含まれる成 分を再現することができる。 このことから、 上述したようなクラス分類適応処理 は、 いわば画像の創造 (解像度創造) 作用がある処理と称することができる。 さらに、 上述した例では、 空間解像度を向上させる場合を例にして説明したが、 クラス分類適応処理によれば、 教師データおよび生徒データを変えて学習を行う ことにより得られる種々の係数を用いることで、 例えば、 S /N (Si gnal to Noise Ratio) の向上や、 ぼけの改善、 その他の各種の処理を行うことが可能で ある。
即ち、 例えば、 S ZNの向上やぼけの改善を、 クラス分類適応処理によって行 うには、 S /Nの高い画像データを教師データとするとともに、 その教師データ の S /Nを低下させた画像 (あるいは、 ぼかした画像) を生徒データとして、 係 数を求めればよい。
以上、 本発明の実施の形態として、 図 3の構成の信号処理装置について説明し たが、 本発明の実施の形態は、 図 3の例に限定されず、 様々な形態を取ることが 可能である。 即ち、 図 1の信号処理装置 4の実施の形態は、 図 3の例に限定され ず、 様々な形態を取ることが可能である。
例えば、 図 3の構成の信号処理装置は、 画像である、 実世界 1の信号が有する 定常性に基づいて信号処理を行う。 このため、 図 3の構成の信号処理装置は、 実 世界 1の信号のうちの定常性が存在する部分に対しては、 他の信号処理装置の信 号処理に比べて、 精度のよい信号処理を実行することができ、 その結果、 より実 世界 1の信号に近い画像データを出力することが可能になる。
しかしながら、 図 3の構成の信号処理装置は、 定常性に基づいて信号処理を実 行する以上、 実世界 1の信号のうちの明確な定常性が存在しない部分に対しては、 定常性が存在する部分に対する処理と同等の精度で、 信号処理を実行することが できず、 その結果、 実世界 1の信号に対して誤差を含む画像データを出力するこ とになる。
そこで、 図 3の構成の信号処理装置に対してさらに、 定常性を利用しない他の 信号処理を行う装置 (または、 プログラム等) を付加することができる。 この場 合、 実世界 1の信号のうちの定常性が存在する部分については、 図 3の構成の信 号処理装置が信号処理を実行し、 実世界 1の信号のうちの明確な定常性が存在し ない部分については、 付加した他の装置 (または、 プログラム等) が信号処理を 実行することになる。 なお、 以下、 このような実施形態を併用手法と称する。 以下、 図 2 0 7乃至図 2 2 0を参照して、 具体的な 5つの併用手法 (以下、 そ れぞれの併用手法を、 第 1乃至第 5の併用手法と称する) について説明する。 なお、 各併用手法が適用される信号処理装置の各機能をハードウェアで実現す る力 \ ソフトウェアで実現するかは問わない。 つまり、 後述する図 2 0 7乃至図 2 0 9、 図 2 1 3、 図 2 1 5、 図 2 1 7、 および図 2 1 9のそれぞれのプロック 図は、 ハードウェアのブロック図と考えても、 ソフトウェアによる機能プロック 図と考えても良い。
図 2 0 7は、 第 1の併用手法が適用される信号処理装置の構成例を表している。 図 2 0 7の信号処理装置においては、 データ 3 (図 1 ) の一例である画像デー タが入力され、 入力された画像データ (入力画像) に基づいて、 後述する画像処 理が施されて画像が生成され、 生成された画像 (出力画像) が出力される。 即ち、 図 2 0 7は、 画像処理装置である信号処理装置 4 (図 1 ) の構成を示す図である。 信号処理装置 4に入力された入力画像 (データ 3の一例である画像データ) は、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および画像生成部 4 1 0 4のそれぞれに供給される。
データ定常性検出部 4 1◦ 1は、 入力画像からデータの定常性を検出して、 検 出した定常性を示すデータ定常性情報を実世界推定部 4 1 0 2および画像生成部 4 1 0 3に供給する。
このように、 データ定常性検出部 4 1 0 1は、 図 3のデータ定常性検出部 1 0 1と基本的に同様の構成と機能を有するものである。 従って、 データ定常性検出 部 4 1 0 1は、 上述した様々な実施の形態を取ることが可能である。
ただし、 データ定常性検出部 4 1 0 1はさらに、 注目画素の領域を特定するた めの情報 (以下、 領域特定情報と称する) を生成し、 領域検出部 4 1 1 1に供給 する。
この領域特定情報は、 特に限定されず、 データ定常性情報が生成された後に新 たに生成された情報でもよいし、 データ定常性情報が生成される場合に付帯して 生成される情報でもよい。
具体的には、 例えば、 領域特定情報として、 推定誤差が使用可能である。 即ち、 例えば、 データ定常性検出部 4 1 0 1が、 データ定常性情報として角度を算出し、 かつ、 その角度を最小自乗法により演算する場合、 最小自乗法の演算で推定誤差 が付帯的に算出される。 この推定誤差が、 領域特定情報として使用可能である。 実世界推定部 4 1 0 2は、 入力画像、 およびデータ定常性検出部 4 1 0 1から 供給されたデータ定常性情報に基づいて、 実世界 1 (図 1 ) の信号を推定する。 即ち、 実世界推定部 4 1 0 2は、 入力画像が取得されたときセンサ 2 (図 1 ) に 入射された、 実世界 1の信号である画像を推定する。 実世界推定部 4 1 0 2は、 実世界 1の信号の推定の結果を示す実世界推定情報を画像生成部 4 1 0 3に供給 する。 このように、 実世界推定部 4 1 0 2は、 図 3の実世界推定部 1 0 2と基本的に 同様の構成と機能を有するものである。 従って、 実世界推定部 4 1 0 2は、 上述 した様々な実施の形態を取ることが可能である。
画像生成部 4 1 0 3は、 実世界推定部 4 1 0 2から供給された、 推定された実 世界 1の信号を示す実世界推定情報に基づいて、 実世界 1の信号により近似した 信号を生成して、 生成した信号をセレクタ 4 1 1 2に供給する。 または、 画像生 成部 4 1 0 3は、 データ定常性検出部 4 1 0 1から供給されたデータ定常性情報、 および実世界推定部 4 1 0 2から供給された、 推定された実世界 1の信号を示す 実世界推定情報に基づいて、 実世界 1の信号により近似した信号を生成して、 生 成した信号をセレクタ 4 1 1 2に供給する。
即ち、 画像生成部 4 1 0 3は、 実世界推定情報に基づいて、 実世界 1の画像に より近似した画像を生成し、 セレクタ 4 1 1 2に供給する。 または、 画像生成部 4 1 0 3は、 データ定常性情報、 および実世界推定情報に基づいて、 実世界 1の 画像により近似した画像を生成し、 セレクタ 4 1 1 2に供給する。
このように、 画像生成部 4 1 0 3は、 図 3の画像生成部 1 0 3と基本的に同様 の構成と機能を有するものである。 従って、 画像生成部 4 1 0 3は、 上述した 様々な実施の形態を取ることが可能である。
画像生成部 4 1 0 4は、 入力画像に対して所定の画像処理を施して、 画像を生 成し、 セレクタ 4 1 1 2に供給する。
なお、 画像生成部 4 1 0 4が実行する画像処理は、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および画像生成部 4 1 0 3が実行する画像処理とは 異なる画像処理であれば、 特に限定されない。
例えば、 画像生成部 4 1 0 4は、 従来のクラス分類適応処理を行うことができ る。 このクラス分類適応処理を実行する画像生成部 4 1 0 4の構成例が、 図 2 0 8に示されている。 なお、 図 2 0 8の説明、 即ち、 クラス分類適応処理を実行す る画像生成部 4 1 0 4の詳細の説明については後述する。 また、 クラス分類適応 処理についても、 図 2 0 8の説明をするときに併せて説明する。 定常領域検出部 4 1 0 5には、 領域検出部 4 1 1 1、 およびセレクタ 4 1 1 2 が設けられている。
領域検出部 4 1 1 1は、 データ定常性検出部 4 1 0 1より供給された領域特定 情報に基づいて、 セレクタ 4 1 1 2に供給された画像 (注目画素) が、 定常領域 であるか、 或いは非定常領域であるかを検出し、 その検出結果をセレクタ 4 1 1 2に供給する。
なお、 領域検出部 4 1 1 1が実行する領域検出の処理は、 特に限定されず、 例 えば、 上述した推定誤差が領域特定情報として供給される場合、 領域検出部 4 1 1 1は、 供給された推定誤差が所定の閾値よりも小さいとき、 入力画像の注目画 素は定常領域であると検出し、 一方、 供給された推定誤差が所定の閾値以上であ るとき、 入力画像の注目画素は非定常領域であると検出する。
セレクタ 4 1 1 2は、 領域検出部 4 1 1 1より供給された検出結果に基づいて、 画像生成部 4 1 0 3より供給された画像、 または、 画像生成部 4 1 0 4より供給 された画像のうちのいずれか一方を選択し、 選択した画像を出力画像として外部 に出力する。
即ち、 領域検出部 4 1 1 1により注目画素が定常領域であると検出された場合、 セレクタ 4 1 1 2は、 画像生成部 4 1 0 3より供給された画像 (入力画像の注目 画素における、 画像生成部 4 1 0 3により生成された画素) を出力画像として選 択する。
これに対して、 領域検出部 4 1 1 1により注目画素が非定常領域であると検出 された場合、 セレクタ 4 1 1 2は、 画像生成部 4 1 0 4より供給された画像 (入 力画像の注目画素における、 画像生成部 4 1 0 4により生成された画素) を出力 画像として選択する。
なお、 外部の出力先に応じて、 セレクタ 4 1 1 2は、 画素単位で、 出力画像を 出力する (選択した画素毎に出力する) こともできるし、 全ての画素の処理が終 了するまで処理済みの画素を格納しておき、 全ての画素の処理が終了したとき、 全ての画素を一括して (出力画像全体を 1単位として) 出力することもできる。 次に、 図 2 0 8を参照して、 画像処理の一例であるクラス分類適応処理を実行 する画像生成部 4 1 04の詳細について説明する。
図 2 0 8において、 画像生成部 4 1 04が実行するクラス分類適応処理は、 例 えば、 入力画像の空間解像度を向上する処理であるとする。 即ち、 標準解像度の 画像である入力画像を、 高解像度の画像である予測画像に変換する処理であると する。
なお、 以下の説明においても、 標準解像度の画像を、 適宜、 SD (Standard Definition)画像と称するとともに、 S D画像を構成する画素を、 適宜、 S D画 素と称することにする。
また、 以下の説明においても、 高解像度の画像を、 適宜、 HD (High
Definition)画像と称するとともに、 HD画像を構成する画素を、 適宜、 HD画 素と称することにする。
具体的には、 画像生成部 4 1 0 4が実行するクラス分類適応処理とは、 次のよ うなものである。
即ち、 はじめに、 入力画像 (SD画像) の注目画素 (SD画素) における、 予 測画像 (HD画像) の HD画素を求めるために、 注目画素を含めた、 その付近に 配置される SD画素 (以下の説明においても、 このような SD画素を、 クラスタ ップと称することにする) の特徴量のそれぞれを求めて、 その特徴量毎に予め分 類されたクラスを特定する (クラスタップ群のクラスコードを特定する) 。
そして、 予め設定された複数の係数群 (各係数群のそれぞれは、 所定の 1つの クラスコードに対応している) のうちの、 特定されたクラスコードに対応する係 数群を構成する各係数と、 注目画素を含めた、 その付近の SD画素 (以下の説明 においても、 このような入力画像の SD画素を、 予測タップと称することにする c なお、 予測タップは、 クラスタップと同じこともある) とを用いて積和演算を実 行することで、 入力画像 (S D画像) の注目画素 (SD画素) における、 予測画 像 (HD画像) の HD画素を求めるものである。
より詳細には、 図 1において、 画像である、 実世界 1の信号 (光の強度の分 5
282
布) がセンサ 2に入射されると、 センサ 2からは入力画像が出力される。
図 2 0 8において、 この入力画像 (SD画像) は、 画像生成部 4 1 04のうち の領域抽出部 4 1 2 1と領域抽出部 4 1 2 5にそれぞれ供給される。 領域抽出部 4 1 2 5は、 供給された入力画像から、 クラス分類を行うために必要なクラスタ ップ (注目画素 (SD画素) を含む予め設定された位置に存在する SD画素) を 抽出し、 パターン検出部 4 1 2 2に出力する。 パターン検出部 4 1 2 2は、 入力 されたクラスタップに基づいて入力画像のパターンを検出する。
クラスコード決定部 4 1 2 3は、 パターン検出部 4 1 2 2で検出されたパター ンに基づいてクラスコードを決定し、 係数メモリ 4 1 24、 および、 領域抽出部 4 1 2 5に出力する。 係数メモリ 4 1 24は、 学習により予め求められたクラス コード毎の係数を記憶しており、 クラスコード決定部 4 1 2 3より入力されたク ラスコードに対応する係数を読み出し、 予測演算部 4 1 2 6に出力する。
なお、 係数メモリ 4 1 24の係数の学習処理については、 図 20 9の学習装置 のプロック図を参照して後述する。
また、 係数メモリ 4 1 24に記憶される係数は、 後述するように、 予測画像
(HD画像) を生成するときに使用される係数である。 従って、 以下、 係数メモ リ 4 1 24に記憶される係数を予測係数と称する。
領域抽出部 4 1 2 5は、 クラス ード決定部 4 1 2 3より入力されたクラスコ ードに基づいて、 センサ 2より入力された入力画像 (SD画像) から、 予測画像 (HD画像) を予測生成するのに必要な予測タップ (注目画素を含む予め設定さ れた位置に存在する SD画素) をクラスコードに対応して抽出し、 予測演算部 4 1 2 6に出力する。
予測演算部 4 1 2 6は、 領域抽出部 4 1 2 5より入力された予測タップと、 係 数メモリ 4 1 2 4より入力された予測係数とを用いて積和演算を実行し、 入力画 像 (SD画像) の注目画素 (SD画素) における、 予測画像 (HD画像) の HD 画素を生成し、 セレクタ 4 1 1 2に出力する。
より詳細には、 係数メモリ 4 1 24は、 クラスコード決定部 4 1 2 3より供給 されるクラスコードに対応する予測係数を、 予測演算部 41 26に出力する。 予 測演算部 4 1 26は、 領域抽出部 41 25より供給される入力画像の所定の画素 位置の画素値から抽出された予測タップと、 係数メモリ 4 1 24より供給された 予測係数とを用いて、 次の式 (1 71) で示される積和演算を実行することによ り、 予測画像 (HD画像) の HD画素を求める (予測推定する) 。
Figure imgf000285_0001
… (1 7 1) 式 (1 7 1) において、 q'は、 予測画像 (HD画像) の HD画素を表してい る。 Ci (iは、 1乃至 nの整数値) のそれぞれは、 予測タップ (SD画素) のそ れぞれを表している。 また、 d i のそれぞれは、 予測係数のそれぞれを表してい る。
このように、 画像生成部 4 104は、 SD画像 (入力画像) から、 それに対す る HD画像を予測推定するので、 ここでは、 画像生成部 4 104から出力される
HD画像を、 予測画像と称している。
図 209は、 このような画像生成部 4 104の係数メモリ 4 1 24に記憶され る予測係数 (式 (1 71) における d i) を決定するための学習装置 (予測係数 の算出装置) を表している。
図 209において、 所定の画像が、 教師画像 (HD画像) としてダウンコンパ ート部 4141と正規方程式生成部 4 146のそれぞれに入力される。
ダウンコンバート部 4 146は、 入力された教師画像 (HD画像) から、 教師 画像よりも解像度の低い生徒画像 (SD画像) を生成し (教師画像をダウンコン バートしたものを生徒画像とし) 、 領域抽出部 4 142と領域抽出部 4 14 5の それぞれに出力する。
このように、 学習装置 4 1 3 1には、 ダウンコンバート部 4 14 1が設けられ ているので、 教師画像 (HD画像) は、 センサ 2 (図 1 ) からの入力画像よりも 高解像度の画像である必要は無い。 なぜならば、 教師画像がダウンコンバートさ れた (解像度が下げられた) 生徒画像を SD画像とすれば、 生徒画像に対する教 師画像が HD画像になるからである。 従って、 教師画像は、 例えば、 センサ 2か らの入力画像そのものとされてもよい。
領域抽出部 4 1 4 2は、 ダウンコンパ一ト部 4 1 4 1より供給された生徒画像 (SD画像) から、 クラス分類を行うために必要なクラスタップ (SD画素) を 抽出し、 パターン検出部 4 1 4 3に出力する。 パターン検出部 4 1 4 3は、 入力 されたクラスタップのパターンを検出し、 その検出結果をクラスコ一ド決定部 4 1 44に出力する。 クラスコード決定部 4 1 44は、 入力されたパターンに対応 するクラスコードを決定し、 そのクラスコードを領域抽出部 4 1 4 5、 および、 正規方程式生成部 4 1 4 6のそれぞれに出力する。
領域抽出部 4 1 4 5は、 クラスコード決定部 4 1 44より入力されたクラスコ ードに基づいて、 ダウンコンバート部 4 1 4 1より入力された生徒画像 (SD画 像) から予測タップ (SD画素) を抽出し、 正規方程式生成部 4 1 4 6に出力す る。
なお、 以上の領域抽出部 4 1 4 2、 パターン検出部 4 1 4 3、 クラスコード決 定部 4 1 44、 および領域抽出部 4 1 4 5のそれぞれは、 図 2 0 8の画像生成部 4 1 04の領域抽出部 4 1 2 1、 パターン検出部 4 1 2 2、 クラスコード決定部 4 1 2 3、 および、 領域抽出部 4 1 2 5のそれぞれと、 基本的に同様の構成と機 能を有するものである。
正規方程式生成部 4 1 4 6は、 クラスコード決定部 4 1 44より入力された全 てのクラスコードに対して、 クラスコード毎に、 領域抽出部 4 1 4 5より入力さ れる生徒画像 (SD画像) の予測タップ (SD画素) と、 教師画像 (HD画像) の HD画素とから正規方程式を生成し、 係数決定部 4 1 4 7に供給する。
係数決定部 4 1 4 7は、 正規方程式生成部 4 1 4 6より所定のクラスコードに 対応する正規方程式が供給されてきたとき、 その正規方程式より予測係数のそれ ぞれを演算し、 係数メモリ 4 1 24にクラスコードと関連付けて記憶させる。 正規方程式生成部 4 1 4 6と、 係数決定部 4 1 4 7についてさらに詳しく説明 する。
上述した式 (1 7 1) において、 学習前は予測係数 のそれぞれが未定係数 である。 学習は、 クラスコード毎に複数の教師画像 (HD画像) の HD画素を入 力することによって行う。 所定のクラスコードに対応する HD画素が m個存在し、 m個の HD画素のそれぞれを、 qk (kは、 1乃至 mの整数値) と記述する場合、 式 ( 1 7 1 ) から、 次の式 ( 1 7 2) が設定される。 qk = I djXcik+ek
i=0
• · · ( 1 7 2) 即ち、 式 (1 7 2) は、 右辺の演算をすることで、 所定の HD画素 ¾ を予測 推定することができることを表している。 なお、 式 ( 1 7 2) において、 ek は、 誤差を表している。 即ち、 右辺の演算結果である予測画像 (HD画像) の HD画 素 '力 実際の HD画素 ¾ と厳密には一致せず、 所定の誤差 ekを含む。
そこで、 式 (1 7 2) において、 誤差 ekの自乗和を最小にする予測係数 が 学習により求まれば、 その予測係数 は、 実際の HD画素 qkを予測するのに最 適な係数であると言える。
従って、 例えば、 学習により集められた m個 (ただし、 mは、 nより大きい整 数) の HD画素 qkを用いて、 最小自乗法により最適な予測係数 を一意に決定 することができる。
即ち、 式 (1 7 2) の右辺の予測係数 を最小自乗法で求める場合の正規方 程式は、 次の式 ( 1 7 3) で表される。
Figure imgf000287_0001
_ • · · (1 73) 従って、 式 (1 73) で示される正規方程式が生成されれば、 その正規方程式 を解くことで予測係数 がー意に決定されることになる。
具体的には、 式 (1 73) で示される正規方程式の各行列のそれぞれを、 次の 式 (1 74) 乃至 (1 76) のように定義すると、 正規方程式は、 次の式 (1 7 7) のように表される。
½丁
Figure imgf000288_0001
(1 74) di
d2
AT = d,
(1 75)
Figure imgf000288_0002
(1 76) 2004/001585
287
¾AT¾AT = ¾AT
• · · (177) 式 (175) で示されるように、 行列 DMATの各成分は、 求めたい予測係数 djである。 従って、 式 (177) において、 左辺の行列 CMAT と右辺の 行列 QMATが決定されれば、 行列解法によって行列 DMAT (即ち、 予測係数 ) の算出が可能である。
より具体的には、 式 (174) で示されるように、 行列 CMAT の各成分は、 予 測タップ cikが既知であれば演算可能である。 予測タップ cikは、 領域抽出部 4145により抽出されるので、 正規方程式生成部 4146は、 領域抽出部 41 45より供給されてくる予測タップ cikのそれぞれを利用して行列 CMATの各成 分を演算することができる。
また、 式 (1 76) で示されるように、 行列 QMAT の各成分は、 予測タップ cik と HD画素 qkが既知であれば演算可能である。 予測タップ cikは、 行列 CMATの各成分に含まれるものと同一のものであり、 また、 HD画素 ¾は、 予 測タップ cik に含まれる注目画素 (生徒画像の SD画素) に対する教師画像の HD画素である。 従って、 正規方程式生成部 4146は、 領域抽出部 4145よ り供給された予測タップ cik と、 教師画像を利用して行列 QMAT の各成分を演算 することができる。
このようにして、 正規方程式生成部 4146は、 クラスコード毎に、 行列 CHAT と行列 QMAT の各成分を演算し、 その演算結果をクラスコードに対応付け て係数決定部 4147に供給する。
係数決定部 4147は、 供給された所定のクラスコードに対応する正規方程式 に基づいて、 上述した式 (1 77) の行列 DMAT の各成分である予測係数 を 演算する。
具体的には、 上述した式 ( 177) の正規方程式は、 次の式 (1 78) のよう に変形できる。 ¾T = CMAT¾AT
• · · (1 78) 式 (178) において、 左辺の行列 DMATの各成分が、 求めたい予測係数 である。 また、 行列 CMAT と行列 QM Λ Tのそれぞれの各成分は、 正規方程式生成 部 4146より供給されるものである。 従って、 係数決定部 4147は、 正規方 程式生成部 4146より所定のクラスコードに対応する行列 CMAT と行列 QMAT のそれぞれの各成分が供給されてきたとき、 式 (1 78) の右辺の行列演算を行 うことで行列 DMAT を演算し、 その演算結果 (予測係数 ) をクラスコードに 対応付けて係数メモリ 4124に記憶させる。
なお、 クラス分類適応処理は、 上述したように、 SD画像には含まれていない I HD画像に含まれる成分が再現される点で、 例えば、 単なる補間処理とは異 なる。 即ち、 適応処理では、 上述した式 (171) だけを見る限りは、 いわゆる 補間フィルタを用いての補間処理と同一に見えるが、 その補間フィルタの係数に 相当する予測係数 1 教師データと生徒データを用いての学習により求めら れるため、 HD画像に含まれる成分を再現することができる。 このことから、 上 述したようなクラス分類適応処理は、 いわば画像の創造 (解像度創造) 作用があ る処理と称することができる。
さらに、 上述した例では、 空間解像度を向上させる場合を例にして説明したが、 クラス分類適応処理によれば、 教師データおよぴ生徒データを変えて学習を行う ことにより得られる種々の係数を用いることで、 例えば、 S/N (Signal to
Noise Ratio) の向上や、 ぼけの改善、 その他の各種の処理を行うことが可能で ある。
即ち、 例えば、 S/Nの向上やぼけの改善を、 クラス分類適応処理によって行 うには、 SZNの高い画像データを教師データとするとともに、 その教師データ の S/Nを低下させた画像 (あるいは、 ぼかした画像) を生徒データとして、 係 数を求めればよい。 以上、 クラス分類適応処理を実行する画像生成部 4 1 04と、 その学習装置 4 1 3 1のそれぞれの構成について説明した。
なお、 上述したように、 画像生成部 4 1 04は、 クラス分類適応処理以外の画 像処理を実行する構成とすることも可能であるが、 説明の簡略上、 以下の説明に おいては、 画像生成部 4 1 04の構成は、 上述した図 20 8の構成とされる。 即 ち、 以下、 画像生成部 4 1 04は、 クラス分類適応処理を実行することで、 入力 画像より空間解像度の高い画像を生成し、 セレクタ 4 1 1 2に供給するとする。 次に、 図 2 1 0を参照して、 第 1の併用手法が適用される信号処理装置 (図 2 0 7) の信号の処理について説明する。
なお、 ここでは、 データ定常性検出部 4 1 0 1は、 角度 (画像である、 実世界 1 (図 1) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向 の 1方向である X方向 (センサ 2 (図 1) の検出素子の所定の一辺と平行な方 向) とのなす角度) を最小自乗法により演算し、 演算した角度をデータ定常性情 報として出力するとする。
データ定常性検出部 4 1 0 1はまた、 角度を演算するときに併せて算出される 推定誤差 (最小自乗法の誤差) を、 領域特定情報として出力するとする。
図 1において、 画像である、 実世界 1の信号がセンサ 2に入射されると、 セン サ 2からは入力画像が出力される。
図 2 0 7において、 この入力画像は、 データ定常性検出部 4 1 0 1、 および実 世界推定部 4 1 0 2に入力されるとともに、 画像生成部 4 1 0 4に入力される。 そこで、 図 2 1 0のステップ S 4 1 0 1において、 画像生成部 4 1 04は、 入 力画像 (SD画像) の所定の SD画素を注目画素として、 上述したクラス分類適 応処理を実行し、 予測画像 (HD画像) の HD画素 (注目画素における HD画 素) を生成し、 セレクタ 4 1 1 2に供給する。
なお、 以下、 画像生成部 4 1 04より出力される画素と、 画像生成部 4 1 0 3 より出力される画素のそれぞれを区別する場合、 画像生成部 4 1 0 4より出力さ れる画素を第 1の画素と称し、 画像生成部 4 1 0 3より出力される画素を第 2の 画素と称する。
また、 以下、 このような画像生成部 4 1 0 4が実行する処理 (いまの場合、 ス テツプ S 4 1 0 1の処理) を、 「クラス分類適応処理の実行処理」 と称する。 こ の例の 「クラス分類適応処理の実行処理」 の詳細については、 図 2 1 1のフロー チャートを参照して後述する。
一方、 ステップ S 4 1 0 2において、 データ定常性検出部 4 1 0 1は、 定常性 の方向に対応する角度を検出するとともに、 その推定誤差を演算する。 検出され た角度は、 データ定常性情報として実世界推定部 4 1 0 2と画像生成部 4 1 0 3 のそれぞれに供給される。 また、 演算された推定誤差は、 領璏特定情報として領 域検出部 4 1 1 1に供給される。
ステップ S 4 1 0 3において、 実世界推定部 4 1 0 2は、 データ定常性検出部 4 1 0 1により検出された角度と、 入力画像に基づいて、 実世界 1の信号を推定 する。
なお、 上述したように、 実世界推定部 4 1 0 2が実行する推定の処理は、 特に 限定されず、 上述した様々な手法を利用することができる。 ここでは、 例えば、 実世界推定部 4 1 0 2は、 実世界 1の信号を表す関数 F (以下の説明においても、 関数 Fを光信号関数 Fと称することにする) を、 所定の関数 f (以下の説明にお いても、 関数 ίを近似関数 f と称することにする) で近似することで、 実世界 1 の信号 (光信号関数 F ) を推定するとする。
また、 ここでは、 例えば、 実世界推定部 4 1 0 2は、 近似関数 ίの特徴量 (係 数) を、 実世界推定情報として画像生成部 4 1 0 3に供給するとする。
ステップ S 4 1 0 4において、 画像生成部 4 1 0 3は、 実世界推定部 4 1 0 2 により推定された実世界 1の信号に基づいて、 画像生成部 4 1 0 4のクラス分類 適応処理により生成された第 1の画素 (H D画素) に対応する第 2の画素 ( H D 画素) を生成し、 セレクタ 4 1 1 2に供給する。
いまの場合、 実世界推定部 4 1 0 2より近似関数 f の特徴量 (係数) が供給さ れてくるので、 画像生成部 4 1 0 3は、 例えば、 供給された近似関数 f の特徴量 に基づいて、 近似関数 f を所定の積分範囲で積分するこ.とで、 第 2の画素 (HD 画素) を生成する。
ただし、 積分範囲は、 画像生成部 4 1 04より出力される第 1の画素 (HD画 素) と同一の大きさ (同一の解像度) の第 2の画素が生成可能な範囲とされる。 即ち、 空間方向においては、 積分範囲は、 これから生成される第2の画素の画素 幅となる。
なお、 ステップ S 4 1 0 1の 「クラス分類適応処理の実行処理」 と、 ステップ S 4 1 0 2乃至 S 4 1 04の一連の処理の順番は、 図 2 1 0の例に限定されず、 ステップ S 4 1 0 2乃至 S 4 1 0 4の一連の処理が先に実行されても構わないし、 ステップ S 4 1 0 1の 「クラス分類適応処理の実行処理」 と、 ステップ S 4 1 0 2乃至 S 4 1 04の一連の処理が同時に実行されても構わない。
ステップ S 4 1 0 5において、 領域検出部 4 1 1 1は、 ステップ S 4 1 0 2の 処理でデータ定常性検出部 4 1 0 1により演算された推定誤差 (領域特定情報) に基づいて、 ステップ S 4 1 04の処理で画像生成部 4 1 0 3により生成された 第 2の画素 (HD画素) の領域を検出する。
即ち、 第 2の画素は、 データ定常性検出部 4 1 0 1が注目画素として使用した 入力画像の SD画素における HD画素である。 従って、 注目画素 (入力画像の S D画素) と第 2の画素 (HD画素) の領域の種類 (定常領域、 または非定常領 域) は同一である。
また、 データ定常性検出部 4 1 0 1が出力する領域特定情報は、 注目画素にお ける角度が最小自乗法により算出された場合の推定誤差である。
そこで、 領域検出部 4 1 1 1は、 データ定常性検出部 4 1 0 1より供給された 注目画素 (入力画像の SD画素) に対する推定誤差と、 予め設定された閾値を比 較し、 その比較の結果が、 推定誤差が閾値よりも小さい場合、 第 2の画素は定常 領域であると検出し、 一方、 推定誤差が閾値以上である場合、 第 2の画素は非定 常領域であると検出する。 そして、 検出結果は、 セレクタ 4 1 1 2に供給される。 この領域検出部 4 1 1 1の検出結果がセレクタ 4 1 1 2に供給されると、 ステ ップ S 4 1 0 6において、 セレクタ 4 1 1 2は、 検出された領域が、 定常領域で あるか否かを判定する。
ステップ S 4 1 0 6において、 検出された領域が、 定常領域であると判定した 場合、 セレクタ 4 1 1 2は、 ステップ S 4 1 0 7において、 画像生成部 4 1 0 3 より供給された第 2の画素を、 出力画像として外部に出力する。
これに対して、 ステップ S 4 1 0 6において、 検出された領域が、 定常領域で はない (非定常領域である) と判定した場合、 セレクタ 4 1 1 2は、 ステップ S 4 1 0 8において、 画像生成部 4 1 0 4より供給された第 1の画素を、 出力画像 として外部に出力する。
その後、 ステップ S 4 1 0 9において、 全画素の処理を終了したか否かが判定 され、 全画素の処理がまだ終了していないと判定された場合、 その処理は、 ステ ップ S 4 1 0 1に戻る。 即ち、 全ての画素の処理が終了されるまで、 ステップ S 4 1 0 1乃至 S 4 1 0 9の処理が繰り返される。
そして、 ステップ S 4 1 0 9において、 全画素の処理を終了したと判定された 場合、 その処理は終了となる。
このように、 図 2 1 0のフローチャートの例においては、 第 1の画素 (HD画 素) と第 2の画素 (HD画素) が生成される毎に、 出力画像として第 1の画素ま たは第 2の画素が画素単位で出力される。
しかしながら、 上述したように、 画素単位で出力されることは必須ではなく、 全ての画素の処理が終了された後、 出力画像として、 全ての画素が一括して出力 されてもよい。 この場合、 ステップ S 4 1 0 7とステップ S 4 1 0 8のそれぞれ の処理においては、 画素 (第 1の画素または第 2の画素) は出力されずに、 セレ クタ 4 1 1 2に一次格納され、 ステップ S 4 1 0 9の処理の後、 全ての画素を出 力する処理が追加される。
次に、 図 2 1 1のフローチャートを参照して、 図 2 0 8の構成の画像生成部 4 1 04が実行する 「クラス分類適応処理の実行処理」 (例えば、 上述した図 2 1 0のステップ S 4 1 0 1の処理) の詳細について説明する。 センサ 2からの入力画像 (SD画像) が画像生成部 4 1 04に入力されると、 ステップ S 4 1 2 1において、 領域抽出部 4 1 2 1と領域抽出部 4 1 2 5のそれ ぞれは、 入力画像を入力する。
ステップ S 4 1 2 2において、 領域抽出部 4 1 2 1は、 入力画像の中から、 注 目画素 (SD画素) 、 および、 予め設定された注目画素からの相対位置 (1以上 の位置) のそれぞれに位置する画素 (SD画素) を、 クラスタップとして抽出し、 パターン検出部 4 1 2 2に供給する。
ステップ S 4 1 2 3において、 パターン検出部 4 1 2 2は、 供給されたクラス タップのパターンを検出し、 クラスコード決定部 4 1 2 3に供給する。
ステップ S 4 1 2 4において、 クラスコード決定部 4 1 2 3は、 予め設定され ている複数のクラスコードの中から、 供給されたクラスタップのパターンに適合 するクラスコードを決定し、 係数メモリ 4 1 24と領域抽出部 4 1 2 5のそれぞ れに供給する。
ステップ S 4 1 2 5において、 係数メモリ 4 1 24は、 供給されたクラスコー ドに基づいて、 予め学習処理により決定された複数の予測係数 (群) の中から、 これから使用する予測係数 (群) を読み出し、 予測演算部 4 1 26に供給する。 なお、 学習処理については、 図 2 1 2のフローチャートを参照して後述する。 ステップ S 4 1 2 6において、 領域抽出部 4 1 2 5は、 供給されたクラスコー ドに対応して、 入力画像の中から、 注目画素 (SD画素) 、 および、 予め設定さ れた注目画素からの相対位置 (1以上の位置であって、 クラスタップの位置とは 独立して設定された位置。 ただし、 クラスタップの位置と同一の位置でもよい) のそれぞれに位置する画素 (SD画素) を、 予測タップとして抽出し、 予測演算 部 4 1 2 6に供給する。
ステップ S 4 1 2 7において、 予測演算部 4 1 2 6は、 領域抽出部 4 1 2 5よ り供給された予測タップを、 係数メモリ 4 1 24より供給された予測係数を用い て演算し、 予測画像 (第 1の画素) を生成して外部 (図 2 0 7の例では、 セレク タ 4 1 1 2) に出力する。 具体的には、 予測演算部 4 1 2 6は、 領域抽出部 4 1 2 5より供給された予測 タップのそれぞれを (i は、 1乃至 nのうちのいずれかの整数) とし、 かつ、 係数メモリ 4 1 24より供給された予測係数のそれぞれを として、 上述した 式 (1 7 1 ) の右辺を演算することにより、 注目画素 (SD画素) における HD 画素 q を算出し、 それを予測画像 (HD画像) の所定の 1つの画素 (第 1の画 素) として外部に出力する。 その後、 処理は終了となる。
次に、 図 2 1 2のフローチャートを参照して、 画像生成部 4 1 04に対する学 習装置 4 1 3 1 (図 20 9) が実行する学習処理 (画像生成部 4 1 04が使用す る予測係数を学習により生成する処理) について説明する。
ステップ S 4 1 4 1において、 ダウンコンバート部 4 1 4 1と正規方程式生成 部 4 1 46のそれぞれは、 供給された所定の画像を、 教師画像 (HD画像) とし て入力する。
ステップ S 4 1 4 2において、 ダウンコンバート部 4 1 4 1は、 入力された教 師画像をダウンコンバートして (解像度を落として) 生徒画像 (SD画像) を生 成し、 領域抽出部 4 1 4 2と領域抽出部 4 1 4 5のそれぞれに供給する。
ステップ S 4 1 4 3において、 領域抽出部 4 1 4 2は、 供給された生徒画像か らクラスタップを抽出してパターン検出部 4 1 4 3に出力する。 なお、 ステップ S 4 1 43の処理は、 上述したステップ S 4 1 2 2 (図 2 1 1) の処理と基本的 に同様の処理である。
ステップ S 4 1 4 4において、 パターン検出部 4 1 4 3は、 供給されたクラス タップよりクラスコードを決定するためのパターンを検出し、 クラスコード決定 部 4 1 44に供給する。 なお、 ステップ S 4 1 44の処理は、 上述したステップ S 4 1 2 3 (図 2 1 1) の処理と基本的に同様の処理である。
ステップ S 4 1 4 5において、 クラスコード決定部 4 1 44は、 供給されたク ラスタップのパターンに基づいてクラスコードを決定し、 領域抽出部 4 1 4 5と 正規方程式生成部 4 1 4 6のそれぞれに供給する。 なお、 ステップ S 4 1 4 5の 処理は、 上述したステップ S 4 1 24 (図 2 1 1 ) の処理と基本的に同様の処理 である。
ステップ S 4 1 4 6において、 領域抽出部 4 1 4 5は、 供給されたクラスコー ドに対応して、 生徒画像の中から予測タップを抽出し、 正規方程式生成部 4 1 4 6に供給する。 なお、 ステップ S 4 1 46の処理は、 上述したステップ S 4 1 2 6 (図 2 1 1) の処理と基本的に同様の処理である。
ステップ S 4 1 4 7において、 正規方程式生成部 4 1 4 6は、 領域抽出部 4 1 4 5より供給された予測タップ (SD画素) 、 および、 教師画像 (HD画像) の 所定の HD画素から、 上述した式 ( 1 7 3) (即ち、 式 ( 1 7 7) ) で示される 正規方程式を生成し、 生成した正規方程式と、 クラスコード決定部 4 1 44より 供給されたクラスコードを関連付けて係数決定部 4 1 4 7に供給する。
ステップ S 4 1 4 8において、 係数決定部 4 1 4 7は、 供給された正規方程式 を解いて予測係数を決定し、 即ち、 上述した式 (1 7 8) の右辺を演算すること で予測係数を算出し、 供給されたクラスコードに対応付けて係数メモリ 4 1 24 に記憶させる。
その後、 ステップ S 4 1 4 9において、 全ての画素について処理が施されたか 否かが判定され、 全ての画素について処理が施されていないと判定された場合、 その処理は、 ステップ S 4 1 4 3に戻る。 即ち、 全ての画素の処理が終了される まで、 ステップ S 4 1 4 3乃至 S 4 1 4 9の処理が操り返される。
そして、 ステップ S 4 1 4 9において、 全ての画素について処理が施されたと 判定された場合、 処理は終了となる。
次に、 図 2 1 3と図 2 1 4を参照して、 第 2の併用手法について説明する。 図 2 1 3は、 第 2の併用手法が適用される信号処理装置の構成例を表している。 図 2 1 3において、 第 1の併用手法が適用される信号処理装置 (図 2 0 7) と 対応する部分には、 対応する符号が付してある。
図 2 0 7の構成例 (第 1の併用手法) においては、 領域特定情報は、 データ定 常性検出部 4 1 0 1より出力され、 領域検出部 4 1 1 1に入力されていたが、 図 2 1 3の構成例 (第 2の併用手法) においては、 領域特定情報は、 実世界推定部 4 1 0 2より出力され、 領域検出部 4 1 1 1に入力される。
この領域特定情報は、 特に限定されず、 実世界推定部 4 1 0 2が実世界 1 (図 1 ) の信号を推定した後に新たに生成された情報でもよいし、 実世界 1の信号が 推定される場合に付帯して生成される情報でもよい。
具体的には、 例えば、 領域特定情報として、 推定誤差が使用可能である。 ここで、 推定誤差について説明する。
上述したように、 データ定常性検出部 4 1 0 1より出力される推定誤差 (図 2 0 7の領域特定情報) は、 例えば、 データ定常性検出部 4 1 0 1より出力される データ定常性情報が角度であり、 かつ、 その角度が最小自乗法により演算される 場合、 その最小自乗法の演算で付帯的に算出される推定誤差である。
これに対して、 実世界推定部 4 1 0 2より出力される推定誤差 (図 2 1 3の領 域特定情報) は、 例えば、 マッピング誤差である。
即ち、 実世界推定部 4 1 0 2により実世界 1の信号が推定されているので、 推 定された実世界 1の信号から任意の大きさの画素を生成する (画素値を演算す る) ことが可能である。 ここでは、 このように、 新たな画素を生成することを、 マツビングと称している。
従って、 実世界推定部 4 1 0 2は、 実世界 1の信号を推定した後、 その推定し た実世界 1の信号から、 入力画像の注目画素 (実世界 1が推定される場合に注目 画素として使用された画素) が配置されていた位置における新たな画素を生成す る (マッピングする) 。 即ち、 実世界推定部 4 1 0 2は、 推定した実世界 1の信 号から、 入力画像の注目画素の画素値を予測演算する。
そして、 実世界推定部 4 1 0 2は、 マッピングした新たな画素の画素値 (予測 した入力画像の注目画素の画素値) と、 実際の入力画像の注目画素の画素値との 差分を演算する。 この差分を、 ここでは、 マッピング誤差と称している。
このようにして実世界推定部 4 1 0 2は、 マッピング誤差 (推定誤差) を演算 することで、 演算したマッピング誤差 (推定誤差) を、 領域特定情報として領域 検出部 4 1 1 1に供給することができる。 なお、 領域検出部 4 1 1 1が実行する領域検出の処理は、 上述したように、 特 に限定されないが、 例えば、 実世界推定部 4 1 0 2が、 上述したマッピング誤差 (推定誤差) を領域特定情報として領域検出部 4 1 1 1に供給する場合、 領域検 出部 4 1 1 1は、 供給されたマッピング誤差 (推定誤差) が所定の閾値よりも小 さいとき、 入力画像の注目画素は定常領域であると検出し、 一方、 供給されたマ ッビング誤差 (推定誤差) が所定の閾値以上であるとき、 入力画像の注目画素は 非定常領域であると検出する。
その他の構成は、 図 2 0 7のそれと基本的に同様である。 即ち、 第 2の併用手 法が適用される信号処理装置 (図 2 1 3 ) においても、 第 1の併用手法が適用さ れる信号処理装置 (図 2 0 7 ) と基本的に同様の構成と機能を有する、 データ定 常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 画像生成部 4 1 0 4、 並びに定常領域検出部 4 1 0 5 (領域検出部 4 1 1 1およびセレクタ 4 1 1 2 ) が設けられている。
図 2 1 4は、 図 2 1 3の構成の信号処理装置の信号の処理 (第 2の併用手法の 信号の処理) を説明するフローチャートである。
第 2の併用手法の信号の処理は、 第 1の併用手法の信号の処理 (図 2 1 0のフ ローチャートで示される処理) と類似している。 そこで、 ここでは、 第 1の併用 手法において説明した処理については、 その説明を適宜省略し、 以下、 図 2 1 4 のフローチャートを参照して、 第 1の併用手法とは異なる第 2の併用手法の信号 の処理を中心に説明する。
なお、 ここでは、 データ定常性検出部 4 1 0 1は、 第 1の併用手法と同様に、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定の一辺 と平行な方向) とのなす角度) を最小自乗法により演算し、 演算した角度をデー タ定常性情報として出力するとする。
ただし、 上述したように、 第 1の併用手法においては、 データ定常性検出部 4
1 0 1が領域特定情報 (例えば、 推定誤差) を領域検出部 4 1 1 1に供給してい たのに対して、 第 2の併用手法においては、 実世界推定部 4 1 0 2が領域特定情 報 (例えば、 推定誤差 (マッピング誤差) ) を領域検出部 4 1 1 1に供給する。 従って、 第 2の併用手法においては、 データ定常性検出部 4 1 0 1の処理とし て、 ステップ S 4 1 6 2の処理が実行される。 この処理は、 第 1の併用手法にお ける、 図 2 1 0のステップ S 4 1 0 2の処理に相当する。 即ち、 ステップ S 4 1 6 2において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の 方向に対応する角度を検出し、 検出した角度をデータ定常性情報として、 実世界 推定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給する。
また、 第 2の併用手法においては、 実世界推定部 4 1 0 2の処理として、 ステ ップ S 4 1 6 3の処理が実行される。 この処理は、 第 1の併用手法における、 図 2 1 0のステップ S 4 1 0 3の処理に相当する。 即ち、 ステップ S 4 1 6 3にお いて、 実世界推定部 4 1 0 2は、 ステップ S 4 1 6 2の処理でデータ定常性検出 部 4 1 0 1により検出された角度に基づいて、 実世界 1 (図 1 ) の信号を推定す るとともに、 推定された実世界 1の信号の推定誤差、 即ち、 マッピング誤差を演 算し、 それを領域特定情報として領域検出部 4 1 1 1に供給する。
その他の処理は、 第 1の併用手法の対応する処理 (図 2 1 0のフローチャート で示される処理のうちの対応する処理) と基本的に同様であるので、 その説明は 省略する。
次に、 図 2 1 5と図 2 1 6を参照して、 第 3の併用手法について説明する。 図 2 1 5は、 第 3の併用手法が適用される信号処理装置の構成例を表している。 図 2 1 5において、 第 1の併用手法が適用される信号処理装置 (図 2 0 7 ) と 対応する部分には、 対応する符号が付してある。
図 2 0 7の構成例 (第 1の併用手法〉 においては、 定常領域検出部 4 1 0 5は、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の後段に配設されていたが、 図 2 1 5 の構成例 (第 3の併用手法) においては、 それに対応する定常領域検出部 4 1 6 1が、 データ定常性検出部 4 1 0 1の後段であって、 実世界推定部 4 1 0 2と画 像生成部 4 1 0 4の前段に配設されている。 5
299
このような配設位置の違いにより、 第 1の併用手法における定常領域検出部 4 1 0 5と、 第 3の併用手法における定常領域検出部 4 1 6 1は若干差異がある。 そこで、 この差異を中心に、 定常領域検出部 4 1 6 1について説明する。
定常領域検出部 4 1 6 1には、 領域検出部 4 1 7 1と実行指令生成部 4 1 7 2 が設けられている。 このうちの領域検出部 4 1 7 1は、 定常領域検出部 4 1 0 5 の領域検出部 4 1 1 1 (図 2 0 7 ) と基本的に同様の構成と機能を有している。 一方、 実行指令生成部 4 1 7 2の機能は、 定常領域検出部 4 1 0 5のセレクタ 4 1 1 2 (図 2 0 7 ) のそれと若干差異がある。
即ち、 上述したように、 第 1の併用手法におけるセレクタ 4 1 1 2は、 領域検 出部 4 1 1 1の検出結果に基づいて、 画像生成部 4 1 0 3からの画像と、 画像生 成部 4 1 0 4からの画像のうちのいずれか一方を選択し、 選択した画像を出力画 像として出力する。 このように、 セレクタ 4 1 1 2は、 領域検出部 4 1 1 1の検 出結果の他に、 画像生成部 4 1 0 3からの画像と、 画像生成部 4 1 0 4からの画 像を入力し、 出力画像を出力する。
一方、 第 3の併用手法における実行指令生成部 4 1 7 2は、 領域検出部 4 1 7 1の検出結果に基づいて、 入力画像の注目画素 (データ定常性検出部 4 1 0 1が 注目画素とした画素) における新たな画素の生成の処理を実行するのは、 画像生 成部 4 1 0 3であるのか画像生成部 4 1 0 4であるのかを選択する。
即ち、 領域検出部 4 1 7 1が、 入力画像の注目画素は定常領域であるという検 出結果を実行指令生成部 4 1 7 2に供給した場合、 実行指令生成部 4 1 7 2は、 画像生成部 4 1 0 3を選択し、 実世界推定部 4 1 0 2に対して、 その処理の実行 を開始させる指令 (このような指令を、 以下、 実行指令と称する) を供給する。 すると、 実世界推定部 4 1 0 2が、 その処理を開始し、 実世界推定情報を生成し、 画像生成部 4 1 0 3に供給する。 画像生成部 4 1 0 3は、 供給された実世界推定 情報 (必要に応じて、 それに加えてデータ定常性検出部 4 1 0 1より供給された データ定常性情報) に基づいて新たな画像を生成し、 それを出力画像として外部 に出力する。 これに対して、 領域検出部 4 1 7 1が、 入力画像の注目画素は非定常領域であ るという検出結果を実行指令生成部 4 1 7 2に供給した場合、 実行指令生成部 4 1 7 2は、 画像生成部 4 1 0 4を選択し、 画像生成部 4 1 0 4に対して実行指令 を供給する。 すると、 画像生成部 4 1 0 4が、 その処理を開始し、 入力画像に対 して所定の画像処理 (いまの場合、 クラス分類適応処理) を施して、 新たな画像 を生成し、 それを出力画像として外部に出力する。
このように、 第 3の併用手法における実行指令生成部 4 1 7 2は、 領域検出部 4 1 7 1の検出結果を入力し、 実行指令を出力する。 即ち、 実行指令生成部 4 1 7 2は、 画像を入出力しない。
なお、 定常領域検出部 4 1 6 1以外の構成は、 図 2 0 7のそれと基本的に同様 である。 即ち、 第 2の併用手法が適用される信号処理装置 (図 2 1 5の信号処理 装置) においても、 第 1の併用手法が適用される信号処理装置 (図 2 0 7 ) と基 本的に同様の構成と機能を有する、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 および、 画像生成部 4 1 0 4が設けられている。 ただし、 第 3の併用手法においては、 実世界推定部 4 1 0 2と画像生成部 4 1 0 4のそれぞれは、 実行指令生成部 4 1 7 2からの実行指令が入力されない限り、 その処理を実行しない。
ところで、 図 2 1 5の例では、 画像の出力単位は画素単位とされている。 そこ で、 図示はしないが、 出力単位を 1フレームの画像全体とするために (全ての画 素を一括して出力するために) 、 例えば、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の後段に、 画像合成部をさらに設けることもできる。
この画像合成部は、 画像生成部 4 1 0 3から出力された画素値と、 画像生成部 4 1 0 4より出力された画素値を加算し (合成し) 、 加算した値を対応する画素 の画素値とする。 この場合、 画像生成部 4 1 0 3と画像生成部 4 1 0 4のうちの、 実行指令が供給されていない方は、 その処理を実行せず、 所定の一定値 (例えば、 0 ) を画像合成部に常時供給する。
画像合成部は、 このような処理を全ての画素について操り返し実行し、 全ての 画素の処理を終了すると、 全ての画素を一括して (1フレームの画像データとし て) 外部に出力する。
次に、 図 2 1 6のフローチヤ一トを参照して、 第 3の併用手法が適用される信 号処理装置 (図 2 1 5 ) の信号の処理について説明する。
なお、 ここでは、 第 1の併用手法のときと同様に、 データ定常性検出部 4 1 0 1は、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間 方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定 の一辺と平行な方向) とのなす角度) を最小自乗法により演算し、 演算した角度 をデータ定常性情報として出力するとする。
データ定常性検出部 4 1 0 1はまた、 角度を演算するときに併せて算出される 推定誤差 (最小自乗法の誤差) を、 領域特定情報として出力するとする。
図 1において、 実世界 1の信号がセンサ 2に入射されると、 センサ 2からは入 力画像が出力される。
図 2 1 5において、 この入力画像は、 画像生成部 4 1 0 4に入力されるととも に、 データ定常性検出部 4 1 0 1、 および実世界推定部 4 1 0 2にも入力される。 そこで、 図 2 1 6のステップ S 4 1 8 1において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の方向に対応する角度を検出するとともに、 その推定誤差を演算する。 検出された角度は、 データ定常性情報として実世界推 定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給される。 また、 演算された 推定誤差は、 領域特定情報として領域検出部 4 1 7 1に供給される。
なお、 ステップ S 4 1 8 1の処理は、 上述したステップ S 4 1 0 2 (図 2 1 0 ) の処理と基本的に同様の処理である。
また、 上述したように、 いまの時点においては (実行指令生成部 4 1 7 2から 実行指令が供給されない限り) 、 実世界推定部 4 1 0 2も画像生成部 4 1 0 4も その処理を実行しない。
ステップ S 4 1 8 2において、 領域検出部 4 1 7 1は、 データ定常性検出部 4 1 0 1により演算された推定誤差 (供給された領域特定情報) に基づいて、 入力 画像の注目画素 (データ定常性検出部 4 1 0 1が角度を検出する場合に注目画素 とした画素) の領域を検出し、 その検出結果を実行指令生成部 4 1 7 2に供給す る。 なお、 ステップ S 4 1 8 2の処理は、 上述したステップ S 4 1 0 5 (図 2 1 0) の処理と基本的に同様の処理である。
領域検出部 4 1 7 1の検出結果が実行指令生成部 4 1 7 2に供給されると、 ス テツプ S 4 1 8 3において、 実行指令生成部 4 1 7 2は、 検出された領域が、 定 常領域であるか否かを判定する。 なお、 ステップ S 4 1 8 3の処理は、 上述した ステップ S 4 1 0 6 (図 2 1 0) の処理と基本的に同様の処理である。
ステップ S 4 1 8 3において、 検出された領域が定常領域ではないと判定した 場合、 実行指令生成部 4 1 7 2は、 実行指令を画像生成部 4 1 04に供給する。 すると、 画像生成部 4 1 04は、 ステップ S 4 1 84において、 「クラス分類適 応処理の実行処理」 を実行して、 第 1の画素 (注目画素 (入力画像の SD画素) における HD画素) を生成し、 ステップ S 4 1 8 5において、 クラス分類適応処 理により生成された第 1の画素を、 出力画像として外部に出力する。
なお、 ステップ S 4 1 84の処理は、 上述したステップ S 4 1 0 1 (図 2 1 0) の処理と基本的に同様の処理である。 即ち、 図 2 1 1のフローチャートは、 ステップ S 4 1 8 4の処理の詳細を説明するフローチヤ一トでもある。
これに対して、 ステップ S 4 1 8 3において、 検出された領域が定常領域であ ると判定した場合、 実行指令生成部 4 1 7 2は、 実行指令を実世界推定部 4 1 0 2に供給する。 すると、 ステップ S 4 1 8 6において、 実世界推定部 4 1 0 2は、 データ定常性検出部 4 1 0 1により検出された角度と、 入力画像に基づいて、 実 世界 1の信号を推定する。 なお、 ステップ S 4 1 8 6の処理は、 上述したステツ プ S 4 1 0 3 (図 2 1 0) の処理と基本的に同様の処理である。
そして、 画像生成部 4 1 0 3は、 ステップ S 4 1 8 7において、 実世界推定部 4 1 0 2により推定された実世界 1の信号に基づいて、 検出された領域 (即ち、 入力画像の注目画素 (S D画素) ) における第 2の画素 (HD画素) を生成し、 ステップ S 4 1 8 8において、 その第 2の画素を出力画像として出力する。 なお、 ステップ S 4 1 8 7の処理は、 上述したステップ S 4 1 0 4 (図 2 1 0 ) の処理 と基本的に同様の処理である。 .
第 1の画素または第 2の画素が出力画像として出力されると (ステップ S 4 1 8 5、 またはステップ S 4 1 8 8の処理の後) 、 ステップ S 4 1 8 9において、 全画素の処理を終了したか否かが判定され、 全画素の処理がまだ終了していない と判定された場合、 その処理は、 ステップ S 4 1 8 1に戻る。 即ち、 全ての画素 の処理が終了されるまで、 ステップ S 4 1 8 1乃至 S 4 1 8 9の処理が繰り返さ れる。
そして、 ステップ S 4 1 8 9において、 全画素の処理を終了したと判定された 場合、 その処理は終了となる。
このように、 図 2 1 6のフローチヤ一トの例においては、 第 1の画素 (H D画 素) と第 2の画素 (H D画素) が生成される毎に、 出力画像として第 1の画素ま たは第 2の画素が画素単位で出力される。
しかしながら、 上述したように、 図 2 1 5の構成の信号処理装置の最終段 (画 像生成部 4 1 0 3と画像生成部 4 1 0 4の後段) に画像合成部 (図示せず) をさ らに設ければ、 全ての画素の処理が終了された後、 出力画像として、 全ての画素 を一:舌して出力することが可能になる。 この場合、 ステップ S 4 1 8 5とステツ プ S 4 1 8 8のそれぞれに処理においては、 画素 (第 1の画素または第 2の画 素) は外部ではなく画像合成部に出力される。 そして、 ステップ S 4 1 8 9の処 理の前に、 画像合成部が、 画像生成部 4 1 0 3から供給される画素の画素値と、 画像生成部 4 1 0 4から供給される画素の画素値を合成して、 出力画像の画素を 生成する処理と、 ステップ S 4 1 8 9の処理の後に、 画像合成部が、 全ての画素 を出力する処理が追加される。
次に、 図 2 1 7と図 2 1 8を参照して、 第 4の併用手法について説明する。 図 2 1 7は、 第 4の併用手法が適用される信号処理装置の構成例を表している c 図 2 1 7において、 第 3の併用手法が適用される信号処理装置 (図 2 1 5 ) と 対応する部分には、 対応する符号が付してある。 01585
304
図 2 1 5の構成例 (第 3の併用手法) においては、 領域特定情報は、 データ定 常性検出部 4 1 0 1より出力され領域検出部 4 1 7 1に入力されていたが、 図2 1 7の構成例 (第 4の併用手法) においては、 領域特定情報は、 実世界推定部 4 1 0 2より出力され領域検出部 4 1 7 1に入力される。
その他の構成は、 図 2 1 5のそれと基本的に同様である。 即ち、 第 4の併用手 法が適用される信号処理装置 (図 2 1 7 ) においても、 第 3の併用手法が適用さ れる信号処理装置 (図 2 1 5 ) と基本的に同様の構成と機能を有する、 データ定 常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 画像生成部 4 1 0 4、 並びに定常領域検出部 4 1 6 1 (領域検出部 4 1 7 1および実行指令 生成部 4 1 7 2 ) が設けられている。
なお、 第 3の併用方法と同様に、 図示はしないが、 全ての画素を一括して出力 するために、 例えば、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の後段に、 画像 合成部をさらに設けることもできる。
図 2 1 8は、 図 2 1 7の構成の信号処理装置の信号の処理 (第 4の併用手法の 信号の処理) を説明するフローチャートである。
第 4の併用手法の信号の処理は、 第 3の併用手法の信号の処理 (図 2 1 6のフ ローチャートで示される処理) と類似している。 そこで、 ここでは、 第 3の併用 手法において説明した処理については、 その説明を適宜省略し、 以下、 図 2 1 8 のフローチャートを参照して、 第 3の併用手法とは異なる第 4の併用手法の信号 の処理を中心に説明する。
なお、 ここでは、 データ定常性検出部 4 1 0 1は、 第 3の併用手法と同様に、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子の所定の一辺 と平行な方向) とのなす角度) を最小自乗法により演算し、 演算した角度をデー タ定常性情報として出力するとする。
ただし、 上述したように、 第 3の併用手法においては、 データ定常性検出部 4 1 0 1が領域特定情報 (例えば、 推定誤差) を領域検出部 4 1 7 1に供給してい T脑 04/001585
305
たのに対して、 第 4の併用手法においては、 実世界推定部 4 1 0 2が領域特定情 報 (例えば、 推定誤差 (マッピング誤差) ) を領域検出部 4 1 7 1に供給する。 従って、 第 4の併用手法においては、 データ定常性検出部 4 1 0 1の処理とし て、 ステップ S 4 2 0 1の処理が実行される。 この処理は、 第 3の併用手法にお ける、 0 2 1 6のステップ S 4 1 8 1の処理に相当する。 即ち、 ステップ S 4 2 0 1において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の 方向に対応する角度を検出し、 検出した角度をデータ定常性情報として、 実世界 推定部 4 1 0 2と画像生成部 4 1 0 3のそれぞれに供給する。
また、 第 4の併用手法においては、 実世界推定部 4 1 0 2の処理として、 ステ ップ S 4 2 0 2の処理が実行される。 この処理は、 第 3の併用手法における、 図 2 1 0のステップ S 4 1 8 2の処理に相当する。 即ち、 実世界推定部 4 1 0 2は、 ステップ S 4 2 0 2の処理でデータ定常性検出部 4 1 0 1により検出された角度 に基づいて、 実世界 1 (図 1 ) の信号を推定するとともに、 推定された実世界 1 の信号の推定誤差、 即ち、 マッピング誤差を演算し、 それを領域特定情報として 領域検出部 4 1 7 1に供給する。
その他の処理は、 第 3の併用手法の対応する処理 (図 2 1 6のフローチャート で示される処理のうちの対応する処理) と基本的に同様であるので、 その説明は 省略する。
次に、 図 2 1 9と図 2 2 0を参照して、 第 5の併用手法について説明する。 図 2 1 9は、 第 5の併用手法が適用される信号処理装置の構成例を表している。 図 2 1 9において、 第 3と第 4の併用手法が適用される信号処理装置 (図 2 1 5と図 2 1 7 ) と対応する部分には、 対応する符号が付してある。
図 2 1 5の構成例 (第 3の併用手法) においては、 データ定常性検出部 4 1 0 1の後段であって、 実世界推定部 4 1 0 2と画像生成部 4 1 0 4の前段に、 1つ の定常領域検出部 4 1 6 1が配設されている。
また、 図 2 1 7の構成例 (第 4の併用手法) においては、 実世界推定部 4 1 0 2の後段であって、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の前段に、 1つの 定常領域検出部 4 1 6 1が配設されている。
これらに対して、 図 2 1 9の構成例 (第 5の併用手法) においては、 第 3の併 用方法と同様に、 データ定常性検出部 4 1 0 1の後段であって、 実世界推定部 4 1 0 2と画像生成部 4 1 0 4の前段に、 定常領域検出部 4 1 8 1が配設されてい る。 さらに、 第 4の併用方法と同様に、 実世界推定部 4 1 0 2の後段であって、 画像生成部 4 1 0 3と画像生成部 4 1 0 4の前段に、 定常領域検出部 4 1 8 2が 配設されている。
定常領域検出部 4 1 8 1と定常領域検出部 4 1 8 2のそれぞれは、 定常領域検 出部 4 1 6 1 (図 2 1 5または図 2 1 7 ) と基本的に同様の構成と機能を有して いる。 即ち、 領域検出部 4 1 9 1と領域検出部 4 2 0 1はいずれも、 領域検出部 4 1 7 1と基本的に同様の構成と機能を有している。 また、 実行指令生成部 4 1 9 2と実行指令生成部 4 2 0 2はいずれも、 実行指令生成部 4 1 7 2と基本的に 同様の構成と機能を有している。
換言すると、 第 5の併用手法は、 第 3の併用手法と第 4の併用手法を組み合わ せたものである。
即ち、 第 3の併用手法や第 4の併用手法においては、 1つの領域特定情報 (第 3の併用手法においては、 データ定常性検出部 4 1 0 1からの領域特定情報であ り、 第 4の併用手法においては、 実世界推定部 4 1 0 2からの領域特定情報であ る) に基づいて、 入力画像の注目画素が定常領域であるか非定常領域であるかが 検出される。 従って、 第 3の併用手法や第 4の併用手法では、 本来、 非定常領域 であるにも関わらず、 定常領域であると検出される恐れもある。
そこで、 第 5の併用手法においては、 はじめにデータ定常性検出部 4 1 0 1か らの領域特定情報 (第 5の併用手法の説明においては、 第 1の領域特定情報と称 する) に基づいて、 入力画像の注目画素が定常領域であるか非定常領域であるか が検出された後、 さらに、 実世界推定部 4 1 0 2からの領域特定情報 (第 5の併 用手法の説明においては、 第 2の領域特定情報と称する ) に基づいて、 入力画像 の注目画素が定常領域であるか非定常領域であるかが検出される。 このように、 第 5の併用手法においては、 領域の検出の処理が 2回行われるの で、 第 3の併用手法や第 4の併用手法に比較して、 定常領域の検出精度が上がる ことになる。 さらに、 第 1の併用手法や第 2の併用手法においても、 第 3の併用 手法や第 4の併用手法と同様に、 1つの定常領域検出部 4 1 0 5 (図 2 0 7また は図 2 1 3 ) しか設けられていない。 従って、 第 1の併用手法や第 2の併用手法 と比較しても、 定常領域の検出精度が上がることになる。 その結果、 第 1乃至第 4の併用手法のいずれよりも実世界 1 (図 1 ) の信号に近い画像データを出力す ることが可能になる。
ただし、 第 1乃至第 4の併用手法でも、 従来の画像処理を行う画像生成部 4 1 0 4と、 本発明が適用されるデータの定常性を利用して画像を生成する装置また はプログラム等 (即ち、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および、 画像生成部 4 1 0 3 ) を併用していることに変わりはない。
従って、 第 1乃至第 4の併用手法でも、 従来の信号処理装置や、 図 3の構成の 本発明の信号処理のいずれよりも実世界 1 (図 1 ) の信号に近い画像データを出 力することが可能になる。
一方、 処理速度の観点からは、 第 1乃至第 4の併用手法においては、 領域の検 出の処理が 1回だけで済むので、 領域の検出の処理を 2回行う第 5の併用手法よ りも優れていることになる。
従って、 ユーザ (または製造者) 等は、 必要とされる出力画像の品質と、 必要 とされる処理時間 (出力画像が出力されるまでの時間) に合致した併用手法を選 択的に利用することができる。
なお、 図 2 1 9におけるその他の構成は、 図 2 1 5、 または、 図 2 1 7のそれ と基本的に同様である。 即ち、 第 5の併用手法が適用される信号処理装置 (図 2
1 9 ) においても、 第 3または第 4の併用手法が適用される信号処理装置 (図 2 1 5、 または図 2 1 7 ) と基本的に同様の構成と機能を有する、 データ定常性検 出部 4 1 0 1、 実世界推定部 4 1 0 2、 画像生成部 4 1 0 3、 および画像生成部
4 1 0 4が設けられている。 004/001585
308
ただし、 第 5の併用手法においては、 実世界推定部 4 1 0 2は、 実行指令生成 部 4 1 9 2からの実行指令が入力されない限り、 画像生成部 4 1 0 3は、 実行指 令生成部 4 2 0 2からの実行指令が入力されない限り、 画像生成部 4 1 0 4は、 実行指令生成部 4 1 9 2、 または実行指令生成部 4 2 0 2からの実行指令が入力 されない限り、 その処理を実行しない。
また、 第 5の併用手法においても、 第 3や第 4の併用方法と同様に、 図示はし ないが、 全ての画素を一括して出力するために、 例えば、 画像生成部 4 1 0 3と 画像生成部 4 1 0 4の後段に、 画像合成部をさらに設けることもできる。
次に、 図 2 2 0のフローチャートを参照して、 第 5の併用手法が適用される信 号処理装置 (図 2 1 9 ) の信号の処理について説明する。
なお、 ここでは、 第 3や第 4の併用手法のときと同様に、 データ定常性検出部 4 1 0 1は、 角度 (実世界 1 (図 1 ) の信号の注目位置における、 定常性の方向 (空間方向) と、 空間方向の 1方向である X方向 (センサ 2 (図 1 ) の検出素子 の所定の一辺と平行な方向) とのなす角度) を最小自乗法により演算し、 演算し た角度をデータ定常性情報として出力するとする。
また、 ここでは、 第 3の併用手法のときと同様に、 データ定常性検出部 4 1 0 1はまた、 角度を演算するときに併せて算出される推定誤差 (最小自乗法の誤 差) を、 第 1の領域特定情報として出力するとする。
さらに、 ここでは、 第 4の併用手法のときと同様に、 実世界推定部 4 1 0 2は、 マッピング誤差 (推定誤差) を、 第 2の領域特定情報として出力するとする。 図 1において、 実世界 1の信号がセンサ 2に入射されると、 センサ 2からは入 力画像が出力される。
図 2 1 9において、 この入力画像は、 データ定常性検出部 4 1 0 1、 実世界推 定部 4 1 0 2、 および、 画像生成部 4 1 0 4のそれぞれに入力される。
そこで、 図 2 2 0のステップ S 4 2 2 1において、 データ定常性検出部 4 1 0 1は、 入力画像に基づいて、 定常性の方向に対応する角度を検出するとともに、 その推定誤差を演算する。 検出された角度は、 データ定常性情報として実世界推 JP2004/001585
309
定部 4 102と画像生成部 410 3のそれぞれに供給される。 また、 演算された 推定誤差は、 第 1の領域特定情報として領域検出部 41 9 1に供給される。
なお、 ステップ S 42 2 1の処理は、 上述したステップ S 4 1 8 1 (図 21 6) の処理と基本的に同様の処理である。
また、 上述したように、 いまの時点においては (実行指令生成部 41 9 2から 実行指令が供給されない限り) 、 実世界推定部 4 10 2も画像生成部 4 104も その処理を実行しない。
ステップ S 4222において、 領域検出部 4 1 9 1は、 データ定常性検出部 4 10 1により演算された推定誤差 (供給された第 1の領域特定情報) に基づいて、 入力画像の注目画素 (データ定常性検出部 410 1が角度を検出する場合に注目 画素とした画素) の領域を検出し、 その検出結果を実行指令生成部 41 92に供 給する。 なお、 ステップ S 4222の処理は、 上述したステップ S 41 82 (図 2 1 6) の処理と基本的に同様の処理である。
領域検出部 4 18 1の検出結果が実行指令生成部 4 1 9 2に供給されると、 ス テツプ S 4223において、 実行指令生成部 41 92は、 検出された領域が、 定 常領域であるか否かを判定する。 なお、 ステップ S 4223の処理は、 上述した ステップ S 41 83 (図 2 1 6) の処理と基本的に同様の処理である。
ステップ S 422 3において、 検出された領域が定常領域ではない (非定常領 域である) と判定した場合、 実行指令生成部 41 92は、 実行指令を画像生成部 4104に供給する。 すると、 画像生成部 4104は、 ステップ S 4224にお いて、 「クラス分類適応処理の実行処理」 を実行して、 第 1の画素 (注目画素
(入力画像の SD画素) における HD画素) を生成し、 ステップ S 4225にお いて、 クラス分類適応処理により生成された第 1の画素を、 出力画像として外部 に出力する。
なお、 ステップ S 4224の処理は、 上述したステップ S 4 184 (図 2 1 6) の処理と基本的に同様の処理である。 即ち、 図 2 1 1のフローチャートは、 ステップ S 41 86の処理の詳細を説明するフローチャートでもある。 また、 ス テツプ S 4225の処理は、 上述したステップ S 41 85 (図 21 6) の処理と 基本的に同様の処理である。
これに対して、 ステップ S 4223において、 検出された領域が定常領域であ ると判定した場合、 実行指令生成部 4 1 9 2は、 実行指令を実世界推定部 4 10 2に供給する。 すると、 ステップ S 4226において、 実世界推定部 4 1 0 2は、 ステップ S 422 1の処理でデータ定常性検出部 41 01により検出された角度 に基づいて、 実世界 1の信号を推定するとともに、 その推定誤差 (マッピング誤 差) を演算する。 推定された実世界 1の信号は、 実世界推定情報として画像生成 部 41 03に供給される。 また、 演算された推定誤差は、 第 2の領域特定情報と して領域検出部 4201に供給される。
なお、 ステップ S 4226の処理は、 上述したステップ S 420 2 (図 21 8) の処理と基本的に同様の処理である。
また、 上述したように、 いまの時点においては (実行指令生成部 41 92、 ま たは実行指令生成部 4202から実行指令が供給されない限り) 、 画像生成部 4 103も画像生成部 41 04もその処理を実行しない。
ステップ S 4227において、 領域検出部 420 1は、 実世界推定部 41 02 により演算された推定誤差 (供給された第 2の領域特定情報) に基づいて、 入力 画像の注目画素 (データ定常性検出部 41 01が角度を検出する場合に注目画素 とした画素) の領域を検出し、 その検出結果を実行指令生成部 4202に供給す る。 なお、 ステップ S 4227の処理は、 上述したステップ S 4203 (図 2 1 8) の処理と基本的に同様の処理である。
領域検出部 420 1の検出結果が実行指令生成部 4202に供給されると、 ス テツプ S 4228において、 実行指令生成部 4202は、 検出された領域が、 定 常領域であるか否かを判定する。 なお、 ステップ S 4228の処理は、 上述した ステップ S 4204 (図 21 8) の処理と基本的に同様の処理である。
ステップ S 4228において、 検出された領域が定常領域ではない (非定常領 域である) と判定した場合、 実行指令生成部 4202は、 実行指令を画像生成部 4 1 0 4に供給する。 すると、 画像生成部 4 1 0 4は、 ステップ S 4 2 2 4にお いて、 「クラス分類適応処理の実行処理」 を実行して、 第 1の画素 (注目画素
(入力画像の S D画素) における H D画素) を生成し、 ステップ S 4 2 2 5にお いて、 クラス分類適応処理により生成された第 1の画素を、 出力画像として外部 に出力する。
なお、 いまの場合のステップ S 4 2 2 4の処理は、 上述したステップ S 4 2 0 5 (図 2 1 8 ) の処理と基本的に同様の処理である。 また、 いまの場合のステツ プ S 4 2 2 5の処理は、 上述したステップ S 4 2 0 6 (図 2 1 8 ) の処理と基本 的に同様の処理である。
これに対して、 ステップ S 4 2 2 8において、 検出された領域が定常領域であ ると判定した場合、 実行指令生成部 4 2 0 2は、 実行指令を画像生成部 4 1 0 3 に供給する。 すると、 ステップ S 4 2 2 9において、 画像生成部 4 1 0 3は、 実 世界推定部 4 1 0 2により推定された実世界 1の信号 (および、 必要に応じてデ ータ定常性検出部 4 1 0 1からのデータ定常性情報) に基づいて、 領域検出部 4 2 0 1により検出された領域 (即ち、 入力画像の注目画素 (S D画素) ) におけ る、 第 2の画素 (H D画素) を生成する。 そして、 ステップ S 4 2 3 0において、 画像生成部 4 1 0 3は、 生成された第 2の画素を、 出力画像として外部に出力す る。
なお、 ステップ S 4 2 2 9と S 4 2 3 0のそれぞれの処理は、 上述したステツ プ S 4 2 0 7と S 4 2 0 8 (図 2 1 8 ) のそれぞれの処理と基本的に同様の処理 である。
第 1の画素または第 2の画素が出力画像として出力されると (ステップ S 4 2 2 5、 またはステップ S 4 2 3 0の処理の後) 、 ステップ S 4 2 3 1において、 全画素の処理を終了したか否かが判定され、 全画素の処理がまだ終了していない と判定された場合、 その処理は、 ステップ S 4 2 2 1に戻る。 即ち、 全ての画素 の処理が終了されるまで、 ステップ S 4 2 2 1乃至 S 4 2 3 1の処理が繰り返さ れる。 そして、 ステップ S 4 2 3 1において、 全画素の処理を終了したと判定された 場合、 その処理は終了となる。
以上、 図 2 0 7乃至図 2 2 0を参照して、 本発明の信号処理装置 4 (図 1 ) の 実施の形態の一例として、 併用手法について説明した。
上述したように、 併用手法においては、 図 3の構成の本発明の信号処理装置に 対してさらに、 定常性を利用しない他の信号処理を行う装置 (または、 プロダラ ム等) が付加されている。
換言すると、 併用手法においては、 従来の信号処理装置 (または、 プログラム 等) に対して、 図 3の構成の本発明の信号処理装置 (または、 プログラム等) が 付加されている。
即ち、 併用手法においては、 例えば、 図 2 0 7や図 2 1 3の定常領域検出部4 1 0 5が、 実世界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠 落した画像データ (例えば、 図 2 0 7や図 2 1 3の入力画像) 内において、 画像 データのデータの定常性を有する領域 (例えば、 図 2 1 0のステップ S 4 1 0 6 や図 2 1 4のステップ S 4 1 6 6に記載の定常領域) を検出する。
また、 図 2 0 7や図 2 1 3の実世界推定部 4 1 0 2が、 実世界 1の光信号の定 常性の一部が欠落した画像データのデータの定常性に基づいて、 欠落した実世界 1の光信号の定常性を推定することにより光信号を推定する。
さらに、 例えば、 図 2 0 7や図 2 1 3のデータ定常性検出部 4 1 0 1が、 実世 界 1の光信号が射影され、 実世界 1の光信号の定常性の一部が欠落した画像デー タ内において、 画像データのデータの定常性の基準軸に対する角度 (例えば、 図 2 1 0のステップ S 4 1 0 2や図 2 1 4のステップ S 4 1 6 2に記載の角度) を 検出する。 この場合、 例えば、 図 2 0 7や図 2 1 3の定常領域検出部 4 1 0 5は、 角度に基いて画像データのデータの定常性を有する領域を検出し、 実世界推定部 4 1 0 2は、 その領域に対して、 欠落した実世界 1の光信号の定常性を推定する ことにより光信号を推定する。
ただし、 図 2 0 7においては、 定常領域検出部 4 1 0 5は、 角度に沿って定常 であるモデルと入力画像との誤差 (即ち、 例えば、 図中の領域特定情報であって、 図 2 1 0のステップ S 4 1 0 2の処理で演算される推定誤差) に基づいて入力画 像のデータの定常性を有する領域を検出する。
これに対して、 図 2 1 3においては、 定常領域検出部 4 1 0 5は、 実世界推定 部 4 1 0 2の後段に配され、 実世界推定部 4 1 0 2により演算される、 入力画像 に対応する実世界 1の光信号を表す実世界モデルと、 入力画像との誤差 (即ち、 例えば、 図中の領域特定情報であって、 図 2 1 0のステップ S 4 1 6 3の処理で 演算される実世界の信号の推定誤差 (マッピング誤差) ) に基いて、 実世界推定 部 4 1 0 2により推定された実世界モデル、 即ち、 画像生成部 4 1 0 3から出力 される画像を選択的に出力する (例えば、 図 2 1 3のセレクタ 4 1 1 2力 図 2 1 4のステップ S 4 1 6 6乃至 S 4 1 6 8の処理を実行する) 。
以上、 図 2 0 7と図 2 1 3の例で説明したが、 以上のことは、 図 2 1 5、 図 2 1 7、 および図 2 1 9においても同様である。
従って、 併用手法においては、 実世界 1の信号のうちの定常性が存在する部分 (画像データのデータの定常性を有する領域)については、 図 3の構成の信号処 理装置に相当する装置 (またはプログラム等) が信号処理を実行し、 実世界 1の 信号のうちの明確な定常性が存在しない部分については、 従来の信号処理装置 (または、 プログラム等) が信号処理を実行することが可能になる。 その結果、 従来の信号処理装置や、 図 3の構成の本発明の信号処理のいずれよりも実世界 1 (図 1 ) の信号に近い画像データを出力することが可能になる。
次に、 図 2 2 1 , 図 2 2 2を参照して、 データ定常性検出部 1 0 1より直接画 像を生成する例について説明する。
図 2 2 1のデータ定常性検出部 1 0 1は、 図 1 6 5のデータ定常性検出部 1 0 1に画像生成部 4 5 0 1を付加したものである。 画像生成部 4 5 0 1は、 実世界 推定部 8 0 2より出力される実世界の近似関数 f (X)の係数を実世界推定情報と して取得し、 この係数に基づいて、 各画素を再積分することにより画像を生成し て出力する。 次に、 図 2 2 2のフローチャートを参照して、 図 2 2 1のデータの定常性の検 出の処理について説明する。 尚、 図 2 2 2のフローチャートのステップ S 4 5 0 1乃至 S 4 5 0 4、 および、 ステップ S 4 5 0 6乃至 S 4 5 1 1の処理に付いて は、 図 1 6 6のフローチヤ一トのステップ S 8 0 1乃至 S 8 1 0の処理と同様で あるのでその説明は省略する。
ステップ S 4 5 0 4において、 画像生成部 4 5 0 1は、 実世界推定部 8 0 2よ り入力された係数に基づいて各画素を再積分して、 画像を生成し出力する。 以上の処理により、 データ定常性検出部 1 0 1は、 領域情報のみならず、 その 領域判定に用いた (実世界推定情報に基づいて生成された画素からなる) 画像を 出力することができる。
このように、 図 2 2 1のデータ定常性検出部 1 0 1においては、 画像生成部 4 5 0 1が設けられている。 即ち、 図 2 2 1のデータ定常性検出部 1 0 1は、 入力 画像のデータの定常性に基づいて出力画像を生成することができる。 従って、 図 2 2 1で示される構成を有する装置を、 データ定常性検出部 1 0 1の実施の形態 と捉えるのではなく、 図 1の信号処理装置 (画像処理装置) 4の他の実施の形態 と捉えることもできる。
さらに、 上述した併用手法が適用される信号処理装置において、 実世界 1の信 号のうちの定常性が存在する部分に対して信号処理を施す信号処理部として、 図 2 2 1で示される構成を有する装置 (即ち、 図 2 2 1のデータ定常性検出部 1 0 1と同様の機能と構成を有する信号処理装置) を適用することも可能である。 具体的には、 例えば、 第 1の併用手法が適用される図 2 0 7の信号処理装置に おいては、 実世界 1の信号のうちの定常性が存在する部分に対して信号処理を施 す信号処理部は、 データ定常性検出部 4 1 0 1、 実世界推定部 4 1 0 2、 および 画像生成部 4 1 0 3とされている。 図示はしないが、 これらのデータ定常性検出 部 4 1 0 1、 実世界推定部 4 1 0 2、 および画像生成部 4 1 0 3の代わりに、 図 2 2 1の構成の信号処理装置 (画像処理装置) を適用することも可能である。 こ の場合、 図 2 2 1の比較部 8 0 4が、 その出力を領域特定情報をとして領域検出 部 4 1 1 1に供給し、 また、 面像生成部 4 5 0 1力 出力画像 (第 2の画素) を セレクタ 4 1 1 2に供給することになる。
なお、 センサ 2は、 固体撮像素子である、 例えば、 BBD (Bucket Bri gade Device; ヽ CID (Charge Inject ion Device) ヽ 7こ fま CPD (Charge Priming Device) などのセンサでもよい。
本発明の信号処理を行うプログラムを記録した記録媒体は、 図 2で示されるよ うに、 コンピュータとは別に、 ユーザにプログラムを提供するために配布される、 プログラムが記録されている磁気ディスク 5 1 (フレキシブルディスクを含む) 、 光ディスク 5 2 (CD-ROM (Corapaut Di sk-Read Only Memory) , DVD (Di gi tal Versati le Di sk)を含む) 、 光磁気ディスク 5 3 (MD (Mini-Disk) (商標) を含む) 、 もしくは半導体メモリ 5 4などよりなるパッケージメディアにより構 成されるだけでなく、 コンピュータに予め組み込まれた状態でユーザに提供され る、 プログラムが記録されている R0M 2 2や、 記憶部 2 8に含まれるハードディ スクなどで構成される。
なお、 上述した一連の処理を実行させるプログラムは、 必要に応じてルータ、 モデムなどのインタフェースを介して、 ローカルエリアネットワーク、 インター ネッ ト、 デジタル衛星放送といった、 有線または無線の通信媒体を介してコンビ ユータにィンストールされるようにしてもよい。
なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
以上のように、 本発明によれば、 正確で、 精度の高い処理結果を得ることがで きるようになる。
また、 本発明によれば、 現実世界の事象に対して、 より正確で、 より精度の高 い処理結果を得ることができるようになる。

Claims

請求の範囲
1 . それぞれ時空間積分効果を有する複数の検出素子に現実世界の光信号が射 影されることにより取得された、 前記現実世界の光信号の定常性の一部が欠落し た画像データ内の複数の画素の画素値の不連続部を検出する不連続部検出手段と、 前記不連続部から前記画素値の変化の頂点を検出する頂点検出手段と、 前記頂点から単調に前記画素値が増加または減少している単調増減領域を検出 する単調増減領域検出手段と、
前記単調増減領域検出手段により検出された前記単調増減領域の中の、 他の前 記単調増減領域が前記画像データ上の隣接する位置に存在する前記単調増減領域 を、 前記画像データの定常性を有する定常領域として検出する連続性検出手段と、 前記定常領域の連続性の方向を検出する方向検出手段と、
前記連続性検出手段により検出された前記定常領域および前記方向検出手段に より検出された前記定常領域の前記連続性の方向に基づいて、 前記現実世界の光 信号の定常性を推定することにより前記現実世界の光信号を推定する実世界推定 手段と
を含むことを特徴とする画像処理装置。
2 . 前記方向検出手段は、
前記連続性検出手段により検出された前記単調増減領域の中の、 第 1の単調增 減領域に配される複数の第 1の画素の画素値の変化と、 前記第 1の単調増減領域 に隣接する第 2の単調増減領域に配される、 前記複数の第 1の画素に隣接する複 数の第 2の画素の画素値の変化とに基づいて、 前記定常領域の前記連続性の方向 を検出する
ことを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 前記方向検出手段は、
前記第 1の単調増減領域に配される前記複数の第 1の画素の画素値の増分と、 前記第 2の単調増減領域に配される前記複数の第 2の画素の画素値の減分とがー 致するとき、 前記第 1の単調増減領域と前記第 2の単調増減領域とから定まる方 向を、 前記定常領域の前記連続性の方向として検出する
ことを特徴とする請求の範囲第 2項に記載の画像処理装置。
4 . 前記不連続部検出手段は、
前記画像データの複数の画素の画素値に対応する回帰平面を求めて、 前記回帰 平面との距離が閾値以上である前記画素値を有する前記画素からなる領域を前記 不連続部として検出し、 前記不連続部の前記画素の前記画素値から、 前記回帰平 面で近似される値を減算した差分値を演算し、
前記頂点検出手段は、
前記差分値に基づいて、 前記頂点を検出し、
前記単調増減領域検出手段は、
前記差分値に基づいて、 前記単調増減領域を検出し、
前記方向検出手段は、
前記差分値に基づいて、 前記定常領域の前記連続性の方向を検出する ことを特徴とする請求の範囲第 1項に記載の画像処理装置。
5 . それぞれ時空間積分効果を有する複数の検出素子に現実世界の光信号が射 影されることにより取得された、 前記現実世界の光信号の定常性の一部が欠落し た画像データ内の複数の画素の画素値の不連続部を検出する不連続部検出ステッ プと、
前記不連続部から前記画素値の変化の頂点を検出する頂点検出ステップと、 前記頂点から単調に前記画素値が増加または減少している単調増減領域を検出 する単調増減領域検出ステップと、
前記単調増減領域検出ステップにおいて検出された前記単調増減領域の中の、 他の前記単調増減領域が前記画像データ上の隣接する位置に存在する前記単調増 減領域を、 前記画像データの定常性を有する定常領域として検出する連続性検出 ステップと、
前記定常領域の連続性の方向を検出する方向検出ステップと、
前記連続性検出ステップにおいて検出された前記定常領域および前記方向検出 ステップにおいて検出された前記定常領域の前記連続性の方向に基づいて、 前記 現実世界の光信号の定常性を推定することにより前記現実世界の光信号を推定す る実世界推定ステップと
を含むことを特徴とする画像処理方法。
6 . それぞれ時空間積分効果を有する複数の検出素子に現実世界の光信号が射 影されることにより取得された、 前記現実世界の光信号の定常性の一部が欠落し た画像データ内の複数の画素の画素値の不連続部を検出する不連続部検出ステツ プと、
前記不連続部から前記画素値の変化の頂点を検出する頂点検出ステップと、 前記頂点から単調に前記画素値が増加または減少している単調増減領域を検出 する単調増減領域検出ステップと、
前記単調増減領域検出ステップにおいて検出された前記単調增減領域の中の、 他の前記単調増減領域が前記画像データ上の隣接する位置に存在する前記単調増 減領域を、 前記画像データの定常性を有する定常領域として検出する連続性検出 ステップと、
前記定常領域の連続性の方向を検出する方向検出ステップと、
前記連続性検出ステップにおいて検出された前記定常領域およぴ前記方向検出 ステップにおいて検出された前記定常領域の前記連続性の方向に基づいて、 前記 現実世界の光信号の定常性を推定することにより前記現実世界の光信号を推定す る実世界推定ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラム。
PCT/JP2004/001585 2003-02-25 2004-02-13 画像処理装置および方法、並びにプログラム WO2004077354A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/544,873 US7593601B2 (en) 2003-02-25 2004-02-13 Image processing device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-046861 2003-02-25
JP2003046861A JP4143916B2 (ja) 2003-02-25 2003-02-25 画像処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2004077354A1 true WO2004077354A1 (ja) 2004-09-10

Family

ID=32923245

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/001585 WO2004077354A1 (ja) 2003-02-25 2004-02-13 画像処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (1) US7593601B2 (ja)
JP (1) JP4143916B2 (ja)
KR (1) KR101041060B1 (ja)
CN (1) CN1332355C (ja)
WO (1) WO2004077354A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214459B2 (ja) * 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4144377B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4144378B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US20080170767A1 (en) * 2007-01-12 2008-07-17 Yfantis Spyros A Method and system for gleason scale pattern recognition
JP4882999B2 (ja) * 2007-12-21 2012-02-22 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および学習装置
US8600213B2 (en) * 2011-10-26 2013-12-03 Xerox Corporation Filtering source video data via independent component selection
KR101838342B1 (ko) * 2011-10-26 2018-03-13 아이큐브드 연구소 주식회사 화상 처리 장치, 화상 처리 방법, 및 기록매체
US9709990B2 (en) * 2012-12-21 2017-07-18 Toyota Jidosha Kabushiki Kaisha Autonomous navigation through obstacles
JP6609098B2 (ja) * 2014-10-30 2019-11-20 キヤノン株式会社 表示制御装置、表示制御方法、及びコンピュータプログラム
US10095944B2 (en) * 2015-08-28 2018-10-09 Tata Consultancy Services Limited Methods and systems for shape based image analysis for detecting linear objects
JP6800938B2 (ja) * 2018-10-30 2020-12-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02285475A (ja) * 1989-03-27 1990-11-22 Hughes Aircraft Co エッジとラインとの抽出方法とその装置
JPH05342352A (ja) * 1992-06-08 1993-12-24 Dainippon Screen Mfg Co Ltd 多階調画像のエッジ抽出装置
JPH0896145A (ja) * 1994-09-21 1996-04-12 Nec Corp 曲線検出装置
JPH11239363A (ja) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 映像中文字領域抽出装置および方法およびその方法を記録した記録媒体
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
WO2001097510A1 (en) * 2000-06-15 2001-12-20 Sony Corporation Image processing system, image processing method, program, and recording medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4648120A (en) 1982-07-02 1987-03-03 Conoco Inc. Edge and line detection in multidimensional noisy, imagery data
US5052045A (en) * 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
US5134495A (en) * 1990-11-07 1992-07-28 Dp-Tek, Inc. Resolution transforming raster-based imaging system
JP3073599B2 (ja) * 1992-04-22 2000-08-07 本田技研工業株式会社 画像のエッジ検出装置
US6621924B1 (en) * 1999-02-26 2003-09-16 Sony Corporation Contour extraction apparatus, a method thereof, and a program recording medium
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
JP2002135801A (ja) * 2000-10-25 2002-05-10 Sony Corp 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02285475A (ja) * 1989-03-27 1990-11-22 Hughes Aircraft Co エッジとラインとの抽出方法とその装置
JPH05342352A (ja) * 1992-06-08 1993-12-24 Dainippon Screen Mfg Co Ltd 多階調画像のエッジ抽出装置
JPH0896145A (ja) * 1994-09-21 1996-04-12 Nec Corp 曲線検出装置
JPH11239363A (ja) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 映像中文字領域抽出装置および方法およびその方法を記録した記録媒体
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
WO2001097510A1 (en) * 2000-06-15 2001-12-20 Sony Corporation Image processing system, image processing method, program, and recording medium

Also Published As

Publication number Publication date
JP4143916B2 (ja) 2008-09-03
US20060159368A1 (en) 2006-07-20
JP2004264917A (ja) 2004-09-24
CN1332355C (zh) 2007-08-15
US7593601B2 (en) 2009-09-22
KR101041060B1 (ko) 2011-06-13
CN1754185A (zh) 2006-03-29
KR20050101225A (ko) 2005-10-20

Similar Documents

Publication Publication Date Title
JP4148041B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
WO2004077353A1 (ja) 画像処理装置および方法、並びにプログラム
WO2004072898A1 (ja) 信号処理装置および方法、並びにプログラム
WO2004077351A1 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004264918A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2004077354A1 (ja) 画像処理装置および方法、並びにプログラム
JP4214462B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161729B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004259232A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4182827B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4161734B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4325296B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4161727B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161733B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161732B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161731B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161735B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4419453B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4182826B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4161730B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4175131B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4161728B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4155046B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4178983B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2004246590A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006159368

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10544873

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057015860

Country of ref document: KR

Ref document number: 20048051050

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057015860

Country of ref document: KR

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10544873

Country of ref document: US