WO2005001763A1 - 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 - Google Patents

信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 Download PDF

Info

Publication number
WO2005001763A1
WO2005001763A1 PCT/JP2004/008691 JP2004008691W WO2005001763A1 WO 2005001763 A1 WO2005001763 A1 WO 2005001763A1 JP 2004008691 W JP2004008691 W JP 2004008691W WO 2005001763 A1 WO2005001763 A1 WO 2005001763A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixels
data
pixel value
image
Prior art date
Application number
PCT/JP2004/008691
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Tetsushi Kokubo
Kazushi Yoshikawa
Hisakazu Shiraki
Michimasa Obana
Hideo Kasama
Masanori Kanemaru
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/562,176 priority Critical patent/US7684635B2/en
Publication of WO2005001763A1 publication Critical patent/WO2005001763A1/ja
Priority to US11/626,556 priority patent/US7512285B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • the present invention relates to a signal processing device and a signal processing method, and a program and a recording medium.
  • the present invention relates to a signal processing device and a signal processing method capable of obtaining an image or the like that is closer to a real-world signal, and a program and a recording medium.
  • a signal processing device and a signal processing method capable of obtaining an image or the like that is closer to a real-world signal, and a program and a recording medium.
  • the first signal having a second dimension which is smaller in dimension than the first dimension, obtained by detecting a first signal which is a real-world signal having a first dimension by a sensor,
  • a third signal with reduced distortion compared to the second signal is generated.
  • the present invention has been made in view of such a situation, and it is an object of the present invention to obtain an image or the like that is closer to a signal in the real world.
  • the signal processing device of the present invention sets a processing area in image data in which a real-world optical signal is projected onto a plurality of pixels each having a time integration effect, and a part of the continuity of the real-world optical signal is lacking.
  • Motion vector setting means for setting a motion vector of an object in image data corresponding to the continuity of a real-world optical signal in which a part of continuity is missing in image data; and a processing area.
  • the pixel value of each pixel in is the value obtained by integrating the pixel value of each pixel that has no motion blur corresponding to the object while moving in accordance with the motion vector.
  • Model generation means for modeling the relationship between the pixel value of each pixel within the pixel and the pixel value of each pixel having no motion blur.
  • the first equation for substituting the pixel value of each pixel in the processing region into the model generated by the model generation unit includes a first equation for substituting the pixel value of each pixel in which no motion blur occurs.
  • a normal equation can be generated by the second equation having a difference of 0.
  • a real-world optical signal is projected onto a plurality of pixels each having a time integration effect, and a processing area in image data in which a part of the continuity of the real-world optical signal is missing is set.
  • a motion vector setting step for setting a motion vector of an object in the image data corresponding to the continuity of a real-world optical signal in which part of the continuity is missing in the image data;
  • the pixel value of each pixel in the processing area is assumed to be a value obtained by integrating the pixel value of each pixel without motion blur corresponding to the object while moving corresponding to the motion vector.
  • Model generation step for modeling the relationship between the pixel ⁇ : and the pixel value of each pixel without motion blur, and a model generated by the processing of the model generation step ,
  • a normal equation that generates a normal equation is obtained by the first equation that substitutes the pixel value of each pixel in the processing area and the second equation that constrains the relationship between each pixel without motion blur. It includes an equation generation step and a real world estimation step of estimating a pixel value of each pixel without motion blur by calculating a normal equation generated by the processing of the normal equation generation step. .
  • the program of the recording medium of the present invention is a program for projecting a processing area in image data in which a real-world optical signal is projected onto a plurality of pixels each having a time integration effect, and a part of the continuity of the real-world optical signal is missing.
  • the pixel value of each pixel in the processing area is assumed to be a value obtained by integrating the pixel value of each pixel in which no motion blur corresponding to the object has occurred while moving corresponding to the motion vector.
  • a model generation step for modeling a relationship between a pixel value of each pixel and a pixel value of each pixel having no motion blur, and a model generated by the processing of the model generation step On the other hand, a normal equation that generates a normal equation by using the first equation that substitutes the pixel value of each pixel in the processing area and the second equation that constrains the relationship between the pixels without motion blur It includes an equation generation step and a real world estimation step of estimating a pixel value of each pixel having no motion blur by calculating a normal equation generated by the processing of the normal equation generation step. I do.
  • a program includes a processing area for setting a processing area in image data in which a real-world optical signal is projected onto a plurality of pixels each having a time integration effect, and a part of the continuity of the real-world optical signal is lacking.
  • the pixel value of each pixel in the processing area is assumed to be the value obtained by integrating the pixel value of each pixel without motion blur corresponding to the object while moving in accordance with the moving vector. And the pixel value of each pixel without motion blur.
  • the first equation in which the pixel value of each pixel in the processing area is substituted for the model generated by the model generation step and the model generated by the model generation step, and the relationship between each pixel in which no motion blur occurs A normal equation generation step for generating a normal equation based on the second equation that constrains And a real-world estimation step of estimating.
  • a real-world optical signal is projected onto a plurality of pixels each having a time integration effect, and a processing region in image data in which a part of the continuity of the real-world optical signal is missing is set,
  • the motion vector of the object in the image data corresponding to the continuity of the optical signal in the real world where a part of the continuity is missing in the data is set, and the pixel value of each pixel in the processing area corresponds to the object
  • the pixel value of each pixel in which no motion blur occurs is a value integrated while moving according to the motion vector
  • the pixel value of each pixel in the processing area and the motion blur have occurred.
  • the relationship between the pixel value of each pixel and the pixel value of each pixel in the processing area is modeled.
  • the normal equation is generated by calculating the normal equations in which the generated pixel value of each pixel motion blur does not occur is estimated.
  • FIG. 1 is a diagram illustrating the principle of the present invention.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the signal processing device 4.
  • FIG. 3 is a block diagram showing a configuration example of one embodiment of the signal processing device 4 of FIG.
  • FIG. 4 is a diagram for more specifically explaining the principle of signal processing of the signal processing device 4.
  • FIG. 5 is a diagram for explaining an example of the arrangement of pixels on the image sensor.
  • FIG. 6 is a diagram for explaining the operation of a detection element that is a CCD.
  • FIG. 7 is a diagram illustrating a relationship between light incident on the detection elements corresponding to the pixels D to F and pixel values.
  • FIG. 8 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • FIG. 9 is a diagram illustrating an example of an image of a linear object in the real world 1.
  • FIG. 10 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 11 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background.
  • FIG. 12 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 13 is a schematic diagram of image data.
  • FIG. 14 is a diagram for explaining the estimation of the model 16 1 based on the M pieces of data 16 2.
  • FIG. 15 is a diagram for explaining the relationship between the signal of the real world 1 and the data 3.
  • FIG. 16 is a diagram showing an example of data 3 of interest when formulating an equation.
  • FIG. 17 is a diagram for explaining signals for two objects in the real world 1 and values belonging to a mixed region when an equation is formed.
  • FIG. 18 is a diagram for explaining the stationarity expressed by Expression (18), Expression (19), and Expression (22).
  • FIG. 19 is a diagram illustrating an example of M pieces of data 162 extracted from the data 3.
  • FIG. 20 is a diagram for explaining integration of signals of the real world 1 in data 3 in the time direction and the two-dimensional spatial direction.
  • FIG. 21 is a diagram illustrating an integration region when generating high-resolution data having a higher resolution in the spatial direction.
  • FIG. 22 is a diagram for explaining an integration area when generating high-resolution data having a higher resolution in the time direction.
  • FIG. 23 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the time-space direction.
  • FIG. 24 is a diagram showing the original image of the input image.
  • FIG. 25 is a diagram illustrating an example of an input image.
  • FIG. 26 is a diagram showing an image obtained by applying the conventional classification adaptive processing.
  • FIG. 27 is a diagram showing a result of detecting a thin line region.
  • FIG. 28 is a diagram illustrating an example of an output image output from the signal processing device 4.
  • FIG. 29 is a flowchart illustrating signal processing by the signal processing device 4.
  • FIG. 30 is a block diagram showing a configuration of the data continuity detecting unit 101.
  • FIG. 31 is a diagram showing an image of the real world 1 with a thin line in front of the background.
  • FIG. 32 is a diagram for explaining the approximation of the background by a plane.
  • FIG. 33 is a diagram showing a cross-sectional shape of image data onto which a thin line image is projected.
  • FIG. 34 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 35 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 36 is a diagram for explaining a process of detecting a vertex and detecting a monotonously increasing / decreasing region.
  • FIG. 37 is a diagram illustrating a process of detecting a thin line region in which the pixel value of the vertex exceeds the threshold value and the pixel value of an adjacent pixel is equal to or less than the threshold value.
  • FIG. 38 is a diagram illustrating the pixel values of the pixels arranged in the direction indicated by the dotted line AA ′ in FIG.
  • FIG. 39 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
  • FIG. 40 is a diagram illustrating an example of another process of detecting a region where a thin line image is projected.
  • FIG. 41 is a flowchart for explaining the continuity detection process.
  • FIG. 42 is a diagram illustrating a process of detecting continuity of data in the time direction.
  • FIG. 43 is a block diagram showing the configuration of the non-stationary component extraction unit 201.
  • Figure 44 illustrates the number of rejections.
  • FIG. 45 is a flowchart illustrating the process of extracting a non-stationary component.
  • FIG. 46 is a flowchart for explaining the process of extracting the stationary component.
  • FIG. 47 is a flowchart illustrating another process of extracting a steady component.
  • FIG. 48 is a flowchart illustrating still another process of extracting a steady component.
  • FIG. 49 is a block diagram showing another configuration of the data continuity detecting unit 101.
  • FIG. 50 is a diagram for explaining activity in an input image having data continuity.
  • FIG. 51 is a diagram for explaining a block for detecting an activity.
  • FIG. 52 is a diagram illustrating an angle of data continuity with respect to activity.
  • FIG. 53 is a block diagram showing a more detailed configuration of the data continuity detector 101.
  • FIG. 54 is a diagram illustrating a set of pixels.
  • FIG. 55 is a view for explaining the relationship between the position of a set of pixels and the angle of data continuity.
  • FIG. 56 is a flowchart illustrating a process of detecting data continuity.
  • FIG. 57 is a diagram illustrating a set of pixels extracted when detecting the continuity angle of the data in the time direction and the spatial direction.
  • FIG. 58 is a diagram illustrating the principle of the function approximation method, which is an example of the embodiment of the real world estimation unit in FIG.
  • FIG. 59 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 60 is a view for explaining a specific example of the integration effect of the sensor of FIG.
  • FIG. 61 is a view for explaining another specific example of the integration effect of the sensor of FIG.
  • FIG. 62 is a diagram showing the real world region containing fine lines shown in FIG.
  • FIG. 63 is a diagram for explaining the principle of an example of the embodiment of the real world estimation unit in FIG. 3 in comparison with the example in FIG.
  • FIG. 64 is a diagram showing the thin-line-containing data area shown in FIG.
  • FIG. 65 is a diagram in which each of the pixel values included in the thin line containing data area in FIG. 64 is graphed.
  • FIG. 66 is a graph showing an approximate function obtained by approximating each pixel value included in the thin line containing data area in FIG. 65.
  • FIG. 67 is a view for explaining the spatial continuity of the fine-line-containing real world region shown in FIG.
  • FIG. 68 is a diagram in which each of the pixel values included in the thin line containing data area in FIG. 64 is graphed.
  • FIG. 69 is a view for explaining a state where each of the input pixel values shown in FIG. 68 is shifted by a predetermined shift amount.
  • FIG. 70 is a graph showing an approximate function that approximates each pixel value included in the thin-line-containing data area in FIG. 65 in consideration of the spatial continuity.
  • FIG. 71 is a diagram illustrating a spatial mixing region.
  • FIG. 72 is a diagram illustrating an approximation function that approximates a real-world signal in the spatial mixing region.
  • Fig. 73 is a graph showing an approximation function that approximates the real-world signal corresponding to the thin-line-containing data area in Fig. 65, taking into account both the integration characteristics of the sensor and the stationarity in the spatial direction. .
  • FIG. 74 is a block diagram illustrating a configuration example of a real-world estimator that uses a first-order polynomial approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 75 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration of FIG.
  • FIG. 76 is a diagram illustrating the tap range.
  • FIG. 77 is a diagram for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 78 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 79 is a view for explaining the distance in the sectional direction.
  • FIG. 80 is a block diagram illustrating a configuration example of a real-world estimator that uses a second-order polynomial approximation method among the function approximation methods having the principle shown in FIG.
  • FIG. 81 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration of FIG.
  • FIG. 82 is a diagram illustrating the tap range.
  • FIG. 83 is a diagram illustrating the direction of continuity in the spatiotemporal direction.
  • FIG. 84 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 85 is a diagram for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 86 is a diagram for explaining signals in the real world having continuity in the spatio-temporal direction.
  • FIG. 87 is a block diagram illustrating a configuration example of a real-world estimator that uses a three-dimensional approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 88 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration of FIG.
  • FIG. 89 is a diagram illustrating the principle of the reintegration method, which is an example of the embodiment of the image generation unit in FIG.
  • FIG. 90 is a diagram illustrating an example of an input pixel and an approximation function that approximates a real-world signal corresponding to the input pixel.
  • FIG. 91 is a diagram illustrating an example of creating four high-resolution pixels in one input pixel shown in FIG. 90 from the approximation function shown in FIG. 90.
  • FIG. 92 is a block diagram illustrating a configuration example of an image generation unit that uses a one-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 93 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG.
  • FIG. 94 is a diagram illustrating an example of the original image of the input image.
  • FIG. 95 is a diagram illustrating an example of image data corresponding to the image in FIG.
  • FIG. 96 is a diagram illustrating an example of an input image.
  • FIG. 97 is a diagram illustrating an example of image data corresponding to the image in FIG.
  • FIG. 98 is a diagram illustrating an example of an image obtained by performing a conventional classification adaptive process on an input image.
  • FIG. 99 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 10 is a diagram illustrating an example of an image obtained by performing a one-dimensional reintegration method process on an input image.
  • FIG. 101 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 102 is a view for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 103 is a block diagram illustrating a configuration example of an image generation unit that uses a two-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 104 is a diagram for explaining the distance in the cross-sectional direction.
  • FIG. 105 is a flowchart illustrating the image generation processing executed by the image generation unit having the configuration of FIG. 103.
  • FIG. 106 is a diagram illustrating an example of the input pixel.
  • FIG. 107 is a diagram illustrating an example of creating four high-resolution pixels in one input pixel shown in FIG. 106 by a two-dimensional reintegration method.
  • FIG. 108 is a diagram illustrating the direction of continuity in the spatiotemporal direction.
  • FIG. 109 is a block diagram illustrating a configuration example of an image generation unit that uses a three-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 110 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG.
  • FIG. 11 is a block diagram showing a configuration example of another embodiment of the signal processing device 4 of FIG.
  • FIG. 112 is a flowchart for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 113 is a block diagram showing a configuration example of an embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 114 is a flowchart for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 1 15 is a diagram for explaining an optical signal of the real world 1.
  • FIG. 116 is a diagram for explaining the integration effect when the sensor 2 is CCD.
  • FIG. 117 is a diagram illustrating the approximate function f (x, y) of the real world 1.
  • FIG. 118 is a diagram illustrating an input image input to the signal processing device 4 in FIG. 113 and a processing region.
  • FIG. 119 is a diagram illustrating an example of a processing area set by the signal processing device 4 of FIG.
  • the value of y in the approximation function f (x, y) in FIG. 120 is a predetermined value y.
  • Is a diagram showing an approximation function f (x) of the X cross-section of the (y y c).
  • FIG. 122 is a diagram showing the approximate function f (x) of FIG. 120 after l Z v time.
  • FIG. 122 is a diagram showing the approximate function f (x) of FIG. 122 after l Z v time.
  • FIG. 123 is a diagram for explaining how an object captured in an input image moves at V pixels per shirt time.
  • FIG. 9 is a diagram showing P9 through P9 in an Xt plane.
  • Figure 126 shows the pixel value P of the input image. To 1 2 4 pixel values P 9 Q. To diagrams and tables in Q 9.
  • FIG. 127 is a diagram for explaining a method of solving the blank area of FIG. 126 assuming that the end of the processing area is “flat”.
  • FIG. 128 illustrates the line of interest in the processing region of FIG.
  • FIG. 129 is a block diagram illustrating a configuration example of the real world estimation unit 15013 in FIG.
  • FIG. 130 is a flowchart for explaining the real world estimation processing in step S15008 of FIG.
  • FIG. 131 is a flowchart for explaining the real world estimation process in step S15008 of FIG.
  • FIG. 132 is a diagram showing an input image input to the signal processing device 4 of FIG.
  • FIG. 13 shows a first method in which the signal processing device 4 of FIG. 13 adds a formula to the input image of FIG.
  • FIG. 9 is a diagram illustrating an image that has been processed and output.
  • FIG. 13 shows that the signal processing device 4 of FIG. 13 processes the input image of FIG.
  • FIG. 9 is a diagram showing an output image.
  • FIG. 135 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 136 is a flowchart for explaining the processing of the signal processing device 4 in FIG. JP2004 / 008691
  • FIG. 137 is a block diagram illustrating a configuration example of the real world estimation unit 15083 in FIG.
  • FIG. 138 is a flowchart illustrating the real world estimation processing in step S15088 of FIG.
  • FIG. 139 is a flowchart illustrating the real world estimation processing in step S15088 of FIG.
  • FIG. 140 is a block diagram showing a configuration example of another embodiment of an application of the signal processing device 4 of FIG.
  • FIG. 141 is a flowchart for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 142 is a block diagram illustrating a configuration example of the real world estimation unit 15113 in FIG.
  • FIG. 144 is a flowchart for explaining the real world estimation processing in step S15168 of FIG.
  • FIG. 144 is a diagram illustrating an input image input to the signal processing device 4 of FIG.
  • FIG. 144 shows an output image in which the input image of FIG. 144 is processed by the signal processing device 4 of FIG. 135, with the weight W bj for the constraint condition being the same for all the constraint conditions. It is a figure showing the example of.
  • FIG. 144 shows an output image obtained by processing the input image of FIG. 144 by the signal processing device 4 of FIG. 140 so that the weight W for the constraint condition expression is set to 0 or 1 according to the activity of the input image. It is a figure showing the example of.
  • FIG. 147 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 148 is a flowchart for explaining the processing of the signal processing device 4 in FIG.
  • FIG. 149 is a block diagram illustrating a configuration example of the real world estimation unit 15153 in FIG.
  • FIG. 150 is a flowchart illustrating the real world estimation processing in step S15218 of FIG.
  • FIG. 151 is a flowchart illustrating the real world estimation processing in step S15218 of FIG.
  • FIG. 152 is a block diagram showing a configuration example of the continuity setting section 15012 of FIG.
  • FIG. 153 is a diagram for explaining the amount of movement.
  • FIG. 154 is a diagram illustrating pixel values of an image output from a camera when a camera captures a foreground object moving in front of a background object.
  • FIG. 155 is a diagram showing a difference value between the pixel values of the pixels of the image shown in FIG.
  • FIG. 156 is a flowchart for explaining the process of detecting the amount of motion.
  • FIG. 157 is a flowchart for explaining the correlation detection process.
  • FIG. 1 illustrates the principle of the present invention.
  • events phenomena
  • Real world 1 events include light (image), sound, pressure, temperature, mass, density, light / darkness, or smell.
  • Events in the real world 1 are distributed in the spatiotemporal direction.
  • the image of the real world 1 is the distribution of the light intensity of the real world 1 in the spatiotemporal direction.
  • the events of real world 1 that can be acquired by sensor 2 are converted into data 3 by sensor 2. It can be said that the sensor 2 obtains information indicating an event in the real world 1.
  • the senor 2 converts information indicating an event of the real world 1 into data 3. It can be said that a signal that is information indicating an event (phenomenon) of the real world 1 having dimensions of space, time, and mass is acquired by the sensor 2 and converted into data.
  • a signal that is information indicating an event of the real world 1 is also referred to as a signal that is information indicating an event of the real world 1.
  • a signal that is information indicating an event in the real world 1 is also simply referred to as a signal in the real world 1.
  • a signal includes a phenomenon and an event, and includes a signal that the transmission side does not intend.
  • Data 3 (detection signal) output from the sensor 2 is information obtained by projecting information indicating an event of the real world 1 onto a lower-dimensional space-time as compared with the real world 1.
  • data 3 which is image data of a moving image, is obtained by projecting a three-dimensional spatial and temporal image of the real world 1 onto a two-dimensional spatial and temporal spatio-temporal image.
  • Information is also, for example, when data 3 is digital data, data 3 is rounded according to the unit of sampling.
  • data 3 is analog data, the information in data 3 is compressed or a part of the information is deleted by a limiter or the like according to the dynamic range.
  • data 3 is significant information for estimating signals that are information indicating events (phenomena) in the real world 1. Contains.
  • information having continuity contained in the real world 1 or the data 3 is used as significant information for estimating a signal which is information of the real world 1.
  • Stationarity is a newly defined concept.
  • the event of the real world 1 includes a certain feature in a direction of a predetermined dimension.
  • a shape, a pattern, a color, or the like is continuous in a spatial direction or a time direction, or a pattern of a shape, a pattern, or a color is repeated.
  • the information indicating the event of the real world 1 includes a certain feature in the direction of the predetermined dimension.
  • a linear object such as a thread, a string, or a rope has the same cross-sectional shape at any position in the length direction, that is, an empty space. It has certain characteristics in the direction between.
  • the constant feature in the spatial direction that the cross-sectional shape is the same at an arbitrary position in the length direction arises from the feature that the linear object is long. Therefore, the image of the linear object has a certain feature in the longitudinal direction, that is, in the spatial direction, that the cross-sectional shape is the same at an arbitrary position in the longitudinal direction.
  • a single-color object which is a tangible object extending in the spatial direction
  • an image of a single-color object which is a tangible object extending in the spatial direction
  • the signal of the real world 1 has a certain characteristic in the direction of the predetermined dimension.
  • continuity such a feature that is fixed in the direction of the predetermined dimension is called continuity.
  • the continuity of a signal in the real world 1 (real world) refers to a characteristic of a signal indicating an event in the real world 1 (real world), which is constant in a predetermined dimension.
  • data 3 is a signal obtained by projecting a signal representing information of an event in the real world ⁇ having a predetermined dimension by the sensor 2, and thus the continuity of the signal in the real world Is included.
  • Data 3 can also be said to include the stationarity of the real-world signal projected.
  • the data 3 output by the sensor 2 lacks part of the information of the real world 1, so the data 3 shows the continuity contained in the signal of the real world 1 (real world). May be missing.
  • the data 3 includes at least a part of the continuity of the signal of the real world 1 (real world) as the continuity of the data.
  • the data continuity is a feature of data 3 that is constant in a predetermined dimension.
  • the stationarity of the signal of the real world 1 or the stationarity of the data of the data 3 is used as significant information for estimating a signal which is information indicating an event of the real world 1.
  • information indicating a missing event of the real world 1 is generated by performing signal processing on the data 3 using the continuity of the data.
  • the signal processing device 4 uses the spatial or temporal continuity of the length (space), time, and mass of the signal, which is information indicating an event of the real world 1. .
  • a sensor 2 is composed of, for example, a digital still camera or a video camera, captures an image of the real world 1, and outputs obtained image data, which is data 3, to a signal processing device 4. I do.
  • the sensor 2 can be, for example, a thermographic device or a pressure sensor using photoelasticity.
  • the signal processing device 4 is composed of, for example, a personal computer, and performs signal processing on the data 3.
  • the signal processing device 4 is configured, for example, as shown in FIG. CPU
  • the (Central Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • ROM Read Only Memory
  • RAM Random Access Memory 23 programs executed by the CPU 21 and data are stored as appropriate.
  • ROM 22 N and RAM 23 are interconnected by a bus 24.
  • the CPU 21 is also connected to an input / output interface 25 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 including a keyboard, a mouse, and a microphone, and an output unit 27 including a display, a speaker, and the like.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, or the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk and stores programs executed by the CPU 21 and various data.
  • the communication unit 29 communicates with external devices via the Internet or other networks. I believe. In the case of this example, the communication unit 29 functions as an acquisition unit that takes in the data 3 output from the sensor 2.
  • a program may be acquired via the communication unit 29 and stored in the storage unit 28.
  • the drive 30 connected to the input / output interface 25 drives the magnetic disk 51, optical disk 52, magneto-optical disk 53, or semiconductor memory 54 when they are mounted, and drives them there. Get recorded programs and data.
  • the acquired programs and data are transferred to and stored in the storage unit 28 as necessary.
  • FIG. 3 is a block diagram showing the signal processing device 4.
  • each function of the signal processing device 4 is realized by hardware or software. That is, each block diagram in this specification may be considered as a hardware block diagram or a function block diagram by software.
  • FIG. 3 is a diagram showing a configuration of the signal processing device 4 which is an image processing device.
  • the input image (image data as an example of the data 3) input to the signal processing device 4 is supplied to the data continuity detecting unit 101 and the real world estimating unit 102.
  • the data continuity detection unit 101 detects data continuity from the input image and supplies data continuity information indicating the detected continuity to the real world estimation unit 102 and the image generation unit 103.
  • the data continuity information includes, for example, the position of a pixel region having data continuity in the input image, the direction of the pixel region having data continuity (the angle or inclination in the time direction and the spatial direction), or the data Includes the length of the area of pixels that have stationarity. Details of the configuration of the data continuity detecting unit 101 will be described later.
  • the real world estimator 102 is supplied from the input image and the data continuity detector 101. Estimate the real world signal 1 based on the obtained data stationarity information.
  • the real-world estimating unit 102 estimates an image, which is a real-world signal, incident on the sensor 2 when the input image is acquired.
  • the real world estimating unit 102 supplies the real world estimation information indicating the result of the estimation of the signal of the real world 1 to the image generating unit 103. Details of the configuration of the real world estimation unit 102 will be described later.
  • the image generation unit 103 generates a signal that is more similar to the signal of the real world 1 based on the real world estimation information indicating the estimated signal of the real world 1 supplied from the real world estimation unit 102. And output the generated signal.
  • the image generation unit 103 shows the data continuity information supplied from the data continuity detection unit 101 and the estimated real world 1 signal supplied from the real world estimation unit 102 Based on the real world estimation information, it generates a signal that is more similar to the real world 1 signal and outputs the generated signal.
  • the image generation unit 103 generates an image that is closer to the image of the real world 1 based on the real world estimation information, and outputs the generated image as an output image.
  • the image generation unit 103 based on the data continuity information and the real world estimation information, the image generation unit 103 generates an image that is closer to the image of the real world 1 and outputs the generated image as an output image.
  • the image generation unit 103 integrates the estimated image of the real world 1 in a desired spatial direction or temporal direction based on the real world estimation information, and compares Generate a high-resolution image according to the direction or time direction, and output the generated image as an output image.
  • the image generation unit 103 generates an image by outer interpolation, and outputs the generated image as an output image.
  • a signal of the real world 1 as an image is formed on a light receiving surface of a CCD (Charge Coupled Device) as an example of the sensor 2. Since the CCD which is an example of the sensor 2 has an integration characteristic, the data 3 output from the CCD has a difference from the image of the real world 1. Details of the integration characteristic of the sensor 2 will be described later. T / JP2004 / 008691
  • the relationship between the image of the real world 1 acquired by the CCD and the data 3 captured and output by the CCD is clearly considered. That is, the relationship between the data 3 and the signal that is the real-world information acquired by the sensor 2 is clearly considered.
  • the signal processing device 4 approximates (describes) the real world 1 using a model 16 1.
  • the model 16 1 is represented by, for example, N variables. More precisely, the model 16 1 approximates (describes) the real world 1 signal.
  • the signal processing device 4 extracts ⁇ data 16 2 from the data 3 in order to predict the model ⁇ ⁇ 6 1.
  • the signal processing device 4 uses, for example, the continuity of the data included in the data 3. In other words, the signal processing device 4 determines the model based on the stationarity of the data contained in the data 3.
  • the signal processing device 4 can consider the signal that is the information of the real world 1.
  • An image sensor such as a CCD or a complementary metal-oxide semiconductor (CMOS) sensor, which captures an image, projects a signal, which is information of the real world, into two-dimensional data when imaging the real world.
  • CMOS complementary metal-oxide semiconductor
  • Each pixel of the image sensor has a predetermined area as a so-called light receiving surface (light receiving area). Light incident on a light receiving surface having a predetermined area is integrated in the spatial direction and the temporal direction for each pixel, and is converted into one pixel value for each pixel.
  • the image sensor captures an image of an object in the real world, and outputs image data obtained as a result of the capture in units of one frame. That is, the image sensor acquires the signal of the real world 1, which is the light reflected by the object of the real world 1, and outputs the data 3.
  • an image sensor outputs 30 frames of image data per second.
  • the exposure time of the image sensor can be set to 1Z30 seconds.
  • the exposure time is a period from the time when the image sensor starts converting the incident light into electric charges to the time when the conversion of the incident light into electric charges ends.
  • the exposure time is also referred to as a shutter time.
  • FIG. 5 is a diagram illustrating an example of an arrangement of pixels on an image sensor.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image displayed by the image data.
  • One detection element corresponding to one pixel is arranged on the image sensor.
  • one detection element outputs one pixel value corresponding to one pixel constituting the image data.
  • the position of the detector element in the spatial direction X corresponds to the position in the horizontal direction on the image displayed by the image data
  • the position of the detector element in the spatial direction Y (Y coordinate) corresponds to the image.
  • the distribution of light intensity in the real world 1 spreads in three-dimensional spatial and temporal directions, but the image sensor acquires light in the real world 1 in two-dimensional spatial and temporal directions, and Data 3 representing the distribution of light intensity in the spatial and temporal dimensions is generated.
  • the detection element which is a CCD, converts light input to the light receiving surface (light receiving area) (detection area) into electric charges for a period corresponding to the shutter time. Accumulate the converted charge.
  • Light is the information (signal) in the real world 1 whose intensity is determined by its position in three-dimensional space and time.
  • the distribution of light intensity in the real world 1 is a function with variables x, y, and z in three-dimensional space, and time t.
  • the amount of electric charge stored in the detector element which is a CCD, is almost proportional to the intensity of light incident on the entire light-receiving surface, which has a two-dimensional spatial extent, and the time the light is incident. .
  • the detection element adds the electric charge converted from the light incident on the entire light receiving surface to the already accumulated electric charge in a period corresponding to the shutter time.
  • the detection element integrates light incident on the entire light receiving surface having a two-dimensional spatial spread for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. . It can be said that the detection element has an integrating effect on space (light receiving surface) and time (Shutter time).
  • the electric charge stored in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output as data 3. Therefore, each pixel value output from the image sensor is
  • (Signal) has a value projected onto a one-dimensional space, which is the result of integrating a part having a temporal and spatial spread in the temporal direction of the shutter time and the spatial direction of the light receiving surface of the detection element.
  • the pixel value of one pixel is represented by integration of F (x, y, t).
  • F (x, y, t) is a function representing the distribution of light intensity on the light receiving surface of the detection element.
  • Xl is the spatial coordinate (X coordinate) of the left boundary of the light receiving surface of the detection element.
  • x 2 is the spatial coordinate (X coordinate) of the right boundary of the light-receiving surface of the detector elements Ru der.
  • yi is the spatial coordinate (Y Coordinates).
  • y 2 is the lower boundary spatial coordinates of the light-receiving surface of the detecting element (Y-coordinate). Is the time at which the conversion of incident light into charge has started. Is the time at which the conversion of the incident light into charges has been completed.
  • the gain of the pixel value of the image data output from the image sensor is corrected, for example, for the entire frame.
  • Each pixel value of the image data is the integrated value of the light incident on the light receiving surface of each detection element of the image sensor, and is the light that is incident on the image sensor, of which the real world 1 is smaller than the light receiving surface of the detection element.
  • the light waveform is hidden by the pixel value as an integral value.
  • the waveform of a signal expressed with reference to a predetermined dimension is also simply referred to as a waveform.
  • the image (optical signal) of the real world 1 is integrated in the spatial direction and the temporal direction in units of pixels, a part of the continuity of the image of the real world 1 is included in the image data. Is lost, and another part of the continuity of the real world 1 image is included in the image data.
  • the image data may include stationarity that has changed from the stationarity of the real world 1 image.
  • FIG. 7 is a diagram for explaining the relationship between the light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • F (x) in FIG. 7 is an example of a function representing the distribution of light intensity in the real world 1 with the coordinate X in the spatial direction X in space (on the detection element) as a variable.
  • F (x) is an example of a function that represents the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the time direction.
  • L indicates the length in the spatial direction X of the light receiving surface of the detection element corresponding to the pixels D to F.
  • the pixel value of one pixel is represented by the integral of F (x).
  • the pixel value P of the pixel E is represented by Expression (2).
  • Xl is the spatial coordinate in the spatial direction X of the left boundary of the light receiving surface of the detection element corresponding to the pixel E.
  • x 2 is a spatial coordinate in the spatial direction X of the right boundary of the light-receiving surface of the detecting element corresponding to the pixel E.
  • FIG. 8 is a diagram illustrating the relationship between the passage of time, light incident on a detection element corresponding to one pixel, and a pixel value.
  • F (t) in FIG. 8 is a function representing the distribution of light intensity in the real world 1 with time t as a variable.
  • F (t) is an example of a function representing the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the spatial direction X.
  • t s indicates the shirt time.
  • Frame #n_l is a frame temporally before frame #n
  • frame A # n + 1 is a frame temporally after frame #n. That is, frame-1, frame, and frame # n + l are displayed in the order of frame # n-1, frame, and frame.
  • the shirt time t s and the frame interval are the same.
  • the pixel value of one pixel is represented by the integral of F (t).
  • the pixel value P of the pixel in frame #n is represented by Expression (3).
  • Equation (3) is the time at which the conversion of incident light into electric charge has started.
  • t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the integration effect in the spatial direction by the sensor 2 is simply referred to as the spatial integration effect
  • the integration effect in the time direction by the sensor 2 is simply referred to as the time integration effect
  • the spatial integration effect or the time integration effect is also simply referred to as an integration effect.
  • FIG. 9 is a diagram showing an image of a linear object (for example, a thin line) in the real world 1, that is, an example of the distribution of light intensity.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X, which is one direction in the spatial direction of the image.
  • the position on the right in the middle indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the linear object in the real world 1 includes a certain stationarity. That is, the image shown in FIG. 9 has stationarity in which the cross-sectional shape (change in level with respect to change in position in the direction orthogonal to the length direction) is the same at an arbitrary position in the length direction.
  • FIG. 10 is a diagram showing an example of pixel values of image data obtained by actual imaging, corresponding to the image shown in FIG.
  • FIG. 10 shows an image of a linear object with a shorter light receiving surface of each pixel, which extends in a direction deviated from the arrangement of pixels (vertical or horizontal arrangement of pixels) of the image sensor.
  • FIG. 3 is a schematic diagram of image data obtained by imaging the image with an image sensor. The image incident on the image sensor when the image data shown in FIG. 10 is acquired is the image of the linear object in the real world 1 in FIG.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the directions indicating the pixel values in FIG. 10 correspond to the directions of the levels in FIG. 9, and the spatial directions X and Y in FIG. 10 are the same as the directions in FIG.
  • the linear object When an image of a linear object whose diameter is shorter than the length of the light receiving surface of each pixel is captured by the image sensor, the linear object is schematically represented in the image data obtained as a result of the imaging, for example, It is represented by a plurality of arcs (kamaboko-shaped) of a predetermined length that are arranged diagonally.
  • Each arc shape is almost the same.
  • One arc shape is one row vertically It is formed on a pixel or on a row of pixels.
  • one arc shape in FIG. 10 is formed vertically on one column of pixels.
  • the image of the linear object in the real world 1 has an arbitrary position in the length direction and a spatial direction.
  • the stationarity of the same cross-sectional shape in Y is lost.
  • the continuity that the image of the linear object in the real world 1 has is the same shape formed on one row of pixels vertically or one row of pixels horizontally. It can be said that there is a change to a stationary state in which certain arc shapes are arranged at regular intervals.
  • FIG. 11 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background, that is, an example of light intensity distribution.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image.
  • the position to the right of indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the real world 1 of an object having a straight edge in a color different from the background has a predetermined constancy. That is, the image shown in FIG. 11 has a stationarity in which the cross-sectional shape (change in level with respect to change in position in the direction perpendicular to the edge) is the same at an arbitrary position in the length direction of the edge.
  • FIG. 12 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG. As shown in FIG. 12, since the image data is composed of pixel values in units of pixels, the image data has a step shape.
  • FIG. 13 is a schematic diagram of the image data shown in FIG.
  • FIG. 13 is a single-color, linear edge that has a different color from the background, with the edge extending in a direction deviating from the pixel array (vertical or horizontal array) of the image sensor.
  • FIG. 2 is a schematic diagram of image data obtained by capturing an image of the real world 1 of an object having an image by an image sensor. When the image data shown in Fig. 13 was acquired, the image incident on the image sensor was of a color different from the background shown in Fig. 11 and having a single color, linear edge. It is an image of the real world 1.
  • FIG. 13 is a single-color, linear edge that has a different color from the background, with the edge extending in a direction deviating from the pixel array (vertical or horizontal array) of the image sensor.
  • FIG. 2 is a schematic diagram of image data obtained by capturing an image of the real world 1 of an object having an image by an image sensor.
  • the image incident on the image sensor was of a color different from the background shown in Fig. 11 and having
  • the upper position in the drawing indicates the pixel value
  • the upper right position in the drawing indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the drawing Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 13 corresponds to the direction of the level in FIG. 11, and the spatial direction X and the spatial direction Y in FIG. 13 are the same as the directions in FIG.
  • the linear edge is schematically represented in image data obtained as a result of the imaging. For example, it is represented by a plurality of pawls of a predetermined length, which are arranged obliquely.
  • Each claw shape is almost the same shape.
  • One claw shape is formed vertically on one row of pixels or horizontally on one row of pixels. For example, in FIG. 13, one claw shape is vertically formed on one column of pixels.
  • the image data obtained by being captured by the image sensor there is a real-world 1 image of an object having a color different from the background and having a single-color, linear edge.
  • the continuity of the same cross-sectional shape at any position along the edge length has been lost.
  • the continuity of the image of the real world 1 which is a color different from the background and has a single color, and has a linear edge, has an image of one pixel vertically or one pixel horizontally. It can be said that the same shape of the claw shape formed on the pixel in the column has changed to a stationary state in which it is arranged at regular intervals.
  • the data continuity detecting unit 101 detects such continuity of data included in, for example, data 3 which is an input image. For example, the data continuity detection unit 101 detects data continuity by detecting an area having a certain feature in a predetermined dimension direction. For example, the data continuity detecting unit 101 detects a region shown in FIG. 10 in which the same arc shapes are arranged at regular intervals. Further, for example, the data continuity detecting unit 101 detects an area in which the same claw shape is arranged at regular intervals, as shown in FIG. '
  • the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction indicating a similar shape arrangement.
  • the data continuity detection unit 101 detects data continuity by detecting angles (movements) in the spatial direction and the temporal direction, which indicate how similar shapes are arranged in the spatial direction and the temporal direction. I do.
  • the data continuity detecting unit 101 detects data continuity by detecting a length of an area having a certain characteristic in a direction of a predetermined dimension.
  • the portion of the data 3 in which the image of the real world 1 of the object having a single color and having a linear edge and different from the background is projected by the sensor 2 is also referred to as a binary edge.
  • desired high-resolution data is generated from the data 3.
  • the real world 1 is estimated from the data 3, and high-resolution data is generated based on the estimation result. That is, the real world 1 is estimated from the data 3, and high-resolution data is generated from the estimated real world 1 in consideration of the data 3.
  • the sensor 2 which is a CCD has an integral characteristic as described above. That is, one unit (eg, pixel value) of the data 3 is calculated by integrating the signal of the real world 1 with the detection area (eg, light receiving surface) of the detection element (eg, CCD) of the sensor 2. Can be.
  • the signal of the real world 1 can be estimated from the data 3, by integrating the signal of the real world 1 (in the spatiotemporal direction) for each detection area of the detection element of the virtual high-resolution sensor, One value contained in the resolution data can be obtained.
  • the data 3 cannot represent the small change of the signal of the real world 1. Therefore, by comparing the signal of the real world 1 estimated from the data 3 with the change of the signal of the real world 1 and integrating every smaller region (in the spatiotemporal direction), the signal of the real world 1 is obtained.
  • High-resolution data indicating a small change in That is, for each detection element of the virtual high-resolution sensor, high-resolution data can be obtained by integrating the estimated real world 1 signal in the detection area.
  • the image generation unit 103 integrates, for example, the estimated signal of the real world 1 in the space-time region of each detection element of the virtual high-resolution sensor, Generate high resolution data.
  • the signal processing device 4 uses the relation between the data 3 and the real world 1, the stationarity, and the spatial or temporal mixture (spatial Mixing or time mixing) is used.
  • mixing means that in data 3, signals for two objects in the real world 1 are mixed into one value.
  • Spatial mixing refers to spatial mixing of signals for two objects due to the spatial integration effect of the sensor 2. The time mixing will be described later.
  • Real world 1 itself consists of an infinite number of phenomena, so in order to express real world 1 itself, for example, by mathematical formulas, an infinite number of variables are needed. From Data 3, it is not possible to predict all events in the real world 1.
  • the signal processing device 4 focuses on a portion of the signal of the real world 1 which has stationarity and can be represented by a function f (X, y, z, t), and a function f (X, y , z, t), a signal part of the real world 1 having a stationarity is approximated by a model 16 1 represented by N variables. Then, as shown in FIG. 14, the model 16 1 is predicted from the M data 16 2 in the data 3.
  • model 161 is represented by N variables based on stationarity
  • sensor Based on the integration characteristics of 2
  • N variables shows the relationship between the model 16 1 represented by N variables and the M data 16 2
  • model 16 1 based on stationarity, represented by N variables, indicating the relationship between model 16 1 represented by N variables and M data 16 2
  • N It can be said that the equation using the variable of describes the relationship between the stationary signal part of the real world 1 and the stationary part 3 of the data.
  • the data continuity detection unit 101 detects the features of the data 3 where the data continuity occurs and the characteristics of the data continuity where the data continuity occurs, based on the signal part of the real world 1 that has continuity I do.
  • the edge has a slope.
  • the arrow B in FIG. 15 indicates the edge inclination.
  • the inclination of the predetermined edge can be represented by an angle with respect to a reference axis or a direction with respect to a reference position.
  • the inclination of a predetermined edge can be represented by the angle between the coordinate axis in the spatial direction X and the edge.
  • the inclination of the predetermined edge can be represented by a direction indicated by the length in the spatial direction X and the length in the spatial direction Y.
  • the data 3 is output.
  • the claw shape corresponding to the edge is arranged at the position indicated by A 'in Fig. 15 with respect to the noted position (A) of the edge, and corresponds to the inclination of the edge of the image of the real world 1 in Fig. 15
  • the claws corresponding to the edges are arranged in the direction of the inclination indicated by B '.
  • the model 16 1 represented by N variables approximates a real-world signal portion that causes data continuity in data 3.
  • N variables that shows the relationship between the model 16 1 represented by N variables and the M data 162
  • the data stationarity occurs in Data 3 Use the value of the part that is.
  • data continuity occurs in data 3 shown in Fig. 16, and the value obtained by integrating the signal of the real world 1 is output from the detection element of sensor 2 by focusing on the values belonging to the mixed region.
  • the formula is established as equal to For example, multiple expressions can be developed for multiple values in data 3 where data continuity occurs.
  • A indicates the position of interest of the edge, and A, indicates the pixel (position) with respect to the position of interest (A) in the image of the real world 1.
  • the mixed area refers to an area of data in which the signals for two objects in the real world 1 are mixed into one value in data 3.
  • the data 3 for a real-world image 1 of an object having a single color and a straight edge, which is a color different from the background the image for the object having the straight edge and the image for the background are integrated. Pixel values belong to the mixed area.
  • FIG. 17 is a diagram illustrating signals for two objects in the real world 1 and values belonging to a mixed area when an equation is formed.
  • the left side in Fig. 17 is the signal of the real world 1 for two objects in the real world 1 acquired in the detection area of one detecting element of the sensor 2 and having a predetermined spread in the spatial direction X and the spatial direction Y. Is shown.
  • the right side in FIG. 17 shows the pixel value P of one pixel of data 3 in which the signal of the real world 1 shown on the left side of FIG. That is, the signal of the real world 1 projected on two objects in the real world 1 having a predetermined spread in the spatial direction X and the spatial direction Y acquired by one detecting element of the sensor 2,
  • the pixel value P of one pixel is shown.
  • L in FIG. 17 indicates the signal level of the real world 1 in the white part of FIG.
  • R in FIG. 17 indicates the level of the signal of the real world 1 in the shaded portion in FIG. 17 with respect to another object in the real world 1.
  • the mixture ratio ⁇ is a ratio of a signal (area) to two objects, which is incident on a detection area having a predetermined spread in the spatial direction X and the spatial direction ⁇ of one detecting element of the sensor 2.
  • the mixing ratio ⁇ has a predetermined spread in the spatial direction X and the spatial direction ⁇ with respect to the area of the detection region of one detection element of the sensor 2 and is incident on the detection area of one detection element of the sensor 2.
  • the relationship between the level L, the level R, and the pixel value P can be expressed by Expression (4).
  • the level R may be the pixel value of the pixel of data 3 located on the right side of the pixel of interest, and the level L may be located on the left side of the pixel of interest. In some cases, the pixel value of data 3 can be used.
  • the mixing ratio ⁇ and the mixing region can be considered in the time direction as in the spatial direction.
  • the ratio of the signal for the two objects incident on the detection area of one detection element of the sensor 2 in the time direction Changes.
  • the signals for the two objects, which are incident on the detection area of one detection element of the sensor 2 and change in proportion in the time direction, are projected to one value of the data 3 by the detection element of the sensor 2.
  • time mixing The mixing in the time direction of the signals for the two objects due to the time integration effect of the sensor 2 is called time mixing.
  • the data continuity detecting unit 101 detects, for example, a pixel area in the data 3 on which the signals of the real world 1 for the two objects in the real world 1 are projected.
  • data The continuity detecting unit 101 detects, for example, a tilt in the data 3 corresponding to the tilt of the edge of the image of the real world 1.
  • the real world estimating unit 102 calculates N variables based on the region of the pixel having the predetermined mixture ratio detected by the data continuity detecting unit 101 and the gradient of the region. Estimate the signal of the real world 1 by constructing an equation using N variables that shows the relationship between the model 16 1 represented by and the M data 1 62, and solving the equation . Further, a specific estimation of the real world 1 will be described.
  • the real-world signal represented by the function F (x, y, z, t) in the cross section in the spatial direction Z (position of the sensor 2) Let us consider approximating the signal with an approximation function f (x, y, t) determined by the position x in the spatial direction X, the position y in the spatial direction Y, and the time t.
  • the detection area of the sensor 2 has a spread in the spatial direction X and the spatial direction Y.
  • the approximation function f (x, y, t) is a function that approximates the signal of the real world 1 acquired by the sensor 2 and having a spatial and temporal spread.
  • the value P (x, y, t) of the data 3 is obtained by the projection of the signal of the real world 1 by the sensor 2.
  • the value P (x, y, t) of the data 3 is, for example, a pixel value output from the sensor 2 which is an image sensor.
  • the value obtained by projecting the approximation function f (x, y, t) can be expressed as a projection function S (x, y, t).
  • the function F (x, y, Z , t) representing the real world 1 signal can be a function of infinite order.
  • the function Si (x, y, t) can be described from the description of the function (x, y, t).
  • equation (6) by formulating the projection of sensor 2, from equation (5), the relationship between data 3 and the real-world signal can be formulated as equation (7). Can be.
  • j is the data index.
  • Real world model 1 6 1 can be obtained.
  • N is the number of variables representing the model 1 6 1 approximating the real world 1.
  • M is the number of data 16 2 included in data 3.
  • the variable parts can be made independent.
  • i indicates the number of variables as it is.
  • the form of the function represented by fi can be made independent, and the desired function can be used as.
  • the number N of the variable ⁇ can be defined without depending on the form of the function, and the variable can be obtained in relation to the number N of the variable ⁇ and the number M of data.
  • the real world 1 can be estimated from the data 3.
  • N variables are defined, that is, equation (5) is defined. This is made possible by describing the real world 1 using stationarity.
  • a signal of the real world 1 can be described by a model 161, in which a cross section is represented by a polynomial and the same cross-sectional shape continues in a certain direction.
  • the projection by the sensor 2 is formulated, and the equation (7) is described.
  • the result of integrating the signals of the real world 2 is formulated as data 3.
  • data 162 is collected from a region having data continuity detected by the data continuity detecting unit 101.
  • data 162 of an area where a certain cross section continues which is an example of stationarity, is collected.
  • N M
  • the number N of variables is equal to the number M of expressions, so that the variables can be obtained by establishing a simultaneous equation.
  • variable ⁇ can be obtained by the least squares method.
  • Equation (9) P, j ( Xj , Yj, tj) are predicted values.
  • Equation (1 2) is derived from Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + Equation (1 + (b)
  • Equation (12) Equation (13)
  • Si ( ⁇ ,., Y .., tj) is described as Si (j).
  • Equation (13) Si represents the projection of the real world 1.
  • Pj represents data 3.
  • Wi is a variable that describes the characteristics of the signal in the real world 1 and seeks to obtain. Therefore, it is possible to estimate the real world 1 by inputting data 3 into equation (13) and obtaining W MAT by a matrix solution method or the like. That is, by calculating the expression (17), the real world 1 can be estimated.
  • W MAT can be obtained using the transpose of S MAT .
  • the real world estimating unit 102 estimates the real world 1 by, for example, inputting data 3 into Expression (13) and obtaining W MAT by a matrix solution or the like.
  • the cross-sectional shape of the signal in the real world 1 that is, the level change with respect to the position change, is described by a polynomial. It is assumed that the cross section of the signal of the real world 1 is constant and the cross section of the signal of the real world 1 moves at a constant speed. Then, the projection of the signal of the real world 1 by the sensor 2 onto the data 3 is formulated by integration of the signal of the real world 1 in three dimensions in the spatiotemporal direction.
  • Equations (18) and (19) are obtained from the assumption that the cross-sectional shape of the signal in the real world 1 moves at a constant speed. dx
  • S (x , y, t) is the spatial direction X, from the position x s to the position x e, the spatial direction Y, from the position y s to the position y e, for the time direction t, It shows the integrated value of the region from time t s to time t e , that is, the region represented by the space-time rectangular parallelepiped.
  • equation (13) By solving equation (13) using a desired function f (x ′, y ′) that can define equation (21), the signal of the real world 1 can be estimated.
  • the signal of the real world 1 includes the stationarity represented by Equation (18), Equation (19), and Equation (22). This indicates that the cross section of a certain shape is moving in the spatio-temporal direction as shown in Figs.
  • FIG. 19 is a diagram illustrating an example of M pieces of data 162 extracted from the data 3. For example, 27 pixel values are extracted as data 162, and the extracted pixel value is ⁇ ⁇ ⁇ ”(x, y, t). In this case, j is 0 to 26.
  • the pixel value of the pixel corresponding to the position of interest at time t, which is n, is P 13 (x, y, t), and the pixel values of the pixels having data continuity are arranged.
  • the region where the pixel value as data 3 output from the image sensor as sensor 2 is obtained has a spread in the time direction and the two-dimensional spatial direction. So
  • the center of gravity of a rectangular parallelepiped (a region from which a pixel value is obtained) corresponding to a pixel can be used as the position of the pixel in the spatiotemporal direction.
  • the real world estimating unit 102 calculates, for example, 27 pixel values P. From (x, y, t) to P 26 (x, y, t) and Eq. (2 3), generate Eq. (1 3) and estimate W to estimate the signal of real world 1 .
  • a Gaussian function or a sigmoid function can be used as the function fi (, y, t).
  • the data 3 has a value obtained by integrating the signal of the real world 1 in the time direction, that is, the two-dimensional spatial direction.
  • the pixel value of data 3 output from the image sensor of sensor 2 is the light that is incident on the detection element.
  • the signal of real world 1 is integrated in the time direction with the detection time, which is the shutter time. It has a value integrated in the light receiving area of the detection element in the spatial direction.
  • high-resolution data with higher resolution in the spatial direction uses the estimated signal of the real world 1 in the time direction and the sensor 2 that outputs data 3 in the time direction. It is generated by integrating in the same time as the detection time, and integrating in a narrower area than the light receiving area of the detection element of the sensor 2 that outputs the data 3 in the spatial direction.
  • high-resolution data When generating high-resolution data with higher resolution in the spatial direction, the area where the estimated signal of the real world 1 is integrated is set completely independent of the light receiving area of the detection element of the sensor 2 that outputs the data 3. can do.
  • high-resolution data has a resolution that is an integer multiple in the spatial direction with respect to data 3 as well as a rational multiple that in the spatial direction with respect to data 3, such as 5/3 times. It can be done.
  • high-resolution data with higher resolution in the time direction uses the estimated real world 1 signal in the spatial direction and the light receiving area of the detection element of sensor 2 that outputs data 3 in the spatial direction. It is generated by integrating in the same area and integrating in the time direction in a shorter time as compared with the detection time of the sensor 2 that outputs the data 3.
  • high-resolution data When generating high-resolution data with higher resolution in the time direction, the time during which the estimated signal of the real world 1 is integrated is set irrespective of the detection time of the detection element of the sensor 2 that outputs the data 3. can do.
  • high-resolution data can have a resolution that is an integer multiple in the time direction with respect to data 3, but also a resolution that is a rational multiple in the time direction with respect to data 3, such as 4 times 7Z. You can have it.
  • High-resolution data from which motion blur has been removed is generated by integrating the estimated signal of the real world 1 only in the spatial direction without integrating it in the time direction.
  • high-resolution data with higher resolution in the temporal and spatial directions uses the estimated real-world 1 signal to detect the sensor 2 that outputs data 3 in the spatial direction. It is generated by integrating in a narrower area compared to the light receiving area of the element, and integrating in a shorter time in the time direction compared to the detection time of sensor 2 that output data 3. You.
  • the region and time in which the estimated signal of the real world 1 is integrated can be set completely independent of the light receiving region of the detection element of the sensor 2 that has output the data 3 and the shutter time.
  • the image generation unit 103 integrates, for example, the estimated signal of the real world 1 in a desired spatio-temporal region, so that higher-resolution data can be obtained in the time direction or the space direction.
  • 24 to 28 show an example of an input image using signal processing of the signal processing device 4 and an example of a result of the processing.
  • FIG. 24 is a diagram showing the original image of the input image (corresponding to the optical signal of the real world 1).
  • FIG. 25 is a diagram illustrating an example of an input image.
  • the input image shown in FIG. 25 is an image in which the average value of the pixel values of the pixels belonging to the block of 2 ⁇ 2 pixels of the image shown in FIG. 24 is generated as the pixel value of one pixel. . That is, the input image is an image obtained by applying spatial integration that imitates the integration characteristics of the sensor to the image shown in FIG.
  • FIG. 26 is a diagram showing an image obtained by applying the conventional classification adaptive processing to the input image shown in FIG.
  • the class classification adaptation process includes a class classification process and an adaptation process.
  • the class classification process classifies data into classes based on their properties, and performs an adaptation process for each class.
  • the adaptive processing for example, a low-quality or standard-quality image is converted into a high-quality image by mapping using a predetermined tap coefficient.
  • the first data is converted into the second data by mapping (mapping) using a predetermined tap coefficient.
  • mapping method using the tap coefficients for example, a linear first-order coupling model is adopted, and a high-resolution HD (High-
  • the HD pixel y that is a pixel forming the HD image is, for example, a prediction date for predicting the HD pixel from the SD pixel that is a pixel forming the SD image. It can be obtained by the following linear linear equation (linear combination) using the multiple SD pixels extracted as a group and the tap coefficients.
  • Equation (24) where x n represents (the pixel value of) the n-th SD pixel that constitutes the prediction tap for the HD pixel y, and w n represents the n-th SD pixel. Represents the nth tap coefficient multiplied by the pixel.
  • the prediction tap is configured by N SD pixels.
  • the pixel value y of the HD pixel can be obtained not by the linear linear expression shown in Expression (24) but by a higher-order expression of second or higher order.
  • the true value of (the pixel value of) the k-th HD pixel is represented as y k
  • the predicted value of the true value y k obtained by Expression (24) is represented as y k ′.
  • the prediction error e k is represented by, for example, the following equation.
  • Equation (26) x n and k represent the n-th SD pixel that constitutes the prediction tap for the k-th HD pixel.
  • K is the HD pixel y k and the SD pixels X k , x 2 , k , ⁇ ⁇ , x N that constitute the prediction tap for the HD pixel y k , k represents the number of samples in the set.
  • the tap coefficient w n for minimizing (minimizing) the sum E of the squared errors in Equation (27) is obtained by partially differentiating the sum E with the tap coefficient w n to be 0, and thus satisfies the following equation There is a need. 2, ..., ⁇ )
  • Eq. (30) By substituting Eq. (26) for e k in Eq. (30), Eq. (30) can be represented by the normal equation shown in Eq. (31). l, kYk) 2, kyk) N, kYk)
  • Equation (3 1) The normal equation in equation (3 1) can be obtained by preparing a certain number of sets of HD pixels y k and SD pixels x nk. ), The optimal tap coefficient w n can be obtained. In solving equation (31), it is possible to adopt, for example, a sweeping method (Gauss-Jordan elimination method).
  • SD pixels k forming the prediction taps for the HD pixel y k, x 2, k, ⁇ ⁇ ⁇ , x N, as the k, position or et space on SD image corresponding to the HD pixel y k SD pixels located close to the target or time can be adopted.
  • the class classification adaptive processing, learning and the tap coefficient w n, and the mapping using the tap coefficient w n is performed for each class.
  • classification adaptive processing attention to the class classification processing targeting HD pixel y k are is performed for each class obtained by the class classification processing, learning and the tap coefficient w n, the tap coefficient w n
  • the used mapping is performed.
  • HD is a pixel y k as classification processing applied to, for example, a plurality of SD pixels as a class tap used for the class classification of the HD pixel y k, extracted from the SD image is composed of the plurality of SD pixels M bits using a class tap
  • ADRC Adaptive Dynamic Range Coding
  • the classification adaptive processing is different from, for example, a simple interpolation processing in that components included in HD pixels are reproduced although they are not included in SD pixels. That is, the class classification adaptive processing is the same as the interpolating processing using a so-called interpolation filter as far as only Equation (24) is observed, but the tap coefficient w n corresponding to the tap coefficient of the interpolation filter is used. However, since it is obtained by learning using HD pixels as teacher data and SD pixels as student data, the components contained in HD pixels can be reproduced.
  • tap coefficient w n for performing various conversion .
  • the Tap staff that performs mapping to improve resolution •
  • the number w n can be obtained.
  • an HD image is used as the teacher data y and an SD image in which the number of pixels of the HD image is reduced is used as the student data X
  • the mapping that increases the number of pixels constituting the image is used.
  • the tap coefficient w n can be obtained.
  • FIG. 26 is an image obtained by performing mapping by the above-described classification adaptive processing on the input image of FIG. 25.
  • FIG. 26 it can be seen that the thin line image is different from the original image in FIG.
  • FIG. 27 is a diagram illustrating a result of detecting a thin line region from the input image illustrated in the example of FIG. 25 by the data continuity detection unit 101.
  • a white area indicates a thin line area, that is, an area where the arc shapes shown in FIG. 10 are arranged.
  • FIG. 28 is a diagram illustrating an example of an output image obtained by performing signal processing in the signal processing device 4 using the image illustrated in FIG. 25 as an input image. As shown in FIG. 28, the signal processing device 4 can obtain an image closer to the thin line image of the original image shown in FIG.
  • FIG. 29 is a flowchart for explaining signal processing by the signal processing device 4.
  • the data continuity detecting unit 101 executes a process of detecting continuity.
  • the data continuity detection unit 101 detects the continuity of the data included in the input image, which is data 3, and outputs data continuity information indicating the continuity of the detected data to the real world estimation unit 1002. And to the image generation unit 103.
  • the data continuity detecting unit 101 detects the continuity of data corresponding to the continuity of a signal in the real world.
  • the continuity of the data detected by the data continuity detection unit 101 is a part of the continuity of the image of the real world 1 included in the data 3, or This is a stationary state that has changed from the stationary state of the signal in the real world 1.
  • the data continuity detecting unit 101 detects data continuity by detecting an area having a certain feature in a direction of a predetermined dimension. Also, for example, The data continuity detection unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction, which indicates a similar arrangement of shapes.
  • step S101 The details of the processing for detecting the stationarity in step S101 will be described later.
  • the data continuity information can be used as a feature quantity indicating the feature of data 3.
  • step S102 the real world estimating unit 102 executes a process of estimating the real world. That is, the real world estimating unit 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detecting unit 101. For example, in the processing of step S102, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a model 161 that approximates (describes) the real world 1. The real world estimating unit 102 supplies the real world estimation information indicating the estimated signal of the real world 1 to the image generating unit 103.
  • the real world estimating unit 102 estimates the signal of the real world 1 by estimating the width of a linear object. Also, for example, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a level indicating the color of a linear object.
  • step S102 Details of the process of estimating the real world in step S102 will be described later.
  • the real world estimation information can be used as a feature amount indicating the feature of the data 3.
  • step S103 the image generation unit 103 executes a process of generating an image, and the process ends. That is, the image generation unit 103 generates an image based on the real world estimation information, and outputs the generated image. Alternatively, the image generation unit 103 generates an image based on the data continuity information and the real world estimation information, and outputs the generated image.
  • the image generation unit 103 integrates the estimated real-world light in the spatial direction based on the real-world estimation information, thereby comparing the input image with the input image. Generates a high-resolution image according to the spatial direction, and outputs the generated image. For example, the image generation unit 103 generates a real world estimated based on real world estimation information. By integrating the light of the field in the spatio-temporal direction, a higher-resolution image is generated in the temporal and spatial directions compared to the input image, and the generated image is output. The details of the image generation processing in step S103 will be described later.
  • the signal processing device 4 detects the continuity of the data from the data 3 and estimates the real world 1 based on the continuity of the detected data. Then, the signal processing device 4 generates a signal that is closer to the real world 1 based on the estimated real world 1.
  • a first signal which is a real-world signal having a first dimension
  • a second dimension of a second dimension that is less than the first dimension in which a part of the stationarity of the real-world signal is missing.
  • FIG. 30 is a block diagram showing the configuration of the data continuity detecting unit 101. As shown in FIG.
  • the data continuity detection unit 101 shown in FIG. 30 is included in the data 3 resulting from the continuity that the cross-sectional shape of the object is the same when a thin line object is imaged. Detect data continuity. That is, the data continuity detection unit 101 shown in FIG. 30 is configured to change the position in the direction orthogonal to the length direction at an arbitrary position in the length direction of the image of the real world 1 as a thin line. Detects the stationarity of the data contained in Data 3, resulting from the stationarity that the change in light level with respect to is the same.
  • the data continuity detecting unit 101 shown in FIG. 30 includes a data line 3 that is obtained by imaging a thin line image with the sensor 2 having a spatial integration effect. A region where a plurality of arc shapes (kamaboko shapes) of a predetermined length, which are arranged adjacent to each other, is detected.
  • the data continuity detection unit 101 is a part of the image data other than the image data part (hereinafter, also referred to as a stationary component) where the thin line image having the data continuity is projected from the input image which is the data 3.
  • non-stationary component (Hereinafter referred to as a non-stationary component), and from the extracted non-stationary component and the input image, a pixel on which the image of the real world 1 thin line is projected is detected, and the real world 1 thin line in the input image is detected. Detects the area consisting of the pixels on which the image is projected.
  • the non-stationary component extraction unit 201 extracts the non-stationary component from the input image, and outputs the non-stationary component information indicating the extracted non-stationary component together with the input image to the vertex detection unit 202 and the monotone increase / decrease detection. Supply to part 203.
  • the component extraction unit 201 extracts the non-stationary component as the background by approximating the background in the input image as the data 3 with a plane.
  • a solid line indicates a pixel value of data 3
  • a dotted line indicates an approximate value indicated by a plane approximating the background.
  • A indicates the pixel value of the pixel on which the thin line image is projected
  • PL indicates a plane approximating the background.
  • the pixel values of a plurality of pixels in the image data portion having data continuity are discontinuous with respect to the non-stationary component.
  • the non-stationary component extraction unit 201 is configured to project a plurality of pixels of the image data, which is data 3, in which an image, which is an optical signal of the real world 1, is projected, and a part of the stationarity of the image of the real world 1 is missing. Detect discontinuities in values.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 remove non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201. For example, the vertex detection unit 202 and the monotone increase / decrease detection unit 203 set the pixel value of a pixel on which only the background image is projected to 0 in each pixel of the input image, thereby To remove unsteady components.
  • the detection unit 203 removes a non-stationary component from the input image by subtracting a value approximated by the plane PL from the pixel value of each pixel of the input image.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the portion of the image data on which the fine line is projected, and Processing in the detecting unit 202 to the continuity detecting unit 204 becomes easier.
  • the non-stationary component extraction unit 201 may supply the image data obtained by removing the non-stationary component from the input image to the vertex detection unit 202 and the monotone increase / decrease detection unit 203.
  • image data in which an unsteady component has been removed from an input image that is, image data including only pixels including a steady component
  • image data projected from the vertex detection unit 202 to the continuity detection unit 204 to which the image of the thin line is projected will be described.
  • the cross-sectional shape in the spatial direction Y (change in pixel value with respect to the change in the spatial direction) of the image data on which the thin line image shown in Fig. 31 is projected is sensor 2 when there is no optical LPF. From the spatial integration effect of the image sensor, a trapezoid shown in Fig. 33 or a triangle shown in Fig. 34 can be considered. However, a normal image sensor has an optical LPF, and the image sensor acquires an image that has passed through the optical LPF and projects the acquired image onto data 3, so that in reality, the spatial direction Y of the thin line image data is
  • the cross-sectional shape is similar to a Gaussian distribution as shown in Fig. 35.
  • the vertex detection unit 202 to the continuity detection unit 204 are pixels on which the fine line image is projected, and the same cross-sectional shape (change in pixel value with respect to change in position in the spatial direction) is displayed in the vertical direction of the screen By detecting areas consisting of objects arranged at regular intervals, and by detecting the connection of areas corresponding to the length direction of the thin lines in the real world 1, the areas with data continuity are detected. An area consisting of pixels onto which an image has been projected is detected. That is, the vertex detection unit 202 to the continuity detection unit 204 perform the vertical A region in which an arc shape (kamaboko shape) is formed on a pixel in one column is detected, and it is determined whether or not the detected regions are arranged side by side in the horizontal direction. Then, the connection of the areas where the arc shape is formed, corresponding to the length direction of the thin line image, is detected.
  • an arc shape kamaboko shape
  • the vertex detection unit 202 to the continuity detection unit 2 ⁇ 4 are the pixels on which the thin line images are projected, and the regions having the same cross-sectional shape are arranged at regular intervals in the horizontal direction of the screen. Detects and further detects the connection of the detected areas corresponding to the length direction of the thin line in the real world 1. Is detected. That is, the vertex detecting unit 202 to continuity detecting unit 204 detects a region where an arc shape is formed on a horizontal row of pixels in the input image, and detects the detected region. By judging whether or not they are adjacent to each other in the vertical direction, the connection of the area where the arc shape is formed corresponding to the length direction of the thin line image which is the signal of the real world 1 is detected.
  • the vertex detecting unit 202 detects a pixel having a larger pixel value than the surrounding pixels, that is, the vertex, and supplies vertex information indicating the position of the vertex to the monotone increase / decrease detecting unit 203.
  • the vertex detector 202 compares the pixel values of the pixels located on the upper side of the screen and the pixel values of the pixels located on the lower side of the screen. Then, a pixel having a larger pixel value is detected as a vertex.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, an image of one frame.
  • One screen contains frames or fields. The same applies to the following description.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and determines the pixel value of the pixel of interest and the pixel value of the pixel above the pixel of interest. Is compared with the pixel value of the pixel of interest and the pixel value of the pixel below the pixel of interest. Are compared, a target pixel having a pixel value larger than the pixel value of the upper pixel and a pixel value larger than the pixel value of the lower pixel is detected, and the detected target pixel is set as a vertex.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 202.
  • the vertex detector 202 may not detect the vertex in some cases. For example, when the pixel values of the pixels of one image are all the same, or when the pixel value decreases in the 1 or 2 direction, no vertex is detected. In this case, the thin line image is not projected on the image data.
  • the monotonous increase / decrease detecting unit 203 Based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202, the monotonous increase / decrease detecting unit 203 detects the vertex detected by the vertex detecting unit 202 in the vertical direction.
  • the monotonous increase / decrease detection unit 203 detects a region composed of pixels having a monotonically increasing pixel value as a candidate for a region composed of pixels onto which a thin line image is projected, based on the pixel value of the vertex.
  • Monotonically increasing means that the pixel value of the pixel at a longer distance from the vertex is larger than the pixel value of the pixel at a shorter distance from the vertex.
  • the processing for the region composed of pixels having monotonically increasing pixel values is the same as the processing for the region composed of pixels having monotonically decreasing pixel values, and a description thereof will be omitted.
  • the processing for is also monotonically decreasing Since the process is the same as that for a region composed of pixels having certain pixel values, a description thereof will be omitted.
  • the monotonous increase / decrease detection unit 203 calculates the difference between the pixel value of each pixel and the pixel value of the upper pixel, and the pixel value of the lower pixel for each pixel in one column vertically with respect to the vertex. Find the difference between. Then, the monotone increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 detects a region having a pixel value having the same sign as that of the pixel value of the vertex based on the sign of the pixel value of the vertex from the region where the pixel value is monotonically decreasing. Is detected as a candidate for an area composed of pixels onto which a thin line image is projected.
  • the monotone increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the upper pixel and the sign of the pixel value of the lower pixel, and determines the sign of the pixel value. By detecting the pixel where the pixel value changes, an area consisting of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels arranged in the up-down direction, the pixel value of which monotonously decreases with respect to the vertex, and which has the pixel value of the same sign as the vertex.
  • FIG. 36 is a diagram illustrating a process of detecting a vertex and detecting a monotonously increasing / decreasing region, which detects a pixel region on which a thin line image is projected, from a pixel value with respect to a position in the spatial direction Y.
  • P indicates a vertex.
  • P indicates a vertex.
  • the vertex detection unit 202 compares the pixel value of each pixel with the pixel value of a pixel adjacent in the spatial direction Y, and determines a pixel value larger than the pixel value of the two pixels adjacent in the spatial direction Y.
  • the vertex P is detected by detecting the pixel having the vertex P.
  • the region consisting of the vertex P and the pixels on both sides of the vertex P in the spatial direction Y is a monotonically decreasing region in which the pixel values of the pixels on both sides in the spatial direction Y monotonically decrease with respect to the pixel value of the vertex P. It is.
  • the arrow indicated by A and the arrow indicated by B indicate monotonically decreasing regions existing on both sides of the vertex P.
  • the monotone increase / decrease detection unit 203 finds a difference between the pixel value of each pixel and the pixel value of a pixel adjacent to the pixel in the spatial direction Y, and detects a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 sets the boundary between the detected pixel whose sign of the difference changes and the pixel on the near side (vertex P side) in a thin line area composed of pixels onto which the thin line image is projected.
  • the boundary of the thin line region which is the boundary between the pixel whose sign of the difference changes and the pixel on the near side (vertex P side), is indicated by C.
  • the monotonous increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the pixel adjacent to the pixel in the spatial direction Y in the monotonically decreasing region, and determines the sign of the pixel value. A changing pixel is detected.
  • the monotonous increase / decrease detection unit 203 sets the boundary between the detected pixel whose sign of the pixel value changes and the pixel on the near side (vertex P side) as the boundary of the thin line area.
  • the boundary of the thin line area that is the boundary between the pixel whose sign of the pixel value changes and the pixel on the near side (vertex P side) is indicated by D.
  • a thin line area F composed of pixels onto which a thin line image is projected is an area sandwiched between a thin line area boundary C and a thin line area boundary D.
  • the monotone decrease detection section 203 finds a thin line region F longer than a predetermined threshold, that is, a thin line region F including a larger number of pixels than the threshold, from the thin line region F composed of such a monotonous increase / decrease region. .
  • a predetermined threshold that is, a thin line region F including a larger number of pixels than the threshold.
  • the monotonous increase / decrease detection unit 203 detects a thin line region F including four or more pixels.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex P, the pixel value of the pixel on the right side of the vertex P, and the pixel value on the left side of the vertex P.
  • Pixel value of the vertex P exceeds the threshold value
  • the pixel value of the pixel on the right side of the vertex P is less than or equal to the threshold value
  • a thin line region F to which a vertex P having a value equal to or smaller than a threshold belongs is detected, and the detected thin line region F is set as a candidate for a region including pixels including components of a thin line image.
  • the pixel value of the vertex P is equal to or less than the threshold value, the pixel value of the pixel on the right side of the vertex P exceeds the threshold value, or the pixel value of the pixel on the left side of the vertex P exceeds the threshold value.
  • F is determined not to include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex P with the threshold value, and moves the vertex P in the spatial direction X (the direction indicated by the dotted line ⁇ ′). ) Is compared with the threshold value, and the pixel value of the vertex ⁇ exceeds the threshold value and the pixel value of the pixel adjacent in the spatial direction X is equal to or less than the threshold value. To detect.
  • FIG. 38 is a diagram illustrating the pixel values of the pixels arranged in the spatial direction X indicated by the dotted line AA ′ in FIG. Exceeds the pixel value is the threshold T h s of the vertex [rho, pixel values of pixels adjacent in the spatial direction X of the vertex P is less than or equal to the threshold value T h s, fine line region F where the vertex P belongs, including components of the thin line .
  • the monotonous increase / decrease detection unit 203 compares the difference between the pixel value of the vertex P and the pixel value of the background with a threshold value based on the pixel value of the background, and also determines the vertex P in the spatial direction X.
  • the difference between the pixel value of the adjacent pixel and the pixel value of the background is compared with a threshold value, and the difference between the pixel value of the vertex P and the pixel value of the background exceeds the threshold value, and the pixel value of the pixel adjacent in the spatial direction X
  • a fine line region F to which the vertex P belongs, where the difference between the pixel value of the background and the pixel value of the background is equal to or smaller than the threshold value, may be detected.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonically with the sign of the pixel value being the same as that of the vertex P with respect to the vertex P.
  • Monotonic increase / decrease region information indicating that the pixel value of the pixel on the right side of P is equal to or less than the threshold value and the pixel value of the pixel on the left side of the vertex P is equal to or less than the threshold value is supplied to the continuity detection unit 204.
  • pixels belonging to the area indicated by the monotone increasing / decreasing area information are arranged vertically.
  • the thin line image contains the projected pixels.
  • the area indicated by the monotonically increasing / decreasing area information includes pixels arranged in a line in the vertical direction of the screen and includes an area formed by projecting a thin line image.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 use the property that the change in the pixel value in the spatial direction Y is similar to the Gaussian distribution in the pixel on which the thin line image is projected. Then, a steady area composed of pixels onto which the thin line image is projected is detected.
  • the continuity detection unit 204 includes pixels that are horizontally adjacent to each other in the area that is composed of vertically arranged pixels and that is indicated by the monotone increase / decrease area information supplied from the monotone increase / decrease detection unit 203. Regions, that is, regions that have similar changes in pixel values and that overlap in the vertical direction are detected as continuous regions, and vertex information and data continuity indicating the detected continuous regions are detected. Output information.
  • the data continuity information includes monotonically increasing / decreasing area information, information indicating the connection of areas, and the like.
  • the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data continuity information indicating the detected continuous area.
  • the continuity detecting unit 204 determines that the arc shape in the data 3 obtained by imaging the thin line, which is generated from the continuity of the image of the thin line in the real world 1 and is continuous in the length direction, is adjacent.
  • the candidates of the areas detected by the vertex detection unit 202 and the monotone increase / decrease detection unit 203 are further narrowed down.
  • FIG. 39 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region. As shown in FIG. 39, the continuity detection unit 204 performs two monotonic operations when the thin line region F composed of pixels arranged in one row in the vertical direction of the screen includes pixels that are adjacent in the horizontal direction.
  • a thin line region consisting of pixels arranged in one column in the vertical direction of the screen is a thin line region including pixels in the thin line region F Q consisting of pixels arranged in one column in the vertical direction of the screen and pixels horizontally adjacent to the thin line region. It is assumed to be continuous with the area F 0 .
  • the vertex detection unit 202 to the continuity detection unit 204 detect pixels that are arranged in a line in the upper and lower direction of the screen and that are formed by projecting a thin line image. .
  • the vertex detection unit 202 to the continuity detection unit 204 detect pixels that are arranged in a line in the upper and lower directions on the screen and that are formed by projecting a thin line image. Further, an area is detected which is a pixel arranged in a line in the left-right direction of the screen and formed by projecting a thin line image.
  • the order of the processing is not particularly limited, and it goes without saying that the processing may be performed in parallel.
  • the vertex detection unit 202 compares the pixel values of the pixels located on the left side of the screen and the pixel values of the pixels located on the right side of the screen with respect to the pixels arranged in one row in the horizontal direction of the screen. Then, a pixel having a larger pixel value is detected as a vertex, and vertex information indicating the position of the detected vertex is supplied to the monotone increase / decrease detector 203.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, one frame image.
  • the vertex detection unit 202 selects the pixel of interest from the pixels that have not yet been set as the pixel of interest from the image of one frame, and focuses on the pixel value of the pixel and the pixel of the pixel to the left of the pixel of interest.
  • the pixel value of the pixel of interest is compared with the pixel value of the pixel on the right side of the pixel of interest.
  • a target pixel having a pixel value larger than the pixel value of the left pixel and a pixel value larger than the pixel value of the right pixel is detected, and the detected target pixel is set as a vertex.
  • the vertex detecting unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detecting unit 203.
  • the vertex detector 202 may not detect the vertex in some cases.
  • the monotone increase / decrease detection unit 203 is a pixel that is arranged in a line in the left and right direction with respect to the vertex detected by the vertex detection unit 202, and is a candidate for an area composed of pixels onto which a thin line image is projected. The detection is performed, and the monotonic increase / decrease area information indicating the detected area is supplied to the continuity detector 204 together with the vertex information.
  • the monotonous increase / decrease detection unit 203 detects an area composed of pixels having a pixel value that is monotonically decreased with respect to a pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Detect as candidate.
  • the monotonous increase / decrease detection unit 203 calculates the difference between the pixel value of each pixel and the pixel value of the pixel on the left side and the pixel value of the pixel on the right side for each pixel in one row horizontally with respect to the vertex. Find the difference. Then, the monotone increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonous increase / decrease detection unit 203 detects a region having a pixel value having the same sign as that of the pixel value of the vertex based on the sign of the pixel value of the vertex from the region where the pixel value is monotonically decreasing. Is detected as a candidate for an area composed of pixels onto which a thin line image is projected.
  • the monotone increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the left pixel or the sign of the pixel value of the right pixel, and the sign of the pixel value changes. By detecting a pixel having a pixel value, an area composed of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases.
  • the monotone increase / decrease detection unit 203 detects a region arranged in the left-right direction, the pixel value of which is monotonously decreased with respect to the vertex, and the pixel region having the same sign as the vertex.
  • the monotone increase / decrease detection unit 203 obtains a thin line region longer than a predetermined threshold, that is, a thin line region including a number of pixels larger than the threshold, from the thin line region composed of such a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex, the pixel value of the pixel above the vertex, and the pixel value of the pixel below the vertex.
  • the pixel value of the vertex exceeds the threshold value, the pixel value of the pixel above the vertex is less than the threshold value, and the thin line region to which the pixel value of the pixel below the vertex is less than the threshold value belongs.
  • the detected thin line area is set as a candidate for an area composed of pixels including components of the thin line image.
  • the thin line region to which the vertex whose pixel value is less than or equal to the threshold value, the pixel value of the pixel above the vertex exceeds the threshold value, or the pixel value of the pixel below the vertex exceeds the threshold value belongs to It is determined that the image does not include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous increase / decrease detection unit 203 compares the difference between the pixel value of the vertex and the pixel value of the background with a threshold based on the pixel value of the background, and calculates the pixels of the pixels vertically adjacent to the vertex.
  • the difference between the pixel value and the background pixel value is compared with a threshold value, and the difference between the vertex pixel value and the background pixel value exceeds the threshold value, and the pixel value of the vertically adjacent pixel and the background pixel value
  • the detected fine line region having a difference of not more than the threshold value may be set as a candidate for a region including pixels including a component of the fine line image.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonously with the vertex as the reference and the sign of the pixel value is the same as the vertex, and the vertex exceeds the threshold value, and the right side of the vertex Is supplied to the continuity detecting unit 204, indicating that the pixel value of the pixel of the apex is equal to or less than the threshold value and the pixel value of the pixel on the left side of the vertex is equal to or less than the threshold value.
  • the thin line image includes the projected pixels. That is, simply
  • the area indicated by the tone increase / decrease area information is a row of pixels arranged in the horizontal direction of the screen, and includes an area formed by projecting a thin line image.
  • the continuity detection unit 204 includes pixels that are vertically adjacent to each other in the region composed of pixels arranged in the horizontal direction, which is indicated by the monotone increase / decrease region information supplied from the monotone increase / decrease detection unit 203. Regions, that is, regions that have similar pixel value changes and overlap in the horizontal direction are detected as continuous regions, and vertex information and data continuity indicating the detected continuous regions are detected. Output information.
  • the data continuity information includes information indicating the connection between the areas.
  • the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data continuity information indicating the detected continuous area.
  • the continuity detecting unit 204 detects the arc in the data 3 obtained by imaging the thin line, which is generated from the continuity of the image of the thin line in the real world 1 and is continuous in the length direction. Utilizing stationarity arranged at regular intervals so as to be adjacent to each other, the candidates of the regions detected by the vertex detection unit 202 and the monotone increase / decrease detection unit 203 are further narrowed down.
  • the data continuity detecting unit 101 can detect the continuity included in the data 3 as the input image. That is, the data continuity detecting unit 101 can detect the continuity of the data included in the data 3 that is generated by projecting the image of the real world 1 as a thin line onto the data 3.
  • the data continuity detecting unit 101 detects, from the data 3, an area composed of pixels onto which the image of the real world 1 as a thin line is projected.
  • FIG. 40 is a diagram illustrating an example of another process of detecting a region having continuity, on which a thin line image is projected, in the continuity detection unit 101.
  • the continuity detecting unit 101 calculates, for each pixel, the absolute value of the difference between the pixel value and the adjacent pixel.
  • the continuity detecting unit 101 when the values of the adjacent differences are the same among the absolute values of the differences arranged corresponding to the pixels, the pixel () corresponding to the absolute value of the two differences The pixel between the absolute values of the two differences) is determined to contain a thin line component.
  • the continuity detecting unit 101 need not detect the difference as a thin line.
  • the continuity detector 101 determines that the pixel includes a thin line component.
  • the continuity detector 101 can also detect a thin line by such a simple method.
  • FIG. 41 is a flowchart for explaining the processing of the stationarity detection.
  • the non-stationary component extracting unit 201 extracts a non-stationary component, which is a portion other than the portion where the thin line is projected, from the input image.
  • the non-stationary component extraction unit 201 supplies, together with the input image, the non-stationary component information indicating the extracted non-stationary component to the vertex detection unit 202 and the monotone increase / decrease detection unit 203. Details of the process of extracting the unsteady component will be described later.
  • step S202 the vertex detection unit 202 removes non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201, and outputs Only pixels containing stationary components are left. Further, in step S202, the vertex detector 202 detects a vertex. That is, when executing the processing based on the vertical direction of the screen, the vertex detection unit 202 compares the pixel value of each pixel with the pixel values of the upper and lower pixels for the pixel including the stationary component. Then, a vertex is detected by detecting a pixel having a pixel value larger than the pixel value of the upper pixel and the pixel value of the lower pixel.
  • the vertex detection unit 202 when executing the processing on the basis of the horizontal direction of the screen, determines the pixel value of each pixel with respect to the pixel including the stationary component and the right side. The vertex is detected by comparing the pixel value of the left pixel with the pixel value of the right pixel and the pixel having a pixel value larger than the pixel value of the left pixel.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • step S203 the monotonous increase / decrease detection section 203 removes the non-stationary component from the input image based on the non-stationary component information supplied from the non-stationary component extraction section 201, and Only the pixels containing the stationary component are left. Further, in step S203, the monotone increase / decrease detecting unit 203 detects the monotone increase / decrease with respect to the vertex based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202. A region consisting of pixels having data continuity is detected.
  • the monotonous increase / decrease detecting unit 203 When executing processing based on the vertical direction of the screen, the monotonous increase / decrease detecting unit 203 vertically arranges the pixels based on the pixel values of the vertices and the pixel values of the pixels arranged vertically in one column. By detecting the monotonous increase / decrease of pixels in one row, the pixels of which one thin line image is projected, detect an area consisting of pixels having data continuity. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing with the vertical direction of the screen as a reference, determines each of the vertices and the pixels vertically arranged in one column with respect to the vertices.
  • the difference between the pixel value of the pixel and the pixel value of the upper or lower pixel is determined, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 determines the sign of the pixel value of each pixel and the sign of the pixel value of the pixel above or below the vertex and the pixels arranged in one column vertically with respect to the vertex. And detects a pixel whose sign of the pixel value changes.
  • the monotonous increase / decrease detection unit 203 detects the pixel value of the vertex, The pixel values of the pixels on the right and left sides of the point are compared with the threshold value, and an area consisting of pixels where the pixel value of the vertex exceeds the threshold value and the pixel values of the right and left pixels are equal to or less than the threshold value is detected. .
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 determines the horizontal direction based on the pixel values of the vertices and the pixel values of the pixels arranged in one row horizontally with respect to the vertices. Detects an area consisting of pixels with data continuity by detecting the monotonous increase / decrease of the pixels in one row that are projected on one thin line image. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing with the horizontal direction of the screen as a reference, determines each of the vertices and the pixels arranged in one row horizontally with respect to the vertices.
  • the difference between the pixel value of the left pixel and the pixel value of the left or right pixel is obtained, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 calculates the sign of the pixel value of each pixel and the sign of the pixel value of the pixel on the left or right side of each pixel for the vertices and the pixels arranged in a row horizontally with respect to the vertices. And detects the pixel whose sign of the pixel value changes. Further, the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex, and the pixel values of the pixels above and below the vertex with a threshold value, and the pixel value of the vertex exceeds the threshold value. An area consisting of pixels whose pixel value is less than or equal to a threshold is detected.
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • step S204 the monotone increase / decrease detection unit 203 determines whether or not the processing of all pixels has been completed.
  • the non-stationary component extraction unit 201 detects the vertices of all the pixels of one screen (for example, a frame or a field) of the input image, and determines whether a monotonous reduction area is detected. .
  • step S204 it is determined that the processing of all the pixels has not been completed, that is, there is still a pixel that is not the target of the processing of detecting the vertices and detecting the monotone increasing / decreasing area. If it is determined, the process returns to step S202, and a pixel to be processed is selected from pixels that are not subjected to vertex detection and monotone increase / decrease area detection processing, and vertex detection and monotone increase / decrease are performed. The process of detecting the area is repeated.
  • step S204 If it is determined in step S204 that the processing of all pixels has been completed, that is, it is determined that a vertex and a monotonous increase / decrease region has been detected for all pixels, the process proceeds to step S205, and continuity detection is performed.
  • the unit 204 detects the continuity of the detected area based on the monotone increase / decrease area information. For example, the continuity detecting unit 204 determines that when a monotone increasing / decreasing area, which is indicated by monotonous increasing / decreasing area information and is composed of pixels arranged in one row in the vertical direction of the screen, includes horizontally adjacent pixels, Assume that there is continuity between two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when pixels adjacent in the horizontal direction are not included.
  • the continuity detecting unit 204 detects that when a monotone increasing / decreasing area, which is indicated by monotonous increasing / decreasing area information and is composed of pixels arranged in one row in the horizontal direction, includes pixels that are vertically adjacent to each other, Assume that there is continuity between two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when pixels adjacent in the vertical direction are not included.
  • the continuity detecting unit 204 sets the detected continuous area as a steady area having data continuity, and outputs data continuity information indicating the position of the vertex and the steady area.
  • the data continuity information includes information indicating the connection between the areas.
  • the data continuity information output from the continuity detection unit 204 indicates a thin line region that is a steady region and includes pixels onto which a thin line image of the real world 1 is projected.
  • step S206 the continuity direction detection unit 205 determines whether or not processing of all pixels has been completed. That is, the continuity direction detecting unit 205 determines whether or not the continuity of the area has been detected for all the pixels of the predetermined frame of the input image.
  • step S206 If it is determined in step S206 that the processing of all the pixels has not been completed, that is, it is determined that there are still pixels that have not been subjected to the processing for detecting the continuity of the region, the process returns to step S205. Then, the pixel to be processed is selected from the pixels not to be subjected to the processing for detecting the continuity of the area, and the processing for detecting the continuity of the area is repeated. If it is determined in step S206 that the processing of all the pixels has been completed, that is, it is determined that the continuity of the area has been detected for all the pixels, the processing ends. In this way, the continuity included in the input image data 3 is detected.
  • the data continuity detector 101 shown in FIG. 30 detects the continuity of the data in the time direction based on the continuity region of the data detected from the frame of data 3. Can be detected.
  • the continuity detecting unit 204 detects the continuity of the detected data in the frame #n and the area having the continuity of the detected data in the frame # n-1. Based on the region having the detected data and the region having the detected data continuity in frame # n + l, the continuity of the data in the time direction is detected by connecting the ends of the regions.
  • Frame # n-1 is a frame temporally before frame #n
  • frame # ⁇ + 1 is a frame temporally subsequent to frame # ⁇ . That is, frame # ⁇ -1, frame # ⁇ , and frame # ⁇ + 1 are displayed in the order of frame # ⁇ -1, frame # ⁇ , and frame.
  • G is a region having a stationarity of the detected data in frame # ⁇ , a region having a stationarity of the detected data in frame # ⁇ -1, and
  • frame # ⁇ + 1 the motion vector obtained by connecting one end of each of the regions having the continuity of the detected data is shown, and G ′ is the value of the region having the continuity of the detected data.
  • the motion vector obtained by tying the other end of each is shown.
  • the motion vector G and the motion vector G ' are examples of the continuity of data in the time direction.
  • the data continuity detection unit 101 shown in FIG. 30 can output information indicating the length of the data continuity region as data continuity information.
  • Fig. 43 shows a block diagram of the configuration of the non-stationary component extraction unit 201, which extracts the non-stationary component by approximating the non-stationary component, which is the part of the image data having no data stationarity, in a plane.
  • FIG. 43 shows a block diagram of the configuration of the non-stationary component extraction unit 201, which extracts the non-stationary component by approximating the non-stationary component, which is the part of the image data having no data stationarity, in a plane.
  • the unsteady component extraction unit 201 shown in FIG. 43 extracts a block consisting of a predetermined number of pixels from the input image, and the error between the block and the value indicated by the plane becomes smaller than a predetermined threshold. Extract the non-stationary component by approximating the block with a plane.
  • the input image is supplied to the block extraction unit 221 and output as it is.
  • the block extraction unit 222 extracts a block consisting of a predetermined number of pixels from the input image. For example, the block extracting unit 222 extracts a block composed of 7 ⁇ 7 pixels and supplies the extracted block to the plane approximating unit 222. For example, the block extracting unit 221 moves pixels at the center of the block to be extracted in raster scan order, and sequentially extracts blocks from the input image.
  • the plane approximating unit 222 approximates the pixel values of the pixels included in the block with a predetermined plane. For example, the plane approximating unit 222 approximates the pixel values of the pixels included in the block on the plane represented by the equation (32).
  • X indicates the position of the pixel in one direction (spatial direction X) on the screen
  • y indicates the position of the pixel in the other direction (spatial direction on the screen).
  • z indicates an approximate value represented by a plane.
  • a indicates the inclination of the plane in the spatial direction X
  • b indicates the inclination of the plane in the spatial direction Y.
  • c indicates a plane offset (intercept). 4 008691
  • the plane approximating unit 222 calculates the slope a, the slope b, and the offset c by regression processing, and obtains the pixels included in the block on the plane represented by the equation (3 2). Is approximated.
  • the plane approximation unit 2 2 2 calculates the slope a, the slope b, and the offset c by regression processing with rejection, and obtains the pixel of the pixel included in the block on the plane represented by the equation (3 2). Approximate values.
  • the plane approximation unit 222 finds the plane represented by the equation (3 2) that minimizes the error with respect to the pixel value of the block pixel using the least squares method. The pixel value of the pixel to be approximated.
  • the plane approximation unit 222 has been described as approximating the block with the plane expressed by the equation (32), it is not limited to the plane expressed by the equation (32) but has a higher degree of freedom.
  • the block may be approximated by a function, for example, a surface represented by a polynomial of degree n (n is an arbitrary integer).
  • the repetition determination unit 223 calculates an error between the approximate value indicated by the plane approximating the pixel value of the block and the pixel value of the corresponding pixel of the block.
  • Equation (33) is an equation representing an error which is a difference between an approximate value indicated by a plane approximating the pixel value of the block and the pixel value of the corresponding pixel of the block.
  • Equation (33) the z hat (letters with z are referred to as z hats. Hereinafter, the same applies in this specification.) Indicates the approximate value indicated by the approximated plane, a hat indicates the gradient in the spatial direction X of the plane approximating the pixel value of the block, and b knot indicates the spatial direction Y of the plane approximating the pixel value of the block. Shows the inclination of. In Equation (33), c hat indicates the offset (intercept) of the plane that approximates the pixel values of the block.
  • the repetition determination unit 223 rejects the pixel having the largest error power between the approximate value and the pixel value of the corresponding pixel of the block, which is represented by Expression (33). By doing so, the pixels on which the thin lines are projected, that is, the pixels having stationarity, are rejected. Become.
  • the repetition determination unit 222 supplies rejection information indicating the rejected pixel to the plane approximation unit 222.
  • the repetition determination unit 223 calculates a standard error, and the standard error is equal to or more than a predetermined threshold value for approximation end determination, and more than half of the pixels of the block are not rejected. At this time, the repetition determination unit 222 causes the plane approximation unit 222 to repeat the plane approximation processing on the pixels included in the block excluding the rejected pixels.
  • the plane approximates the non-stationary component by approximating the pixels excluding the rejected pixels with a plane.
  • the return judgment unit 222 terminates the approximation using a plane.
  • the standard error e s is calculated by, for example, equation (34).
  • the repetition determination unit 223 may calculate not only the standard error but also the sum of the squares of the errors of all the pixels included in the block, and execute the following processing.
  • the repetition determination unit 223 outputs information indicating the plane on which the pixel value of the block is approximated (the slope and intercept of the plane of the equation (32)) as unsteady component information. .
  • the repetition determination unit 223 compares the number of rejections for each pixel with a predetermined threshold, and determines that a pixel whose number of rejections is equal to or greater than the threshold is a pixel including a steady component. May be output as stationary component information.
  • the vertex detection unit 202 to the continuity direction detection unit 205 execute the respective processes on the pixels including the stationary component indicated by the stationary component information.
  • the number of rejections, the inclination in the spatial direction X of the plane approximating the pixel value of the block pixel, the inclination in the spatial direction Y of the plane approximating the pixel value of the block pixel, and the plane approximating the pixel value of the block pixel approximation values indicated, and the error e t can also be used as a feature quantity of the input image.
  • FIG. 45 is a flowchart corresponding to step S201 and illustrating a process of extracting a non-stationary component by the non-stationary component extracting unit 201 having the configuration shown in FIG.
  • the block extraction unit 222 extracts a block consisting of a predetermined number of pixels from the input pixels, and supplies the extracted block to the plane approximation unit 222.
  • the block extraction unit 221 selects one pixel from the input pixels that is not yet selected, and extracts a block composed of 7 ⁇ 7 pixels centered on the selected pixel. I do.
  • the block extracting unit 221 can select pixels in a raster scan order.
  • the plane approximating unit 222 approximates the extracted block with a plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels of the extracted block by a plane, for example, by regression processing.
  • the plane approximation unit 222 approximates, with a plane, the pixel values of the pixels excluding the rejected pixels among the extracted blocks of the block by the regression processing.
  • the repetition determination unit 223 performs repetition determination. For example, a plane approximating the pixel value of a block pixel The standard error is calculated from the approximate value and the number of rejected pixels is calculated, thereby repeatedly executing the determination.
  • step S224 the repetition determination unit 223 determines whether or not the standard error is equal to or larger than the threshold. When it is determined that the standard error is equal to or larger than the threshold, the process proceeds to step S225.
  • step S224 the repetition determination unit 223 determines whether or not more than half of the pixels of the block have been rejected and whether or not the standard error is greater than or equal to a threshold. If it is determined that half or more of the pixels have not been rejected and the standard error is equal to or greater than the threshold, the process may proceed to step S225.
  • step S225 the repetition determination unit 223 calculates, for each pixel of the block, the error between the pixel value of the pixel and the approximate value of the approximated plane, rejects the pixel with the largest error, and performs plane approximation. Notify part 222.
  • the procedure returns to step S 222, and the approximation process using a plane and the repetition determination process are repeated for the pixels of the block excluding the rejected pixels.
  • step S225 if a block shifted by one pixel in the raster scan direction is extracted in the process of step S221, as shown in FIG. 44, a pixel including a thin line component (the black circle in the figure) Will be rejected multiple times.
  • step S224 If it is determined in step S224 that the standard error is not equal to or larger than the threshold value, the block is approximated by a plane, and the process proceeds to step S226.
  • step S224 the repetition determination unit 223 determines whether or not more than half of the pixels in the block have been rejected, and whether or not the standard error is equal to or greater than a threshold. If more than half of the pixels are rejected or if it is determined that the standard error is not greater than or equal to the threshold value, the process may proceed to step S225.
  • step S226 the repetition determination unit 223 outputs the slope and intercept of the plane approximating the pixel value of the block pixel as non-stationary component information.
  • step S 227 the block extraction unit 221 determines whether or not processing has been completed for all pixels of one screen of the input image, and determines that there is a pixel that has not been processed yet. In this case, the process returns to step S221, and a block is extracted from pixels that have not been processed yet, and the above process is repeated.
  • step S227 If it is determined in step S227 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 having the configuration shown in FIG. 43 can extract the non-stationary component from the input image. Since the unsteady component extraction unit 201 extracts the unsteady component of the input image, the vertex detection unit 202 and the monotone increase / decrease detection unit 203 detect the input image and the unsteady component extraction unit 201. By calculating the difference from the extracted non-stationary component, the processing can be performed on the difference including the stationary component.
  • the standard error when rejected the standard error when not rejected, the number of rejected pixels, the inclination of the spatial direction X of the plane (a hat in equation (3 2)) calculated in the approximation process using the plane ,
  • the slope of the plane in the spatial direction Y (b hat in equation (3 2)), the level when replaced with a plane (c hat in equation (3 2)), and the pixel values of the input image and the plane
  • the difference from the approximated value can be used as a feature value.
  • FIG. 46 is a flowchart illustrating a process of extracting a stationary component by the non-stationary component extraction unit 201 illustrated in FIG. 43 instead of the process of extracting the non-stationary component corresponding to step S 201. It is.
  • the processing in steps S224 to S245 is the same as the processing in steps S221 to S225, and a description thereof will be omitted.
  • step S246 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the input image as a stationary component of the input image. That is, the repetition determination unit 223 outputs the difference between the approximate value based on the plane and the pixel value that is the true value. Note that the repetition determination unit 223 outputs a pixel value of a pixel whose difference between the approximate value indicated by the plane and the pixel value of the input image is equal to or greater than a predetermined threshold value as a stationary component of the input image. May be.
  • step S 247 is the same as the process in step S 227, and a description thereof will not be repeated.
  • the non-stationary component extraction unit 201 subtracts the approximate value indicated by the plane approximating the pixel value from the pixel value of each pixel of the input image, Non-stationary components can be removed from the input image.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the steady component of the input image, that is, the value on which the image of the thin line is projected, and the vertex detection unit Processing from 202 to the continuity detecting unit 204 becomes easier.
  • FIG. 47 shows another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 43 instead of the process of extracting the non-stationary component corresponding to step S 201.
  • FIG. The processing of steps S261 to S265 is the same as the processing of steps S221 to S225, and a description thereof will be omitted.
  • step S266 the repetition determination unit 223 stores the number of rejections for each pixel, returns to step S266, and repeats the processing.
  • step S264 If it is determined in step S264 that the standard error is not equal to or larger than the threshold, the block is approximated by a plane, and the process proceeds to step S2667, where the repetition determination unit 223 determines one of the input images. It is determined whether or not processing has been completed for all pixels on the screen. If it is determined that there is a pixel that has not been processed yet, the process returns to step S2661, and a pixel that has not been processed yet is determined. A block is extracted for, and the processing described above is repeated.
  • step S267 If it is determined in step S267 that the processing has been completed for all the pixels of one screen of the input image, the process proceeds to step S2688, and the repetition determination unit 222 has not been selected yet. Select one pixel from the pixels, and for the selected pixel, It is determined whether the number of rejections is equal to or greater than the threshold. For example, in step S268, the repetition determination unit 222 determines whether or not the number of rejections for the selected pixel is equal to or greater than a previously stored threshold.
  • step S268 If it is determined in step S268 that the number of rejections for the selected pixel is equal to or greater than the threshold value, the selected pixel includes a stationary component.
  • the unit 223 outputs the pixel value of the selected pixel (pixel value in the input image) as a steady component of the input image, and proceeds to step S270. If it is determined in step S268 that the number of rejections for the selected pixel is not equal to or greater than the threshold value, the processing in step S266 is skipped because the selected pixel does not include a stationary component. Then, the procedure proceeds to step S270. That is, no pixel value is output for a pixel for which it is determined that the number of rejections is not greater than or equal to the threshold value. In addition, the repetition determination unit 223 may output a pixel value in which 0 is set for a pixel for which the number of rejections is determined not to be equal to or larger than the threshold value.
  • step S270 the return determination unit 222 determines whether or not the process of determining whether or not the number of rejections is equal to or greater than the threshold has been completed for all pixels of one screen of the input image. However, if it is determined that the processing has not been completed for all the pixels, there are pixels that have not yet been processed, so the process returns to step S2688, and one of the pixels that have not been processed yet is selected. A pixel is selected and the above-described processing is repeated. If it is determined in step S270 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 can output the pixel value of the pixel including the stationary component among the pixels of the input image as the stationary component information. That is, the non-stationary component extracting unit 201 can output the pixel value of the pixel including the component of the thin line image among the pixels of the input image.
  • FIG. 48 shows another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 43 instead of the process of extracting the non-stationary component corresponding to step S 201.
  • Step S 2 8 1 to Step S 2 8 8 Is the same as the processing from step S2661 to step S2688, and the description thereof will be omitted.
  • step S289 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the selected pixel as a stationary component of the input image. That is, the repetition determination unit 223 outputs an image obtained by removing the non-stationary component from the input image as the constancy information.
  • step S290 is the same as the processing in step S270, and a description thereof will be omitted.
  • the non-stationary component extraction unit 201 can output an image obtained by removing the non-stationary component from the input image as the stationarity information.
  • the real-world optical signal is projected, and a part of the continuity of the real-world optical signal is lost.
  • Generates a model (function) that approximates the optical signal by detecting the stationarity of the data from the discontinuity that is output and estimating the stationarity of the optical signal in the real world based on the stationarity of the detected data.
  • the second image data is generated based on the generated function, it is possible to obtain a more accurate and more accurate processing result with respect to a real world event.
  • FIG. 49 is a block diagram showing another configuration of the data continuity detecting unit 101.
  • the data continuity detector 101 shown in FIG. 49 detects the change in the pixel value of the pixel of interest, which is the pixel of interest, in the spatial direction of the input image, that is, the activity in the spatial direction of the input image.
  • a set of pixels consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction is provided for each of the angle with respect to the target pixel and the reference axis.
  • the correlation between the extracted and extracted pixel sets is detected, and the continuity angle of the data with respect to the reference axis in the input image is detected based on the correlation.
  • the data continuity angle refers to the angle formed by the reference axis and the direction of a predetermined dimension, which data 3 has, in which certain features repeatedly appear. Certain features repeatedly appear
  • the term “change” means, for example, a change in a value with respect to a change in position in data 3, that is, a case where the cross-sectional shapes are the same.
  • the reference axis may be, for example, an axis indicating the spatial direction X (horizontal direction of the screen) or an axis indicating the spatial direction Y (vertical direction of the screen).
  • the input image is supplied to the activity detection unit 401 and the data selection unit 402.
  • the activity detection unit 401 detects a change in pixel value of the input image in the spatial direction, that is, activity in the spatial direction, and outputs activity information indicating the detection result to the data selection unit 402 and the steady direction derivation. Supply to part 404.
  • the activity detector 401 detects a change in the pixel value in the horizontal direction of the screen and a change in the pixel value in the vertical direction of the screen, and detects the detected change in the pixel value in the horizontal direction and the detected pixel value in the vertical direction.
  • the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, or the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction. It detects whether the change in pixel value is large.
  • the activity detection unit 401 indicates whether the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, which is the result of the detection, or In comparison, activity information indicating that the change in pixel value in the vertical direction is large is supplied to the data selection unit 402 and the steady direction derivation unit 404.
  • one row of pixels in the vertical direction has an arc shape (kamaboko shape).
  • a claw shape is formed, and the arc shape or the claw shape is repeatedly formed in a direction closer to vertical. That is, if the change in the pixel value in the horizontal direction is large compared to the change in the pixel value in the vertical direction, the standard axis is assumed to be the axis indicating the spatial direction X.
  • the sex angle is any value between 45 degrees and 90 degrees.
  • the change in the pixel value in the vertical direction is greater than the change in the pixel value in the horizontal direction, for example, an arc or nail shape is formed in one row of pixels in the horizontal direction, and the arc or nail shape is horizontal. It is formed repeatedly in a direction closer to the direction.
  • the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction
  • the reference axis is the axis indicating the spatial direction X
  • the stationarity angle is any value between 0 and 45 degrees.
  • the activity detection unit 401 extracts, from the input image, a block composed of nine 3 ⁇ 3 pixels centered on the pixel of interest shown in FIG.
  • the activity detection unit 401 calculates the sum of the difference between pixel values of vertically adjacent pixels and the sum of the difference of pixel values of horizontally adjacent pixels.
  • the sum of the differences between the pixel values of horizontally adjacent pixels, hdiff is obtained by Eq. (35).
  • hdiff ⁇ (Pi + 1, j-Pi.j).
  • Equation (36) P indicates the pixel value, i indicates the horizontal position of the pixel, and j indicates the vertical position of the pixel.
  • Akutibiti detector 40 1 compares the difference sum v di ff of the pixel values for the pixels adjacent to the sum h di ff and vertical difference between the pixel values of pixels adjacent to the calculated lateral input
  • the range of the continuity angle of the data with respect to the reference axis in the image may be determined. That is, in this case, the activity detection unit 401 determines whether the shape indicated by the change in the pixel value with respect to the position in the spatial direction is repeatedly formed in the horizontal direction or the vertical direction. . For example, the change in the pixel value in the horizontal direction for an arc formed on one row of pixels in the horizontal direction is larger than the change in the pixel value in the vertical direction.
  • the change in the pixel value in the vertical direction for the arc is larger than the change in the pixel value in the horizontal direction, and the direction of data continuity, that is, certain characteristics of the input image that is data 3 It can be said that the change in the direction of the predetermined dimension is small compared to the change in the direction orthogonal to the data continuity.
  • the difference in the direction orthogonal to the direction of data continuity (hereinafter also referred to as the non-stationary direction) is larger than the difference in the direction of data continuity.
  • the activity detecting unit 401 detects the calculated sum h iiff of the pixel values of the horizontally adjacent pixels and the difference h iiff of the pixel values of the vertically adjacent pixels. Comparing the sum v diff , if the sum h diff of the pixel values of the horizontally adjacent pixels is large, the degree of stationarity of the data with respect to the reference axis is between 45 degrees and 1 35 If the sum of the differences between the pixel values of vertically adjacent pixels, v diff, is large, the degree of stationarity of the data with respect to the reference axis is 0 to 4 degrees. It is determined to be any value of 5 degrees or any value of 135 degrees to 180 degrees.
  • the activity detecting unit 410 supplies activity information indicating the result of the determination to the data selecting unit 402 and the steady direction deriving unit 404.
  • the activity detector 401 extracts a block of an arbitrary size, such as a block of 5 ⁇ 5 pixels of 25 pixels or a block of 7 ⁇ 7 pixels of 49 pixels, and determines the activity. Can be detected.
  • the data selection unit 402 selects the pixel of interest from the pixels of the input image in order, and based on the activity information supplied from the activity detection unit 401, for each angle with respect to the pixel of interest and the reference axis.
  • a plurality of pixel sets each consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted.
  • the data selection section 402 sets a predetermined angle in the range of 45 degrees to 135 degrees with respect to the pixel of interest and the reference axis. Each time, a plurality of pixel sets each consisting of a predetermined number of pixels in one column in the vertical direction are extracted.
  • the angle of data continuity is 0 to 45 degrees or 1 3 Since the value is any value between 5 degrees and 180 degrees, the data selection unit 402 sets the range of 0 degrees to 45 degrees or 135 degrees to 180 degrees with respect to the target pixel and the reference axis. For each predetermined angle, a plurality of pixel sets each consisting of a predetermined number of pixels in one row in the horizontal direction are extracted.
  • the data selection unit 402 sets the pixel of interest and the reference For each predetermined angle in the range of 45 degrees to 135 degrees with respect to the axis, a plurality of pixel sets consisting of a predetermined number of pixels in one column in the vertical direction are extracted.
  • the data selection unit 402 For each predetermined angle in the range of 0 to 45 degrees or 135 to 180 degrees with respect to the pixel and the reference axis, a set of pixels consisting of a predetermined number of pixels in a row in the horizontal direction is defined. , Extract multiple. ⁇
  • the data selection unit 402 supplies a plurality of sets of the extracted pixels to the error estimation unit 4 ⁇ 3.
  • the error estimator 403 detects the correlation of the pixel set for each angle with respect to a plurality of sets including the extracted pixels.
  • the error estimator 403 calculates the pixel value of the pixel at the corresponding position in the set of pixels for a plurality of sets of pixels having a predetermined number of pixels in one column in the vertical direction corresponding to one angle. Detect correlation. The error estimator 403 detects the correlation between the pixel values of the pixels at the corresponding positions in the set, for a plurality of sets of pixels consisting of a predetermined number of pixels in one row in the horizontal direction corresponding to one angle. . The error estimating unit 403 supplies correlation information indicating the detected correlation to the stationary direction deriving unit 404.
  • the error estimating unit 4003 calculates, as the value indicating the correlation, the pixel value of the pixel of the set including the pixel of interest supplied from the data selecting unit 402 and the pixel value of the pixel at the corresponding position in the other set.
  • the sum of the absolute values of the differences is calculated, and the sum of the absolute values of the differences is supplied to the stationary direction deriving unit 404 as correlation information.
  • the stationary direction deriving unit 404 uses the reference axis of the input image corresponding to the continuity of the missing optical signal of the real world 1 as a reference. Detects the continuity angle of the obtained data and outputs data continuity information indicating the angle. For example, based on the correlation information supplied from the error estimating unit 403, the stationary direction deriving unit 404 detects the angle with respect to the set of pixels having the strongest correlation as the data continuity angle, Data continuity information indicating the angle with respect to the detected set of pixels having the highest correlation is output.
  • FIG. 53 is a block diagram showing a more detailed configuration of the data continuity detector 101 shown in FIG.
  • the data selection section 402 includes a pixel selection section 4111- 1 to a pixel selection section 4111-L.
  • the error estimating section 4003 includes an estimation error calculating section 41-2-1 to an estimation error calculating section 412-L.
  • the stationary direction deriving unit 4 04 includes a minimum error angle selecting unit 4 13.
  • the pixel selection units 4 1 1-1 to 4 1 1 1 L The processing will be described.
  • Each of the pixel selection units 4 1 1 1 1 to 4 1 1 1 to 4 1 1 1 L sets a straight line having a different predetermined angle that passes through the pixel of interest with the axis indicating the spatial direction X as a reference axis.
  • the pixel selection unit 4111_1 to the pixel selection unit 4111_L are pixels belonging to one vertical pixel column to which the target pixel belongs, and a predetermined number of pixels above the target pixel, And a predetermined number of pixels below the target pixel and the target pixel are selected as a set of pixels.
  • the pixel selection units 4111 to 1 through 4111-L determine the pixel of interest from the pixels belonging to one vertical pixel column to which the pixel of interest belongs. Nine pixels are selected as a set of pixels as the center.
  • Fig. 54 one square (one square) in a grid shape indicates one pixel.
  • a circle shown at the center indicates a target pixel.
  • the pixel selecting unit 4 1 1 1 1 to the pixel selecting unit 4 1 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs, and one vertical pixel column to the left. Select the pixel closest to the set straight line.
  • the lower left circle of the pixel of interest indicates an example of the selected pixel.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one vertical column of pixels to which the target pixel belongs and one vertical column of pixels to the left. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selectors 4 1 1 1 1 to 4 1 1—L are each composed of one vertical column of pixels to which the pixel of interest belongs and one vertical column on the left side.
  • Nine pixels are selected as a set of pixels, centering on the pixel closest to the straight line, from the pixels belonging to the pixel row of.
  • L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs and a second vertical column of pixels to the left. Then, the pixel closest to the straight line set for each is selected.
  • the leftmost circle shows an example of the selected pixel.
  • the pixel selectors 4 1 1-1 to 4 1 1 1 L are assigned to the vertical column of pixels to which the target pixel belongs and the second vertical column of pixels to the left.
  • a predetermined number of pixels belonging to the selected pixel, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected.
  • the pixel selection unit 4111-1 to pixel selection unit 4111-L includes a second vertical column on the left side of one vertical column of pixels to which the pixel of interest belongs. In one row From the pixels belonging to the pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • the pixel selection unit 4 1 1 _ 1 to the pixel selection unit 4 1 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs, and one vertical pixel column to the right, Select the pixel closest to the set straight line.
  • the upper right circle of the target pixel indicates an example of the selected pixel.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs and one vertical column of pixels to the right. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection units 4 1 1 1 1 to 4 1 1—L are arranged in a column of pixels in a column to which the pixel of interest belongs, and a column in the right column.
  • Nine pixels are selected as a set of pixels, centering on the pixel closest to the straight line, from the pixels belonging to the pixel row of.
  • L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs, and a second vertical column of pixels to the right. Then, the pixel closest to the straight line set for each is selected.
  • the rightmost circle shows an example of the pixel selected in this manner. Then, the pixel selection units 4 1 1 1 1 to 4 1 1 -L belong to one vertical column of pixels to which the pixel of interest belongs, and belong to the second vertical one column of pixels to the right. A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selectors 4 1 1 1 1 to 4 1 1 ⁇ L are arranged in a vertical column of the pixel to which the pixel of interest belongs and a second vertical column on the right side. Then, from the pixels belonging to one pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line. As described above, each of the pixel selection units 4111-1-1 through 4111-L selects five sets of pixels.
  • the pixel selection unit 4111- 1 to the pixel selection unit 4111-L select a set of pixels at different angles (straight lines set at different angles). For example, the pixel selector 4 1 1 1 1 selects a set of pixels for 45 degrees, the pixel selector 4 1 1-2 selects a set of pixels for 47.5 degrees, The pixel selection unit 4 11 13 selects a set of pixels at 50 degrees.
  • the pixel selection unit 411 1 1 to pixel selection unit 4 11 1 L select a set of pixels at an angle of 2.5 degrees from 52.5 degrees to 135 degrees every 2.5 degrees.
  • the number of pixel sets can be any number, for example, three or seven. Further, the number of pixels selected as one set can be an arbitrary number such as, for example, 5 or 13.
  • the pixel selection units 4111 to 1 to 411_L can select a set of pixels from a predetermined range of pixels in the vertical direction.
  • the pixel selection unit 4111-1 to pixel selection unit 4111-L is composed of 121 pixels in the vertical direction (60 pixels upward and 60 pixels downward with respect to the pixel of interest). ), Select a set of pixels.
  • the data continuity detecting unit 101 can detect the data continuity angle up to 88.09 degrees with respect to the axis indicating the spatial direction X.
  • each of the pixel selection units 4 1 1 1 1 to 3 to L is a pixel selection unit that converts the set of selected pixels to an estimation error calculation unit 4 1 2-3 to an estimation error calculation unit 4 1 2 1 Supply to each of L.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are used for a plurality of sets supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation units 4 1 2 _ 1 to 4 1 2 —L are used as pixel selection units 4 11 1 as values indicating the correlation.
  • — 1 to pixel selection unit 4 1 1 The sum of the absolute value of the difference between the pixel value of the pixel of the group including the target pixel and the pixel value of the pixel at the corresponding position in the other group, supplied from any of L Is calculated.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L are supplied from any of the pixel selection units 4 1 1 _ 1 to 4 1 1-1 L. Also, based on the pixel values of the set of pixels including the pixel of interest and the pixel values of the set of pixels belonging to one vertical column of pixels to the left of the pixel of interest, The difference between the pixel values is calculated, and the absolute value of the difference between the pixel values is calculated in order from the pixel above, so that the difference between the pixel values of the second pixel from the top is calculated. Calculate the sum of the absolute values.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L include the pixel of interest supplied from any of the pixel selection sections 4 1 1 1 1 to 4 1 1-L Based on the pixel values of the set of pixels and the pixel values of the set of pixels belonging to the second vertical column of pixels to the left of the pixel of interest, the difference between the pixel values in Calculate the absolute value and calculate the sum of the absolute values of the calculated differences.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2 _L are supplied from any of the pixel selection units 4 1 1 _ 1 to 4 1 _ 1 L.
  • the difference between the pixel value of the uppermost pixel based on the pixel value of the set of pixels including the pixel and the pixel value of the set of pixels belonging to one vertical pixel row to the right of the pixel of interest is calculated.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L are configured to calculate the pixel of interest supplied from any of the pixel selection sections 4 1 1-1 to 4 11-1 L. Based on the pixel values of the set of pixels included and the pixel values of the set of pixels that belong to the second vertical column of pixels to the right of the pixel of interest, the pixel values in order from the pixel above The absolute value of the difference is calculated, and the sum of the absolute values of the calculated differences is calculated.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L add all the sums of the absolute values of the pixel value differences calculated in this way and calculate the absolute value of the pixel value differences. Calculate the sum.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the estimation error calculators 4 1 2-1 to 4 1 2-L supply the sum of the absolute values of the calculated differences between the pixel values to the minimum error angle selector 4 13.
  • estimation error calculation units 4 1 2-1 to 4 1 2-L are not limited to the sum of the absolute values of the pixel value differences, but may be based on the sum of the squares of the pixel value differences or the pixel values. Other values, such as the calculated correlation coefficient, can be calculated as the correlation value.
  • the minimum error angle selection unit 413 is configured to calculate the missing real world 1 based on the correlation detected by the estimation error calculation units 41-2-1 to 41-2-L for different angles.
  • the angle of the continuity of the data with respect to the reference axis in the input image corresponding to the continuity of the image which is the optical signal of is detected.
  • the minimum error angle selection unit 413 is the strongest based on the correlation detected by the estimation error calculation units 4112_1 to 4122-L for different angles.
  • the minimum error angle selection unit 413 is the smallest of the sums of the absolute values of the pixel value differences supplied from the estimation error calculation units 41-2-1 to 412-L.
  • Select the sum of The minimum error angle selection unit 4 13 is a pixel belonging to the second vertical column of pixels on the left side with respect to the pixel of interest for the selected set of pixels for which the sum has been calculated, Refers to the position of the pixel closest to the straight line and the position of the pixel that belongs to the second vertical pixel column on the right side of the pixel of interest and that is closest to the straight line .
  • the minimum error angle selection unit 413 calculates the vertical distance S between the position of the reference pixel and the position of the target pixel. As shown in FIG.
  • the minimum error angle selection unit 4 13 calculates the reference value of the input image, which is image data, corresponding to the missing signal of the real world 1 from the equation (37).
  • ⁇ 3 ⁇ TM Q "
  • the processing of the pixel selection unit 4 11 1 L will be described.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L set a straight line at a predetermined angle that passes through the pixel of interest with the axis indicating the spatial direction X as a reference axis, and the horizontal to which the pixel of interest belongs Then, a predetermined number of pixels to the left of the pixel of interest, a predetermined number of pixels to the right of the pixel of interest, and a pixel of interest belonging to one pixel column are selected as a set of pixels.
  • the pixel selection units 4 1 1-1 to 4 11 _L are pixels belonging to one horizontal row of pixels to which the target pixel belongs and one vertical row of pixels to which the pixel of interest belongs, Select the pixel closest to the set straight line.
  • the pixel selection units 4 1 1-1 to 4 1 1 -L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the upper side. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
  • L is a pixel belonging to one horizontal pixel column to which the pixel of interest belongs, and a second horizontal pixel column to the second upper pixel column. Then, the pixel closest to the straight line set for each is selected.
  • the pixel selection unit 4 1 1 1 1 to pixel selection unit 4 1 1—L are a row of one row of pixels to which the pixel of interest belongs. A predetermined number of pixels to the left of the selected pixel, a predetermined number of pixels to the right of the selected pixel, and a predetermined number of pixels to the right of the selected pixel Is selected as a set of pixels.
  • the pixel selectors 4 1 1 1 1 to 4 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one lower horizontal row of pixels. Select the pixel closest to the set straight line.
  • the pixel selection units 41 1-1 to 4 11 _L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the lower side. A predetermined number of pixels to the left of the selected pixel, a predetermined number of pixels to the right of the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1—L are the pixels belonging to the second horizontal row of pixels of the first horizontal row of pixels to which the pixel of interest belongs. Then, the pixel closest to the straight line set for each is selected.
  • the pixel selection units 41 1 1 1 to 41 1 _L are pixels belonging to a second row of pixels in a row of one row of pixels to which the pixel of interest belongs and a second row of pixels in a row below. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and pixels selected in parallel are selected as a set of pixels.
  • each of the pixel selection units 4111-1 to 4111-L selects five sets of pixels.
  • Each of the pixel selection units 41 11 to 11 L selects a set of pixels at different angles.
  • the pixel selection unit 4 1 1 1 1 selects a set of pixels for 0 degrees
  • the pixel selection unit 4 1 1-2 selects a set of pixels for 2.5 degrees, and selects a pixel.
  • the part 41 11-3 selects a set of pixels for 5 degrees.
  • the pixel selection section 41 1 1 to 1 1 to L are used to set a set of pixels at angles of 2.5 degrees from 7.5 degrees to 45 degrees and 135 degrees to 180 degrees. select.
  • the pixel selection unit 41 1-11 supplies the selected pixel pair to the estimation error calculation unit 4 1 2-1
  • the pixel selection unit 4 1 1-2 converts the selected pixel pair into the estimation error calculation unit 4 1 2-2 To supply.
  • each of the pixel selection units 4 1 1-3 to 4 1 1 -L converts the selected pixel set to the estimated error calculation unit 4 1 2-3 to the estimated error calculation unit 4 1 2 1 Supply to each of L.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are used for a plurality of sets supplied from any of the pixel selection units 4 1 1-1 to 4 1 1 1 L. The correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation sections 4 1 2-1 to 4 1-2 -L supply information indicating the detected correlation to the minimum error angle selection section 4 13.
  • the minimum error angle selection section 4 13 3 is configured to calculate the missing optical signal of the real world 1 based on the correlations detected by the estimation error calculation sections 4 1 2-1 to 4 1 2-L. Detects the continuity angle of the data with respect to the reference axis in the input image corresponding to the continuity.
  • step S101 detects the continuity of data. The processing will be described.
  • step S401 the activity detection unit 401 and the data selection unit 402 select a pixel of interest, which is a pixel of interest, from the input image.
  • the activity detector 401 and the data selector 402 select the same target pixel.
  • the activity detection unit 401 and the data selection unit 402 select a pixel of interest from the input image in raster scan order.
  • the activity detection unit 401 detects an activity for the target pixel. For example, the activity detecting unit 401 detects a difference between pixel values of pixels arranged in a vertical direction and a pixel value of pixels arranged in a horizontal direction of a block composed of a predetermined number of pixels centered on a target pixel. , Detect activity. The activity detecting unit 401 detects activity in the spatial direction with respect to the target pixel, and supplies activity information indicating the detected result to the data selecting unit 402 and the steady direction deriving unit 404. In step S ⁇ b> 403, the data selection unit 402 selects a predetermined number of pixels centered on the target pixel as a set of pixels from the column of pixels including the target pixel.
  • the data selection unit 402 is a pixel belonging to one vertical or horizontal pixel row to which the target pixel belongs, and a predetermined number of pixels above or to the left of the target pixel, and a target pixel. A predetermined number of pixels on the lower side or the right side and the target pixel are selected as a set of pixels.
  • the data selection unit 402 selects a predetermined number of pixel columns from the predetermined number of pixels for each predetermined range of angle based on the activity detected in the process of step S402.
  • Each predetermined number of pixels is selected as a set of pixels.
  • the data selection unit 402 sets a straight line passing through the pixel of interest using the axis indicating the spatial direction X as a reference axis, having an angle in a predetermined range, and Select pixels that are one or two rows apart in the vertical or vertical direction and are closest to the straight line, and a predetermined number of pixels above or to the left of the selected pixel, and below or below the selected pixel.
  • a predetermined number of pixels on the right side and selected pixels closest to the line are selected as a set of pixels.
  • the data selection unit 402 selects a set of pixels for each angle.
  • the data selection unit 402 supplies the selected pixel set to the error estimation unit 403.
  • the error estimator 403 calculates a correlation between a set of pixels centered on the target pixel and a set of pixels selected for each angle. For example, the error estimator 403 calculates, for each angle, the sum of the absolute value of the difference between the pixel value of the pixel of the group including the target pixel and the pixel value of the pixel at the corresponding position in the other group.
  • the continuity angle of the data may be detected based on the mutual correlation of a set of pixels selected for each angle.
  • the error estimating unit 403 supplies information indicating the calculated correlation to the stationary direction deriving unit 404.
  • step S ⁇ b> 406 the stationary direction deriving unit 404, based on the correlation calculated in the processing of step S ⁇ b> 405, starts from the position of the set of pixels having the strongest correlation, Reference axis in the input image, which is image data, corresponding to the stationarity of the optical signal The angle of continuity of the data with respect to is detected.
  • the stationary direction deriving unit 404 selects the minimum sum of the absolute values of the pixel value differences, and determines the data continuity from the position of the set of pixels for which the selected sum was calculated. Detect angle 0.
  • the stationary direction deriving unit 404 outputs data continuity information indicating the continuity angle of the detected data.
  • step S407 the data selection unit 402 determines whether or not processing of all pixels has been completed. If it is determined that processing of all pixels has not been completed, step S404 Returning to 01, the target pixel is selected from the pixels not yet selected as the target pixel, and the above-described processing is repeated.
  • step S407 If it is determined in step S407 that the processing of all pixels has been completed, the processing ends.
  • the data continuity detection unit 101 can detect the continuity angle of the data with respect to the reference axis in the image data corresponding to the continuity of the missing optical signal of the real world 1. it can.
  • the data detection unit 101 shown in FIG. 49 detects the activity in the spatial direction of the input image with respect to the pixel of interest, which is the pixel of interest, of the frame of interest, which is the frame of interest. , According to the detected activity, the angle with respect to the pixel of interest and the reference axis in the spatial direction, and for each motion vector, the vertical direction from the frame of interest and the frame temporally before or after the frame of interest.
  • a plurality of pixel sets each consisting of a predetermined number of pixels in one row or one row in the horizontal direction are extracted, the correlation of the extracted pixel sets is detected, and based on the correlation, The continuity angle of the data in the time direction and the space direction may be detected.
  • the data selection unit 402 determines, based on the detected activity, an angle with respect to the target pixel and the reference axis in the spatial direction, and a target frame for each motion vector.
  • Frame #n, frame # n-1 and frame A plurality of pixel sets each consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted from each of # n + l.
  • Frame # n-1 is a frame temporally before frame #n
  • frame # n + l is a frame temporally subsequent to frame # ⁇ . That is, frame ifn-1, frame # ⁇ , and frame # ⁇ + 1 are displayed in the order of frame # ⁇ -1, frame # ⁇ , and frame # ⁇ + 1.
  • the error estimating unit 403 detects the correlation of the pixel set for each of the plurality of sets of the extracted pixels for each angle and each motion vector.
  • the stationary direction deriving unit 404 calculates the continuity of the data in the time direction and the spatial direction in the input image corresponding to the continuity of the missing optical signal of the real world 1 based on the correlation of the set of pixels. And outputs data continuity information indicating the angle.
  • FIG. 3 Another example of the embodiment of the real world estimation unit 102 (FIG. 3) will be described.
  • FIG. 58 is a view for explaining the principle of the embodiment of this example.
  • the signal (distribution of light intensity) of the real world 1, which is an image incident on the sensor 2 is represented by a predetermined function F.
  • a signal of the real world 1 which is an image is particularly referred to as an optical signal
  • the function F is particularly referred to as an optical signal function F.
  • the real world estimating unit 102 when the optical signal of the real world 1 represented by the optical signal function F has a predetermined continuity, the real world estimating unit 102 outputs the input image from the sensor 2
  • the optical signal function F is estimated by approximating the optical signal function F with a predetermined function f.
  • the function f is particularly referred to as an approximate function f.
  • the real-world estimator 102 uses the model 16 1 (FIG. 4) represented by the approximate function f to generate the image represented by the optical signal function F. (The optical signal of the real world 1). Therefore, the embodiment of this example is hereinafter referred to as a function approximation method.
  • FIG. 59 is a view for explaining the integration effect when the sensor 2 is a CCD. As shown in FIG. 59, a plurality of detection elements 2-1 are arranged on a plane of the sensor 2.
  • the direction parallel to a predetermined side of the detection element 2-1 is defined as the X direction, which is one direction in the spatial direction, and the direction perpendicular to the X direction is defined as the other direction in the spatial direction. Which is the Y direction. And the direction perpendicular to the XY plane is the t direction, which is the time direction.
  • the spatial shape of each of the detection elements 2-1 of the sensor 2 is a square having one side length of one.
  • the shirt time (exposure time) of the sensor 2 is set to 1.
  • y 0
  • the intermediate time of the exposure time is the origin in the time direction (t direction) (the position in one direction is also 0).
  • the pixel value P output from the detection element 2-1 having the center at the origin in the spatial direction is expressed by the following equation (38).
  • FIG. 60 is a view for explaining a specific example of the integration effect of the sensor 2.
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 59).
  • One part (hereinafter, such a part is referred to as a region) of the optical signal of the real world 1 2301 represents an example of a region having a predetermined stationarity.
  • the area 2301 is one part (continuous area) of a continuous optical signal.
  • the area 2301 is shown as being divided into 20 small areas (square areas). This is equivalent to the size of the area 2301, where four detection elements (pixels) of the sensor 2 are arranged in the X direction and five in the Y direction. This is to indicate that. That is, each of the 20 small regions (virtual regions) in the region 2301 corresponds to one pixel.
  • the white part in the figure of the region 2301 represents an optical signal corresponding to a thin line. Therefore, the area 2301 has stationarity in the direction in which the thin line continues. Therefore, hereinafter, the region 2301 is referred to as a fine-line-containing real world region 2301.
  • fine line containing data area 2302 is output.
  • Each pixel in the thin line containing data area 2302 is shown as an image in the figure, but is actually data representing one predetermined value. That is, due to the integration effect of the sensor 2, the thin-line-containing real world region 2301 has 20 pixels each having one predetermined pixel value (4 pixels in the X direction and 4 pixels in the Y direction). It changes into a thin-line-containing data area 2302 divided into 5 pixels (total of 20 pixels) (distorted).
  • FIG. 61 is a diagram for explaining another specific example of the integration effect of the sensor 2 (an example different from FIG. 60).
  • the X and Y directions represent the X and Y directions of the sensor 2 (FIG. 59).
  • One part (region) 2303 of the optical signal of the real world 1 represents another example of the region having the predetermined stationarity (an example different from the real world region 2301 containing the thin line in Fig. 60). ing.
  • the region 2303 is a region having the same size as the fine-line-containing real world region 2301. That is, like the real world region 2301 containing fine lines, the region 2303 is actually a part (continuous region) of the optical signal of the continuous real world 1 in FIG. However, it is shown as being divided into 20 small areas (square areas) corresponding to one pixel of the sensor 2.
  • the region 2303 includes a first portion having a predetermined first light intensity (value) and an edge of a second portion having a predetermined second light intensity (value). I have. Therefore, the region 2303 has stationarity in the direction where the edge continues. Therefore, hereinafter, the region 2303 is referred to as a binary edge-containing real world region 2303.
  • the sensor 2 when the real world area 2303 (one part of the optical signal of the real world 1) containing the binary edge is detected by the sensor 2, the sensor 2 outputs the input image (pixel value) by the integration effect.
  • An area 2304 (hereinafter, referred to as a binary edge-containing data area 2304) is output.
  • Each pixel value of the binary edge-containing data area 2304 is represented as an image in the figure similarly to the fine line-containing data area 2302, but in practice, a predetermined value Is data representing That is, due to the integration effect of the sensor 2, the binary edge-containing real world area 2303 has 20 pixels each having a predetermined one pixel value (4 pixels in the X direction and 5 pixels in the Y direction). It changes to a binary edge-containing data area 2304 divided into a total of 20 pixels) (distorted).
  • the conventional image processing apparatus uses the image data output from the sensor 2, such as the fine line containing data area 2302 and the binary edge containing data area 2304, as the origin (reference). At the same time, image data was processed and subsequent image processing was performed. In other words, although the image data output from the sensor 2 is different (distorted) from the optical signal of the real world 1 due to the integration effect, the conventional image processing apparatus uses the real world 1 The image processing was performed with the data different from the optical signal as positive.
  • the real-world estimating unit 102 uses the thin-line-containing data area 2302 or 2 By approximating the optical signal function F (the optical signal of the real world 1) with the approximation function f from the image data (input image) output from the sensor 2 such as the value edge containing data area 2304, Estimate the signal function F.
  • FIG. 62 is a diagram again showing the thin-line-containing real world region 2301 shown in FIG. 60 described above.
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 59).
  • the first function approximation method is, for example, the optical signal function F (x, y, t) corresponding to the fine-line-containing real world region 2301, as shown in FIG. 1-dimensional waveform projected in the direction of 1) (hereinafter, such a waveform is referred to as X-section waveform F (x)).
  • X-section waveform F (x) Is approximated by an approximation function f (x) such as a polynomial of degree n (n is an arbitrary integer). Therefore, hereinafter, the first function approximation method is particularly referred to as a one-dimensional approximation method.
  • the X-section waveform F ( x ) to be approximated is not limited to the one corresponding to the thin-line-containing real world region 2301 in FIG. That is, as will be described later, in the one-dimensional approximation method, it is possible to approximate any one of the X-sectional waveforms F (x) corresponding to the optical signal of the real world 1 having a stationary characteristic. You.
  • the direction of projection of the optical signal function F (x, y, t) is not limited to the X direction, but may be the Y direction or the t direction. That is, in the one-dimensional approximation method, a function F (y) obtained by projecting the optical signal function F (x, y, t) in the Y direction can be approximated by a predetermined approximation function f (y). Then, a function F (t) obtained by projecting the optical signal function F (x, y, t) in the t direction can be approximated by a predetermined approximation function f (t).
  • the one-dimensional approximation method approximates the X-sectional waveform F (x) with an approximation function f (x) such as an n-th order polynomial as shown in the following equation (39). It is a method.
  • the real-world estimating unit 102 calculates the coefficient (feature) Wi of X i in Expression (39) to obtain the X-sectional waveform F (x) Is estimated.
  • the method of calculating the feature amount Wi is not particularly limited.
  • the following first to third methods can be used.
  • the first method is a method conventionally used.
  • the second method is a method newly invented by the applicant of the present invention, and is a method in which spatial continuity is further taken into consideration with respect to the first method.
  • the integration effect of the sensor 2 is not considered in the first method and the second method. Therefore, the approximation function f (x) obtained by substituting the feature value ⁇ calculated by the first method or the second method into the above equation (39) is an approximation function of the input image. Is not an approximate function of the X-section waveform F (x).
  • the present applicant has invented a third method of calculating the feature Wi with further consideration of the integration effect of the sensor 2 with respect to the second method.
  • the approximation function f (x) obtained by substituting the feature Wi calculated by the third method into the above-described equation (39) is given by taking into account the integration effect of the sensor 2, It can be said that it is an approximation function of the waveform F (X).
  • the first method and the second method are not one-dimensional approximation methods, but only the third method is a one-dimensional approximation method.
  • FIG. 63 is a view for explaining the principle of the embodiment corresponding to the second method.
  • the real world estimating unit 1 02 is the input image from sensor 2 (image data including stationarity of data corresponding to stationarity) and data stationarity information from data stationarity detector 101 (input stationarity Instead of using the corresponding data stationarity information) to approximate the X-section waveform F (x), the input image from the sensor 2 is approximated by a predetermined approximation function f 2 (X). '
  • the second method does not consider the integration effect of the sensor 2 and only approximates the input image. Therefore, it cannot be said that the second method is the same method as the third method.
  • the second method is superior to the first method in that it takes into account spatial continuity.
  • the details of the first method, the second method, and the third method will be individually described in that order.
  • each of the approximation functions f (x) generated by the first method, the second method, and the third method is distinguished from those of the other methods, in particular, the approximation function f, ( ⁇ ), the approximate function f 2 (x) and the approximate function f 3 (x), respectively.
  • x represents the pixel position relative to the X direction from the pixel of interest.
  • y indicates the pixel position relative to the Y direction from the pixel of interest.
  • e represents the error.
  • the target pixel is now detected by the sensor 2 in the thin line containing data area 2302 (the thin line containing real world area 2301 (FIG. 62)).
  • the pixel is the second pixel in the X direction from the left in the figure and the third pixel in the Y direction from the bottom.
  • the center of the pixel of interest is defined as the origin (0, 0), and the coordinate system (hereinafter referred to as the pixel coordinate of interest) with the X and Y axes parallel to the X and Y directions (Fig. 59) of sensor 2 respectively. It is assumed that is set. In this case, the coordinate value (x, y) of the target pixel coordinate system indicates the relative pixel position.
  • P (x, y) represents a pixel value at a relative pixel position (x, y). Specifically, in this case, in the fine line content data area 2302,
  • FIG. 65 shows a graph of the pixel value P (x, y).
  • each graph represents a pixel value
  • the horizontal axis represents a relative position X in the X direction from the pixel of interest.
  • the first from the top The dotted line in the graph of Fig. 2 shows the input pixel value P (x, -2), the three-dot chain line in the second graph from the top shows the input pixel value P (x, -1), and the solid line in the third graph from the top shows The input pixel value P (x, 0) is indicated by the dot-dash line in the fourth graph from the top, and the input pixel value P (x, l) is indicated by the dot-dash line in the fifth (first from the bottom) graph.
  • the input pixel value P (x, 2) is represented.
  • the 20 input pixel values P (x, -2), P (x, -l), P (x, 0), P (x, l ), P (x, 2) (where x is any integer from 1 to 2) the 20 equations shown in the following equation (4 1) are obtained. Is generated. Note that each of e k (k is an integer value of any one of 1 to 20) represents an error.
  • ⁇ (- ⁇ 2) (0) + e 2
  • equation (41) is composed of 20 equations, if the number of features ⁇ of the approximate function ⁇ (x) is less than 20, that is, the approximate function (X) Is less than 1 9
  • the feature Wi can be calculated using the least squares method. The specific method of the least squares method will be described later.
  • the approximation function (X) For example, if the order of the approximation function (X) is assumed to be 5th order, the approximation function (X) calculated by the least square method using Equation (41) (generated by the calculated feature Wi The approximation function ⁇ (X)) looks like the curve shown in Figure 66.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the pixel of interest.
  • P (x, y) (input pixel values P (x, -2 ), P (x, -1),?, 0),? , 1),? , 2)) is added along the X axis as it is (assuming the relative position y in the Y direction is constant, and the five Darraf shown in Fig. 65 are superimposed), and shown in Fig. 66 Multiple lines parallel to the X axis (dotted line, three-dot chain line, solid line, one-dot chain line, and two-dot chain line) are distributed.
  • the dotted line indicates the input pixel value P (x, -2)
  • the three-dot chain line indicates the input pixel value P (x, -1)
  • the solid line indicates the input pixel value P (x, 0).
  • the dashed-dotted line represents the input pixel value ⁇ ( ⁇ , 1)
  • the dashed-dotted line represents the input pixel value ⁇ ( ⁇ , 2).
  • each line is drawn so as not to overlap so that each line can be distinguished.
  • the approximation function (X) is, Y direction of the pixel values (the same pixel values relative position X in the X direction from the pixel of interest) P (x, - 2) , P (x, _l), P It simply represents a curve connecting the average of (x, 0), P (x, l), and P (x, 2 ) in the X direction. That is, the approximate function ⁇ (X) is generated without considering the spatial continuity of the optical signal.
  • the approximation target is the fine-line-containing real world region 2301 (Fig. 62).
  • the thin wire containing actual world region 2 3 0 1 as shown in FIG. 6 7, has a spatial direction of continuity represented with the gradient G F.
  • the X and Y directions represent the X and Y directions of the sensor 2 (FIG. 59).
  • the data continuity detecting unit 1 0 1 (Fig. 5 8) as data continuity information corresponding to the constancy of the gradient G F spatial directions, the angle theta (gradient G F as shown in Figure 6 7 The direction of the stationarity of the data represented by the corresponding slope G f and the angle ⁇ ) formed by the X direction can be output.
  • the data continuity information output from the data continuity detecting unit 101 is not used at all.
  • the direction of continuity in the spatial direction of the fine-line-containing real world region 2301 is substantially the direction of the angle 0.
  • the first method assumes that the direction of stationarity in the spatial direction of the thin-line-containing real world region 2301 is the Y direction (that is, the angle 0 is 90 degrees). This is a method of calculating the feature quantity of the approximation function (X).
  • the approximation function ⁇ (x) becomes a function whose waveform becomes dull and the details are reduced from the original pixel values.
  • the approximation function generated by the first method: ⁇ (X) is a waveform significantly different from the actual X-section waveform F (x).
  • the present applicant has invented a second method of calculating the feature amount ⁇ (using the angle 0) in consideration of the stationarity in the spatial direction in addition to the first method.
  • the second method is a method of calculating the feature amount of the approximate function f 2 (x), assuming that the direction of the stationarity of the fine-line-containing real world region 2301 is substantially the angle ⁇ direction.
  • the gradient G f representing the stationarity of the data corresponding to the stationarity in the spatial direction is expressed by the following equation (42).
  • Equation (42) dx represents a small amount of movement in the X direction as shown in FIG. 67, and dy represents Y with respect to dx as shown in FIG. 67. It represents the amount of small movement in the direction.
  • equation (40) used in the first method is that the position X in the X direction of the center position (x, y) of the pixel is the pixel of the pixel located at the same position.
  • the values P (x, y) are the same.
  • equation (40) indicates that pixels having the same pixel value continue in the Y direction (there is a continuity in the Y direction).
  • the equation (44) used in the second method is that the pixel value P (x, y) of the pixel whose center position is (X, y) is the target pixel (the center position Does not match the pixel value ( ⁇ f 2 (x)) of the pixel located X away from the origin (the pixel whose origin is (0,0)) in the X direction.
  • C x (y) as far away as the position to pixel pixel value (target pixel from the X direction x + C x (y) pixel located away only) (f 2 (x + C x (y )) Represents the same value as).
  • Expression (44) indicates that pixels having the same pixel value continue in the direction of the angle 0 corresponding to the shift amount C x (y) (there is a continuity in the direction of approximately the angle 6).
  • the shift amount C x (y) is the continuity in the spatial direction (in this case, the steadiness represented by the slope G F in FIG. 67 (strictly speaking, the data represented by the slope G f )) Equation (40) is obtained by correcting Equation (40) with the shift amount C x (y).
  • Equation (45) consists of 20 equations, similar to equation (4 1) described above. Therefore, in the second method as well as in the first method, when the number of features Wi of the approximate function f 2 (x) is less than 20, that is, when the approximate function f 2 (X) In the case of a polynomial of a smaller order, for example, the feature value ⁇ can be calculated using the least squares method. The specific method of the least squares method will be described later. For example, if the order of the approximation function f 2 (x) is set to 5 as in the first method, the feature Wi is calculated as follows in the second method.
  • FIG. 68 shows a graph of the pixel value P (x, y) shown on the left side of Expression (45).
  • Each of the five graphs shown in FIG. 68 is basically the same as that shown in FIG.
  • the maximum pixel value (pixel values corresponding to fine lines) is followed in the direction of continuity of data represented with the gradient G f.
  • the input pixel values P (x, -2), P (x, -l), P (x, 0), P (x, l), P (x , 2) for example, if they are added along the x-axis, they are added as in the first method. (Assuming that y is constant, five graphs are superimposed while keeping the state shown in Fig. 68.) Instead, change to the state shown in Fig. 69 and then add.
  • FIG. 69 shows the input pixel values P (x, -2), P (x, -1),? , 0),? (, 1) ,? , 2 ) are shifted by the shift amount C x (y) shown in the above equation (43).
  • FIG. 6-9 the five graphs shown in FIG. 68, the gradient G F representing the actual direction of continuity of data, Oh Taka also to the slope G F '(in the figure, the dotted (So that the straight line is a solid straight line).
  • each of the input pixel values P (X, -2), P (X, -1), P (X, 0), P (x, 1), and P (x, 2 ) For example, if you add along the X axis (five graphs as shown in Fig. 69), multiple lines parallel to the X axis (dotted lines, 3 Dotted line, solid line, one-dot chain line, and two-dot chain line) are distributed.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the pixel of interest.
  • the dotted line indicates the input pixel value P (x, -2)
  • the three-dot chain line indicates the input pixel value P (x, -1)
  • the solid line indicates the input pixel value P (x, 0)
  • the one-dot chain line indicates The input pixel value ⁇ ( ⁇ , 1) and the two-dot chain line indicate the input pixel value ⁇ ( ⁇ , 2).
  • the same pixel value In the case of, two or more lines actually overlap, but in FIG. 70, each line is drawn so as not to overlap so that each line can be distinguished.
  • each of the 20 input pixel values P (x, y) distributed in this manner (where X is an integer value of any one of 1 to 2; y is The regression curve that minimizes the error between the value f 2 (x + C x (y)) and the regression curve (feature value ⁇ calculated by the least squares method) is calculated using the above equation (38)
  • the approximate function f 2 (x)) obtained by substituting into is a curve f 2 (X) shown by the solid line in FIG.
  • the approximation function f 2 (X) generated by the second method is based on the angle ⁇ direction (that is, the stationary It represents a curve connecting the average value of the input pixel values P (x, y) in the X direction in the X direction.
  • the approximation function (X) generated by the first method is based on the input pixel value P (x, y) in the Y direction (ie, a direction different from the spatial continuity). It simply represents the mean of the curve connecting the X direction.
  • the approximate function f 2 (x) generated by the second method is less sharp than the approximate function (X) generated by the first method. Is reduced, and the degree of reduction of the detail with respect to the original pixel value is also reduced.
  • the approximate function f 2 (X) generated by the second method is more based on the actual X-sectional waveform F (x) than the approximate function (X) generated by the first method. It has a close waveform.
  • the approximation function f 2 (x) takes into account spatial continuity, it is nothing but the one generated with the input image (input pixel value) as the origin (reference). . That is, as shown in FIG. 63 described above, the approximation function f 2 (x) only approximates an input image different from the X-section waveform F (x), and approximates the X-section waveform F (x). It's hard to say.
  • the second method is a method of calculating the feature quantity assuming that the above equation (44) holds, and does not consider the relationship of the above equation (38) (integration of sensor 2) Effect is not taken into account).
  • the applicant of the present application has invented a third method of calculating the feature Wi of the approximate function f 3 (x) by further considering the integration effect of the sensor 2 with respect to the second method. That is, the third method introduces the concept of spatial mixing or temporal mixing. Note that considering both spatial mixing and temporal mixing complicates the description. Here, of the spatial mixing and temporal mixing, for example, spatial mixing is considered, and temporal mixing is ignored.
  • a portion 2 32 1 of the optical signal of the real world 1 (hereinafter referred to as a region 2 32 1) represents a region having the same area as one detecting element (pixel) of the sensor 2. I have. ,
  • a value (one pixel value) obtained by integrating the area 2 3 2 1 in the spatio-temporal direction (X direction, Y direction, and t direction) from the sensor 2 2 3 2 2 is output.
  • the pixel value 2 32 2 2 is represented as an image in the figure, and is actually data representing a predetermined value.
  • the area 2 3 2 1 of the real world 1 is clearly divided into an optical signal corresponding to the foreground (for example, the thin line described above) (white area in the figure) and an optical signal corresponding to the background (black area in the figure). .
  • the pixel value 2 3 2 2 is a value obtained by integrating the optical signal of the real world 1 corresponding to the foreground and the optical signal of the real world 1 corresponding to the background.
  • the pixel value 2 3 2 2 is a value corresponding to a level in which the light level corresponding to the foreground and the light level corresponding to the background are spatially mixed.
  • the part corresponding to one pixel (detection element of sensor 2) of the optical signal of the real world 1 is not the part where the optical signal of the same level is spatially uniformly distributed, but the foreground and the background. If each of the different levels of the optical signal is distributed as described above, the area is detected by the sensor 2 and, due to the integration effect of the sensor 2, the different light levels are spatially mixed ( One pixel value (integrated in the spatial direction) Will be. As described above, in the pixel of the sensor 2, the image for the foreground (the optical signal of the real world 1) and the image for the background (the optical signal of the real world 1) are spatially integrated and mixed, so to speak. The region composed of such pixels is referred to as a spatial mixed region.
  • the real-world estimator 10 2 (FIG. 58) 1 the original region 23 21 of the real world 1 (the portion of the optical signal of the real world 1 corresponding to one pixel of the sensor 2) 232 1) is approximated by an approximation function f 3 (X) such as a first-order polynomial as shown in FIG. 72 to obtain an X-sectional waveform F (x ) Is estimated.
  • FIG. 72 shows an approximation function f 3 (x) corresponding to the pixel value 2322 (FIG. 71) which is a spatial mixed area, that is, a solid line (FIG. 71) in the area 2331 of the real world 1.
  • An example of an approximate function f 3 (X) that approximates the corresponding X-section waveform F (x) is shown.
  • the horizontal axis in the figure, the side of the lower left corner x s of a pixel corresponding to the pixel value 23 22 to lower right x e (Fig. 7 1) represents an axis parallel to, and X-axis Have been.
  • the vertical axis in the figure is the axis representing the pixel value.
  • the start position x s and the end position x e of the integration range in Eq. (46) are determined by the shift amount C x (y ). That is, each of the start position x s and the end position location x e of the integral range of formula (46) is represented as the following equation (47).
  • each pixel value of the thin line containing data area 2302 shown in FIG. 67 that is, the input pixel value P (x, -2), P (x, -l ), P (x, 0), P (x, l), P (x, 2) (where X is any integer from 1 to 2) is expressed by the above equation ( 46) (Substituting the integration range into the above-mentioned equation (47)) yields the following 20 equations as shown in the following equation (48).
  • P (-1,-1) ⁇ 1-— (-1 ⁇ ) -— ⁇ . .: ⁇ 5 f 3 (x) dx + e 5- r 00-G, ((-11)) ++ 00.55
  • Equation (48) consists of 20 equations, similar to equation (4 5) described above. Therefore, in the third method as well as in the second method, the characteristics of the approximate function f 3 (X) If the number of collections is less than 20, that is, if the approximation function f 3 (x) is a polynomial of degree less than 19, for example, the feature quantity can be calculated using the least squares method. is there. The specific method of the least squares method will be described later.
  • the approximation function f 3 (x) calculated by the least squares method using Equation (48) (the calculated feature amount The generated approximation function f 3 (X)) is like the curve shown by the solid line in FIG.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the pixel of interest.
  • the approximate function f 3 (X) approximates the X-sectional waveform F (x). Therefore, although not shown, the approximate function f 3 (X) has a waveform closer to the X-section waveform F (x) than the approximate function f 2 (X).
  • FIG. 74 shows a configuration example of the real-world estimator 102 using such a first-order approximation method.
  • the real world estimating unit 102 calculates, for example, the feature value by the above-described third method (least square method), and uses the calculated feature value ⁇ to obtain the above-described equation (39) Estimate the X-section waveform F (x) by generating an approximate function f (x) of.
  • the third method least square method
  • the real world estimator 102 has a condition setting section 2 33 1, an input image storage section 2 33 2, an input pixel value acquisition section 2 3 3 3, and an integral component operation.
  • a section 2 3 3 4, a normal equation generation section 2 3 3 5, and an approximate function generation section 2 3 3 6 are provided.
  • the condition setting unit 2 3 3 1 calculates the range of pixels used for estimating the X-sectional waveform F (x) corresponding to the target pixel (hereinafter referred to as tap range), and the order n of the approximate function f (x). Set.
  • the input image storage unit 2332 temporarily stores the input image (pixel value) from the sensor 2.
  • the input pixel value acquisition unit 233 3 acquires an input image area corresponding to the tap range set by the condition setting unit 223 1 among the input images stored in the input image storage unit 2332, and It is supplied to the normal equation generation unit 2335 as an input pixel value table. That is, the input pixel value table is a table in which each pixel value of each pixel included in the area of the input image is described. A specific example of the input pixel value table will be described later.
  • the real-world estimator 102 calculates the feature quantity of the approximate function f (x) by the least squares method using the above-described equations (46) and (47). (46) can be expressed as the following equation (49).
  • Si (x s , x e ) represents the integral component of the i-th term. That is, the integral component Si (x s , x e ) is expressed by the following equation (50).
  • the integral component calculation unit 2334 calculates the integral component Si (x s , x e ).
  • the integral component Si (x s , x e ) represented by equation (50) (where the values x s and x e are the values represented by equation (46) described above) is a relative pixel position If (x, y), shift amount C x (y), and i of the i-th term are known, calculation is possible.
  • the relative pixel position (x, y) of these is determined by the target pixel and the tap range, and the shift amount C x (y) is determined by the angle.
  • the range of i is determined by the degree ⁇ (from the above-mentioned equations (4 1) and (4 3)), and the order ⁇ .
  • the integral component calculation unit 233 4 includes the tap range and the order set by the condition setting unit 233 1 and the data continuity information output from the data continuity detection unit 101.
  • the integral component Si (x s , x e ) is calculated based on the angle ⁇ , and the calculation result is supplied to the normal equation generating section 233 35 as an integral component table.
  • the normal equation generation unit 2 3 3 5 is an input pixel value acquisition unit.
  • a normal equation for generating the feature quantity ⁇ on the right-hand side of equation (46) described above, that is, equation (49) by the least square method is generated, and the generated normal equation is used as a normal equation table by the approximation function generation unit 233 6 Supply.
  • the approximation function generation unit 2 3 3 6 solves the normal equation included in the normal equation table supplied from the normal equation generation unit 2 3 3 5 by a matrix solution method, thereby obtaining the feature amount of the above-described equation (49). (That is, each of the coefficients of the approximation function f (x), which is a one-dimensional polynomial, is calculated and output to the image generation unit 103.
  • the real world estimating unit 102 (FIG. 74) using the one-dimensional approximation method estimates the real world (the processing in step S102 in FIG. 29). Will be explained.
  • the input image of one frame output from the sensor 2 and including the thin-line-containing data area 2302 in FIG. 60 described above is already stored in the input image storage unit 2332.
  • the data continuity detection unit 101 performs the processing on the thin line containing data area 2302 in the processing of the continuity detection in step S 101 (FIG. 290), Assume that angle 0 has already been output as data continuity information.
  • step S2301 in Fig. 75 the condition setting unit 2331 sets conditions (tap range and order). For example, it is assumed that the tap range 2351 shown in FIG. 76 is set and the fifth order is set.
  • FIG. 76 is a diagram illustrating an example of the tap range.
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 59).
  • the tap range 2351 represents a pixel group composed of a total of 20 pixels (20 squares in the figure) for 4 pixels in the X direction and 5 pixels in the Y direction.
  • the target pixel is the second pixel from the left in the figure and the third pixel from the bottom in the tap range 2351.
  • the relative pixel position (x, y) from the pixel of interest is shown in FIG. It is assumed that a number 1 (1 is an integer from 0 to 19) as shown by 76 is assigned.
  • step S2302 the condition setting unit 2331 sets the target pixel.
  • the input pixel value acquisition unit 233 3 3 acquires an input pixel value based on the condition (tap range) set by the condition setting unit 2331, and generates an input pixel value table. That is, in this case, the input pixel value acquisition unit 2333 acquires the thin line containing data area 2302 (FIG. 64) and generates a table including 20 input pixel values P (l) as the input pixel value table. .
  • Equation (51) the left side represents the input pixel value P (1), and the right side represents the input pixel value P (x, y).
  • P (0) P (0,0)
  • step S 2304 the integral component calculation unit 2334 determines the conditions (tap range and order) set by the condition setting unit 2331 and the data steady state supplied from the data continuity detection unit 101. Calculate integral components based on gender information (angle 0) and generate integral component table.
  • the input pixel value is obtained as the value of the pixel number 1 such as P (l) instead of P (x, y).
  • the integral component Si (x s , x e ) of the equation (50) is calculated as a function of 1 such as the integral component Si (1) shown on the left side of the following equation (5 2).
  • Equation (53) the left side represents the integral component Si (1), and the right side represents the integral component Si ( xs , xe ). That is, in this case, i is 0 to 5, so 20 Ss. (1), 20 (1), 20 S 2 (1), 20 S 3 (1), 20 S 4 (1), 20 S 5 (1) Si (1) will be calculated.
  • the integral component calculation unit 2334 uses the angle 0 supplied from the data continuity detection unit 101 to calculate the shift amounts C x ( ⁇ 2), C X ( ⁇ 1), and C X Each of (1) and C X (2) is calculated.
  • step S2303 and the processing in step S2304 is not limited to the example of FIG. 75, and the processing in step S2304 may be executed first, or the processing in step S2303 and the processing in step S2303 may be performed first.
  • step S2305 the normal equation generation unit 233 5 may execute the process in step S2303 with the input pixel value table generated by the input pixel value acquisition unit 2333.
  • a normal equation table is generated based on the integral component table generated by the integral component calculation unit 2334 in the process of step S2304.
  • the feature Wi of the following equation (54) corresponding to the above equation sss (49) is calculated by the least square method.
  • the corresponding normal equation is
  • Equation (55) L represents the maximum value of the pixel numbers 1 in the tap range.
  • each component of the matrix W MAT is a feature to be obtained. Therefore, if the matrix S MAT on the left side and the matrix P MAT on the right side are determined in equation (59), the matrix W MAT (that is, the feature Wi ) can be calculated by the matrix solution.
  • each component of the matrix S MAT can be calculated if the above-described integral component Si (1) is known. Since the integral component Si (1) is included in the integral component table supplied from the integral component calculation unit 2334, the normal equation generation unit 2335 uses the integral component table to convert each component of the matrix S MAT. Can be calculated.
  • each component of the matrix P MAT can be calculated if the integral component Si (1) and the input pixel value P (l) are known.
  • the integral component Si (1) is the same as that contained in each component of the matrix S MAT
  • the input pixel value P (l) is the input pixel value supplied from the input pixel value acquisition unit 2333. Since it is included in the value table, the normal equation generation unit 2335 can calculate each component of the matrix P MAT using the integral component table and the input pixel value table.
  • the normal equation generating unit 23 35 calculates each component of the matrix S MAT and matrix P MAT, the approximation function generating the calculation results (each component of the matrix S MAT and matrix P MAT) as normal equation table Output to section 2336.
  • step S2306 the approximation function generation unit 2336 determines, based on the normal equation table, each component of the matrix W MAT of the above equation ( 59 ).
  • feature amount Wi i.e., coefficient ⁇ in a one-dimensional polynomial approximation function f (x)
  • each component of the matrix W MAT on the left side is a feature quantity ⁇ to be obtained.
  • each component of the matrix S MAT and the matrix P MAT is included in the normal equation table supplied from the normal equation generating unit 233 35 . Accordingly, the approximation function producing formation unit 2 3 3 6 uses the normal equation table, calculates the matrix W MAT by performing matrix operation on the right side of the expression (6 0), the calculation result (characteristic amount Wi) Is output to the image generation unit 103.
  • step S2307 the approximation function generation unit 2336 determines whether or not processing of all pixels has been completed.
  • step S23.3 If it is determined in step S23.3 that all pixels have not been processed, the process returns to step S2302, and the subsequent processes are repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing in steps S2302 to S2307 is repeated.
  • the waveform of the approximate function f (x) generated by the coefficient (feature amount) Wi calculated as described above is a waveform like the approximate function (X) in FIG. 73 described above.
  • the waveform having the same shape as the one-dimensional X-sectional waveform F (x) is connected in the direction of the stationarity, for example, approximation such as a one-dimensional polynomial is performed.
  • the feature of the function f (x) is calculated. Therefore, in the one-dimensional approximation method, it is possible to calculate the feature amount of the approximation function f (x) with a smaller amount of operation processing compared to other function approximation methods. .
  • the second function approximating method for example, as shown in Figure 7.
  • the optical signal in the actual world 1 having a spatial direction of continuity represented with the gradient G F, X- Y plane ( Consider the waveform F (x, y) of the X direction, which is one direction in the spatial direction, and the horizontal plane in the Y direction perpendicular to the X direction), and calculate the approximate function f (X, y) such as a two-dimensional polynomial.
  • Approximate the waveform F (x, y) This method estimates the waveform F (x, y). Therefore, hereinafter, the second function approximation method is referred to as a two-dimensional approximation method.
  • the horizontal direction is the X direction which is one direction in the spatial direction
  • the upper right direction is the Y direction which is the other direction in the spatial direction
  • the vertical direction is the light level.
  • G F represents the gradient of stationarity in the spatial direction.
  • the sensor 2 is a CCD configured by arranging a plurality of detection elements 2-1 on the plane as shown in FIG.
  • the direction parallel to a predetermined side of the detection element 2_1 is defined as the X direction, which is one direction in the spatial direction
  • the direction perpendicular to the X direction is defined in the other direction in the spatial direction.
  • the direction perpendicular to the XY plane is the t direction, which is the time direction.
  • the spatial shape of each of the detection elements 2-1 of the sensor 2 is a square with one side length of one.
  • the shirt time (exposure time) of the sensor 2 is set to 1.
  • the pixel value P output from the detection element 2-1 having the center at the origin in the spatial direction is expressed by the following equation (61).
  • the two-dimensional approximation method treats the optical signal of the real world 1 as, for example, a waveform F (x, y) as shown in FIG. ) Is approximated by an approximation function f (x, y) such as a two-dimensional polynomial.
  • the optical signal of the real world 1 is represented by an optical signal function F (x, y, ⁇ ⁇ ⁇ ) having variables x, y, and z in a three-dimensional space and time t.
  • the one-dimensional waveform obtained by projecting the optical signal function F (x, y, t) in the X direction at an arbitrary position y in the Y direction is referred to as an X-sectional waveform F (x) here.
  • a waveform having the same shape as the X-section waveform F (X) is defined. It can be considered that they are connected in the direction of normality.
  • the waveform of the same shape as the X cross-sectional waveform F (X) has continuous in the direction of the gradient G F. If you say, continuous to the direction of the X cross-sectional waveform F (x) and the gradient waveform of the same shape G F, it can be said that the waveform F (x, y) are formed.
  • the waveform of the approximate function f (x, y) approximating the waveform F (x, y) is formed by a series of waveforms having the same shape as the approximate function f (x) approximating the X-section waveform F (x).
  • the approximate function f (x, y) can be represented by a two-dimensional polynomial.
  • the light signal in the actual world 1 i.e., an optical signal having a spatial direction of continuity represented with the gradient G F is more detected by the sensor 2 (FIG. 78) And output as an input image (pixel value).
  • the data continuity detector 101 (FIG. 3) outputs a total of 2 ° pixels of 4 pixels in the X direction and 5 pixels in the Y direction of the input image.
  • Region 2 of input image composed of pixels (20 squares represented by dotted lines in the figure) 40
  • the processing is executed for 1 and the angle ⁇ (the angle between the direction of the continuity of the data represented by the gradient G f corresponding to the gradient G F and the X direction as one of the data continuity information ⁇ ) Is output.
  • the horizontal direction in the figure represents the X direction, which is one direction in the spatial direction
  • the vertical direction in the figure represents the Y direction, which is the other direction in the spatial direction.
  • the second pixel from the left and the third pixel from the bottom is the pixel of interest, and the center of the pixel of interest is set to the origin (0,0) (x, y).
  • the coordinate system has been set.
  • the relative distance in the X direction to the straight line at the angle ⁇ ⁇ passing through the origin (0,0) (the straight line of the gradient G f representing the direction of data continuity) (hereinafter referred to as the cross-sectional direction distance) is x, It is described.
  • the graph on the right is an approximated function f (x '), which is an n-th order (n is an arbitrary integer) polynomial, which is an approximated function of the X-section waveform F (x').
  • f (x ') an n-th order (n is an arbitrary integer) polynomial, which is an approximated function of the X-section waveform F (x').
  • the horizontal axis in the figure represents the distance in the cross-sectional direction
  • the vertical axis in the figure represents the pixel value.
  • Equation (63) the cross-sectional direction distance x 'is expressed as in the following Equation (64).
  • Wi represents a coefficient of the approximate function f (x, y).
  • the coefficient ⁇ of the approximation function f including the approximation function f (x, y) can be positioned as the feature of the approximation function f. Therefore, hereinafter, the coefficient of the approximate function f is also referred to as the characteristic amount Wi of the approximate function f.
  • the real-world estimating unit 102 can calculate the feature amount of Expression (65), it can estimate a waveform F (x, y) as shown in FIG.
  • equation (66) is an equation using the positions x and y in the spatial direction (X direction and Y method) as variables.
  • Equation (66) P (x, y) is the center position of the input image from sensor 2 at position (x, y) (relative position from the pixel of interest).
  • (X, y)) represents the pixel value of the pixel present in.
  • E represents an error.
  • the relationship between the input pixel value P (x, y) and the approximation function f (x, y) such as a two-dimensional polynomial is expressed by equation (66).
  • the actual world estimating unit 1 0 2 utilizes the equation (6 6), a characteristic quantity Wi, for example, the least square method or the like by calculating by the (computed feature quantity Wi formula (By generating the approximate function f (x, y) by substituting into (64)), the two-dimensional function F (x, y) (the stationary in the spatial direction represented by the gradient G F (Fig. 77)) It is possible to estimate a waveform F (x, y)) that expresses the optical signal of the real world 1 having the property by focusing on the spatial direction.
  • a characteristic quantity Wi for example, the least square method or the like by calculating by the (computed feature quantity Wi formula (By generating the approximate function f (x, y) by substituting into (64)
  • FIG. 80 shows an example of the configuration of the real world estimator 102 using such a two-dimensional approximation method.
  • the real world estimator 102 has a condition setting section 2421, an input image storage section 2422, an input pixel value acquisition section 2423, and an integral component operation.
  • a section 2424, a normal equation generating section 2425, and an approximate function generating section 2426 are provided.
  • the condition setting unit 2 4 2 1 calculates the pixel range (tap range) used to estimate the function F (x, y) corresponding to the target pixel and the order n of the approximate function f (x, y). Set.
  • the input image storage unit 242 temporarily stores the input image (pixel value) from the sensor 2.
  • the input pixel value obtaining unit 2432 sets the area of the input image corresponding to the tap range set by the condition setting unit 2421 out of the input images stored in the input image storage unit 2422. It obtains it and supplies it to the normal equation generator 245 as an input pixel value table. That is, the input pixel value table is a table in which each pixel value of each pixel included in the area of the input image is described. A specific example of the input pixel value table will be described later.
  • the real world estimator 102 using the two-dimensional approximation method solves the above equation (66) by the least square method, thereby obtaining the approximation expressed by the above equation (65).
  • the feature quantity ⁇ of the function f (x, y) is calculated.
  • Equation (6 6) is expressed as the following equation (7 1) by using the following equation (70) obtained by using the following equations (6 7) to (6 9). be able to.
  • Si (x-0.5, x + 0.5, y-0.5, y + 0.5) represents the integral component of the i-th order term. That is, the integral component Si (x-0.5, x + 0.5, y-0.5, y + 0.5) is as shown in the following equation (72).
  • the integral component computing unit 2424 computes the integral component Si (x-0.5, x + 0.5, y-0.5, y + 0.5).
  • the integral component Si (x-0.5, x + 0.5, y-
  • 0.5, y + 0.5 can be calculated if the relative pixel position (x, y), the variable s in the above equation (65), and the i-th term i are known.
  • the relative pixel position (x, y) is determined by the target pixel and the tap range, and the variable s is cot 0, so the angle 0 is determined and the range of i is determined by the order n.
  • the integral component calculation unit 2424 calculates the tap range and order set by the condition setting unit 2421 and the angle ⁇ ⁇ ⁇ of the data constancy information output from the data constancy detection unit 101.
  • the integral component Sj (x-0.5, x + 0.5, y-0.5, y + 0.5) is computed, and the result is supplied to the normal equation generator 2425 as an integral component table.
  • the normal equation generation unit 2424 uses the input pixel value table supplied from the input pixel value acquisition unit 2423 and the integral component table supplied from the integral component calculation unit 2424, as described above.
  • the approximate function generator 2 4 2 6 solves the above equation by solving the normal equation included in the normal equation table supplied from the normal equation generator 2 4
  • Each of the feature values ⁇ of (66) (that is, the coefficient Wi of the approximation function f (x, y) which is a two-dimensional polynomial) is calculated and output to the image generation unit 103.
  • optical signals of the actual world 1 having a spatial direction of continuity represented with the gradient G F is detected by the sensor 2 (FIG. 7 8), and an input image corresponding to one frame, the input It is assumed that the image has already been stored in the image storage unit 242. Further, in the processing for detecting the continuity of the data continuity detecting section 101 force step S101 (FIG. 29), the input image includes the above-described region 241 shown in FIG. 79 of the input image. Suppose that the angle ⁇ has already been output as data continuity information.
  • step S2401 the condition setting unit 2421 sets conditions (tap range and order).
  • FIG. 82 is a diagram illustrating an example of the tap range.
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 78).
  • the tap range 2 441 represents a pixel group consisting of a total of 20 pixels (20 squares in the figure) for 4 pixels in the X direction and 5 pixels in the Y direction. I have.
  • the target pixel is the second pixel from the left in the figure and the third pixel from the bottom in the tap range 2 4 4 1 .
  • Ma the relative pixel position (x, y) from the target pixel (the coordinate value of the target pixel coordinate system with the origin at the center (0, 0) of the target pixel) is shown in FIG. It is assumed that a number 1 (1 is an integer value of any one of 0 to 19) as shown in FIG.
  • step S2402 the condition setting unit 2421 sets a target pixel.
  • the input pixel value obtaining unit 2423 obtains an input pixel value based on the condition (tap range) set by the condition setting unit 2421, and generates an input pixel value table. That is, in this case, the input pixel value obtaining unit 2423 obtains the area 240 1 (FIG. 79) of the input image and generates a table including 20 input pixel values P (1) as the input pixel value table. .
  • equation (73) the relationship between the input pixel value P (l) and the above-described input pixel value P (x, y) is represented by the following equation (73).
  • the left side represents the input pixel value P (1)
  • the right side represents the input pixel value P (x, y).
  • step S2404 the integral component calculation unit 2424 determines the conditions (tap range and order) set by the condition setting unit 242 1 and the data continuity information supplied from the data continuity detection unit 101. Calculate the integral component based on (Angle 0) and generate the integral component table.
  • the input pixel value is obtained as the value of the pixel number 1 such as P (l) instead of P (x, y).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)

Abstract

本発明は、現実世界の信号により近似した画像等を得ることができるようにした信号処理装置および信号処理方法、並びにプログラムおよび記録媒体に関する。動き量vで水平方向に動いているオブジェクトが撮像され、オブジェクトがボケた画像が信号処理装置に入力される。定常性設定部15012は、オブジェクトの動き量vを定常性情報として実世界推定部15013に供給する。実世界推定部15013は、入力画像の画素値とボケがない画像の画素値との関係を、動き量vに応じてモデル化したモデル方程式と、ボケがない画像の画素間を拘束する拘束条件の式とで構成される正規方程式を演算することにより、ボケがない画像の画素値を推定し、画像生成部15014に供給する。本発明は、例えば、画像から動きボケを除去する場合などに適用することができる。

Description

1
明細書
信号処理装置および信号処理方法、 並びにプログラムおよぴ記録媒体 技術分野
本発明は、 信号処理装置および信号処理方法、 並びにプログラムおよび記録媒 体に関し、 特に、 現実世界の信号により近似した画像等を得ることができるよう にする信号処理装置および信号処理方法、 並びにプログラムおよぴ記録媒体に関 する。 背景技術
実世界 (現実世界) における事象をセンサで検出し、 センサが出力するサンプ リングデータを処理する技術が広く利用されている。 例えば、 実世界をイメージ センサで撮像し、 画像データであるサンプリングデータを処理する画像処理技術 が広く利用されている。
また、 第 1の次元を有する現実世界の信号である第 1の信号をセンサによって 検出することにより得た、 第 1の次元に比較し次元が少ない第 2の次元を有し、 第 1の信号に対する歪を含む第 2の信号を取得し、 第 2の信号に基づく信号処理 を行うことにより、 第 2の信号に比して歪の軽減された第 3の信号を生成するよ うにしているものもある (例えば、 特開 2 0 0 1— 2 5 0 1 1 9号公報参照) 。 しかしながら、 従来においては、 現実世界の信号の定常性を考慮した信号処理 が行われていなかつたため、 現実世界の信号により近似した画像等を得ることが 困難であることがあった。 発明の開示
本発明は、 このような状況に鑑みてなされたものであり、 現実世界の信号によ り近似した画像等を得ることができるようにするものである。 本発明の信号処理装置は、 それぞれ時間積分効果を有する複数の画素に現実世 界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ 内の処理領域を設定する処理領域設定手段と、 画像データにおいて定常性の一部 が欠落した現実世界の光信号の定常性に対応する画像データ内のオブジェク トの 動きベク トルを設定する動きベクトル設定手段と、 処理領域内の各画素の画素値 は、 オブジェク トに対応する動きボケが生じていない各画素の画素値が動きべク トルに対応して移動しながら積分された値であると.して、 処理領域内の各画素の 画素値と、 動きボケが生じていない各画素の画素値との関係をモデル化するモデ ル生成手段と、 モデル生成手段により生成されたモデルに対して、 処理領域内の 各画素の画素値を代入した第 1の方程式と、 動きボケが生じていない各画素間の 関係を拘束する第 2の方程式とにより、 正規方程式を生成する正規方程式生成手 段と、 正規方程式生成手段により生成された正規方程式を演算することにより、 動きボケが生じていない各画素の画素値を推定する実世界推定手段とを備えるこ とを特徴とする。
正規方程式生成手段には、 モデル生成手段により生成されたモデルに対して処 理領域内の各画素の画素値を代入する第 1の方程式と、 動きボケが生じていない 各画素間の画素値の差分を 0とする第 2の方程式とにより正規方程式を生成させ るようにすることができる。
本発明の信号処理方法は、 それぞれ時間積分効果を有する複数の画素に現実世 界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ 内の処理領域を設定する処理領域設定ステップと、 画像データにおいて定常性の 一部が欠落した現実世界の光信号の定常性に対応する画像データ内のオブジェク トの動きべクトルを設定する動きべク トル設定ステップと、 処理領域内の各画素 の画素値は、 オブジェクトに対応する動きボケが生じていない各画素の画素値が 動きベクトルに対応して移動しながら積分された値であるとして、 処理領域内の 各画素の画素^:と、 動きボケが生じていない各画素の画素値との関係をモデル化 するモデル生成ステップと、 モデル生成ステップの処理により生成されたモデル に対して、 処理領域内の各画素の画素値を代入した第 1の方程式と、 動きボケが 生じていない各画素間の関係を拘束する第 2の方程式とにより、 正規方程式を生 成する正規方程式生成ステップと、 正規方程式生成ステップの処理により生成さ れた正規方程式を演算することにより、 動きボケが生じていない各画素の画素値 を推定する実世界推定ステツプとを含むことを特徴とする。
本発明の記録媒体のプログラムは、 それぞれ時間積分効果を有する複数の画素 に現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画 像データ内の処理領域を設定する処理領域設定ステップと、 画像データにおいて 定常性の一部が欠落した現実世界の光信号の定常性に対応する画像データ内のォ ブジェクトの動きべクトルを設定する動きべクトル設定ステップと、 処理領域内 の各画素の画素値は、 オブジェク トに対応する動きボケが生じていない各画素の 画素値が動きべクトルに対応して移動しながら積分された値であるとして、 処理 領域内の各画素の画素値と、 動きボケが生じていない各画素の画素値との関係を モデル化するモデル生成ステップと、 モデル生成ステップの処理により生成され たモデルに対して、 処理領域内の各画素の画素値を代入した第 1の方程式と、 動 きボケが生じていない各画素間の関係を拘束する第 2の方程式とにより、 正規方 程式を生成する正規方程式生成ステツプと、 正規方程式生成ステップの処理によ り生成された正規方程式を演算することにより、 動きボケが生じていない各画素 の画素値を推定する実世界推定ステツプとを含むことを特徴とする。
本発明のプログラムは、 それぞれ時間積分効果を有する複数の画素に現実世界 の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ内 の処理領域を設定する処理領域設定ステップと、 画像データにおいて定常性の一 部が欠落した現実世界の光信号の定常性に対応する画像データ内のオブジェクト の動きべクトルを設定する動きべクトル設定ステップと、 処理領域内の各画素の 画素値は、 オブジェクトに対応する動きボケが生じていない各画素の画素値が動 きべクトルに対応して移動しながら積分された値であるとして、 処理領域内の各 画素の画素値と、 動きボケが生じていない各画素の画素値との関係をモデル化す るモデル生成ステップと、 モデル生成ステツプの処理により生成されたモデルに 対して、 処理領域内の各画素の画素値を代入した第 1の方程式と、 動きボケが生 じていない各画素間の関係を拘束する第 2の方程式とにより、 正規方程式を生成 する正規方程式生成ステップと、 正規方程式生成ステップの処理により生成され た正規方程式を演算することにより、 動きボケが生じていない各画素の画素値を 推定する実世界推定ステップとをコンピュータに実行させることを特徴とする。 本発明においては、 それぞれ時間積分効果を有する複数の画素に現実世界の光 信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ内の処 理領域が設定され、 画像データにおいて定常性の一部が欠落した現実世界の光信 号の定常性に対応する画像データ内のオブジェク トの動きべク トルが設定され、 処理領域内の各画素の画素値は、 オブジェクトに対応する動きボケが生じていな い各画素の画素値が動きべクトルに対応して移動しながら積分された値であると して、 処理領域内の各画素の画素値と、 動きボケが生じていない各画素の画素値 との関係がモデル化され、 そのモデルに対して、 処理領域内の各画素の画素値を 代入した第 1の方程式と、 動きボケが生じていない各画素間の関係を拘束する第 2の方程式とにより、 正規方程式が生成され、 その生成された正規方程式を演算 することにより、 動きボケが生じていない各画素の画素値が推定される。 図面の簡単な説明
図 1は、 本発明の原理を示す図である。
図 2は、 信号処理装置 4のハードウェア構成の例を示すプロック図である。
図 3は、 図 1の信号処理装置 4の一実施の形態の構成例を示すプロック図である。 図 4は、 信号処理装置 4の信号処理の原理をより具体的に説明する図である。 図 5は、 ィメージセンサ上の画素の配置の例を説明する図である。
図 6は、 CCDである検出素子の動作を説明する図である。
図 7は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値との関 係を説明する図である。 図 8は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素 値との関係を説明する図である。
図 9は、 実世界 1の線状の物の画像の例を示す図である。
図 1 0は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 1は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像の例を示す図である。
図 1 2は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 3は、 画像データの模式図である。
図 1 4は、 M個のデータ 1 6 2によるモデル 1 6 1の推定を説明する図である。 図 1 5は、 実世界 1の信号とデータ 3との関係を説明する図である。
図 1 6は、 式を立てるときに注目するデータ 3の例を示す図である。
図 1 7は、 式を立てる場合における、 実世界 1における 2つの物体に対する信号 およぴ混合領域に属する値を説明する図である。
図 1 8は、 式 (1 8 ) 、 式 (1 9 ) 、 および式 (2 2 ) で表される定常性を説明 する図である。
図 1 9は、 データ 3から抽出される、 M個のデータ 1 6 2の例を示す図である。 図 2 0は、 データ 3における、 時間方向および 2次元の空間方向の実世界 1の信 号の積分を説明する図である。
図 2 1は、 空間方向により解像度の高い高解像度データを生成するときの、 積分 の領域を説明する図である。
図 2 2は、 時間方向により解像度の高い高解像度データを生成するときの、 積分 の領域を説明する図である。
図 2 3は、 時間空間方向により解像度の高い高解像度データを生成するときの、 積分の領域を説明する図である。
図 2 4は、 入力画像の元の画像を示す図である。
図 2 5は、 入力画像の例を示す図である。
図 2 6は、 従来のクラス分類適応処理を適用して得られた画像を示す図である。 図 2 7は、 細線の領域を検出した結果を示す図である。
図 2 8は、 信号処理装置 4から出力された出力画像の例を示す図である。
図 2 9は、 信号処理装置 4による、 信号の処理を説明するフローチャートである。 図 3 0は、 データ定常性検出部 1 0 1の構成を示すブロック図である。
図 3 1は、 背景の前に細線がある実世界 1の画像を示す図である。
図 3 2は、 平面による背景の近似を説明する図である。
図 3 3は、 細線の画像が射影された画像データの断面形状を示す図である。
図 3 4は、 細線の画像が射影された画像データの断面形状を示す図である。
図 3 5は、 細線の画像が射影された画像データの断面形状を示す図である。
図 3 6は、 頂点の検出おょぴ単調増減領域の検出の処理を説明する図である。 図 3 7は、 頂点の画素値が閾値を超え、 隣接する画素の画素値が閾値以下である 細線領域を検出する処理を説明する図である。
図 3 8は、 図 3 7の点線 AA'で示す方向に並ぶ画素の画素値を表す図である。 図 3 9は、 単調増減領域の連続性の検出の処理を説明する図である。
図 4 0は、 細線の画像が射影された領域の検出の他の処理の例を示す図である。 図 4 1は、 定常性検出の処理を説明するフローチヤ一トである。
図 4 2は、 時間方向のデータの定常性を検出の処理を説明する図である。
図 4 3は、 非定常成分抽出部 2 0 1の構成を示すプロック図である。
図 4 4は、 棄却される回数を説明する図である。
図 4 5は、 非定常成分の抽出の処理を説明するフローチャートである。
図 4 6は、 定常成分の抽出の処理を説明するフローチャートである。
図 4 7は、 定常成分の抽出の他の処理を説明するフローチヤ一トである。
図 4 8は、 定常成分の抽出のさらに他の処理を説明するフローチャートである。 図 4 9は、 データ定常性検出部 1 0 1の他の構成を示すブロック図である。
図 5 0は、 データの定常性を有する入力画像におけるァクティビティを説明する 図である。
図 5 1は、 ァクティビティを検出するためのプロックを説明する図である。 図 5 2は、 ァクティビティに対するデータの定常性の角度を説明する図である。 図 5 3は、 データ定常性検出部 1 0 1のより詳細な構成を示すブロック図である。 図 5 4は、 画素の組を説明する図である。
図 5 5は、 画素の組の位置とデータの定常性の角度との関係を説明する図である。 図 5 6は、 データの定常性の検出の処理を説明するフローチャートである。
図 5 7は、 時間方向および空間方向のデータの定常性の角度を検出するとき、 抽 出される画素の組を示す図である。
図 5 8は、 図 3の実世界推定部の実施の形態の 1例である、 関数近似手法の原 理を説明する図である。
図 5 9は、 センサが C C Dとされる場合の積分効果を説明する図である。
図 6 0は、 図 5 9のセンサの積分効果の具体的な例を説明する図である。
図 6 1は、 図 5 9のセンサの積分効果の具体的な他の例を説明する図である。 図 6 2は、 図 6 0で示される細線含有実世界領域を表した図である。
図 6 3は、 図 3の実世界推定部の実施の形態の 1例の原理を、 図 5 8の例と対比 させて説明する図である。
図 6 4は、 図 6 0で示される細線含有データ領域を表した図である。
図 6 5は、 図 6 4の細線含有データ領域に含まれる各画素値のそれぞれをグラフ ィ匕した図である。
図 6 6は、 図 6 5の細線含有データ領域に含まれる各画素値を近似した近似関数 をグラフ化した図である。
図 6 7は、 図 6 0で示される細線含有実世界領域が有する空間方向の定常性を説 明する図である。
図 6 8は、 図 6 4の細線含有データ領域に含まれる各画素値のそれぞれをグラフ ィ匕した図である。
図 6 9は、 図 6 8で示される入力画素値のそれぞれを、 所定のシフト量だけシフ トさせた状態を説明する図である。 図 7 0は、 空間方向の定常性を考慮して、 図 6 5の細線含有データ領域に含まれ る各画素値を近似した近似関数をグラフ化した図である。
図 7 1は、 空間混合領域を説明する図である。
図 7 2は、 空間混合領域における、 実世界の信号を近似した近似関数を説明する 図である。
図 7 3は、 センサの積分特性と空間方向の定常性の両方を考慮して、 図 6 5の細 線含有データ領域に対応する実世界の信号を近似した近似関数をグラフ化した図 である。
図 7 4は、 図 5 8で示される原理を有する関数近似手法のうちの、 1次多項式近 似手法を利用する実世界推定部の構成例を説明するプロック図である。
図 7 5は、 図 7 4の構成の実世界推定部が実行する実世界の推定処理を説明する フローチヤ一トである。
図 7 6は、 タップ範囲を説明する図である。
図 7 7は、 空間方向の定常性を有する実世界の信号を説明する図である。
図 7 8は、 センサが C C Dとされる場合の積分効果を説明する図である。
図 7 9は、 断面方向距離を説明する図である。
図 8 0は、 図 5 8で示される原理を有する関数近似手法のうちの、 2次多項式近 似手法を利用する実世界推定部の構成例を説明するプロック図である。
図 8 1は、 図 8 0の構成の実世界推定部が実行する実世界の推定処理を説明する フローチャートである。
図 8 2は、 タップ範囲を説明する図である。
図 8 3は、 時空間方向の定常性の方向を説明する図である。
図 8 4は、 センサが C C Dとされる場合の積分効果を説明する図である。
図 8 5は、 空間方向の定常性を有する実世界の信号を説明する図である。
図 8 6は 時空間方向の定常性を有する実世界の信号を説明する図である。 図 8 7は、 図 5 8で示される原理を有する関数近似手法のうちの、 3次元近似手 法を利用する実世界推定部の構成例を説明するプロック図である。 図 8 8は、 図 8 7の構成の実世界推定部が実行する実世界の推定処理を説明する フローチヤ一トである。
図 8 9は、 図 3の画像生成部の実施の形態の 1例である、 再積分手法の原理を 説明する図である。
図 9 0は、 入力画素と、 その入力画素に対応する、 実世界の信号を近似する近似 関数の例を説明する図である。
図 9 1は、 図 9 0で示される近似関数から、 図 9 0で示される 1つの入力画素に おける、 高解像度の 4つの画素を創造する例を説明する図である。
図 9 2は、 図 8 9で示される原理を有する再積分手法のうちの、 1次元再積分手 法を利用する画像生成部の構成例を説明するブロック図である。
図 9 3は、 図 9 2の構成の画像生成部が実行する画像の生成処理を説明するフロ 一チヤ一トである。
図 9 4は、 入力画像の元の画像の例を表す図である。
図 9 5は、 図 9 4の画像に対応する画像データの例を表す図である。
図 9 6は、 入力画像の例を表す図である。
図 9 7は、 図 9 6の画像に対応する画像データの例を表す図である。
図 9 8は、 入力画像に対して従来のクラス分類適応処理を施して得られる画像の 例を表す図である。
図 9 9は、 図 9 8の画像に対応する画像データの例を表す図である。
図 1 0ひは、 入力画像に対して 1次元再積分手法の処理を施して得られる画像の 例を表す図である。
図 1 0 1は、 図 1 0 0の画像に対応する画像データの例を表す図である。
図 1 0 2は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 1 0 3は、 図 8 9で示される原理を有する再積分手法のうちの、 2次元再積分 手法を利用する画像生成部の構成例を説明するプロック図である。
図 1 0 4は、 断面方向距離を説明する図である。 図 1 0 5は、 図 1 0 3の構成の画像生成部が実行する画像の生成処理を説明する フローチヤ一トである。
図 1 0 6は、 入力画素の 1例を説明する図である。
図 1 0 7は、 2次元再積分手法により、 図 1 0 6で示される 1つの入力画素にお ける、 高解像度の 4つの画素を創造する例を説明する図である。
図 1 0 8は、 時空間方向の定常性の方向を説明する図である。
図 1 0 9は、 図 8 9で示される原理を有する再積分手法のうちの、 3次元再積分 手法を利用する画像生成部の構成例を説明するプロック図である。
図 1 1 0は、 図 1 0 9の構成の画像生成部が実行する画像の生成処理を説明する フローチャートである。
図 1 1 1は、 図 1の信号処理装置 4の他の一実施の形態の構成例を示すブロック 図である。
図 1 1 2は、 図 1 1 1の信号処理装置 4の処理を説明するフローチヤ一トである。 図 1 1 3は、 図 1 1 1の信号処理装置 4の応用例の一実施の形態の構成例を示す ブロック図である。
図 1 1 4は、 図 1 1 3の信号処理装置 4の処理を説明するフローチヤ一トである。 図 1 1 5は、 実世界 1の光信号を説明する図である。
図 1 1 6は、 センサ 2が C C Dとされる場合の積分効果について説明する図であ る。
図 1 1 7は、 実世界 1の近似関数 f (x,y)を表した図である。
図 1 1 8は、 図 1 1 3の信号処理装置 4に入力される入力画像と、 処理領域につ いて説明する図である。
図 1 1 9は、 図 1 1 3の信号処理装置 4で設定される処理領域の例について説明 する図である。
図 1 2 0は、 図 1 2 0の近似関数 f (x,y)のうちの、 yの値が所定の値 y。 (y = y c ) の X断面の近似関数 f (x)を示す図である。
図 1 2 1は、 図 1 2 0の近似関数 f (x)の l Z v時間後を示す図である。 図 1 2 2は、 図 1 2 1の近似関数 f (x)の l Z v時間後を示す図である。
図 1 2 3は、 入力画像に撮像される物体が、 シャツタ時間あたり V画素で動くと きの動き方を説明する図である。
図 1 2 4は、 図 1 2 0に示した、 所定の瞬時のタイミングにおける、 y = y cの 近似関数 f (x)を、 X— t平面で表した図である。
図 1 2 5は、 図 1 2 4の画素値 Qc乃至 Q9 に対応するように、 動きボケが生じ ている画素値 P。乃至 P 9 を、 X— t平面で表した図である。
図 1 2 6は、 入力画像の画素値 P。乃至 P 9 を図 1 2 4の画素値 Q。乃至 Q9で表 した図である。
図 1 2 7は、 図 1 2 6の空白領域に対して、 処理領域の端部を 「平坦である」 と 仮定して解く方法を説明する図である。
図 1 2 8は、 図 1 1 9の処理領域における、 注目ラインを説明する図である。 図 1 2 9は、 図 1 1 3の実世界推定部 15013 の構成例を示すブロック図である。 図 1 3 0は、 図 1 1 4のステップ S15008の実世界推定処理を説明するフローチ ヤートである。
図 1 3 1は、 図 1 1 4のステップ S15008の実世界推定処理を説明するフローチ ヤートである。
図 1 3 2は、 図 1 1 3の信号処理装置 4に入力される入力画像を示す図である。 図 1 3 3は、 図 1 1 3の信号処理装置 4が、 図 1 3 2の入力画像を、 処理領域の 端部を 「平坦である」 と仮定した式を付加する、 第 1の方法により処理し、 出 力した画像を示す図である。
図 1 3 4は、 図 1 1 3の信号処理装置 4が、 図 1 3 2の入力画像を、 隣接する画 素値の関係を拘束する条件式を付加する、 第 2の方法により処理し、 出力した画 像を示す図である。
図 1 3 5は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例を 示すプロック図である。
図 1 3 6は、 図 1 3 5の信号処理装置 4の処理を説明するフローチヤ一トである。 JP2004/008691
12
図 1 3 7は、 図 1 3 5の実世界推定部 15083 の構成例を示すブロック図である。 図 1 3 8は、 図 1 3 6のステップ S15088の実世界推定処理を説明するフローチ ヤートである。
図 1 3 9は、 図 1 3 6のステップ S15088の実世界推定処理を説明するフローチ ヤートである。
図 1 4 0は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例を 示すブロック図である。
図 1 4 1は、 図 1 4 0の信号処理装置 4の処理を説明するフローチヤ一トである。 図 1 4 2は、 図 1 4 0の実世界推定部 15113 の構成例を示すプロック図である。 図 1 4 3は、 図 1 4 1のステップ S15168の実世界推定処理を説明するフローチ ヤートである。
図 1 4 4は、 図 1 4 0の信号処理装置 4に入力される入力画像を示す図である。 図 1 4 5は、 図 1 4 4の入力画像を、 図 1 3 5の信号処理装置 4が、 拘束条件式 に対する重み Wb j を、 全ての拘束条件式について、 同じ重みとして処理した出 力画像の例を示す図である。
図 1 4 6は、 図 1 4 4の入力画像を、 図 1 4 0の信号処理装置 4が、 拘束条件式 に対する重み W を、 入力画像のアクティビティに応じて、 0または 1として 処理した出力画像の例を示す図である。
図 1 4 7は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例を 示すブロック図である。
図 1 4 8は、 図 1 4 7の信号処理装置 4の処理を説明するフローチヤ一トである。 図 1 4 9は、 図 1 4 7の実世界推定部 15153 の構成例を示すブロック図である。 図 1 5 0は、 図 1 4 8のステップ S15218の実世界推定処理を説明するフローチ ヤー である。
図 1 5 1は、 図 1 4 8のステップ S15218の実世界推定処理を説明するフローチ ヤートである。
図 1 5 2は、 図 1 1 3の定常性設定部 15012 の構成例を示すブロック図である。 図 1 5 3は、 動き量を説明する図である。
図 1 5 4は、 背景オブジェク トの前を移動する前景オブジェク トをカメラで撮像 したときに、 カメラから出力される画像の画素値を示す図である。
図 1 5 5は、 図 1 5 4で示される画像の画素の画素値の差分値を示す図である。 図 1 5 6は、 動き量の検出の処理を説明するフローチャートである。
図 1 5 7は、 相関の検出の処理を説明するフローチャートである。 発明を実施するための最良の形態
図 1は、 本発明の原理を表している。 同図で示されるように、 空間、 時間、 お よび質量の次元を有する実世界 1の事象 (現象) は、 センサ 2により取得され、 データ化される。 実世界 1の事象とは、 光 (画像) 、 音声、 圧力、 温度、 質量、 濃度、 明るさ/暗さ、 またはにおいなどをいう。 実世界 1の事象は、 時空間方向 に分布している。 例えば、 実世界 1の画像は、 実世界 1の光の強度の時空間方向 の分布である。
センサ 2に注目すると、 空間、 時間、 および質量の次元を有する実世界 1の事 象のうち、 センサ 2が取得可能な、 実世界 1の事象が、 センサ 2により、 データ 3に変換される。 センサ 2によって、 実世界 1の事象を示す情報が取得されると も言える。
すなわち、 センサ 2は、 実世界 1の事象を示す情報を、 データ 3に変換する。 空間、 時間、 および質量の次元を有する実世界 1の事象 (現象) を示す情報であ る信号がセンサ 2により取得され、 データ化されるとも言える。
以下、 実世界 1における、 画像、 音声、 圧力、 温度、 質量、 濃度、 明るさ/暗 さ、 またはにおいなどの事象の分布を、 実世界 1の事象を示す情報である信号と も称する。 また、 実世界 1の事象を示す情報である信号を、 単に、 実世界 1の信 号とも称する。 本明細書において、 信号は、 現象および事象を含み、 送信側に意 思がないものも含むものとする。 P T/JP2004/008691
14
センサ 2から出力されるデータ 3 (検出信号) は、 実世界 1の事象を示す情報 を、 実世界 1に比較して、 より低い次元の時空間に射影して得られた情報である。 例えば、 動画像の画像データであるデータ 3は、 実世界 1の 3次元の空間方向お よび時間方向の画像が、 2次元の空間方向、 および時間方向からなる時空間に射 影されて得られた情報である。 また、 例えば、 データ 3がデジタルデータである とき、 データ 3は、 サンプリングの単位に応じて、 丸められている。 データ 3が アナログデータであるとき、 データ 3において、 ダイナミックレンジに応じて、 情報が圧縮されているか、 またはリミッタなどにより、 情報の一部が削除されて いる。
このように、 所定の次元を有する実世界 1の事象を示す情報である信号をデー タ 3 (検出信号) に射影することにより、 実世界 1の事象を示す情報の一部が欠 落する。 すなわち、 センサ 2が出力するデータ 3において、 実世界 1の事象を示 す情報の一部が欠落している。
しかしながら、 射影により実世界 1の事象を示す情報の一部が欠落しているも のの、 データ 3は、 実世界 1の事象 (現象) を示す情報である信号を推定するた めの有意情報を含んでいる。
本発明においては、 実世界 1の情報である信号を推定するための有意情報とし て、 実世界 1またはデータ 3に含まれる定常性を有する情報を利用する。 定常性 は、 新たに定義する概念である。
ここで、 実世界 1に注目すると、 実世界 1の事象は、 所定の次元の方向に一定 の特徴を含む。 例えば、 実世界 1の物体 (有体物) において、 空間方向または時 間方向に、 形状、 模様、 若しくは色彩などが連続するか、 または形状、 模様、 若 しくは色彩などのパターンが繰り返す。
従って、 実世界 1の事象を示す情報には、 所定の次元の方向に一定の特徴が含 まれることになる。
より具体的な例を挙げれば、 糸、 紐、 またはロープなどの線状の物体は、 長さ 方向の任意の位置において、 断面形状が同じであるという長さ方向、 すなわち空 間方向に一定の特徴を有する。 長さ方向の任意の位置において、 断面形状が同じ であるという空間方向に一定の特徴は、 線状の物体が長いという特徴から生じる。 従って、 線状の物体の画像は、 長さ方向の任意の位置において、 断面形状が同 じであるという長さ方向、 すなわち空間方向に一定の特徴を有している。
また、 空間方向に広がりを有する有体物である、 単色の物体は、 部位にかかわ らず、 同一の色を有するという空間方向に一定の特徴を有していると言える。 同様に、 空間方向に広がりを有する有体物である、 単色の物体の画像は、 部位 にかかわらず、 同一の色を有するという空間方向に一定の特徴を有している。 このように、 実世界 1 (現実世界) の事象は、 所定の次元の方向に一定の特徴 を有しているので、 実世界 1の信号は、 所定の次元の方向に一定の特徴を有する。 本明細書において、 このような所定の次元の方向に一定の特徴を定常性と称す る。 実世界 1 (現実世界) の信号の定常性とは、 実世界 1 (現実世界) の事象を 示す信号が有している、 所定の次元の方向に一定の特徴をいう。
実世界 1 (現実世界) には、 このような定常性が無数に存在する。
次に、 データ 3に注目すると、 データ 3は、 センサ 2により、 所定の次元を有 する実世界丄の事象を示す情報である信号が射影されたものであるので、 実世界 の信号の定常性に対応する定常性を含んでいる。 データ 3は、 実世界の信号の定 常性が射影された定常性を含んでいるとも言える。
しかしながら、 上述したように、 センサ 2が出力するデータ 3において、 実世 界 1の情報の一部が欠落しているので、 データ 3から、 実世界 1 (現実世界) の 信号に含まれる定常性の一部が欠落し得る。
換言すれば、 データ 3は、 データの定常性として、 実世界 1 (現実世界) の信 号の定常性の中の、 少なくとも一部の定常性を含む。 データの定常性とは、 デー タ 3が有している、 所定の次元の方向に一定の特徴である。
本発明においては、 実世界 1の事象を示す情報である信号を推定するための有 意情報として、 実世界 1の信号の定常性、 またはデータ 3が有する、 データの定 常性が利用される。 例えば、 信号処理装置 4においては、 データの定常性を利用して、 データ 3を 信号処理することで、 欠落した、 実世界 1の事象を示す情報が生成される。
なお、 信号処理装置 4においては、 実世界 1の事象を示す情報である信号の次 元の、 長さ (空間) 、 時間、 および質量のうち、 空間方向または時間方向の定常 性が利用される。
図 1において、 センサ 2は、 例えば、 デジタルスチルカメラ、 またはビデオ力 メラなどで構成され、 実世界 1の画像を撮像し、 得られたデータ 3である画像デ ータを信号処理装置 4に出力する。 センサ 2は、 例えば、 サーモグラフィ装置、 または光弾性を利用した圧力センサなどとすることができる。
信号処理装置 4は、 例えば、 パーソナルコンピュータなどで構成され、 データ 3を対象とした信号処理を行う。
信号処理装置 4は、 例えば、 図 2で示されるように構成される。 CPU
(Central Processing Unit) 2 1は、 ROM (Read Only Memory) 2 2、 または 記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Access Memory) 2 3には、 CPU 2 1が実行するプログラムやデータ などが適宜記憶される。 これらの CPU 2 1、 ROM 2 2 N および RAM 2 3は、 バス 2 4により相互に接続されている。
CPU 2 1にはまた、 バス 2 4を介して入出力ィンタフェース 2 5が接続されて いる。 入出力インタフェース 2 5には、 キーボード、 マウス、 マイクロホンなど よりなる入力部 2 6、 ディスプレイ、 スピーカなどよりなる出力部 2 7が接続さ れている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種の処理を 実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を出力部 2 7 に出力する。
入出力インタフェース 2 5に接続されている記憶部 2 8は、 例えばハードディ スクなどで構成され、 CPU 2 1が実行するプログラムや各種のデータを記憶する。 通信部 2 9は、 インターネット、 その他のネットワークを介して外部の装置と通 信する。 この例の場合、 通信部 2 9はセンサ 2の出力するデータ 3を取り込む取 得部として働く。
また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよい。 入出力ィンタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5 1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが装着 されたとき、 それらを駆動し、 そこに記録されているプログラムやデータなどを 取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8に転送さ れ、 記憶される。
図 3は、 信号処理装置 4を示すブロック図である。
なお、 信号処理装置 4の各機能をハードウェアで実現するか、 ソフトウェアで 実現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェアのブ 口ック図と考えても、 ソフトウエアによる機能プロック図と考えても良い。
図 3に構成を示す信号処理装置 4においては、 データ 3の一例である画像デー タが入力され、 入力された画像データ (入力画像) からデータの定常性が検出さ れる。 次に、 検出されたデータの定常性から、 センサ 2により取得された実世界 1の信号が推定される。 そして、 推定された実世界 1の信号を基に、 画像が生成 され、 生成された画像 (出力画像) が出力される。 すなわち、 図 3は、 画像処理 装置である信号処理装置 4の構成を示す図である。
信号処理装置 4に入力された入力画像 (データ 3の一例である画像データ) は、 データ定常性検出部 1 0 1および実世界推定部 1 0 2に供給される。
データ定常性検出部 1 0 1は、 入力画像からデータの定常性を検出して、 検出 した定常性を示すデータ定常性情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。 データ定常性情報は、 例えば、 入力画像における、 データの定常 性を有する画素の領域の位置、 データの定常性を有する画素の領域の方向 (時間 方向および空間方向の角度または傾き) 、 またはデータの定常性を有する画素の 領域の長さなどを含む。 データ定常性検出部 1 0 1の構成の詳細は、 後述する。 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出部 1 0 1から供給さ れたデータ定常性情報を基に、 実世界 1の信号を推定する。 すなわち、 実世界推 定部 1 0 2は、 入力画像が取得されたときセンサ 2に入射された、 実世界の信号 である画像を推定する。 実世界推定部 1 0 2は、 実世界 1の信号の推定の結果を 示す実世界推定情報を画像生成部 1 0 3に供給する。 実世界推定部 1 0 2の構成 の詳細は、 後述する。
画像生成部 1 0 3は、 実世界推定部 1 0 2から供給された、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1の信号により近似した信号を生 成して、 生成した信号を出力する。 または、 画像生成部 1 0 3は、 データ定常性 検出部 1 0 1から供給されたデータ定常性情報、 および実世界推定部 1 0 2から 供給された、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1 の信号により近似した信号を生成して、 生成した信号を出力する。
すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 実世界 1の画像によ り近似した画像を生成して、 生成した画像を出力画像として出力する。 または、 画像生成部 1 0 3は、 データ定常性情報および実世界推定情報を基に、 実世界 1 の画像により近似した画像を生成して、 生成した画像を出力画像として出力する。 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 推定された実世界 1の 画像を所望の空間方向または時間方向の範囲で積分することにより、 入力画像に 比較して、 空間方向または時間方向により高解像度の画像を生成して、 生成した 画像を出力画像として出力する。 例えば、 画像生成部 1 0 3は、 外揷補間により、 画像を生成して、 生成した画像を出力画像として出力する。
画像生成部 1 0 3の構成の詳細は、 後述する。
次に、 図 4を参照して、 本発明の原理を説明する。
例えば、 画像である、 実世界 1の信号は、 センサ 2の一例である CCD (Charge Coupled Device) の受光面に結像される。 センサ 2の一例である CCDは、 積分 特性を有しているので、 CCDから出力されるデータ 3には、 実世界 1の画像との 差が生じることになる。 センサ 2の積分特性の詳細については、 後述する。 T/JP2004/008691
19
信号処理装置 4による信号処理においては、 CCDにより取得された実世界 1の 画像と、 CCD により撮像され、 出力されたデータ 3との関係が明確に考慮される。 すなわち、 データ 3と、 センサ 2で取得された実世界の情報である信号との関係 が明確に考慮される。
より具体的には、 図 4で示されるように、 信号処理装置 4は、 モデル 1 6 1を 用いて、 実世界 1を近似 (記述) する。 モデル 1 6 1は、 例えば、 N個の変数で 表現される。 より正確には、 モデル 1 6 1は、 実世界 1の信号を近似 (記述) す る。
モデ Λ^ Ι 6 1を予測するために、 信号処理装置 4は、 データ 3から、 Μ個のデ ータ 1 6 2を抽出する。 データ 3から、 Μ個のデータ 1 6 2を抽出するとき、 信 号処理装置 4は、 例えば、 データ 3に含まれるデータの定常性を利用する。 換言 すれば、 信号処理装置 4は、 データ 3に含まれるデータの定常性を基に、 モデル
1 6 1を予測するためのデータ 1 6 2を抽出する。 この場合、 結果的に、 モデル
1 6 1は、 データの定常性に拘束されることになる。
すなわち、 モデル 1 6 1は、 センサ 2で取得されたとき、 データ 3においてデ ータの定常性を生じさせる、 定常性 (所定の次元の方向に一定の特徴) を有する 実世界 1の事象 (を示す情報 (信号) ) を近似する。
ここで、 データ 1 6 2の数 Μが、 モデルの変数の数 Ν以上であれば、 Μ個のデ ータ 1 6 2から、 Ν個の変数で表現されるモデル 1 6 1を予測することができる。 このように、 実世界 1 (の信号) を近似 (記述) するモデル 1 6 1を予測する ことにより、 信号処理装置 4は、 実世界 1の情報である信号を考慮することがで きる。
次に、 センサ 2の積分効果について説明する。
画像を撮像するセンサ 2である、 CCDまたは CMOS (Complementary Metal- Oxide Semiconductor) センサなどのイメージセンサは、 現実世界を撮像すると き、 現実世界の情報である信号を 2次元のデータに投影する。 イメージセンサの 各画素は、 いわゆる受光面 (受光領域) として、 それぞれ所定の面積を有する。 所定の面積を有する受光面に入射した光は、 画素毎に、 空間方向おょぴ時間方向 に積分され、 各画素に対して 1つの画素値に変換される。
図 5乃至図 8を参照して、 画像の空間的時間的な積分について説明する。
イメージセンサは、 現実世界の対象物 (オブジェク ト) を撮像し、 撮像の結果 得られた画像データを 1フレーム単位で出力する。 すなわち、 イメージセンサは、 実世界 1の対象物で反射された光である、 実世界 1の信号を取得し、 データ 3を 出力する。
例えば、 イメージセンサは、 1秒間に 3 0フレームからなる画像データを出力 する。 この場合、 イメージセンサの露光時間は、 1 Z 3 0秒とすることができる。 露光時間は、 イメージセンサが入射された光の電荷への変換を開始してから、 入 射された光の電荷への変換を終了するまでの期間である。 以下、 露光時間をシャ ッタ時間とも称する。
図 5は、 イメージセンサ上の画素の配置の例を説明する図である。 図 5中にお いて、 A乃至 Iは、 個々の画素を示す。 画素は、 画像データにより表示される画 像に対応する平面上に配置されている。 1つの画素に対応する 1つの検出素子は、 イメージセンサ上に配置されている。 イメージセンサが実世界 1の画像を撮像す るとき、 1つの検出素子は、 画像データを構成する 1つの画素に対応する 1つの 画素値を出力する。 例えば、 検出素子の空間方向 Xの位置 (X座標) は、 画像デ ータにより表示される画像上の横方向の位置に対応し、 検出素子の空間方向 Yの 位置 (Y座標) は、 画像データにより表示される画像上の縦方向の位置に対応す る。
実世界 1の光の強度の分布は、 3次元の空間方向および時間方向に広がりを有 するが、 イメージセンサは、 2次元の空間方向および時間方向で、 実世界 1の光 を取得し、 2次元の空間方向および時間方向の光の強度の分布を表現するデータ 3を生成する。
図 6で示されるように、 例えば、 CCDである検出素子は、 シャツタ時間に対応 する期間、 受光面 (受光領域) (検出領域) に入力された光を電荷に変換して、 変換された電荷を蓄積する。 光は、 3次元の空間上の位置、 および時刻により、 強度が決定される実世界 1の情報 (信号) である。 実世界 1の光の強度の分布は、 3次元の空間上の位置 x, y、 および z、 並びに時刻 tを変数とする関数
F (x, y, z, t)で表すことができる。
CCDである検出素子に蓄積される電荷の量は、 2次元の空間上の広がりを有す る受光面の全体に入射された光の強さと、 光が入射されている時間にほぼ比例す る。 検出素子は、 シャツタ時間に対応する期間において、 受光面の全体に入射さ れた光から変換された電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対応する期間、 2次元の空間上の広がりを有する受 光面の全体に入射される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 空間 (受光面) および時間 (シャツタ時間) に対して、 積分 効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値はさらにデジタルデータなどの画素値に変換されて、 データ 3として出力され る。 従って、 イメージセンサから出力される個々の画素値は、 実世界 1の情報
(信号) の時間的空間的に広がりを有するある部分を、 シャツタ時間の時間方向 および検出素子の受光面の空間方向について積分した結果である、 1次元の空間 に射影した値を有する。
すなわち、 1つの画素の画素値は、 F (x, y,t)の積分で表される。 F (x,y, t)は、 検出素子の受光面における、 光の強度の分布を表す関数である。 例えば、 画素値 Pは、 式 (1 ) で表される。 p=£ F(xy't)dxdydt
• · · ( 1 )
式 (1 ) において、 Xl は、 検出素子の受光面の左側の境界の空間座標 (X座 標) である。 x2は、 検出素子の受光面の右側の境界の空間座標 (X座標) であ る。 式 (1 ) において、 yiは、 検出素子の受光面の上側の境界の空間座標 (Y 座標) である。 y2は、 検出素子の受光面の下側の境界の空間座標 (Y座標) で ある。 また、 は、 入射された光の電荷への変換を開始した時刻である。 は、 入射された光の電荷への変換を終了した時刻である。
なお、 実際には、 イメージセンサから出力される画像データの画素値は、 例え ばフレーム全体として、 そのゲインが補正されている。
画像データの各画素値は、 イメージセンサの各検出素子の受光面に入射した光 の積分値であり、 イメージセンサに入射された光の.うち、 検出素子の受光面より も微小な実世界 1の光の波形は、 積分値としての画素値に隠されてしまう。
以下、 本明細書において、 所定の次元を基準として表現される信号の波形を単 に波形とも称する。
このように、 実世界 1の画像 (光信号) は、 画素を単位として、 空間方向およ ぴ時間方向に積分されてしまうので、 画像データにおいては、 実世界 1の画像の 定常性の一部が欠落し、 実世界 1の画像の定常性の他の一部が画像データに含ま れることになる。 または、 画像データには、 実世界 1の画像の定常性から変化し てしまった定常性が含まれることがある。
積分効果を有するイメージセンサにより撮像された画像の、 空間方向の積分効 果についてさらに説明する。
図 7は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値との 関係を説明する図である。 図 7の F (x)は、 空間上 (検出素子上) の空間方向 X の座標 Xを変数とする、 実世界 1の光の強度の分布を表す関数の例である。 言 い換えれば、 F (x)は、 空間方向 Yおよび時間方向に一定である場合の、 実世界 1の光の強度の分布を表す関数の例である。 図 7において、 Lは、 画素 D乃至画 素 Fに対応する検出素子の受光面の空間方向 Xの長さを示す。
1つの画素の画素値は、 F (x)の積分で表される。 例えば、 画素 Eの画素値 P は、 式 (2 ) で表される。
P = rA2 F (x) dx 4 008691
23
• · · ( 2 )
式 (2 ) において、 Xl は、 画素 Eに対応する検出素子の受光面の左側の境界 の空間方向 Xの空間座標である。 x2は、 画素 Eに対応する検出素子の受光面の 右側の境界の空間方向 Xの空間座標である。
同様に、 積分効果を有するイメージセンサにより撮像された画像の、 時間方向 の積分効果についてさらに説明する。
図 8は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画 素値との関係を説明する図である。 図 8の F (t)は、 時刻 tを変数とする、 実世 界 1の光の強度の分布を表す関数である。 言い換えれば、 F (t)は、 空間方向 Y および空間方向 Xに一定である場合の、 実世界 1の光の強度の分布を表す関数の 例である。 ts は、 シャツタ時間を示す。
フレーム #n_lは、 フレーム #nに対して時間的に前のフレームであり、 フレー A#n+1は、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレ 一ム - 1、 フレーム 、 およびフレーム #n+lは、 フレーム #n- 1、 フレーム 、 およびフレーム の順で表示される。
なお、 図 8で示される例において、 シャツタ時間 ts とフレーム間隔とが同一 である。
1つの画素の画素値は、 F (t)の積分で表される。 例えば、 フレーム #nの画素 の画素値 Pは、 式 (3 ) で表される。
Figure imgf000025_0001
• · · ( 3 )
式 (3 ) において、 は、 入射された光の電荷への変換を開始した時刻であ る。 t2 は、 入射された光の電荷への変換を終了した時刻である。
以下、 センサ 2による空間方向の積分効果を単に空間積分効果と称し、 センサ 2による時間方向の積分効果を単に時間積分効果と称する。 また、 空間積分効果 または時間積分効果を単に積分効果とも称する。 T JP2004/008691
24
次に、 積分効果を有するイメージセンサにより取得されたデータ 3に含まれる データの定常性の例について説明する。
図 9は、 実世界 1の線状の物 (例えば、 細線) の画像、 すなわち光の強度の分 布の例を示す図である。 図 9において、 図中の上側の位置は、 光の強度 (レべ ル) を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 X の位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。
実世界 1の線状の物の画像には、 所定の定常性が含まれる。 すなわち、 図 9で 示される画像は、 長さ方向の任意の位置において、 断面形状 (長さ方向に直交す る方向の位置の変化に対するレベルの変化) が同じであるという定常性を有する。 図 1 0は、 図 9で示される画像に対応する、 実際の撮像により得られた画像デ ータの画素値の例を示す図である。
即ち、 図 1 0は、 イメージセンサの画素の並び (画素の縦または横の並ぴ) と ずれた方向に延びる、 各画素の受光面の長さ ょりも短い径の線状の物の画像 を、 イメージセンサで撮像して得られた画像データの模式図である。 図 1 0で示 される画像データが取得されたときにイメージセンサに入射された画像は、 図 9 の実世界 1の線状の物の画像である。
図 1 0において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 0における画素 値を示す方向は、 図 9におけるレベルの方向に対応し、 図 1 0における空間方向 X、 および空間方向 Yは、 図 9における方向と同じである。
各画素の受光面の長さしょりも短い径の線状の物の画像を、 イメージセンサ で撮像した場合、 撮像の結果得られる画像データにおいて、 線状の物は、 模式的 に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) で 表される。 各円弧形状は、 ほぼ同じ形状である。 1つの円弧形状は、 縦に 1列の 画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 0における 1 つの円弧形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 実世界 1の線状の物の画像が有していた、 長さ方向の任意の位置におい て、 空間方向 Yにおける断面形状が同じであるという定常性が失われている。 ま た、 実世界 1の線状の物の画像が有していた定常性は、 縦に 1列の画素の上、 ま たは横に 1列の画素の上に形成された、 同じ形状である円弧形状が一定の間隔で 並ぶという定常性に変化していると言える。
図 1 1は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界 1の画像、 すなわち光の強度の分布の例を示す図である。 図 1 1において、 図 中の上側の位置は、 光の強度 (レベル) を示し、 図中の右上側の位置は、 画像の 空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の 空間方向の他の方向である空間方向 Yの位置を示す。
背景とは異なる色の、 直線状の縁を有する物の実世界 1の画像には、 所定の定 常性が含まれる。 すなわち、 図 1 1で示される画像は、 縁の長さ方向の任意の位 置において、 断面形状 (縁に直交する方向の位置の変化に対するレベルの変化) が同じであるという定常性を有する。
図 1 2は、 図 1 1で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。 図 1 2で示されるように、 画像データは、 画素を単位とした画素値からなるので、 階段状になる。
図 1 3は、 図 1 2に示す画像データの模式図である。
図 1 3で示される模式図は、 イメージセンサの画素の並び (画素の縦または横 の並び) とずれた方向に縁が延びる、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界 1の画像を、 イメージセンサで撮像して得られた画像 データの模式図である。 図 1 3で示される画像データが取得されたときにィメー ジセンサに入射された画像は、 図 1 1で示される、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像である。 図 1 3において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 3における画素 値を示す方向は、 図 1 1におけるレベルの方向に対応し、 図 1 3における空間方 向 X、 および空間方向 Yは、 図 1 1における方向と同じである。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像 を、 イメージセンサで撮像した場合、 撮像の結果得られる画像データにおいて、 直線状の縁は、 模式的に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さのつめ (pawl) 形状で表される。 各つめ形状は、 ほぼ同じ形状である。 1つのつめ形 状は、 縦に 1列の画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 3において、 1つのつめ形状は、 縦に' 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1 の画像が有していた、 縁の長さ方向の任意の位置において、 断面形状が同じであ るという定常性が失われている。 また、 背景とは異なる色であって、 単色の、 直 線状の縁を有する物の実世界 1の画像が有していた定常性は、 縦に 1列の画素の 上、 または横に 1列の画素の上に形成された、 同じ形状であるつめ形状が一定の 間隔で並ぶという定常性に変化していると言える。
データ定常性検出部 1 0 1は、 このような、 例えば、 入力画像であるデータ 3 が有するデータの定常性を検出する。 例えば、 データ定常性検出部 1 0 1は、 所 定の次元の方向に一定の特徴を有する領域を検出することにより、 データの定常 性を検出する。 例えば、 データ定常性検出部 1 0 1は、 図 1 0で示される、 同じ 円弧形状が一定の間隔で並ぶ領域を検出する。 また、 例えば、 データ定常性検出 部 1 0 1は、 図 1 3で示される、 同じつめ形状が一定の間隔で並ぶ領域を検出す る。 '
また、 データ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の 角度 (傾き) を検出することにより、 データの定常性を検出する。 また、 例えば、 データ定常性検出部 1 0 1は、 空間方向および時間方向の同様 の形状の並び方を示す、 空間方向および時間方向の角度 (動き) を検出すること により、 データの定常性を検出する。
さらに、 例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特 徴を有する領域の長さを検出することにより、 データの定常性を検出する。
以下、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1 の画像がセンサ 2により射影されたデータ 3の部分を 2値エッジとも称する。 ここで、 従来の信号処理においては、 データ 3から、 例えば、 所望の高解像度 データが生成される。
これに対して、.信号処理装置 4による信号処理においては、 データ 3から、 実 世界 1が推定され、 推定の結果に基づいて、 高解像度データが生成される。 すな わち、 実世界 1が、 データ 3から推定され、 高解像度データが、 データ 3を考慮 して、 推定された実世界 1から高解像度データが生成される。
実世界 1から高解像度データを生成するためには、 実世界 1とデータ 3との関 係を考慮する必要がある。 例えば、 実世界 1が、 CCDであるセンサ 2により、 デ ータ 3に射影されるとどうなるかが考慮される。
CCDであるセンサ 2は、 上述したように、 積分特性を有する。 すなわち、 デー タ 3の 1つの単位 (例えば、 画素値) は、 実世界 1の信号をセンサ 2の検出素子 (例えば、 CCD) の検出領域 (例えば、 受光面) で積分することにより算出する ことができる。
これを高解像度データについて当てはめると、 仮想的な高解像度のセンサが実 世界 1の信号をデータ 3に射影する処理を、 推定された実世界 1に適用すること により、 高解像度データを得ることができる。
換言すれば、 データ 3から実世界 1の信号を推定できれば、 実世界 1の信号を、 仮想的な高解像度のセンサの検出素子の検出領域毎に (時空間方向に) 積分する ことにより、 高解像度データに含まれる 1つの値を得ることができる。 例えば、 センサ 2の検出素子の検出領域の大きさに比較して、 実世界 1の信号 の変化が、 より小さいとき、 データ 3は、 実世界 1の信号の小さい変化を表すこ とができない。 そこで、 データ 3から推定された実世界 1の信号を、 実世界 1の 信号の変化に比較して、 より小さい領域毎に (時空間方向に) 積分することによ り、 実世界 1の信号の小さい変化を示す高解像度データを得ることができる。 すなわち、 仮想的な高解像度のセンサの各検出素子について、 推定された実世 界 1の信号を検出領域で積分することにより、 高解像度データを得ることができ る。
信号処理装置 4において、 画像生成部 1 0 3は、 例えば、 仮想的な高解像度の センサの各検出素子の時空間方向の領域で、 推定された実世界 1の信号を積分す ることにより、 高解像度データを生成する。
次に、 データ 3から、 実世界 1を推定するために、 信号処理装置 4においては、 データ 3と実世界 1との関係、 定常性、 およびデータ 3における空間的または時 間的な混合 (空間混合または時間混合) が利用される。
ここで、 混合とは、 データ 3において、 実世界 1における 2つの物体に対する 信号が混合されて 1つの値となることをいう。
空間混合とは、 センサ 2の空間積分効果による、 2つの物体に対する信号の空 間方向の混合をいう。 時間混合については、 後述する。
実世界 1そのものは、 無限の数の事象からなり、 従って、 実世界 1そのものを、 例えば、 数式で表現するためには、 無限の数の変数が必要になる。 データ 3から、 実世界 1の全ての事象を予測することはできない。
同様に、 データ 3から、 実世界 1の信号の全てを予測することはできない。 そこで、 信号処理装置 4においては、 実世界 1の信号のうち、 定常性を有し、 関数 f (X, y, z , t)で表すことができる部分に注目し、 関数 f (X, y, z , t )で表すこと ができる、 定常性を有する実世界 1の信号の部分が、 N個の変数で表現されるモ デル 1 6 1で近似される。 そして、 図 1 4で示されるように、 モデル 1 6 1が、 データ 3の中の、 M個のデータ 1 6 2から予測される。 M個のデータ 1 6 2からモデル 1 6 1の予測を可能にするには、 第 1に、 モデ ル 1 6 1を、 定常性に基づいて、 N個の変数で表し、 第 2に、 センサ 2の積分特 性に基づいて、 N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との 関係を示す、 N個の変数を使用した式を立てることが必要である。 モデル 1 6 1 、 定常性に基づいて、 N個の変数で表されているので、 N個の変数で表現され るモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式 は、 定常性を有する実世界 1の信号の部分と、 データの定常性を有するデータ 3 の部分との関係を記述しているとも言える。
換言すれば、 N個の変数で表現されるモデル 1 6 1で近似される、 定常性を有 する実世界 1の信号の部分は、 データ 3において、 データの定常性を生じさせる。 データ定常性検出部 1 0 1は、 定常性を有する実世界 1の信号の部分によって、 データの定常性が生じたデータ 3の部分、 およぴデータの定常性が生じた部分の 特徴を検出する。
例えば、 図 1 5で示されるように、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界 1の画像において、 図 1 5中 Aで示す、 注目する位置 における縁は、 傾きを有している。 図 1 5の Bの矢印は、 縁の傾きを示す。 所定 の縁の傾きは、 基準となる軸に対する角度または基準となる位置に対する方向で 表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの座標軸と、 縁との 角度で表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの長さおょぴ 空間方向 Yの長さで示される方向で表すことができる。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像 が、 センサ 2で取得されて、 データ 3が出力されたとき、 データ 3において、 実 世界 1の画像における、 縁の注目する位置 (A) に対する、 図 1 5中 A ' で示す 位置に、 縁に対応するつめ形状が並び、 実世界 1の画像の縁の傾きに対応する、 図 1 5中 B ' で示す傾きの方向に、 縁に対応するつめ形状が並ぶ。
N個の変数で表現されるモデル 1 6 1は、 このような、 データ 3において、 デ ータの定常性を生じさせる、 実世界の 1の信号の部分を近似する。 N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式を立てるとき、 データ 3において、 データの定常性が生 じている部分の値を利用する。
この場合において、 図 1 6で示される、 データ 3において、 データの定常性が 生じ、 混合領域に属する値に注目して、 実世界 1の信号を積分した値が、 センサ 2の検出素子が出力する値に等しいとして、 式が立てられる。 例えば、 データの 定常性が生じている、 データ 3における複数の値について、 複数の式を立てるこ とができる。
図 1 6において、 Aは、 縁の注目する位置を示し、 A, は、 実世界 1の画像に おける、 縁の注目する位置 (A) に対する、 画素 (の位置) を示す。
ここで、 混合領域とは、 データ 3において、 実世界 1における 2つの物体に対 する信号が混合されて 1つの値となっているデータの領域をいう。 例えば、 背景 とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像に対す るデータ 3において、 直線状の縁を有する物に対する画像、 および背景に対する 画像が積分されている画素値は、 混合領域に属する。
図 1 7は、 式を立てる場合における、 実世界 1における 2つの物体に対する信 号および混合領域に属する値を説明する図である。
図 1 7中の左側は、 センサ 2の 1つの検出素子の検出領域で取得される、 空間 方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2つの物体 に対する実世界 1の信号を示す。 図 1 7中の右側は、 図 1 7中の左側に示す実世 界 1の信号がセンサ 2の 1つの検出素子によって射影された、 データ 3の 1つの 画素の画素値 Pを示す。 すなわち、 センサ 2の 1つの検出素子によって取得され た、 空間方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2 つの物体に対する実世界 1の信号が射影された、 データ 3の 1つの画素の画素値 Pを示す。 図 1 7の Lは、 実世界 1における 1つの物体に対する、 図 1 7の白い部分の実 世界 1の信号のレベルを示す。 図 1 7の Rは、 実世界 1における他の 1つの物体 に対する、 図 1 7の斜線で表される部分の実世界 1の信号のレベルを示す。
ここで、 混合比 αは、 センサ 2の 1つの検出素子の、 空間方向 Xおよび空間方 向 Υに所定の広がりを有する検出領域に入射された、 2つの物体に対する信号 (の面積) の割合を示す。 例えば、 混合比 αは、 センサ 2の 1つの検出素子の検 出領域の面積に対する、 空間方向 Xおよび空間方向 Υに所定の広がりを有する、 センサ 2の 1つの検出素子の検出領域に入射された、 レベル Lの信号の面積の割 合を示す。
この場合において、 レベル L、 レベル R、 および画素値 Pの関係は、 式 (4 ) で表すことができる。
a x L+f (1 - Qf ) x R = P
• · · ( 4 )
なお、 レベル Rは、 注目している画素の右側に位置している、 データ 3の画素 の画素値とすることができる場合があり、 レベル Lは、 注目している画素の左側 に位置している、 データ 3の画素値とすることができる場合がある。
また、 混合比 αおよび混合領域は、 空間方向と同様に、 時間方向を考慮するこ とができる。 例えば、 センサ 2に対して撮像の対象となる実世界 1の物体が移動 しているとき、 時間方向に、 センサ 2の 1つの検出素子の検出領域に入射される、 2つの物体に対する信号の割合は変化する。 センサ 2の 1つの検出素子の検出領 域に入射された、 時間方向に割合が変化する、 2つの物体に対する信号は、 セン サ 2の検出素子によって、 データ 3の 1つの値に射影される。
センサ 2の時間積分効果による、 2つの物体に対する信号の時間方向の混合を 時間混合と称する。
データ定常性検出部 1 0 1は、 例えば、 実世界 1における 2つの物体に対する 実世界 1の信号が射影された、 データ 3における画素の領域を検出する。 データ 定常性検出部 1 0 1は、 例えば、 実世界 1の画像の縁の傾きに対応する、 データ 3における傾きを検出する。
そして、 実世界推定部 1 0 2は、 例えば、 データ定常性検出部 1 0 1で検出さ れた、 所定の混合比 を有する画素の領域、 および領域の傾きを基に、 N個の変 数で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数 を使用した式を立てて、 立てた式を解くことにより、 実世界 1の信号を推定する。 さらに、 具体的な実世界 1の推定について説明する。
関数 F (x,y,z, t)で表される実世界の信号のうち、 空間方向 Zの断面 (センサ 2の位置) における関数 F (x,y, t)で表される実世界の信号を、 空間方向 Xにお ける位置 x、 空間方向 Yにおける位置 y、 および時刻 tで決まる近似関数 f (x,y,t) で近似することを考える。
ここで、 センサ 2の検出領域は、 空間方向 Xおよび空間方向 Yに広がりを有す る。 換言すれば、 近似関数 f (x,y,t) は、 センサ 2で取得される、 空間方向お よび時間方向に広がりを有する実世界 1の信号を近似する関数である。
センサ 2による実世界 1の信号の射影によって、 データ 3の値 P (x,y,t)が得 られるものとする。 データ 3の値 P (x,y, t)は、 例えば、 イメージセンサである センサ 2が出力する、 画素値である。
ここで、 センサ 2による射影を定式化できる場合、 近似関数 f (x, y, t) を射 影して得られた値を射影関数 S (x, y, t) と表すことができる。
射影関数 S (x, y, t) を求める上で、 以下に示す問題がある。
第 1に、 一般的に、 実世界 1の信号を表す関数 F (x,y, Z, t)は、 無限の次数の 関数となりうる。
第 2に、 たとえ、 実世界の信号を関数として記述できたとしても、 センサ 2の 射影を介した、 射影関数 S (x, y, t) を定めることは、 一般的にはできない。 す なわち、 センサ 2による射影の動作、 言い換えればセンサ 2の入力信号と出力信 号との関係を知らないので、 射影関数 S (x, y, t) を定めることはできない。 第 1の問題点に対して、 実世界 1の信号を近似する関数 f (x, y, t)を記述可能 な関数 (例えば、 有限次数の関数) である関数 (x,y,t) および変数 Wi の積 和で表現することを考える。
また、 第 2の問題点に対して、 センサ 2による射影を定式化することで、 関数 (x, y,t) の記述から、 関数 Si (x,y,t) を記述することができる。
すなわち、 実世界 1の信号を近似する関数 f(x,y, t)を関数 (x,y,t) およ び変数 の積和で表現すると、 式 (5) が得られる。
N
f (x, y, t) = ∑ WiTj (x, y, t)
i=1
• · · (5)
例えば、 式 (6) で示されるように、 センサ 2の射影を定式化することにより、 式 (5) から、 データ 3と実世界の信号の関係を式 (7) のように定式化するこ とができる。
Sj (x, y, t) = JJj f j (x, y, t) dxdydt
• · · (6)
N
Pj(Xj,y」,tj) = ∑ WjSjiXj.yj, tj)
i=1
• · · (7)
式 (7) において、 jは、 データのインデックスである。
式 (7) の N個の変数 ^ (i=l乃至 N) が共通である M個のデータ群 (j = l乃 至 M) が存在すれば、 式 (8) を満たすので、 データ 3から実世界のモデル 1 6 1を求めることができる。
N ≤ M
• · · (8)
Nは、 実世界 1を近似するモデル 1 6 1を表現する変数の数である。 Mは、 デ ータ 3に含まれるデータ 1 6 2の数である。 実世界 1の信号を近似する関数 f (x,y, t)を式 (5 ) で表すことにより、 と して変数の部分を独立させることができる。 このとき、 iは、 そのまま変数の数 を示すことになる。 また、 fi で示される関数の形を独立させることができ、 として所望の関数を利用することができるようになる。
従って、 関数 の形に依存せず、 変数^ の数 Nを定義でき、 変数^ の数 N とデータの数 Mとの関係で変数 を求めることができる。
すなわち、 以下の 3つを用いることで、 データ 3から実世界 1を推定すること ができるようになる。
第 1に、 N個の変数を定める、 すなわち、 式 (5 ) を定める。 これは、 定常性 を用いて実世界 1を記述することにより可能になる。 例えば、 断面が多項式で表 され、 同じ断面形状が一定方向に続く、 というモデル 1 6 1で実世界 1の信号を 記述することができる。
第 2に、 例えば、 センサ 2による射影を定式化して、 式 (7 ) を記述する。 例 えば、 実世界 2の信号の積分を行った結果がデータ 3であると定式化する。 第 3に、 M個のデータ 1 6 2を集めて、 式 (8 ) を満足させる。 例えば、 デー タ定常性検出部 1 0 1で検出された、 データの定常性を有する領域から、 データ 1 6 2が集められる。 例えば、 定常性の一例である、 一定の断面が続く領域のデ ータ 1 6 2が集められる。
このように、 式 (5 ) によって、 データ 3と実世界 1との関係を記述し、 M個 のデータ 1 6 2を集めることで、 式 (8 ) を満たすことにより、 実世界 1を推定 することができる。
より具体的には、 N=Mのとき、 変数の数 Nと式の数 Mが等しいので、 連立方 程式を立てることにより、 変数 を求めることができる。
また、 Nく Mのとき、 様々な解法を適用できる。 例えば、 最小自乗法により、 変数 ^ を求めることができる。
ここで、 最小自乗法による解法について、 詳細に記載する。
まず、 式 (7 ) に従って、 実世界 1からデータ 3を予測する式 (9 ) を示す。 Pj(xj, yj, tj) = ∑ WjSjiXj, yj, tj)
(9)
式 (9) において、 P,j (Xj , Yj , t j ) は、 予測値である。
予測値 P'と実測値 Pとの差分自乗和 Eは、 式 (10) で表される,
E = ∑ (Pj(Xj,yj,tj)-P'j(Xj,yj,tj)) 2
j=1
• · · (10)
差分自乗和 Eが最小になるように、 変数 Wiが求められる。 従って、 各変数 wk による式 (10) の偏微分値は 0とされる。 すなわち、 式 (1 1) が成り立つ。 = -2 I w,Sk (xj, yj, tj) (Pj (xj, yjf ) - WiSi (xjf yjftj)) = 0
J =l
(1 1)
式 から式 (1 2) が導かれる
Sk(Xj,yj,tj}Pj(Xj,yj,tj)
Figure imgf000037_0001
• · · (1 2)
式 (1 2) が K=l乃至 Nで成り立つとき、 最小自乗法による解が得られる。 -のときの正規方程式は、 式 (1 3) で示される。
j(j)
Figure imgf000037_0002
(1 3)
ただし、 式 (1 3) において、 Si (χ,. , y.. , tj ) は、 Si (j)と記述した。
Figure imgf000038_0001
• · · (1 6)
式 (14) 乃至式 (1 6) から、 式 (1 3) は、 SMATWMAT=PMAT と表すこと ができる。
式 (1 3) において、 Si は、 実世界 1の射影を表す。 式 (1 3) において、 Pj は、 データ 3を表す。 式 (1 3) において、 Wi は、 実世界 1の信号の特徴を 記述し、 求めようとする変数である。 従って、 式 (1 3) にデータ 3を入力し、 行列解法などにより WMAT を求める ことで、 実世界 1を推定することが可能になる。 すなわち、 式 (1 7) を演算す ることにより、 実世界 1を推定することができるようになる。
¾T = °ΜΑΤΡΜΑΤ
… (1 7)
なお、 SMATが正則でない場合、 SMATの転置行列を利用して、 WMAT を求めるこ とができる。
実世界推定部 102は、 例えば、 式 (1 3) にデータ 3を入力し、 行列解法な どにより WMATを求めることで、 実世界 1を推定する。
ここで、 さらにより具体的な例を説明する。 例えば、 実世界 1の信号の断面形 状、 すなわち位置の変化に対するレベルの変化を、 多項式で記述する。 実世界 1 の信号の断面形状が一定で、 実世界 1の信号の断面が等速で移動すると仮定する。 そして、 センサ 2による実世界 1の信号からデータ 3への射影を、 実世界 1の信 号の時空間方向の 3次元で積分で定式化する。
実世界 1の信号の断面形状が、 等速で移動するとの仮定から、 式 (1 8) およ ぴ式 (1 9) が得られる。 dx
dt = Vx
• · · (1 8)
• ■ · (1 9)
ここで、 vxおよび vyは、 一定である。
実世界 1の信号の断面形状は、 式 (1 8) および式 (1 9) を用いることで、 式 (2◦) と表される。
f(x,,y,) = f (x+vxt, y+vvt) • - - (20)
センサ 2による実世界 1の信号からデータ 3への射影を、 実世界 1の信号の時 空間方向の 3次元で積分で定式化すれば、 式 (2 1) が得られる。
S(x, y,t) - (x', ')dxdydt
八 se te
"s Ls
• ■ · (2 1 )
式 (2 1) において、 S(x,y, t)は、 空間方向 Xについて、 位置 xsから位置 xe まで、 空間方向 Yについて、 位置 ysから位置 ye まで、 時間方向 tについて、 時刻 tsから時刻 teまでの領域、 すなわち時空間の直方体で表される領域の積分 値を示す。
式 (2 1) を定めることができる所望の関数 f(x' ,y')を用いて、 式 (1 3) を解けば、 実世界 1の信号を推定することができる。
以下では、 関数 f (x,,y')の一例として、 式 (2 2) に示す関数を用いること とする。
f (χ', y,) = w1x'+ 2y'+w^
= vii (x+vxt) +w2(y+vyt) +w3
• · · (2 2)
すなわち、 実世界 1の信号が、 式 (1 8) 、 式 (1 9) 、 およぴ式 (2 2) で 表される定常性を含むと仮定している。 これは、 図 1· 8で示されるように、 一定 の形状の断面が、 時空間方向に移動していることを示す。
式 (2 1 ) に、 式 (2 2) を代入することにより、 式 (2 3) が得られる。 8691
39
S(x, y,t) = /χ3 β f (x +vxt, y +vy t) dxdy dt
= Volume(-y-( xe+xs+vx (te+ts))
+ (ye+ys+vy(te+ts))+w2)
= w0S0 (x, y, t) +w】 S (x, y, t) +w2S2 (x, y, t)
• · - (2 3)
ただし、
Volume=(xe-xs) (ye-ys ) (te-ts)
S。(x, y, t) =Volume/2 X (xe +xs +vx (te +ts ) )
S (x, y, t) =Volume/2 X (ye +ys +vy (te +ts ) )
S2 (x,y, t)=l
である。
図 1 9は、 データ 3から抽出される、 M個のデータ 1 6 2の例を示す図である。 例えば、 2 7個の画素値が、 データ 1 6 2として抽出され、 抽出された画素値が、 Ρ」(x, y, t)とされる。 この場合、 jは、 0乃至 2 6である。
図 1 9に示す例において、 nである時刻 tの注目する位置に対応する画素の画 素値が P13 (x,y,t)であり、 データの定常性を有する画素の画素値の並ぶ方向
(例えば、 データ定常性検出部 1 0 1で検出された、 同じ形状であるつめ形状が 並ぶ方向) 力 P4 (x,y, t)、 P13 (x, y,t)、 および P22 (x, y, t)を結ぶ方向である とき、 nである時刻 tにおける、 画素値 P9 (x,y,t)乃至 P17 (x,y,t)、 nより時 間的に前である、 n- 1である時刻 tにおける、 画素値 P。(x,y,t)乃至 P8 (x,y )、 および nより時間的に後である、 n+1である時刻 tにおける、 画素値
P18 (x,y,t)乃至 P26 (x,y,t)が抽出される。
ここで、 センサ 2であるイメージセンサから出力された、 データ 3である画素 値が取得された領域は、 時間方向および 2次元の空間方向に広がりを有する。 そ こで、 例えば、 画素に対応する直方体 (画素値が取得された領域) の重心を、 画 素の時空間方向の位置として使用することができる。
2 7個の画素値 P。(X, y,t)乃至 P2 6 (X, y, t)、 および式 (2 3 ) から、 式 (1 3 ) を生成し、 Wを求めることで、 実世界 1を推定することが可能になる。
このように、 実世界推定部 1 0 2は、 例えば、 2 7個の画素値 P。(x, y, t)乃至 P2 6 (x,y, t)、 および式 (2 3 ) から、 式 (1 3 ) を生成し、 W を求めることで、 実世界 1の信号を推定する。
なお、 関数 fi ( , y, t) として、 ガウス関数、 またはシグモイド関数などを利 用することができる。
図 2 0乃至図 2 3を参照して、 推定された実世界 1の信号から、 データ 3に対 応する、 より高解像度の高解像度データを生成する処理の例について説明する。 図 2 0で示されるように、 データ 3は、 時間方向おょぴ 2次元の空間方向に実 世界 1の信号が積分された値を有する。 例えば、 センサ 2であるイメージセンサ から出力された、 データ 3である画素値は、 検出素子に入射された光である、 実 世界 1の信号が、 時間方向に、 検出時間であるシャツタ時間で積分され、 空間方 向に、 検出素子の受光領域で積分された値を有する。
これに対して、 図 2 1で示されるように、 空間方向により解像度の高い高解像 度データは、 推定された実世界 1の信号を、 時間方向に、 データ 3を出力したセ ンサ 2の検出時間と同じ時間で積分するとともに、 空間方向に、 データ 3を出力 したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分することに より、 生成される。
なお、 空間方向により解像度の高い高解像度データを生成する場合において、 推定された実世界 1の信号が積分される領域は、 データ 3を出力したセンサ 2の 検出素子の受光領域と全く無関係に設定することができる。 例えば、 高解像度デ ータに、 データ 3に対して、 空間方向に整数倍の解像度を持たせることは勿論、 5 / 3倍など、 データ 3に対して、 空間方向に有理数倍の解像度を持たせること ができる。 また、 図 2 2で示されるように、 時間方向により解像度の高い高解像度データ は、 推定された実世界 1の信号を、 空間方向に、 データ 3を出力したセンサ 2の 検出素子の受光領域と同じ領域で積分するとともに、 時間方向に、 データ 3を出 力したセンサ 2の検出時間に比較して、 より短い時間で積分することにより、 生 成される。
なお、 時間方向により解像度の高い高解像度データを生成する場合において、 推定された実世界 1の信号が積分される時間は、 データ 3を出力したセンサ 2の 検出素子のシャツタ時間と全く無関係に設定することができる。 例えば、 高解像 度データに、 データ 3に対して、 時間方向に整数倍の解像度を持たせることは勿 論、 7 Z 4倍など、 データ 3に対して、 時間方向に有理数倍の解像度を持たせる ことができる。
動きボケを除去した高解像度データは、 推定された実世界 1の信号を、 時間方 向に積分しないで、 空間方向にのみ積分することにより、 生成される。
さらに、 図 2 3で示されるように、 時間方向および空間方向により解像度の高 い高解像度データは、 推定された実世界 1の信号を、 空間方向に、 データ 3を出 力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分するとと もに、 時間方向に、 データ 3を出力したセンサ 2の検出時間に比較して、 より短 い時間で積分することにより、 生成される。
この場合において、 推定された実世界 1の信号が積分される領域および時間は、 データ 3を出力したセンサ 2の検出素子の受光領域およびシャッタ時間と全く無 関係に設定することができる。
このように、 画像生成部 1 0 3は、 例えば、 推定された実世界 1の信号を所望 の時空間の領域で積分することにより、 時間方向、 または空間方向に、 より高解 像度のデータを生成する。
以上のように、 実世界 1の信号を推定することにより、 実世界 1の信号に対し てより正確で、 時間方向、 または空間方向に、 より高解像度のデータを生成する ことができる。 図 2 4乃至図 2 8は、 信号処理装置 4の信号処理を用いた入力画像の例と、 処 理の結果の例を示している。
図 2 4は、 入力画像の元の画像 (実世界 1の光信号に相当) を示す図である。 図 2 5は、 入力画像の例を示す図である。 図 2 5で示される入力画像は、 図 2 4 で示される画像の 2 X 2の画素からなるブロックに属する画素の画素値の平均値 を、 1つの画素の画素値として生成された画像である。 すなわち、 入力画像は、 図 2 4で示される画像に、 センサの積分特性を模した、 空間方向の積分を適用す ることにより得られた画像である。
図 2 4で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾い た細線の画像が含まれている。 同様に、 図 2 5で示される入力画像において、 上 下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 2 6は、 図 2 5で示される入力画像に、 従来のクラス分類適応処理を適用し て得られた画像を示す図である。 ここで、 クラス分類適応処理は、 クラス分類処 理と適応処理とからなり、 クラス分類処理によって、 データを、 その性質に基づ いてクラス分けし、 各クラスごとに適応処理を施すものである。 適応処理では、 例えば、 低画質または標準画質の画像が、 所定のタップ係数を用いてマッピング (写像) されることにより、 高画質の画像に変換される。
即ち、 適応処理では、 第 1のデータが、 所定のタップ係数を用いてマッピング (写像) されることにより、 第 2のデータに変換される。
いま、 このタップ係数を用いてのマッピング方法として、 例えば、 線形 1次結 合モデルを採用するとともに、 第 1のデータとして、 高解像度の HD (High
Definit ion)画像をローパスフィルタでフィルタリングすること等により得られ る低解像度または標準解像度の SD (Standard Definition)画像を採用し、 第 2 のデータとして、 その SD画像を得るのに用いた HD 画像を採用することとして、 適応処理について説明する。
上述の条件下において、 HD画像を構成する画素である HD画素 yは、 例えば、 SD画像を構成する画素である SD画素から、 HD画素を予測するための予測タツ プとして抽出される複数の SD画素と、 タップ係数とを用いて、 次の線形 1次式 (線形結合) によって求めることができる。
N
y=∑wnxn
• · ■ (24) 但し、 式 (24) において、 xnは、 HD画素 yについての予測タップを構成 する、 n番目の SD画素 (の画素値) を表し、 wnは、 n番目の SD画素と乗算さ れる n番目のタップ係数を表す。 なお、 式 (24) では、 予測タップが、 N個の SD画素 で構成されるものとしてある。
ここで、 HD画素の画素値 yは、 式 (24) に示した線形 1次式ではなく、 2 次以上の高次の式によって求めるようにすることも可能である。
いま、 HD画像において、 k番目の HD画素 (の画素値) の真値を yk と表すと ともに、 式 (24) によって得られるその真値 ykの予測値を yk' と表すと、 その予測誤差 ek は、 例えば、 次式で表される。
ek=yk— yk
• · · (2 5) 式 (25) の予測値 yk' は、 式 (24) にしたがって求められるため、 式 (25) の yk, を、 式 (24) にしたがって置き換えると、 次式が得られる。
Figure imgf000045_0001
(26) 但し、 式 (26) において、 xnkは、 k番目の HD画素についての予測タツ プを構成する n番目の SD画素を表す。
式 (26) の予測誤差 ekを 0とするタップ係数 wnが、 HD画素を予測するの に最適なものとなるが、 すべての HD画素について、 そのようなタップ係数 wn を求めることは、 一般には困難である。 そこで、 タップ係数 wnが最適なものであることを表す規範として、 例えば、 最小自乗法を採用することとすると、 最適なタップ係数 wnは、 統計的な誤差と しての、 例えば、 次式で表される自乗誤差の総和 Eを最小にすることで求めるこ とができる。 に = >
k=1
• · - (27) 但し、 式 (27) において、 Kは、 HD画素 yk と、 その HD画素 ykについて の予測タップを構成する SD画素 X k, x2, k, ■ ■ , xN, k とのセットのサ ンプル数を表す。
式 (27) の自乗誤差の総和 Eを最小 (極小) にするタップ係数 wnは、 その 総和 Eをタップ係数 wnで偏微分したものを 0とするものであり、 従って、 次式 を満たす必要がある。 2, ...,Ν)
Figure imgf000046_0001
• · · (28) そこで、 上述の式 (26) をタップ係数 wn で偏微分すると、 次式が得られる, x
Figure imgf000046_0002
, ,2,…,
• · · (29) 式 (28) と (2 9) から、 次式が得られる。
k k k
∑ekxi,k=0, ekX2,k=0, - --2.ekXN,k=0
k=1 k=1 k=1
• · · (30) 式 (30) の ekに、 式 (26) を代入することにより、 式 (30) は、 式 (31) に示す正規方程式で表すことができる。 l,kYk) 2, kyk) N, kYk)
Figure imgf000047_0001
• · · (3 1) 式 (3 1) の正規方程式は、 HD画素 yk と SD画素 xn k のセットを、 ある程 度の数だけ用意することでたてることができ、 式 (3 1) を解くことで、 最適な タップ係数 wn を求めることができる。 なお、 式 (3 1) を解くにあたっては、 例えば、 掃き出し法 (Gauss- Jordanの消去法) などを採用することが可能であ る。
以上のように、 多数の HD画素 yi, y2, · · ·, yK を、 タップ係数の学習 の教師となる教師データとするとともに、 各 HD画素 yk についての予測タップ を構成する SD画素 Xl, k, x2) k, ■ · ·, xN,k を、 タップ係数の学習の生徒 となる生徒データとして、 式 (3 1) を解くことにより、 最適なタップ係数 wn を求める学習を行っておき、 さらに、 そのタップ係数 wn を用い、 式 (24) に より、 SD画素を、 HD画素にマッピング (変換) するのが適応処理である。
ここで、 HD画素 yk についての予測タップを構成する SD画素 k, x 2,k, · ■ · , xN, k としては、 その HD画素 yk に対応する SD画像上の位置か ら空間的または時間的に近い位置にある SD画素を採用することができる。
また、 クラス分類適応処理では、 タップ係数 wn の学習と、 そのタップ係数 w n を用いたマッピングとは、 クラスごとに行われる。 クラス分類適応処理では、 注目している HD画素 yk を対象にクラス分類処理が行われ、 そのクラス分類処 理により得られるクラスごとに、 タップ係数 wnの学習と、 そのタップ係数 wn を用いたマッビングが行われる。 HD画素 y k を対象としたクラス分類処理としては、 例えば、 その HD画素 y k のクラス分類に用いるクラスタップとしての複数の SD画素を、 SD画像から抽出 し、 その複数の SD画素で構成されるクラスタップを用いて Mビット
ADRC (Adaptive Dynamic Range Coding)処理を施す方法力 Sある。
Mビット ADRC処理においては、 クラスタップを構成する SD画素の最大値 MAX と最小値 MINが検出され、 DR=MAX - MINを、 局所的なダイナミックレンジとし、 このダイナミックレンジ DRに基づいて、 クラスタップを構成する SD画素が K ビットに再量子化される。 即ち、 クラスタップを構成する各 SD画素から、 最小 値 MINが減算され、 その減算値が DR/2K で除算 (量子化) される。 従って、 ク ラスタップが、 例えば、 1ビット ADRC処理される場合には、 そのクラスタップ を構成する各 SD画素は 1ビットとされることになる。 そして、 この場合、 以上 のようにして得られる、 クラスタップを構成する各 SD画素についての 1ビット の画素値を、 所定の順番で並べたビット列が、 ADRCコードとして出力され、 こ の ADRCコードが、 クラスを表すクラスコードとされる。
なお、 クラス分類適応処理は、 SD画素には含まれていないが、 HD画素に含ま れる成分が再現される点で、 例えば、 単なる補間処理等とは異なる。 即ち、 クラ ス分類適応処理では、 式 (2 4 ) だけを見る限りは、 いわゆる補間フィルタを用 いての捕間処理と同一であるが、 その補間フィルタのタップ係数に相当するタツ プ係数 wnが、 教師データとしての HD画素と生徒データとしての SD画素とを用 いての学習により求められるため、 HD画素に含まれる成分を再現することがで きる。
ここで、 タップ係数 wn の学習では、 教師データ yと生徒データ Xとの組み合 わせとして、 どのようなものを採用するかによって、 各種の変換を行うタップ係 数 wn を求めることができる。
即ち、 例えば、 上述のように、 教師データ yとして、 高解像度の HD画像を採 用するとともに、 生徒データ Xとして、 その HD画像の解像度を低下させた SD 画像を採用した場合には、 画像の解像度を向上させるマッピングを行うタップ係 • 数 wnを得ることができる。 また、 例えば、 教師データ yとして、 HD画像を採 用するとともに、 生徒データ Xとして、 その HD画像の画素数を少なくした SD 画像を採用した場合には、 画像を構成する画素数を増加させるマッピングを行う タップ係数 wnを得ることができる。
図 2 6は、 図 2 5の入力画像に対して、 上述のようなクラス分類適応処理によ るマッピングを施すことにより得られる画像である。 図 2 6では、 細線の画像が、 図 2 4の元の画像とは異なるものになっていることがわかる。
図 2 7は、 データ定常性検出部 1 0 1による、 図 2 5の例で示される入力画像 から細線の領域を検出した結果を示す図である。 図 2 7において、 白い領域は、 細線の領域、 すなわち、 図 1 0で示される円弧形状が並んでいる領域を示す。 図 2 8は、 図 2 5で示される画像を入力画像として、 信号処理装置 4で信号処 理を行うことにより得られる出力画像の例を示す図である。 図 2 8で示されるよ うに、 信号処理装置 4によれば、 図 2 4で示される元の画像の細線の画像により 近い画像を得ることができる。
図 2 9は、 信号処理装置 4による、 信号処理を説明するフローチャートである。 ステップ S 1 0 1において、 データ定常性検出部 1 0 1は、 定常性の検出の処 理を実行する。 データ定常性検出部 1 0 1は、 データ 3である入力画像に含まれ ているデータの定常性を検出して、 検出したデータの定常性を示すデータ定常性 情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。
データ定常性検出部 1 0 1は、 現実世界の信号の定常性に対応するデータの定 常性を検出する。 ステップ S 1 0 1の処理において、 データ定常性検出部 1 0 1 により検出されるデータの定常性は、 データ 3に含まれる、 実世界 1の画像の定 常性の一部であるか、 または、 実世界 1の信号の定常性から変化してしまった定 常性である。
例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特徴を有す る領域を検出することにより、 データの定常性を検出する。 また、 例えば、 デー タ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の角度 (傾き) を検出することにより、 データの定常性を検出する。
ステップ S 1 0 1における、 定常性の検出の処理の詳細は、 後述する。
なお、 データ定常性情報は、 データ 3の特徴を示す特徴量として利用すること ができる。
ステップ S 1 0 2において、 実世界推定部 1 0 2は、 実世界の推定の処理を実 行する。 すなわち、 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出 部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号を推定する。 例えば、 ステップ S 1 0 2の処理において、 実世界推定部 1 0 2は、 実世界 1を 近似 (記述) するモデル 1 6 1を予測することにより、 実世界 1の信号を推定す る。 実世界推定部 1 0 2は、 推定された実世界 1の信号を示す実世界推定情報を 画像生成部 1 0 3に供給する。
例えば、 実世界推定部 1 0 2は、 線状の物の幅を予測することにより、 実世界 1の信号を推定する。 また、 例えば、 実世界推定部 1 0 2は、 線状の物の色を示 すレベルを予測することにより、 実世界 1の信号を推定する。
ステップ S 1 0 2における、 実世界の推定の処理の詳細は、 後述する。
なお、 実世界推定情報は、 データ 3の特徴を示す特徴量として利用することが できる。
ステップ S 1 0 3において、 画像生成部 1 0 3は、 画像の生成の処理を実行し て、 処理は終了する。 すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 画像を生成して、 生成した画像を出力する。 または、 画像生成部 1 0 3は、 デー タ定常性情報および実世界推定情報を基に、 画像を生成して、 生成した画像を出 力する。
例えば、 ステップ S 1 0 3の処理において、 画像生成部 1 0 3は、 実世界推定 情報を基に、 推定された現実世界の光を空間方向に積分することにより、 入力画 像に比較して、 空間方向により高解像度の画像を生成して、 生成した画像を出力 する。 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 推定された現実世 界の光を時空間方向に積分することにより、 入力画像に比較して、 時間方向およ び空間方向により高解像度の画像を生成して、 生成した画像を出力する。 ステツ プ S 1 0 3における、 画像の生成の処理の詳細は、 後述する。
このように、 信号処理装置 4は、 データ 3からデータの定常性を検出し、 検出 したデータの定常性を基に、 実世界 1を推定する。 そして、 信号処理装置 4は、 推定された実世界 1を基に、 より実世界 1に近似した信号を生成する。
以上のように、 現実世界の信号を推定して処理を実行するようにした場合には、 正確で、 精度の高い処理結果を得ることができるようになる。
また、 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実 世界の信号の定常性の一部が欠落した第 1の次元よりも少ない第 2の次元の第 2 の信号の、 欠落した現実世界の信号の定常性に対応するデータの定常性を検出し、 検出されたデータの定常性に基づいて、 欠落した現実世界の信号の定常性を推定 することにより第 1の信号を推定するようにした場合には、 現実世界の事象に対 して、 より正確で、 より精度の高い処理結果を得ることができるようになる。 次に、 データ定常性検出部 1 0 1の構成の詳細について説明する。
図 3 0は、 データ定常性検出部 1 0 1の構成を示すプロック図である。
図 3 0に構成を示すデータ定常性検出部 1 0 1は、 細線である対象物を撮像し たとき、 対象物の有する断面形状が同じであるという定常性から生じた、 データ 3に含まれるデータの定常性を検出する。 すなわち、 図 3 0に構成を示すデータ 定常性検出部 1 0 1は、 細線である実世界 1の画像の有する、 長さ方向の任意の 位置において、 長さ方向に直交する方向の位置の変化に対する光のレベルの変化 が同じであるという定常性から生じた、 データ 3に含まれるデータの定常性を検 出する。
より具体的には、 図 3 0に構成を示すデータ定常性検出部 1 0 1は、 細線の画 像を空間積分効果を有するセンサ 2で撮像して得られたデータ 3に含まれる、 斜 めにずれて隣接して並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) が配置さ れる領域を検出する。 データ定常性検出部 1 0 1は、 データ 3である入力画像から、 データの定常性 を有する細線の画像が射影された画像データの部分 (以下、 定常成分とも称す る) 以外の画像データの部分 (以下、 非定常成分と称する) を抽出し、 抽出され た非定常成分と入力画像とから、 実世界 1の細線の画像が射影された画素を検出 し、 入力画像における、 実世界 1の細線の画像が射影された画素からなる領域を 検出する。
非定常成分抽出部 2 0 1は、 入力画像から非定常成分を抽出して、 入力画像と 共に、 抽出された非定常成分を示す非定常成分情報を頂点検出部 2 0 2および単 調増減検出部 2 0 3に供給する。
例えば、 図 3 1で示されるように、 ほぼ一定の光のレベルの背景の前に細線が ある実世界 1の画像がデータ 3に射影されたとき、 図 3 2で示されるように、 非 定常成分抽出部 2 0 1は、 データ 3である入力画像における背景を平面で近似す ることにより、 背景である非定常成分を抽出する。 図 3 2において、 実線は、 デ ータ 3の画素値を示し、 点線は、 背景を近似する平面で示される近似値を示す。 図 3 2において、 Aは、 細線の画像が射影された画素の画素値を示し、 P Lは、 背景を近似する平面を示す。
このように、 データの定常性を有する画像データの部分における、 複数の画素 の画素値は、 非定常成分に対して不連続となる。
非定常成分抽出部 2 0 1は、 実世界 1の光信号である画像が射影され、 実世界 1の画像の定常性の一部が欠落した、 データ 3である画像データの複数の画素の 画素値の不連続部を検出する。
非定常成分抽出部 2 0 1における非定常成分の抽出の処理の詳細は、 後述する。 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 非定常成分抽出部 2 0 1か ら供給された非定常成分情報を基に、 入力画像から非定常成分を除去する。 例え ば、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画像の各画素のうち、 背景の画像のみが射影された画素の画素値を 0に設定することにより、 入力画 像から非定常成分を除去する。 また、 例えば、 頂点検出部 2 0 2および単調増減 検出部 2 0 3は、 入力画像の各画素の画素値から、 平面 P Lで近似される値を引 き算することにより、 入力画像から非定常成分を除去する。
入力画像から背景を除去することができるので、 頂点検出部 2 0 2乃至連続性 検出部 2 0 4は、 細線が射影された画像データの部分のみを処理の対象とするこ とができ、 頂点検出部 2 0 2乃至連続性検出部 2 0 4における処理がより容易に なる。
なお、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した画像デ —タを頂点検出部 2 0 2および単調増減検出部 2 0 3に供給するようにしてもよ い。
以下に説明する処理の例において、 入力画像から非定常成分が除去された画像 データ、 すなわち、 定常成分を含む画素のみからなる画像データが対象となる。 ここで、 頂点検出部 2 0 2乃至連続性検出部 2 0 4が検出しょうとする、 細線 の画像が射影された画像データについて説明する。
図 3 1で示される細線の画像が射影された画像データの空間方向 Yの断面形状 (空間方向の位置の変化に対する画素値の変化) は、 光学 LPFがないとした場 合、 センサ 2であるイメージセンサの空間積分効果から、 図 3 3に示す台形、 ま たは図 3 4に示す三角形となることが考えられる。 しかしながら、 通常のィメー ジセンサは、 光学 LPFを備え、 イメージセンサは、 光学 LPFを通過した画像を 取得し、 取得した画像をデータ 3に射影するので、 現実には、 細線の画像データ の空間方向 Yの断面形状は、 図 3 5に示すようなガウス分布に類似した形状とな る。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影された画素で あって、 同じ断面形状 (空間方向の位置の変化に対する画素値の変化) が画面の 上下方向に一定の間隔で並ぶものからなる領域を検出して、 さらに、 実世界 1の 細線の長さ方向に対応した、 領域の繋がりを検出することにより、 データの定常 性を有する領域である、 細線の画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像における、 縦 に 1列の画素の上に、 円弧形状 (かまぼこ型) が形成される領域を検出し、 検出 された領域が横方向に隣接して並んでいるか否かを判定して、 実世界 1の信号で ある細線の画像の長さ方向に対応した、 円弧形状が形成される領域の繋がりを検 出する。
また、 頂点検出部 2 0 2乃至連続性検出部 2◦ 4は、 細線の画像が射影された 画素であって'、 同じ断面形状が画面の左右方向に一定の間隔で並ぶものからなる 領域を検出して、 さらに、 実世界 1の細線の長さ方向に対応した、 検出された領 域の繋がりを検出することにより、 データの定常性を有する領域である、 細線の 画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃 '至連続性検出部 2 0 4は、 入力画像における、 横に 1列の画素の上に、 円弧形状 が形成される領域を検出し、 検出された領域が縦方向に隣接して並んでいるか否 かを判定して、 実世界 1の信号である細線の画像の長さ方向に対応した、 円弧形 状が形成される領域の繋がりを検出する。
まず、 細線の画像が射影された画素であって、 画面の上下方向に同じ円弧形状 が一定の間隔で並ぶものからなる領域を検出する処理を説明する。
頂点検出部 2 0 2は、 周囲の画素に比較して、 より大きい画素値を有する画素、 すなわち頂点を検出し、 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供 給する。 画面の上下方向に 1列に並ぶ画素を対象とした場合、 頂点検出部 2 0 2 は、 画面の上側に位置する画素の画素値、 および画面の下側に位置する画素の画 素値に比較して、 より大きい画素値を有する画素を頂点として検出する。 頂点検 出部 2 0 2は、 1つの画像、 例えば、 1つのフレームの画像から、 1または複数 の頂点を検出する。
1つの画面には、 フレームまたはフィールドが含まれる。 以下の説明において、 同様である。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされてい ない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の上側の画 素の画素値とを比較し、 注目画素の画素値と、 注目画素の下側の画素の画素値と を比較して、 上側の画素の画素値より大きい画素値を有し、 下側の画素の画素値 より大きい画素値を有する注目画素を検出して、 検出された注目画素を頂点とす る。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 • 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。 例えば、 1つの画像の画 素の画素値が全て同じ値であるとき、 または、 1若しくは 2の方向に対して画素 値が減少しているとき、 頂点は検出されない。 この場合、 細線の画像は、 画像デ ータに射影されていない。
単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を示 す頂点情報を基に、 頂点検出部 2 0 2で検出された頂点に対して上下方向に 1列 に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候補を検出し、 頂点情報と共に、 検出した領域を示す領域情報を連続性検出部 2 0 4に供給する。 より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調 減少している画素値を有する画素からなる領域を、 細線の画像が射影された画素 からなる領域の候補として検出する。 単調減少とは、 頂点からの距離がより長い 画素の画素値が、 頂点からの距離が短い画素の画素値に比較して、 より小さいこ とをいう。
また、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調増加してい る画素値を有する画素からなる領域を、 細線の画像が射影された画素からなる領 域の候補として検出する。 単調増加とは、 頂点からの距離がより長い画素の画素 値が、 頂点からの距離が短い画素の画素値に比較して、 より大きいことをいう。 以下、 単調増加している画素値を有する画素からなる領域についての処理は、 単調減少している画素値を有する画素からなる領域についての処理と同様なので、 その説明は省略する。 細線の画像が射影された画素であって、 画面の横方向に同 じ円弧形状が一定の間隔で並ぶものからなる領域を検出する処理における、 単調 増加している画素値を有する画素からなる領域についての処理も、 単調減少して いる画素値を有する画素からなる領域についての処理と同様なので、 その説明は 省略する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して縦に 1列に各画素について、 各画素の画素値と、 上側の画素の画素値との差分、 および下側の画素の画素値と の差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する画素 を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂点 の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有する 画素からなる領域を、 細線の画像が射影された画素からなる領域の候補として検 出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 上側の画素の画 素値の符号おょぴ下側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出することにより、 画素値が単調減少している領域から、 頂点と同じ 符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 上下方向に並び、 頂点に対して画素値 が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出する。 図 3 6は、 空間方向 Yの位置に対する画素値から、 細線の画像が射影された画 素の領域を検出する、 頂点の検出および単調増減領域の検出の処理を説明する図 である。
図 3 6乃至図 3 8において、 Pは、 頂点を示す。 図 3 0で構成が示されるデー タ定常性検出部 1 0 1の説明において、 Pは、 頂点を示す。
頂点検出部 2 0 2は、 各画素の画素値と、 これに空間方向 Yに隣接する画素の 画素値とを比較して、 空間方向 Yに隣接する 2つの画素の画素値より大きい画素 値を有する画素を検出することにより、 頂点 Pを検出する。
頂点 Pと、 頂点 Pの空間方向 Yの両側の画素とからなる領域は、 頂点 Pの画 素値に対して、 空間方向 Yの両側の画素の画素値が単調に減少する単調減少領域 である。 図 3 6において、 Aで示す矢印、 および Bで示す矢印は、 頂点 Pの両側 に存在する単調減少領域を示す。
単調増減検出部 2 0 3は、 各画素の画素値と、 その画素に空間方向 Yに隣接す る画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 単調 増減検出部 2 0 3は、 検出された、 差分の符号が変化する画素と、 その手前側 (頂点 P側) の画素との境界を、 細線の画像が射影された画素からなる細線領 域の
境界とする。
図 3 6において、 差分の符号が変化する画素と、 その手前側 (頂点 P側) の 画素との境界である細線領域の境界は Cで示される。
さらに、 単調増減検出部 2 0 3は、 単調減少領域において、 各画素の画素値の 符号と、 その画素に空間方向 Yに隣接する画素の画素値の符号とを比較し、 画素 値の符号が変化する画素を検出する。 単調増減検出部 2 0 3は、 検出された、 画 素値の符号が変化する画素と、 その手前側 (頂点 P側) の画素との境界を細線 領域の境界とする。
図 3 6において、 画素値の符号が変化する画素と、 その手前側 (頂点 P側) —の画素との境界である細線領域の境界は Dで示される。
図 3 6で示されるように、 細線の画像が射影された画素からなる細線領域 F は、 細線領域の境界 Cと、 細線領域の境界 Dとに挟まれる領域とされる。
単調增減検出部 2 0 3は、 このような単調増減領域からなる細線領域 Fの中 から、 予め定めた閾値より長い細線領域 F、 すなわち、 閾値より多い数の画素を 含む細線領域 Fを求める。 例えば、 閾値が 3であるとき、 単調増減検出部 2 0 3は、 4つ以上の画素を含む細線領域 Fを検出する。
さらに、 このように検出された細線領域 Fの中から、 単調増減検出部 2 0 3 は、 頂点 Pの'画素値、 および頂点 Pの右側の画素の画素値、 および頂点 Pの左 側の画素の画素値を、 それぞれ閾値と比較し、 頂点 Pの画素値が閾値を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素の画素値 が閾値以下である頂点 Pが属する細線領域 Fを検出し、 検出された細線領域 F を細線の画像の成分を含む画素からなる領域の候補とする。
言い換えれば、 頂点 Pの画素値が閾値以下であるか、 頂点 Pの右側の画素の 画素値が閾値を超えるか、 または頂点 Pの左側の画素の画素値が閾値を超える 頂点 Pが属する細線領域 Fは、 細線の画像の成分を含まないと判定され、 細線 の画像の成分を含む画素からなる領域の候補から除去される。
すなわち、 図 3 7で示されるように、 単調増減検出部 2 0 3は、 頂点 Pの画 素値を閾値と比較すると共に、 頂点 Pに対して、 空間方向 X (点線 ΑΑ'で示す方 向) に隣接する画素の画素値を、 閾値と比較し、 頂点 Ρ の画素値が閾値を超え、 空間方向 Xに隣接する画素の画素値が閾値以下である、 頂点 Ρが属する細線領 域 Fを検出する。
図 3 8は、 図 3 7の点線 AA'で示す空間方向 Xに並ぶ画素の画素値を表す図で ある。 頂点 Ρの画素値が閾値 T h s を超え、 頂点 Pの空間方向 Xに隣接する画素 の画素値が、 閾値 T h s以下である、 頂点 Pが属する細線領域 Fは、 細線の成分 を含む。
なお、 単調増減検出部 2 0 3は、 背景の画素値を基準として、 頂点 Pの画素 値と背景の画素値との差分を閾値と比較すると共に、 頂点 Pに対して、 空間方 向 Xに隣接する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点 P の画素値と背景の画素値との差分が閾値を超え、 空間方向 Xに隣接する画素の画 素値と背景の画素値との差分が閾値以下である、 頂点 Pが属する細線領域 Fを 検出するようにしてもよい。
単調増減検出部 2 0 3は、 頂点 Pを基準として、 画素値が単調減少し、 画素 値の符号が頂点 Pと同じである画素からなる領域であって、 その頂点 Pが閾値 を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素 の画素値が閾値以下であるものを示す単調増減領域情報を連続性検出部 2 0 4に 供給する。 画面の上下方向に 1列に並ぶ画素であって、 細線の画像が射影されたものから なる領域を検出する場合において、 単調増減領域情報により示される領域に属す る画素は、 上下方向に並び、 細線の画像が射影された画素を含む。 すなわち、 単 調増減領域情報により示される領域は、 画面の上下方向に 1列に並ぶ画素であつ て、 細線の画像が射影されたものからなる領域を含む。
このように、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 細線の画像が 射影された画素において、 空間方向 Yの画素値の変化が、 ガウス分布に類似する という性質を利用して、 細線の画像が射影された画素からなる定常領域を検出す る。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域情 報で示される、 上下方向に並ぶ画素からなる領域のうち、 横方向に隣接している 画素を含む領域、 すなわち、 相似した画素値の変化を有し、 縦方向に重複してい る領域を、 連続している領域として検出し、 頂点情報、 および検出された連続し ている領域を示すデータ定常性情報を出力する。 データ定常性情報は、 単調増減 領域情報、 および領域の繋がりを示す情報などを含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並ぶ ので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよう に一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領域と し、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定常性情 報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の細 線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧 形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3において検出された領域の候補をさらに絞り込む。 図 3 9は、 単調増減領域の連続性を検出の処理を説明する図である。 図 3 9に示すように、 連続性検出部 2 0 4は、 画面の縦方向に 1列に並ぶ画素 からなる細線領域 Fについて、 横方向に隣接する画素を含んでいるとき、 2つ の単調増減領域の間に連続性があるとし、 横方向に隣接する画素を含んでいない とき、 2つの細線領域 Fの間に連続性がないとする。 例えば、 画面の縦方向に 1列に並ぶ画素からなる細線領域 は、 画面の縦方向に 1列に並ぶ画素から なる細線領域 FQの画素と横方向に隣接する画素を含んでいるとき、 細線領域 F0 と連続しているとされる。 画面の縦方向に 1列に並ぶ画素からなる細線領域 F。 は、 画面の縦方向に 1列に並ぶ画素からなる細線領域 の画素と横方向に隣接 する画素を含んでいるとき、 細線領域 FL と連続しているとされる。
このように、 頂点検出部 2 0 2乃至連続性検出部 2 0 4により、 画面の上下方 向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域が検出 される。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 上述したように、 画面の上下方 向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域を検出 し、 さらに、 画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射影され たものからなる領域を検出する。
なお、 処理の順序は、 特に限定されるものではなく、 並列に実行するようにし ても良いことは当然である。
すなわち、 頂点検出部 2 0 2は、 画面の左右方向に 1列に並ぶ画素を対象とし て、 画面の左側に位置する画素の画素値、 および画面の右側に位置する画素の画 素値に比較して、 より大きい画素値を有する画素を頂点として検出し、 検出した 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供給する。 頂点検出部 2 0 2は、 1つの画像、 例えば、 1フレームの画像から、 1または複数の頂点を検出 する。 - 例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされてい ない画素の中から注目画素を選択し、 注目.画素の画素値と、 注目画素の左側の画 素の画素値とを比較し、 注目画素の画素値と、 注目画素の右側の画素の画素値と を比較して、 左側の画素の画素値より大きい画素値を有し、 右側の画素の画素値 より大きい画素値を有する注目画素を検出して、 検出された注目画素を頂点とす る。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。
単調増減検出部 2 0 3は、 頂点検出部 2 0 2で検出された頂点に対して左右方 向に 1列に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候補 を検出検出し、 頂点情報と共に、 検出した領域を示す単調増減領域情報を連続性 検出部 2 0 4に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調 減少している画素値を有する画素からなる領域を、 細線の画像が射影された画素 からなる領域の侯補として検出する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して横に 1列の各画素について、 各画素の画素値と、 左側の画素の画素値との差分、 および右側の画素の画素値と の差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する画素 を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂点 の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有する 画素からなる領域を、 細線の画像が射影された画素からなる領域の候補として検 出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 左側の画素の画 素値の符号または右側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出することにより、 画素値が単調減少している領域から、 頂点と同じ 符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 左右方向に並び、 頂点に対して画素値 が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出する。 単調増減検出部 2 0 3は、 このような単調増減領域からなる細線領域の中から、 予め定めた閾値より長い細線領域、 すなわち、 閾値より多い数の画素を含む細線 領域を求める。
さらに、 このように検出された細線領域の中から、 単調増減検出部 2 0 3は、 頂点の画素値、 および頂点の上側の画素の画素値、 および頂点の下側の画素の画 素値を、 それぞれ閾値と比較し、 頂点の画素値が閾値を超え、 頂点の上側の画素 の画素値が閾値以下であり、 頂点の下側の画素の画素値が閾値以下である頂点が 属する細線領域を検出し、 検出された細線領域を細線の画像の成分を含む画素か らなる領域の候補とする。
言い換えれば、 頂点の画素値が閾値以下であるか、 頂点の上側の画素の画素値 が閾値を超えるか、 または頂点の下側の画素の画素値が閾値を超える頂点が属す る細線領域は、 細線の画像の成分を含まないと判定され、 細線の画像の成分を含 む画素からなる領域の候補から除去される。
なお、 単調増減検出部 2 0 3は、 背景の画素値を基準として、 頂点の画素値と 背景の画素値との差分を閾値と比較すると共に、 頂点に対して、 上下方向に隣接 する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点の画素値と背 景の画素値との差分が閾値を超え、 上下方向に隣接する画素の画素値と背景の画 素値との差分が閾値以下である、 検出された細線領域を細線の画像の成分を含む 画素からなる領域の候補とするようにしてもよい。
単調増減検出部 2 0 3は、 頂点を基準として、 画素値が単調減少し、 画素値の 符号が頂点と同じである画素からなる領域であって、 その頂点が閾値を超え、 頂 点の右側の画素の画素値が閾値以下であり、 頂点の左側の画素の画素値が閾値以 下であるものを示す単調増減領域情報を連続性検出部 2 0 4に供給する。
画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射影されたものから なる領域を検出する場合において、 単調増減領域情報により示される領域に属す る画素は、 左右方向に並び、 細線の画像が射影された画素を含む。 すなわち、 単 調増減領域情報により示される領域は、 画面の左右方向に並ぶ 1列の画素であつ て、 細線の画像が射影されたものからなる領域を含む。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域情 報で示される、 左右方向に並ぶ画素からなる領域のうち、 縦方向に隣接している 画素を含む領域、 すなわち、 相似した画素値の変化を有し、 横方向に重複してい る領域を、 連続している領域として検出し、 頂点情報、 および検出された連続し ている領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋 がりを示す情報を含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並ぶ ので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよう に一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領域と し、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定常性情 報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の細 線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧. 形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3において検出された領域の候補をさらに絞り込む。 このように、 データ定常性検出部 1 0 1は、 入力画像であるデータ 3に含まれ ている定常性を検出することができる。 すなわち、 データ定常性検出部 1 0 1は、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3 に含まれるデータの定常性を検出することができる。 データ定常性検出部 1 0 1 は、 データ 3から、 細線である実世界 1の画像が射影された画素からなる領域を 検出する。
図 4 0は、 定常性検出部 1 0 1における、 細線の画像が射影された、 定常性を 有する領域の検出の他の処理の例を示す図である。 定常性検出部 1 0 1は、 図 4 0に示すように、 各画素について、 隣接する画素 との画素値の差分の絶対値を計算する。 計算された差分の絶対値は、 画素に対応 させて、 配置される。 例えば、 図 4 0に示すように、 画素値がそれぞれ P0、 Pl、 P2である画素が並んでいるとき、 定常性検出部 1 0 1は、 差分 dO=PO- P1および 差分 dl=Pl-P2を計算する。 さらに、 定常性検出部 1 0 1は、 差分 dOおよび差 分 dlの絶対値を算出する。
画素値 P0、 Pl、 および P2に含まれている非定常性成分が同一であるとき、 差 分 dOおよび差分 dlには、 細線の成分に対応した値のみが設定されることにな る。
従って、 定常性検出部 1 0 1は、 画素に対応させて配置されている差分の絶対 値のうち、 隣り合う差分の値が同一であるとき、 その 2つの差分の絶対値に対応 する画素 (2つの差分の絶対値に挟まれた画素) に細線の成分が含まれていると 判定する。 ただし、 定常性検出部 1 0 1は、 その差分の絶対値が小さい場合は細 線として検出しなくてもよい。 たとえば、 その差分の絶対値が閾値以上であると き、 定常性検出部 1 0 1は、 その画素に細線の成分が含まれていると判定する。 定常性検出部 1 0 1においては、 このような、 簡便な方法で細線を検出するこ ともできる。
図 4 1は、 定常性検出の処理を説明するフローチャートである。
ステップ S 2 0 1において、 非定常成分抽出部 2 0 1は、 入力画像から、 細線 が射影された部分以外の部分である非定常成分を抽出する。 非定常成分抽出部 2 0 1は、 入力画像と共に、 抽出された非定常成分を示す非定常成分情報を頂点検 出部 2 0 2および単調増減検出部 2 0 3に供給する。 非定常成分の抽出の処理の 詳細は、 後述する。
ステップ S 2 0 2において、 頂点検出部 2 0 2は、 非定常成分抽出部 2 0 1か ら供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入力画 像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 2において、 頂点 検出部 2 0 2は、 頂点を検出する。 すなわち、 頂点検出部 2 0 2は、 画面の縦方向を基準として、 処理を実行する 場合、 定常成分を含む画素について、 各画素の画素値と、 上側および下側の画素 の画素値とを比較して、 上側の画素の画素値おょぴ下側の画素の画素値より大き い画素値を有する画素を検出することにより、 頂点を検出する。 また、 ステップ S 2 0 2において、 頂点検出部 2 0 2は、 画面の横方向を基準として、 処理を実 行する場合、 定常成分を含む画素について、 各画素の画素値と、 右側おょぴ左側 の画素の画素値とを比較して、 右側の画素の画素値および左側の画素の画素値よ り大きい画素値を有する画素を検出することにより、 頂点を検出する。
頂点検出部 2 0 2は、 検出した頂点を示す頂点情報を単調増減検出部 2 0 3に 供給する。
ステップ S 2 0 3において、 単調増減検出部 2 0 3.は、 非定常成分抽出部 2 0 1から供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入 力画像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を示す 頂点情報を基に、 頂点に対する単調増減を検出することにより、 データの定常性 を有する画素からなる領域を検出する。
単調増減検出部 2 0 3は、 画面の縦方向を基準として、 処理を実行する場合、 頂点の画素値、 および頂点に対して縦に 1列に並ぶ画素の画素値を基に、 縦に並 ぶ 1列の画素であつて、 1つの細線の画像が射影された画素からなる単調増減を 検出することにより、 データの定常性を有する画素からなる領域を検出する。 す なわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の縦方向を 基準として、 処理を実行する場合、 頂点および頂点に対して縦に 1列に並ぶ画素 について、 各画素の画素値と、 上側または下側の画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点お よび頂点に対して縦に 1列に並ぶ画素について、 各画素の画素値の符号と、 その 画素の上側または下側の画素の画素値の符号とを比較し、 画素値の符号が変化す る画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並びに頂 点の右側および左側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値を超 え、 右側およぴ左側の画素の画素値が閾値以下である画素からなる領域を検出す る。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
また、 単調増減検出部 2 0 3は、 画面の横方向を基準として、 処理を実行する 場合、 頂点の画素値、 および頂点に対して横に 1列に並ぶ画素の画素値を基に、 横に並ぶ 1列の画素であって、 1つの細線の画像が射影された画素からなる単調 増減を検出することにより、 データの定常性を有する画素からなる領域を検出す る。 すなわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の横 方向を基準として、 処理を実行する場合、 頂点および頂点に対して横に 1列に並 ぶ画素について、 各画素の画素値と、 左側または右側の画素の画素値との差分を 求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点および頂点に対して横に 1列に並ぶ画素について、 各画素の画'素値の符号と、 その画素の左側または右側の画素の画素値の符号とを比較し、 画素値の符号が変 化する画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並び に頂点の上側および下側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値 を超え、 上側および下側の画素の画素値が閾値以下である画素からなる領域を検 出する。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
ステップ S 2 0 4において、 単調増減検出部 2 0 3は、 全画素の処理が終了し たか否かを判定する。 例えば、 非定常成分抽出部 2 0 1は、 入力画像の 1つの画 面 (例えば、 フレームまたはフィールドなど) の全画素について、 頂点を検出し、 単調增減領域を検出したか否かを判定する。
ステップ S 2 0 4において、 全画素の処理が終了していない、 すなわち、 頂点 の検出および単調増減領域の検出の処理の対象とされていない画素がまだあると 判定された場合、 ステップ S 2 0 2に戻り、 頂点の検出および単調増減領域の検 出の処理の対象とされていない画素から処理の対象となる画素を選択して、 頂点 の検出および単調増減領域の検出の処理を繰り返す。
ステップ S 2 0 4において、 全画素の処理が終了した、 すなわち、 全ての画素 を対象として頂点おょぴ単調増減領域が検出されたと判定された場合、 ステップ S 2 0 5に進み、 連続性検出部 2 0 4は、 単調増減領域情報を基に、 検出された 領域の連続性を検出する。 例えば、 連続性検出部 2 0 4は、 単調増減領域情報で 示される、 画面の縦方向に 1列に並ぶ画素からなる単調増減領域について、 横方 向に隣接する画素を含んでいるとき、 2つの単調増減領域の間に連続性があると し、 横方向に隣接する画素を含んでいないとき、 2つの単調増減領域の間に連続 性がないとする。 例えば、 連続性検出部 2 0 4は、 単調増減領域情報で示される、 画面の横方向に 1列に並ぶ画素からなる単調増減領域について、 縦方向に隣接す る画素を含んでいるとき、 2つの単調増減領域の間に連続性があるとし、 縦方向 に隣接する画素を含んでいないとき、 2つの単調増減領域の間に連続性がないと する。
連続性検出部 2 0 4は、 検出された連続している領域をデータの定常性を有す る定常領域とし、 頂点の位置および定常領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋がりを示す情報を含んでいる。 連続性検出部 2 0 4から出力されるデータ定常性情報は、 実世界 1の細線の画像が射影された画素 からなる、 定常領域である細線領域を示す。
ステップ S 2 0 6において、 定常性方向検出部 2 0 5は、 全画素の処理が終了 したか否かを判定する。 すなわち、 定常性方向検出部 2 0 5は、 入力画像の所定 のフレームの全画素について、 領域の連続性を検出したか否かを判定する。
ステップ S 2 0 6において、 全画素の処理が終了していない、 すなわち、 領域 の連続性の検出の処理の対象とされていない画素がまだあると判定された場合、 ステップ S 2 0 5に戻り、 領域の連続性の検出の処理の対象とされていない画素 から処理の対象となる画素を選択して、 領域の連続性の検出の処理を繰り返す。 ステップ S 2 0 6において、 全画素の処理が終了した、 すなわち、 全ての画素 を対象として領域の連続性が検出されたと判定された場合、 処理は終了する。 このように、 入力画像であるデータ 3に含まれている定常性が検出される。 す なわち、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3に含まれるデータの定常性が検出され、 データ 3から、 細線である実世 界 1の画像が射影された画素からなる、 データの定常性を有する領域が検出され る。
なお、 図 3 0で構成が示されるデータ定常性検出部 1 0 1は、 データ 3のフレ ームから検出されたデータの定常性を有する領域を基に、 時間方向のデータの定 常性を検出することができる。
例えば、 図 4 2に示すように、 連続性検出部 2 0 4は、 フレーム #n において、 検出されたデータの定常性を有する領域、 フレーム #n - 1において、 検出された データの定常性を有する領域、 およびフレーム #n+ lにおいて、 検出されたデー タの定常性を有する領域を基に、 領域の端部を結ぶことにより、 時間方向のデー タの定常性を検出する。
フレーム #n- 1は、 フレーム #nに対して時間的に前のフレームであり、 フレー ム #η+ 1は、 フレーム #ηに対して時間的に後のフレームである。 すなわち、 フレ ーム #η- 1、 フレーム #η、 およびフレーム #η+1は、 フレーム #η- 1、 フレーム #η、 およびフレーム の順で表示される。
より具体的には、 図 4 2において、 Gは、 フレーム #ηにおいて、 検出された データの定常性を有する領域、 フレーム #η-1において、 検出されたデータの定 常性を有する領域、 およびフレーム #η+ 1において、 検出されたデータの定常性 を有する領域のそれぞれの一端を結ぶことにより得られた動きべク トルを示し、 G ' は、 検出されたデータの定常性を有する領域のそれぞれの他の一端を結ぶこ とにより得られた動きべクトルを示す。 動きべク トル Gおよび動きべク トル G ' は、 時間方向のデータの定常性の一例である。 さらに、 図 3 0で構成が示されるデータ定常性検出部 1 0 1は、 データの定常 性を有する領域の長さを示す情報を、 データ定常性情報として出力することがで さる。
図 4 3は、 データの定常性を有しない画像データの部分である非定常成分を平 面で近似して、 非定常成分を抽出する、 非定常成分抽出部 2 0 1の構成を示すブ 口ック図である。
図 4 3に構成を示す非定常成分抽出部 2 0 1は、 入力画像から所定の数の画素 でなるプロックを抽出し、 プロックと平面で示される値との誤差が所定の閾値未 満になるように、 ブロックを平面で近似して、 非定常成分を抽出する。
入力画像は、 ブロック抽出部 2 2 1に供給されるとともに、 そのまま出力され る。
プロック抽出部 2 2 1は、 入力画像から、 所定の数の画素からなるプロックを 抽出する。 例えば、 ブロック抽出部 2 2 1は、 7 X 7の画素からなるブロックを 抽出し、 平面近似部 2 2 2に供給する。 例えば、 ブロック抽出部 2 2 1は、 抽出 されるプロックの中心となる画素をラスタスキャン順に移動させ、 順次、 入力画 像からプロックを抽出する。
平面近似部 2 2 2は、 ブロックに含まれる画素の画素値を所定の平面で近似す る。 例えば、 平面近似部 2 2 2は、 式 (3 2 ) で表される平面でブロックに含ま れる画素の画素値を近似する。
z = ax+by+c
• · · ( 3 2 ) 式 (3 2 ) において、 Xは、 画素の画面上の一方の方向 (空間方向 X ) の位置 を示し、 yは、 画素の画面上の他の一方の方向 (空間方向 Y) の位置を示す。 z は、 平面で示される近似値を示す。 a は、 平面の空間方向 Xの傾きを示し、 b は、 平面の空間方向 Yの傾きを示す。 式 (3 2 ) において、 cは、 平面のオフセット (切片) を示す。 4 008691
68
例えば、 平面近似部 2 2 2は、 回帰の処理により、 傾き a、 傾き b、 およぴォ フセット cを求めることにより、 式 (3 2 ) で表される平面で、 プロックに含 まれる画素の画素値を近似する。 平面近似部 2 2 2は、 棄却を伴う回帰の処理に より、 傾き a、 傾き b、 およびオフセット cを求めることにより、 式 (3 2 ) で 表される平面で、 ブロックに含まれる画素の画素値を近似する。
例えば、 平面近似部 2 2 2は、 最小自乗法により、 プロックの画素の画素値に 対して、 誤差が最小となる式 (3 2 ) で表される平面を求めることにより、 平面 でプロックに含まれる画素の画素値を近似する。
なお、 平面近似部 2 2 2は、 式 (3 2 ) で表される平面でプロックを近似する と説明したが、 式 (3 2 ) で表される平面に限らず、 より高い自由度をもった関 数、 例えば、 n次 (nは、 任意の整数) の多項式で表される面でプロックを近似 するようにしてもよい。
繰り返し判定部 2 2 3は、 ブロックの画素値を近似した平面で示される近似値 と、 ブロックの対応する画素の画素値との誤差を計算する。 式 (3 3 ) は、 プロ ックの画素値を近似した平面で示される近似値と、 ブロックの対応する画素の画 素値 との差分である誤差 を示す式である。
6 j = 2 j -Z = Z j - (aXj + y j +c
• · · ( 3 3 ) 式 (3 3 ) において、 zハット (zに を付した文字を zハットと記述する。 以下、 本明細書において、 同様に記載する。 ) は、 ブロックの画素値を近似した 平面で示される近似値を示し、 aハットは、 ブロックの画素値を近似した平面の 空間方向 Xの傾きを示し、 b ノヽットは、 ブロックの画素値を近似した平面の空間 方向 Yの傾きを示す。 式 (3 3 ) において、 cハットは、 ブロックの画素値を近 似した平面のオフセット (切片) を示す。
繰り返し判定部 2 2 3は、 式 (3 3 ) で示される、 近似値とブロックの対応す る画素の画素値との誤差 力 最も大きい画素を棄却する。 このようにするこ とで、 細線が射影された画素、 すなわち定常性を有する画素が棄却されることに なる。 繰り返し判定部 2 2 3は、 棄却した画素を示す棄却情報を平面近似部 2 2 2に供給する。
さらに、 繰り返し判定部 2 2 3は、 標準誤差を算出して、 標準誤差が、 予め定 めた近似終了判定用の閾値以上であり、 プロックの画素のうち、 半分以上の画素 が棄却されていないとき、 繰り返し判定部 2 2 3は、 平面近似部 2 2 2に、 プロ ックに含まれる画素のうち、 棄却された画素を除いた画素を対象として、 平面に よる近似の処理を繰り返させる。
定常性を有する画素が棄却されるので、 棄却された画素を除いた画素を対象と して平面で近似をすることにより、 平面は、 非定常成分を近似することになる。 操り返し判定部 2 2 3は、 標準誤差が、 近似終了判定用の閾値未満であるとき、 または、 プロックの画素のうち、 半分以上の画素が棄却されたとき、 平面による 近似を終了する。
5 X 5の画素からなるプロックについて、 標準誤差 es は、 例えば、 式 (3 4 ) で算出される。
Figure imgf000071_0001
=∑ ( ( Z i - ( aX i +byj +c) } (n-3)
• - · ( 3 4 ) ここで、 nは、 画素の数である。
なお、 繰り返し判定部 2 2 3は、 標準誤差に限らず、 ブロックに含まれる全て の画素についての誤差の 2乗の和を算出して、 以下の処理を実行するようにして もよい。
ここで、 ラスタスキャン方向に 1画素ずつずれたプロックを平面で近似すると き、 図 4 4に示すように、 図中黒丸で示す、 定常性を有する画素、 すなわち細線 の成分を含む画素は、 複数回棄却されることになる。 繰り返し判定部 2 2 3は、 平面による近似を終了したとき、 ブロックの画素値 を近似した平面を示す情報 (式 (3 2 ) の平面の傾きおよび切片) を、 非定常成 分情報として出力する。
なお、 繰り返し判定部 2 2 3は、 画素毎の棄却された回数と予め定めた閾値と を比較して、 棄却された回数が閾値以上である画素を定常成分を含む画素である として、 定常成分を含む画素を示す情報を定常成分情報として出力するようにし てもよい。 この場合、 頂点検出部 2 0 2乃至定常性方向検出部 2 0 5は、 定常成 分情報で示される、 定常成分を含む画素を対象として、 それぞれの処理を実行す る。
棄却された回数、 ブロックの画素の画素値を近似する平面の空間方向 Xの傾き、 プロックの画素の画素値を近似する平面の空間方向 Yの傾き、 プロックの画素の 画素値を近似する平面で示される近似値、 および誤差 et は、 入力画像の特徴量 としても利用することができる。
図 4 5は、 ステップ S 2 0 1に対応する、 図 4 3に構成を示す非定常成分抽出 部 2 0 1による、 非定常成分の抽出の処理を説明するフローチャートである。 ステップ S 2 2 1において、 ブロック抽出部 2 2 1は、 入力画素から、 所定の 数の画素からなるプロックを抽出し、 抽出したブロックを平面近似部 2 2 2に供 給する。 例えば、 ブロック抽出部 2 2 1は、 入力画素から、 まだ、 選択されてい ない画素のうち、 1つの画素を選択し、 選択された画素を中心とする 7 X 7の画 素からなるプロックを抽出する。 例えば、 プロック抽出部 2 2 1は、 ラスタスキ ャン順に画素を選択することができる。
ステップ S 2 2 2において、 平面近似部 2 2 2は、 抽出されたプロックを平面 で近似する。 平面近似部 2 2 2は、 例えば、 回帰の処理により、 抽出されたプロ ックの画素の画素値を、 平面で近似する。 例えば、 平面近似部 2 2 2は、 回帰の 処理により、 抽出されたプロックの画素のうち、 棄却された画素を除いた画素の 画素値を、 平面で近似する。 ステップ S 2 2 3において、 繰り返し判定部 2 2 3 は、 繰り返し判定を実行する。 例えば、 プロックの画素の画素値と近似した平面 の近似値とから標準誤差を算出し、 棄却された画素の数を力ゥントすることによ り、 繰り返し判定を実行する。
ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 標準誤差が閾値以上で あるか否かを判定し、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画素 のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上である か否かを判定し、 プロックの画素のうち、 半分以上の画素が棄却されておらず、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進むようにし てもよい。
ステップ S 2 2 5において、 繰り返し判定部 2 2 3は、 ブロックの画素毎に、 画素の画素値と近似した平面の近似値との誤差を算出し、 誤差が最も大きい画素 を棄却し、 平面近似部 2 2 2に通知する。 手続きは、 ステップ S 2 2 2に戻り、 棄却された画素を除いた、 プロックの画素を対象として、 平面による近似の処理 および繰り返し判定の処理が繰り返される。
ステップ S 2 2 5において、 ラスタスキャン方向に 1画素ずつずれたプロック がステップ S 2 2 1の処理で抽出される場合、 図 4 4に示すように、 細線の成分 を含む画素 (図中の黒丸で示す) は、 複数回棄却されることになる。
ステップ S 2 2 4において、 標準誤差が閾値以上でないと判定された場合、 ブ ロックが平面で近似されたので、 ステップ S 2 2 6に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画素 のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上である か否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却されたか、 また は標準誤差が閾値以上でないと判定された場合、 ステップ S 2 2 5に進むように してもよい。
ステップ S 2 2 6において、 繰り返し判定部 2 2 3は、 プロックの画素の画素 値を近似する平面の傾きおよび切片を、 非定常成分情報として出力する。 ステップ S 2 2 7において、 ブロック抽出部 2 2 1は、 入力画像の 1つの画面 の全画素について処理を終了したか否かを判定し、 まだ処理の対象となってない 画素があると判定された場合、 ステップ S 2 2 1に戻り、 まだ処理の対象となつ ていない画素からブロックを抽出して、 上述した処理を繰り返す。
ステップ S 2 2 7において、 入力画像の 1つの画面の全画素について、 処理を 終了したと判定された場合、 処理は終了する。
このように、 図 4 3に構成を示す非定常成分抽出部 2 0 1は、 入力画像から非 定常成分を抽出することができる。 非定常成分抽出部 2 0 1が入力画像の非定常 成分を抽出するので、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画 像と、 非定常成分抽出部 2 0 1で抽出された非定常成分との差分を求めることに より、 定常成分を含む差分を対象として処理を実行することができる。
なお、 平面による近似の処理において算出される、 棄却した場合の標準誤差、 棄却しない場合の標準誤差、 画素の棄却された回数、 平面の空間方向 Xの傾き (式 (3 2 ) における aハット) 、 平面の空間方向 Yの傾き (式 (3 2 ) にお ける bハット) 、 平面で置き換えたときのレベル (式 (3 2 ) における cハツ ト) 、 および入力画像の画素値と平面で示される近似値との差分は、 特徴量とし て利用することができる。
図 4 6は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 4 3に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の処理を説明 するフローチャートである。 ステップ S 2 4 1乃至ステップ S 2 4 5の処理は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明は省略す る。
ステップ S 2 4 6において、 繰り返し判定部 2 2 3は、 平面で示される近似値 と入力画像の画素値との差分を、 入力画像の定常成分として出力する。 すなわち、 繰り返し判定部 2 2 3は、 平面による近似値と、 真値である画素値との差分を出 力する。 なお、 繰り返し判定部 2 2 3は、 平面で示される近似値と入力画像の画素値と の差分が、 所定の閾値以上である画素の画素値を、 入力画像の定常成分として出 力するようにしてもよい。
ステップ S 2 4 7の処理は、 ステップ S 2 2 7の処理と同様なので、 その説明 は省略する。
平面が非定常成分を近似しているので、 非定常成分抽出部 2 0 1は、 入力画像 の各画素の画素値から、 画素値を近似する平面で示される近似値を引き算するこ とにより、 入力画像から非定常成分を除去することができる。 この場合、 頂点検 出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像の定常成分、 すなわち細線の画 像が射影された値のみを処理の対象とすることができ、 頂点検出部 2 0 2乃至連 続性検出部 2 0 4における処理がより容易になる。
図 4 7は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 4 3に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の他の処理を 説明するフローチャートである。 ステップ S 2 6 1乃至ステップ S 2 6 5の処理 は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明は省 略する。
ステップ S 2 6 6において、 繰り返し判定部 2 2 3は、 画素毎の、 棄却の回数 を記憶し、 ステップ S 2 6 2に戻り、 処理を繰り返す。
ステップ S 2 6 4において、 標準誤差が閾値以上でないと判定された場合、 ブ ロックが平面で近似されたので、 ステップ S 2 6 7に進み、 繰り返し判定部 2 2 3は、 入力画像の 1つの画面の全画素について処理を終了したか否かを判定し、 まだ処理の対象となってない画素があると判定された場合、 ステップ S 2 6 1に 戻り、 まだ処理の対象となっていない画素についてプロックを抽出して、 上述し た処理を繰り返す。
ステップ S 2 6 7において、 入力画像の 1つの画面の全画素について、 処理を 終了したと判定された場合、 ステップ S 2 6 8に進み、 繰り返し判定部 2 2 3は、 まだ選択'されていない画素から 1つの画素を選択し、 選択された画素について、 棄却の回数が、 閾値以上であるか否かを判定する。 例えば、 繰り返し判定部 2 2 3は、 ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 予 め記憶している閾値以上であるか否かを判定する。
ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値以 上であると判定された場合、 選択された画素が定常成分を含むので、 ステップ S 2 6 9に進み、 繰り返し判定部 2 2 3は、 選択された画素の画素値 (入力画像に おける画素値) を入力画像の定常成分として出力し、 ステップ S 2 7 0に進む。 ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値以 上でないと判定された場合、 選択された画素が定常成分を含まないので、 ステツ プ S 2 6 9の処理をスキップして、 手続きは、 ステップ S 2 7 0に進む。 すなわ ち、 棄却の回数が、 閾値以上でないと判定された画素は、 画素値が出力されない。 なお、 棄却の回数が、 閾値以上でないと判定された画素について、 繰り返し判 定部 2 2 3は、 0を設定した画素値を出力するようにしてもよい。
ステップ S 2 7 0において、 操り返し判定部 2 2 3は、 入力画像の 1つの画面 の全画素について、 棄却の回数が閾値以上であるか否かの判定の処理を終了した か否かを判定し、 全画素について処理を終了していないと判定された場合、 まだ 処理の対象となってない画素があるので、 ステップ S 2 6 8に戻り、 まだ処理の 対象となっていない画素から 1つの画素を選択して、 上述した処理を繰り返す。 ステップ S 2 7 0において、 入力画像の 1つの画面の全画素について処理を終 了したと判定された場合、 処理は終了する。
このように、 非定常成分抽出部 2 0 1は、 定常成分情報として、 入力画像の画 素のうち、 定常成分を含む画素の画素値を出力することができる。 すなわち、 非 定常成分抽出部 2 0 1は、 入力画像の画素のうち、 細線の画像の成分を含む画素 の画素値を出力することができる。
図 4 8は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 4 3に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出のさらに他の 処理を説明するフローチヤ一トである。 ステップ S 2 8 1乃至ステップ S 2 8 8 の処理は、 ステップ S 2 6 1乃至ステップ S 2 6 8の処理と同様なので、 その説 明は省略する。
ステップ S 2 8 9において、 繰り返し判定部 2 2 3は、 平面で示される近似値 と、 選択された画素の画素値との差分を入力画像の定常成分として出力する。 す なわち、 繰り返し判定部 2 2 3は、 入力画像から非定常成分を除去した画像を定 常性情報として出力する。
ステップ S 2 9 0の処理は、 ステップ S 2 7 0の処理と同様なので、 その説明 は省略する。
このように、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した 画像を定常性情報として出力することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した、 第 1の画像データの複数の画素の画素値の不連続部を検出し、 検 出された不連続部からデータの定常性を検出し、 検出されたデータの定常性を基 に、 現実世界の光信号の定常性を推定することにより光信号を近似するモデル (関数) を生成し、 生成された関数に基づき第 2の画像データを生成するように した場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理結果を得 ることができるよう'になる。
図 4 9は、 データ定常性検出部 1 0 1の他の構成を示すプロック図である。 図 4 9に構成を示すデータ定常性検出部 1 0 1においては、 注目している画素 である注目画素について、 入力画像の空間方向に対する画素値の変化、 すなわち 入力画像の空間方向のアクティビティが検出され、 検出されたァクティビティに 応じて、 注目画素および基準軸を基準とした角度毎に、 垂直方向に 1列または水 平方向に 1列の所定の数の画素からなる画素の組が、 複数抽出され、 抽出された 画素の組の相関が検出され、 相関に基づいて、 入力画像における、 基準軸を基準 としたデータの定常性の角度が検出される。
データの定常性の角度とは、 基準軸と、 データ 3が有している、 一定の特徴が 繰り返し現れる所定の次元の方向とがなす角度をいう。 一定の特徴が繰り返し現 れるとは、 例えば、 データ 3における位置の変化に対する値の変化、 すなわち断 面形状が同じである場合などをいう。
基準軸は、 例えば、 空間方向 Xを示す軸 (画面の水平方向) 、 または空間方向 Yを示す軸 (画面の垂直方向) などとすることができる。
入力画像は、 アクティビティ検出部 4 0 1およびデータ選択部 4 0 2に供給さ れる。
ァクティビティ検出部 4 0 1は、 入力画像の空間方向に対する画素値の変化、 すなわち空間方向のァクティビティを検出して、 検出した結果を示すァクテイビ ティ情報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
例えば、 アクティビティ検出部 4 0 1は、 画面の水平方向に対する画素値の変 化、 および画面の垂直方向に対する画素値の変化を検出し、 検出された水平方向 に対する画素値の変化および垂直方向に対する画素値の変化を比較することによ り、 垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化 が大きいか、 または水平方向に対する画素値の変化に比較して、 垂直方向に対す る画素値の変化が大きいかを検出する。
アクティビティ検出部 4 0 1は、 検出の結果である、 垂直方向に対する画素値 の変化に比較して、 水平方向に対する画素値の変化が大きいことを示すか、 また は水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化が 大きいことを示すァクティビティ情報をデータ選択部 4 0 2および定常方向導出 部 4 0 4に供給する。
垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化が 大きい場合、 例えば、 図 5 0で示されるように、 垂直方向に 1列の画素に円弧形 状 (かまぼこ型) またはつめ形状が形成され、 円弧形状またはつめ形状が垂直に より近い方向に繰り返して形成されている。 すなわち、 垂直方向に対する画素値 の変化に比較して、 水平方向に対する画素値の変化が大きい場合、 基準軸を空間 方向 Xを示す軸とすると、 入力画像における、 基準軸を基準としたデータの定常 性の角度は、 4 5度乃至 9 0度のいずれかの値である。 水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化が 大きい場合、 例えば、 水平方向に 1列の画素に円弧形状またはつめ形状が形成さ れ、 円弧形状またはつめ形状が水平方向により近い方向に繰り返して形成されて いる。 すなわち、 水平方向に対する画素値の変化に比較して、 垂直方向に対する 画素値の変化が大きい場合、 基準軸を空間方向 Xを示す軸とすると、 入力画像に おける、 基準軸を基準としたデータの定常性の角度は、 0度乃至 45度のいずれ かの値である。
例えば、 アクティビティ検出部 40 1は、 図 5 1で示される、 注目画素を中心 とした 3 X 3の 9つの画素からなるブロックを入力画像から抽出する。 ァクティ ビティ検出部 40 1は、 縦に隣接する画素についての画素値の差分の和、 および 横に隣接する画素についての画素値の差分の和を算出する。 横に隣接する画素に ついての画素値の差分の和 hdi ff は、 式 (35) で求められる。
hdiff =∑ (Pi+1,j-Pi.j).
• · · (3 5) 同様に、 縦に隣接する画素についての画素値の差分の和 vdiff は、 式 (3 6) で求められる。
vdiff =∑ (Pu+1-Pu)
• · · (36) 式 (3 5) および式 (36) において、 Pは、 画素値を示し、 iは、 画素の横 方向の位置を示し、 jは、 画素の縦方向の位置を示す。
ァクティビティ検出部 40 1は、 算出された横に隣接する画素についての画素 値の差分の和 hdi f f および縦に隣接する画素についての画素値の差分の和 vdi f f を比較して、 入力画像における、 基準軸を基準としたデータの定常性の角度の範 囲を判定するようにしてもよい。 すなわち、 この場合、 アクティビティ検出部 4 0 1は、 空間方向の位置に対する画素値の変化で示される形状が水平方向に繰り 返して形成されているか、 垂直方向に繰り返して形成されているかを判定する。 例えば、 横に 1列の画素上に形成された円弧についての横方向の画素値の変化 は、 縦方向の画素値の変化に比較して大きく、 横に 1列の画素上に形成された円 弧についての縦方向の画素値の変化は、 横方向の画素値の変化に比較して大きく、 データの定常性の方向、 すなわち、 データ 3である入力画像が有している、 一定 の特徴の所定の次元の方向の変化は、 データの定常性に直交する方向の変化に比 較して小さいと言える。 言い換えれば、 データの定常性の方向の差分に比較して、 データの定常性の方向に直交する方向 (以下、 非定常方向とも称する) の差分は 大きい。
例えば、 図 5 2に示すように、 アクティビティ検出部 4 0 1は、 算出された横 に隣接する画素についての画素値の差分の和 hi i f f および縦に隣接する画素に ついての画素値の差分の和 vd i f f を比較して、 横に隣接する画素についての画 素値の差分の和 hd i f f が大きい場合、 基準軸を基準としたデータの定常性の角 度が、 4 5度乃至 1 3 5度のいずれかの値であると判定し、 縦に隣接する画素に ついての画素値の差分の和 vd i f f が大きい場合、 基準軸を基準としたデータの 定常性の角度が、 0度乃至 4 5度のいずれかの値、 または 1 3 5度乃至 1 8 0度 のいずれかの値であると判定する。
例えば、 アクティビティ検出部 4 0 1は、 判定の結果を示すアクティビティ情 報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
なお、 アクティビティ検出部 4 0 1は、 5 X 5の 2 5の画素からなるブロック、 または 7 X 7の 4 9の画素からなるプロックなど、 任意の大きさのブロックを抽 出して、 ァクティビティを検出することができる。
データ選択部 4 0 2は、 入力画像の画素から注目画素を順に選択し、 ァクティ ビティ検出部 4 0 1から供給されたァクティビティ情報を基に、 注目画素および 基準軸を基準とした角度毎に、 垂直方向に 1列または水平方向に 1列の所定の数 の画素からなる画素の組を、 複数抽出する。
例えば、 アクティビティ情報が垂直方向に対する画素値の変化に比較して、 水 平方向に対する画素値の変化が大きいことを示しているとき、 データの定常性の 角度が、 4 5度乃至 1 3 5度のいずれかの値なので、 データ選択部 4 0 2は、 注 目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。
ァクティビティ情報が水平方向に対する画素値の変化に比較して、 垂直方向に 対する画素値の変化が大きいことを示しているとき、 データの定常性の角度が、 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれかの値なので、 データ選択 部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度 乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素からな る画素の組を、 複数抽出する。
また、 例えば、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値で あることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注 目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。
データの定常性の角度が 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれ かの値であることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素からなる画素 の組を、 複数抽出する。 ■
データ選択部 4 0 2は、 抽出した画素からなる複数の組を誤差推定部 4◦ 3に 供給する。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 角度毎に、 画 素の組の相関を検出する。
例えば、 誤差推定部 4 0 3は、 1つの角度に対応する、 垂直方向に 1列の所定 の数の画素からなる画素の複数の組について、 画素の組における対応する位置の 画素の画素値の相関を検出する。 誤差推定部 4 0 3は、 1つの角度に対応する、 水平方向に 1列の所定の数の画素からなる画素の複数の組について、 組における 対応する位置の画素の画素値の相関を検出する。 誤差推定部 4 0 3は、 検出した相関を示す相関情報を定常方向導出部 4 0 4に 供給する。 誤差推定部 4 0 3は、 相関を示す値として、 データ選択部 4 0 2から 供給された、 注目画素を含む組の画素の画素値と、 他の組における対応する位置 の画素の画素値の差分の絶対値の和を算出し、 差分の絶対値の和を相関情報とし て定常方向導出部 4 0 4に供給する。
定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関情報に基いて、 欠落した実世界 1の光信号の定常性に対応する、 入力画像における、 基準軸を基 準としたデータの定常性の角度を検出し、 角度を示すデータ定常性情報を出力す る。 例えば、 定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関情 報に基いて、 データの定常性の角度として、 最も相関の強い画素の組に対する角 度を検出し、 検出された最も相関の強い画素の組に対する角度を示すデータ定常 性情報を出力する。
以下の説明において、 適宜、 0度乃至 9 0度の範囲 (いわゆる第 1象限) のデ ータの定常性の角度を検出するものとして説明する。
図 5 3は、 図 4 9に示すデータ定常性検出部 1 0 1のより詳細な構成を示すブ 口ック図である。
データ選択部 4 0 2は、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lを含 む。 誤差推定部 4 0 3は、 推定誤差算出部 4 1 2 - 1乃至推定誤差算出部 4 1 2 —Lを含む。 定常方向導出部 4 0 4は、 最小誤差角度選択部 4 1 3を含む。
まず、 アクティビティ情報で示される、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1 一 Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を基 準軸として、 注目画素を通る、 それぞれ異なる所定の角度の直線を設定する。 画 素選択部 4 1 1 _ 1乃至画素選択部 4 1 1 _ Lは、 注目画素が属する縦に 1列の 画素の列に属する画素であって、 注目画素の上側の所定の数の画素、 および注目 画素の下側の所定の数の画素、 並びに注目画素を画素の組として選択する。 例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列に属する画素から、 注目画素を 中心として 9つの画素を画素の組として選択する。
図 5 4において、 マス目状の 1つの四角 (1つのマス目) は、 1つの画素を示 す。 図 5 4において、 中央に示す丸は、 注目画素を示す。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 図 5 4において、 注目画素の 左下側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の 組として選択する。
例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1— Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列 に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を画素の 組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 左側に 2つめの縦に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 図 5 4において、 最 も左側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1— 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つ めの縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の 数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画 素を画素の組として選択する。
例えば、 図 5 4で示されるように、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つめの縦に 1列の 画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素 を画素の組として選択する。
画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 図 5 4において、 注目画素の 右上側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の数の画素 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の 組として選択する。
例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列 に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を画素の 組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 図 5 4において、 最 も右側の丸は、 このように選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 選択された画素の上 側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選 択された画素を画素の組として選択する。
例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の 画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素 を画素の組として選択する。 このように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 互いに異なる角度 (に設 定された直線) についての、 画素の組を選択する。 例えば、 画素選択部 4 1 1一 1は、 4 5度についての、 画素の組を選択し、 画素選択部 4 1 1— 2は、 4 7 . 5度についての、 画素の組を選択し、 画素選択部 4 1 1一 3は、 5 0度について の、 画素の組を選択する。 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 5 2 . 5度から 1 3 5度までの、 2 . 5度毎の角度についての、 画素の組を選択 する。
なお、 画素の組の数は、 例えば、 3つ、 または 7つなど、 任意の数とすること ができる。 また、 1つの組として選択された画素の数は、 例えば、 5つ、 または 1 3など、 任意の数とすることができる。
なお、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1 _ Lは、 縦方向に所定の範 囲の画素から、 画素の組を選択するようにすることができる。 例えば、 画素選択 部 4 1 1— 1乃至画素選択部 4 1 1一 Lは、 縦方向に 1 2 1個の画素 (注目画素 に対して、 上方向に 6 0画素、 下方向に 6 0画素) から、 画素の組を選択する。 この場合、 データ定常性検出部 1 0 1は、 空間方向 Xを示す軸に対して、 8 8 . 0 9度まで、 データの定常性の角度を検出することができる。
画素選択部 4 1 1 _ 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に供 給し、 画素選択部 4 1 1一 2は、 選択した画素の組を推定誤差算出部 4 1 2 - 2 に供給する。 同様に、 画素選択部 4 1 1一 3乃至画素選択部 4 1 1一 Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出部 4 1 2 一 Lのそれぞれに供給する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 例えば、 推定誤差算出部 4 1 2 _ 1乃至推定誤差算出部 4 1 2— Lは、 相関を示す値として、 画素選択部 4 1 1 — 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む組の 画素の画素値と、 他の組における対応する位置の画素の画素値の差分の絶対値の 和を算出する。
より具体的には、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注 目画素を含む組の画素の画素値と、 注目画素の左側の縦に 1列の画素の列に属す る画素からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算出 し、 上から 2番目の画素の画素値の差分を算出するように、 上の画素から順に画 素値の差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を算出す る。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lのいずれかから供給された、 注目画素を含む 組の画素の画素値と、 注目画素の左に 2つめの縦に 1列の画素の列に属する画素 からなる組の画素の画素値とを基に、 上の画素から順に画素値の差分の絶対値を 算出して、 算出された差分の絶対値の和を算出する。
そして、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2 _ Lは、 画素選 択部 4 1 1 _ 1乃至画素選択部 4 1 1 _ Lのいずれかから供給された、 注目画素 を含む組の画素の画素値と、 注目画素の右側の縦に 1列の画素の列に属する画素 からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算出し、 上 から 2番目の画素の画素値の差分を算出するように、 上の画素から順に画素値の 差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を算出する。 推 定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む組の画 素の画素値と、 注目画素の右に 2つめの縦に 1列の画素の列に属する画素からな る組の画素の画素値とを基に、 上の画素から順に画素値の差分の絶対値を算出し て、 算出された差分の絶対値の和を算出する。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 このように算出 された画素値の差分の絶対値の和を全て加算して、 画素値の差分の絶対値の総和 を算出する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 例えば、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 算出された画素値の差分の絶対値 の総和を最小誤差角度選択部 4 1 3に供給する。
なお、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素値の 差分の絶対値の和に限らず、 画素値の差分の自乗の和、 または画素値を基にした 相関係数など他の値を相関値として算出するようにすることができる。
最小誤差角度選択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 欠 落した実世界 1の光信号である画像の定常性に対応する、 入力画像における、 基 準軸を基準としたデータの定常性の角度を検出する。 すなわち、 最小誤差角度選 択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2 _ 1乃至推 定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 最も強い相関を選択 し、 選択された相関が検出された角度を、 基準軸を基準としたデータの定常性の 角度とすることにより、 入力画像における、 基準軸を基準としたデータの定常性 の角度を検出する。
例えば、 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2— 1乃至推定誤 差算出部 4 1 2— Lから供給された、 画素値の差分の絶対値の総和のうち、 最小 の総和を選択する。 最小誤差角度選択部 4 1 3は、 選択された総和が算出された 画素の組について、 注目画素に対して、 左側に 2つめの縦に 1列の画素の列に属 する画素であって、 直線に最も近い位置の画素の位置、 および、 注目画素に対し て、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 直線に最も近い 位置の画素の位置を参照する。 図 5 4で示されるように、 最小誤差角度選択部 4 1 3は、 注目画素の位置に対 する、 参照する画素の位置の縦方向の距離 Sを求める。 最小誤差角度選択部 4 1 3は、 図 5 5で示すように、 式 (3 7 ) から、 欠落した実世界 1の光信号の定 常性に対応する、 画像データである入力画像における、 基準軸である空間方向 X を示す軸を基準としたデータの定常性の角度 Θを検出する。 θ = Ϊ3Π ™Q"
• · · ( 3 7 )
次に、 アクティビティ情報で示される、 データの定常性の角度が 0度乃至 4 5 度および 1 3 5度乃至 1 8 0度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を基 準軸として、 注目画素を通る、 所定の角度の直線を設定し、 注目画素が属する横 に 1列の画素の列に属する画素であって、 注目画素の左側の所定の数の画素、 お よび注目画素の右側の所定の数の画素、 並びに注目画素を画素の組として選択す る。
画素選択部 4 1 1— 1乃至画素選択部 4 1 1 _ Lは、 注目画素が属する横に 1 列の画素の列の、 上側の横に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1— Lは、 注目画素が属する横に 1列の画素の列の、 上側 の横に 1列の画素の列に属する画素であって、 選択された画素の左側の所定の数 の画素、 および選択された画素の右側の所定の数の画素、 並びに選択された画素 を画素の組として選択する。
画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1— Lは、 注目画素が属する横に 1列の画素の列 の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 選択された画素 の左側の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並び に選択された画素を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 下側の横に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 41 1 - 1乃至画素選択部 4 1 1 _Lは、 注目画素が属する横に 1列の画素の列の、 下側 の横に 1列の画素の列に属する画素であって、 選択された画素の左側の所定の数 の画素、 および選択された画素の右側の所定の数の画素、 びに選択された画素 を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1— Lは、 注目画素が属する横に 1 列の画素の列の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 41 1一 1乃至画素選択部 41 1 _Lは、 注目画素が属する横に 1列の画素の列 の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 選択された画素 の左側の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並ぴ に選択された画素を画素の組として選択する。
このように、 画素選択部 4 1 1— 1乃至画素選択部 41 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 41 1一 1乃至画素選択部 41 1一 Lは、 互いに異なる角度につい ての、 画素の組を選択する。 例えば、 画素選択部 4 1 1一 1は、 0度についての、 画素の組を選択し、 画素選択部 4 1 1— 2は、 2. 5度についての、 画素の組を 選択し、 画素選択部 41 1一 3は、 5度についての、 画素の組を選択する。 画素 選択部 41 1一 1乃至画素選択部 41 1一 Lは、 7. 5度から 45度および 1 3 5度から 1 80度までの、 2. 5度毎の角度についての、 画素の組を選択する。 画素選択部 41 1一 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に供 給し、 画素選択部 4 1 1—2は、 選択した画素の組を推定誤差算出部 4 1 2- 2 に供給する。 同様に、 画素選択部 4 1 1— 3乃至画素選択部 4 1 1—Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出部 4 1 2 一 Lのそれぞれに供給する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1— 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 推定誤差算出部 4 1 2— 1乃至 推定誤差算出部 4 1 2— Lは、 検出された相関を示す情報を、 最小誤差角度選択 部 4 1 3に供給する。
最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 欠落した実世界 1の光信号である 画像の定常性に対応する、 入力画像における、 基準軸を基準としたデータの定常 性の角度を検出する。
次に、 図 5 6のフローチャートを参照して、 ステップ S 1 0 1の処理に対応す る、 図 4 9で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性 の検出の処理を説明する。
ステップ S 4 0 1において、 ァクティビティ検出部 4 0 1およびデータ選択部 4 0 2は、 入力画像から、 注目している画素である注目画素を選択する。 ァクテ ィビティ検出部 4 0 1およびデータ選択部 4 0 2は、 同一の注目画素を選択する。 例えば、 ァクティビティ検出部 4 0 1およびデータ選択部 4 0 2は、 入力画像か ら、 ラスタスキャン順に、 注目画素を選択する。
ステップ S 4 0 2において、 アクティビティ検出部 4 0 1は、 注目画素に対す るアクティビティを検出する。 例えば、 アクティビティ検出部 4 0 1は、 注目画 素を中心とした所定の数の画素からなるプロックの縦方向に並ぶ画素の画素値の 差分および横方向に並ぶ画素の画素値の差分を基に、 ァクティビティを検出する。 アクティビティ検出部 4 0 1は、 注目画素に対する空間方向のアクティビティ を検出して、 検出した結果を示すァクティビティ情報をデータ選択部 4 0 2およ び定常方向導出部 4 0 4に供給する。 ステップ S 4 0 3において、 データ選択部 4 0 2は、 注目画素を含む画素の列 から、 注目画素を中心とした所定の数の画素を、 画素の組として選択する。 例え ば、 データ選択部 4 0 2は、 注目画素が属する縦または横に 1列の画素の列に属 する画素であって、 注目画素の上側または左側の所定の数の画素、 および注目画 素の下側または右側の所定の数の画素、 並びに注目画素を画素の組として選択す る。
ステップ S 4 0 4において、 データ選択部 4 0 2は、 ステップ S 4 0 2の処理 で検出されたアクティビティを基にした、 所定の範囲の角度毎に、 所定の数の画 素の列から、 それぞれ所定の数の画素を、 画素の組として選択する。 例えば、 デ ータ選択部 4 0 2は、 所定の範囲の角度を有し、 空間方向 Xを示す軸を基準軸と して、 注目画素を通る直線を設定し、 注目画素に対して、 横方向または縦方向に 1列または 2列離れた画素であって、 直線に最も近い画素を選択し、 選択された 画素の上側または左側の所定の数の画素、 および選択された画素の下側または右 側の所定の数の画素、 並びに線に最も近い選択された画素を画素の組として選択 する。 データ選択部 4 0 2は、 角度毎に、 画素の組を選択する。
データ選択部 4 0 2は、 選択した画素の組を誤差推定部 4 0 3に供給する。 ステップ S 4 0 5において、 誤差推定部 4 0 3は、 注目画素を中心とした画素 の組と、 角度毎に選択した画素の組との相関を計算する。 例えば、 誤差推定部 4 0 3は、 角度毎に、 注目画素を含む組の画素の画素値と、 他の組における対応す る位置の画素の画素値の差分の絶対値の和を算出する。
角度毎に選択された、 画素の組の相互の相関を基に、 データの定常性の角度を 検出するようにしてもよい。
誤差推定部 4 0 3は、 算出された相関を示す情報を、 定常方向導出部 4 0 4に 供給する。
ステップ S 4 0 6において、 定常方向導出部 4 0 4は、 ステップ S 4 0 5の処 理で算出された相関を基に、 相関が最も強い画素の組の位置から、 欠落した実世 界 1の光信号の定常性に対応する、 画像データである入力画像における、 基準軸 を基準としたデータの定常性の角度を検出する。 例えば、 定常方向導出部 4 0 4 は、 画素値の差分の絶対値の総和のうち、 最小の総和を選択し、 選択された総和 が算出された画素の組の位置から、 データの定常性の角度 0を検出する。
定常方向導出部 4 0 4は、 検出したデータの定常性の角度を示すデータ定常性 情報を出力する。
ステップ S 4 0 7において、 データ選択部 4 0 2は、 全ての画素の処理を終了 したか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ス テツプ S 4 0 1に戻り、 まだ注目画素として選択されていない画素から注目画素 を選択して、 上述した処理を繰り返す。
ステップ S 4 0 7において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 データ定常性検出部 1 0 1は、 欠落した実世界 1の光信号の定常 性に対応する、 画像データにおける、 基準軸を基準としたデータの定常性の角度 を検出することができる。
なお、 図 4 9で構成が示されるデータ検出部 1 0 1は、 注目しているフレーム である注目フレームの、 注目している画素である注目画素について、 入力画像の 空間方向のアクティビティを検出し、 検出されたアクティビティに応じて、 注目 画素および空間方向の基準軸を基準とした角度、 並びに動きベク トル毎に、 注目 フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定の数の画素からなる画素の組を、 複 数抽出し、 抽出された画素の組の相関を検出し、 相関に基づいて、 入力画像にお ける、 時間方向および空間方向のデータの定常性の角度を検出するようにしても よい。
例えば、 図 5 7に示すように、 データ選択部 4 0 2は、 検出されたァクテイビ ティに応じて、 注目画素および空間方向の基準軸を基準とした角度、 並びに動き ベク トル毎に、 注目フレームであるフレーム #n、 フレーム #n - 1、 およびフレー ム #n+lのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定の数の画 素からなる画素の組を、 複数抽出する。
フレーム #n- 1は、 フレーム #nに対して時間的に前のフレームであり、 フレー ム #n+lは、 フレーム #ηに対して時間的に後のフレームである。 すなわち、 フレ ーム ifn- 1、 フレーム #η、 およびフレーム #η+1は、 フレーム #η- 1、 フレーム #η、 およびフレーム #η+1の順で表示される。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 1つの角度お ょぴ 1つの動きベクトル毎に、 画素の組の相関を検出する。 定常方向導出部 4 0 4は、 画素の組の相関に基づいて、 欠落した実世界 1の光信号の定常性に対応す る、 入力画像における、 時間方向おょぴ空間方向のデータの定常性の角度を検出 し、 角度を示すデータ定常性情報を出力する。
次に、 図 5 8乃至図 8 8を参照して、 実世界推定部 1 0 2 (図 3 ) の実施の形 態の他の例について説明する。
図 5 8は、 この例の実施の形態の原理を説明する図である。
図 5 8で示されるように、 センサ 2.に入射される画像である、 実世界 1の信号 (光の強度の分布) は、 所定の関数 Fで表される。 なお、 以下、 この例の実施の 形態の説明においては、 画像である、 実世界 1の信号を、 特に光信号と称し、 関 数 Fを、 特に光信号関数 Fと称する。
この例の実施の形態においては、 光信号関数 Fで表される実世界 1の光信号が 所定の定常性を有する場合、 実世界推定部 1 0 2が、 センサ 2からの入力画像
(定常性に対応するデータの定常性を含む画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画像のデータの定常性に対応するデータ定 常性情報) を使用して、 光信号関数 Fを所定の関数 f で近似することによって、 光信号関数 Fを推定する。 なお、 以下、 この例の実施の形態の説明においては、 関数 f を、 特に近似関数 f と称する。
換言すると、 この例の実施の形態においては、 実世界推定部 1 0 2が、 近似関 数 f で表されるモデル 1 6 1 (図 4 ) を用いて、 光信号関数 Fで表される画像 (実世界 1の光信号) を近似 (記述) する。 従って、 以下、 この例の実施の形態 を、 関数近似手法と称する。
ここで、 関数近似手法の具体的な説明に入る前に、 本願出願人が関数近似手法 を発明するに至った背景について説明する。
図 5 9は、 センサ 2が CCDとされる場合の積分効果を説明する図である。 図 5 9で示されるように、 センサ 2の平面上には、 複数の検出素子 2— 1が配 置されている。
図 5 9の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1 方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向であ る Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t 方向とされている。
また、 図 5 9の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な形 状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時間 (露光時間) が 1とされている。
さらに、 図 5 9の例では、 センサ 2の所定の 1つの検出素子 2 _ 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 (1方向の位置も = 0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 およ び t方向に- 0.5乃至 0.5の範囲で光信号関数 F(x, y, t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (3 8) で表される。
广 +0.5 r+ . P+0.B
P = Λ c
J I一 Λ 0. ¾ J I - O.b I一 η O.t .) F(x, y, t)dxdydt
- … (3 8) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (3 8 ) で示される画素値 Pを出力することになる。 図 6 0は、 センサ 2の積分効果の具体的な例を説明する図である。
図 6 0において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を 表している。
実世界 1の光信号のうちの 1部分 (以下、 このような部分を、 領域と称する) 2 3 0 1は、 所定の定常性を有する領域の 1例を表している。
なお、 実際には、 領域 2 3 0 1は連続した光信号の 1部分 (連続した領域) で ある。 これに対して、 図 6 0においては、 領域 2 3 0 1は、 2 0個の小領域 (正 方形の領域) に区分されているように示されている。 これは、 領域 2 3 0 1の大 きさが、 X方向に対して 4個分、 かつ Y方向に対して 5個分のセンサ 2の検出素 子 (画素) が並んだ大きさに相当することを表すためである。 即ち、 領域 2 3 0 1内の 2 0個の小領域 (仮想領域) のそれぞれは 1つの画素に相当する。
また、 領域 2 3 0 1のうちの図中白い部分は細線に対応する光信号を表してい る。 従って、 領域 2 3 0 1は、 細線が続く方向に定常性を有していることになる。 そこで、 以下、 領域 2 3 0 1を、 細線含有実世界領域 2 3 0 1と称する。
この場合、 細線含有実世界領域 2 3 0 1 (実世界 1の光信号の 1部分) がセン サ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画素 値) の領域 2 3 0 2 (以下、 細線含有データ領域 2 3 0 2と称する) が出力され る。
なお、 細線含有データ領域 2 3 0 2の各画素のそれぞれは、 図中、 画像として 示されているが、 実際には、 所定の 1つの値を表すデータである。 即ち、 細線含 有実世界領域 2 3 0 1は、 センサ 2の積分効果により、 所定の 1つの画素値をそ れぞれ有する 2 0個の画素 (X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個の画素) に区分された細線含有データ領域 2 3 0 2に変化してしまう (歪ん でしまう) 。 図 6 1は、 センサ 2の積分効果の具体的な他の例 (図 6 0とは異なる例) を説 明する図である。
図 6 1において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を 表している。
実世界 1の光信号の 1部分 (領域) 2 3 0 3は、 所定の定常性を有する領域の 他の例 (図 6 0の細線含有実世界領域 2 3 0 1とは異なる例) を表している。 なお、 領域 2 3 0 3は、 細線含有実世界領域 2 3 0 1と同じ大きさを有する領 域である。 即ち、 細線含有実世界領域 2 3 0 1と同様に、 領域 2 3 0 3も、 実際 には連続した実世界 1の光信号の 1部分 (連続した領域) であるが、 図 6 1にお いては、 センサ 2の 1画素に相当する 2 0個の小領域 (正方形の領域) に区分さ れているように示されている。
また、 領域 2 3 0 3は、 所定の第 1の光の強度 (値) を有する第 1の部分と、 所定の第 2の光の強度 (値) を有する第 2の部分のエッジを含んでいる。 従って、 領域 2 3 0 3は、 エッジが続く方向に定常性を有していることになる。 そこで、 以下、 領域 2 3 0 3を、 2値エッジ含有実世界領域 2 3 0 3と称する。
この場合、 2値エッジ含有実世界領域 2 3 0 3 (実世界 1の光信号の 1部分) がセンサ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画素値) の領域 2 3 0 4 (以下、 2値エッジ含有データ領域 2 3 0 4と称す る) が出力される。
なお、 2値ェッジ含有データ領域 2 3 0 4の各画素値のそれぞれは、 細線含有 データ領域 2 3 0 2と同様に、 図中、 画像として表現されているが、 実際には、 所定の値を表すデータである。 即ち、 2値エッジ含有実世界領域 2 3 0 3は、 セ ンサ 2の積分効果により、 所定の 1つの画素値をそれぞれ有する 2 0個の画素 ( X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個の画素) に区分された 2値エッジ含有データ領域 2 3 0 4に変化してしまう (歪んでしまう) 。
従来の画像処理装置は、 このような細線含有データ領域 2 3 0 2や 2値エッジ 含有データ領域 2 3 0 4等、 センサ 2から出力された画像データを原点 (基準) とするとともに、 画像データを処理の対象として、 それ以降の画像処理を行って いた。 即ち、 センサ 2から出力された画像データは、 積分効果により実世界 1の 光信号とは異なるもの (歪んだもの) となっているにも関わらず、 従来の画像処 理装置は、 その実世界 1の光信号とは異なるデータを正として画像処理を行って いた。
その結果、 従来の画像処理装置では、 センサ 2から出力された段階で、 実世界 のディテールがつぶれてしまった波形 (画像データ) を基準として、 その波形か ら、 元のディテールを復元することは非常に困難であるという課題があった。 そこで、 関数近似手法においては、 この課題を解決するために、 上述したよう に (図 5 8で示されるように) 、 実世界推定部 1 0 2が、 細線含有データ領域 2 3 0 2や 2値エッジ含有データ領域 2 3 0 4のようなセンサ 2から出力された画 像データ (入力画像) から、 光信号関数 F (実世界 1の光信号) を近似関数 f で近似することによって、 光信号関数 Fを推定する。
これにより、 実世界推定部 1 0 2より後段において (いまの場合、 図 3の画像 生成部 1 0 3 ) 、 積分効果が考慮された画像データ、 即ち、 近似関数 f により 表現可能な画像データを原点として、 その処理を実行することが可能になる。 以下、 図面を参照して、 このような関数近似手法のうちの 3つの具体的な手法 (第 1乃至第 3の関数近似手法) のそれぞれについて個別に説明していく。 はじめに、 図 6 2乃至図 7 6を参照して、 第 1の関数近似手法について説明す る。
図 6 2は、 上述した図 6 0で示される細線含有実世界領域 2 3 0 1を再度表し た図である。
図 6 2において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を 表している。
第 1の関数近似手法は、 例えば、 図 6 2で示されるような細線含有実世界領域 2 3 0 1に対応する光信号関数 F (x, y, t)を X方向 (図中矢印 2 3 1 1の方向) に射影した 1次元の波形 (以下、 このような波形を、 X断面波形 F (x)と称す る) を、 例えば、 n次 (nは、 任意の整数) の多項式などの近似関数 f(x)で近似 する手法である。 従って、 以下、 第 1の関数近似手法を、 特に、 1次元近似手法 と称する。
なお、 1次元近似手法において、 近似の対象となる X断面波形 F(x)は、 勿論、 図 62の細線含有実世界領域 230 1に対応するものに限定されない。 即ち、 後 述するように、 1次元近似手法においては、 定常性を有する実世界 1の光信号に 対応する X断面波形 F(x)であれば、 いずれのものでも近似することが可能であ る。
また、 光信号関数 F(x,y,t)の射影の方向は X方向に限定されず、 Y方向また は t方向でもよい。 即ち、 1次元近似手法においては、 光信号関数 F(x,y,t)を Y方向に射影した関数 F(y)を、 所定の近似関数 f (y)で近似することも可能であ るし、 光信号関数 F(x,y,t)を t方向に射影した関数 F(t)を、 所定の近似関数 f(t)で近似することも可能である。
より詳細には、 1次元近似手法は、 例えば、 X断面波形 F(x)を、 次の式 (3 9) で示されるような、 n次の多項式などの近似関数 f(x)で近似する手法であ る。
π .
f ) = W0+W1X+W2X+' - ' +WnXn = ∑ jX1
i=0
• - · (3 9) 即ち、 1次元近似手法においては、 実世界推定部 102が、 式 (39) の Xi の係数 (特徴量) Wi を演算することで、 X断面波形 F(x)を推定する。
この特徴量 Wi の演算方法は、 特に限定されず、 例えば、 次の第 1乃至第 3の 方法が使用可能である。
即ち、 第 1の方法は、 従来から利用されている方法である。
これに対して、 第 2の方法は、 本願出願人が新たに発明した方法であって、 第 1の方法に対して、 さらに、 空間方向の定常性を考慮した方法である。 しかしながら、 後述するように、 第 1の方法と第 2の方法においては、 センサ 2の積分効果が考慮されていない。 従って、 第 1の方法または第2の方法により 演算された特徴量 ^ を上述した式 (3 9 ) に代入して得られる近似関数 f (x)は、 入力画像の近似関数ではあるが、 厳密には、 X断面波形 F (x)の近似関数とは言 えない。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに考 慮して特徴量 Wi を演算する第 3の方法を発明した。 この第 3の方法により演算 された特徴量 Wi を、 上述した式 (3 9 ) に代入して得られる近似関数 f (x)は、 センサ 2の積分効果を考慮している点で、 X断面波形 F (X)の近似関数であると 言える。
このように、 厳密には、 第 1の方法と第 2の方法は、 1次元近似手法とは言え ず、 第 3の方法のみが 1次元近似手法であると言える。
換言すると、 図 6 3で示されるように、 第 2の方法は、 1次元近似手法とは異 なる。 即ち、 図 6 3は、 第 2の方法に対応する実施の形態の原理を説明する図で ある。
図 6 3で示されるように、 第 2の方法に対応する実施の形態においては、 光信 号関数 Fで表される実世界 1の光信号が所定の定常性を有する場合、 実世界推定 部 1 0 2が、 センサ 2からの入力画像 (定常性に対応するデータの定常性を含む 画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画像 のデータの定常性に対応するデータ定常性情報) を使用して、 X断面波形 F (x) を近似するのではなく、 センサ 2からの入力画像を所定の近似関数 f2 (X)で近似 する。 '
このように、 第 2の方法は、 センサ 2の積分効果を考慮せず、 入力画像の近似 に留まっている点で、 第 3の方法と同一レベルの手法であるとは言い難い。 しか しながら、 第 2の方法は、 空間方向の定常性を考慮している点で、 従来の第 1の 方法よりも優れた手法である。 以下、 第 1の方法、 第 2の方法、 および第 3の方法のそれぞれの詳細について、 その順番で個別に説明していく。
なお、 以下、 第 1の方法、 第 2の方法、 および第 3の方法により生成される近 似関数 f (x)のそれぞれを、 他の方法のものと区別する場合、 特に、 近似関数 f , (χ) , 近似関数 f2 (x)、 および近似関数 f 3 (x)とそれぞれ称する。
はじめに、 第 1の方法の詳細について説明する。
第 1の方法においては、 上述した式 (3 9 ) で示される近似関数: ^ (X)が、 図 6 4の細線含有実世界領域 2 3 0 1内で成り立つとして、 次の予測方程式 (4 0 ) を定義する。
P (x, y) = (x) +e
• · - ( 4 0 ) 式 (4 0 ) において、 xは、 注目画素からの X方向に対する相対的な画素位置 を表している。 yは、 注目画素からの Y方向に対する相対的な画素位置を表して いる。 eは、 誤差を表している。 具体的には、 例えば、 いま、 図 6 4で示される ように、 注目画素が、 細線含有データ領域 2 3 0 2 (細線含有実世界領域 2 3 0 1 (図 6 2 ) がセンサ 2により検出されて、 出力されたデータ) のうちの、 図中、 左から X方向に 2画素目であって、 下から Y方向に 3画素目の画素であるとする。 また、 注目画素の中心を原点(0, 0)とし、 センサ 2の X方向と Y方向 (図 5 9 ) のそれぞれに平行な X軸と y軸を軸とする座標系 (以下、 注目画素座標系と称 する) が設定されているとする。 この場合、 注目画素座標系の座標値(x,y)が、 相対画素位置を表すことになる。
また、 式 (4 0 ) において、 P (x,y)は、 相対画素位置(x,y)における画素値を 表している。 具体的には、 いまの場合、 細線含有データ領域 2 3 0 2内の
P (x, y)は、 図 6 5で示されるようになる。
図 6 5は、 この画素値 P (x, y)をグラフ化したものを表している。
図 6 5において、 各グラフのそれぞれの縦軸は、 画素値を表しており、 横軸は、 注目画素からの X方向の相対位置 Xを表している。 また、 図中、 上から 1番目 のグラフの点線は入力画素値 P(x,- 2)を、 上から 2番目のグラフの 3点鎖線は入 力画素値 P(x,- 1)を、 上から 3番目のグラフの実線は入力画素値 P(x,0)を、 上 から 4番目のグラフの 1点鎖線は入力画素値 P(x, l)を、 上から 5番目 (下から 1番目) のグラフの 2点鎖線は入力画素値 P(x, 2)を、 それぞれ表している。 上述した式 (40) に対して、 図 6 5で示される 20個の入力画素値 P(x, - 2),P(x,— l),P(x, 0),P(x, l),P(x, 2) (ただし、 xは、 一 1乃至 2のうちのいず れかの整数値) のそれぞれを代入すると、 次の式 (4 1) で示される 20個の方 程式が生成される。 なお、 ek (kは、 1乃至 20のうちのいずれかの整数値) の それぞれは、 誤差を表している。
P(—1, - ■2) = (ー1)+
ρ( - ■2) = (0) +e2
Ρ(1,- ■2) = (D+e3
Ρ(2, - ■2) = (2) +e4
Ρ (- 1, - ■1) = (-D+e5
Ρ(0, - ■1) = (0) +e6
Ρ(1, - -1) = (1)+e7
Ρ(2,- -1) = (2)+e8
Ρ(-1, 0) = (一 1)+e9
Ρ(0, 0) = (0)+e10
Ρ(1, 0) = (1)+e
Ρ(2, 0) = (2)+e12
Ρ(-1, 1) = (一 1)+e13
Ρ(0, 1) = (0)+e14
Ρ(1, 1) = (1)+e15
Ρ(2, 1) = (2)+e16
Ρ(-1, 2) = (-1)+e17
Ρ(0, 2) =f (0)+e18
Ρ(1, 2) = (D+e19
Ρ(2, 2) = (2)+e20
■ · · (41) 式 (41) は、 20個の方程式より構成されているので、 近似関数 ^ (x)の特 徴量 ^ の個数が 20個より少ない場合、 即ち、 近似関数 (X)が 1 9次より少 ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 Wi の算出が 可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 いま、 近似関数 (X)の次数が 5次とされた場合、 式 (41) を利用 して最小自乗法により演算された近似関数 (X) (演算された特徴量 Wi により 生成される近似関数 ^ (X) ) は、 図 66で示される曲線のようになる。
なお、 図 66において、 縦軸は画素値を表しており、 横軸は注目画素からの相 対位置 Xを表している。
即ち、 図 64の細線含有データ領域 2302を構成する 20個の画素値
P(x,y) のそれぞれ (図 6 5で示される入力画素値 P(x, -2), P(x,- 1),? ,0),? ,1),? ,2)のそれぞれ) を、 例えば、 X軸に沿ってそのまま足 しこむ (Y方向の相対位置 yを一定とみなして、 図 6 5で示される 5つのダラ フを重ねる) と、 図 66で示されるような、 X軸に平行な複数の線 (点線、 3点 鎖線、 実線、 1点鎖線、,および 2点鎖線) が分布する。
ただし、 図 66においては、 点線は入力画素値 P(x,- 2)を、 3点鎖線は入力画 素値 P(x,- 1)を、 実線は入力画素値 P(x,0)を、 1点鎖線は入力画素値 Ρ(χ, 1)を、 2点鎖線は入力画素値 Ρ(χ, 2)を、 それぞれ表している。 また、 同一の画素値の 場合、 実際には 2本以上の線が重なることになるが、 図 66においては、 各線の 区別がつくように、 各線のそれぞれが重ならないように描画されている。
そして、 このように分布した 20個の入力画素値 Ρ (X, -2), Ρ (X, - 1),Ρ(χ,0),Ρ(χ, 1),Ρ(χ, 2)のそれぞれと、 値 (X)の誤差が最小となるような回 帰曲線 (最小自乗法により演算された特徴量 ^ を上述した式 (38) に代入し て得られる近似関数 (X) ) 力 図 66で示される曲線 (近似関数 (X) ) とな る。
このように、 近似関数 (X)は、 Y方向の画素値 (注目画素からの X方向の相 対位置 Xが同一の画素値) P(x, - 2),P(x,_l),P(x, 0),P(x, l),P(x, 2)の平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。 即ち、 光信号が有する空間方 向の定常性を考慮することなく、 近似関数 ^ (X)が生成されている。 例えば、 いまの場合、 近似の対象は、 細線含有実世界領域 2 3 0 1 (図 6 2 ) とされている。 この細線含有実世界領域 2 3 0 1は、 図 6 7で示されるように、 傾き GFで表される空間方向の定常性を有している。 なお、 図 6 7において、 X 方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を表している。
従って、 データ定常性検出部 1 0 1 (図 5 8 ) は、 空間方向の定常性の傾き GFに対応するデータ定常性情報として、 図 6 7で示されるような角度 Θ (傾き GFに対応する傾き Gf で表されるデータの定常性の方向と、 X方向のなす角度 Θ ) を出力することができる。
しかしながら、 第 1の方法においては、 データ定常性検出部 1 0 1より出力さ れるデータ定常性情報は一切用いられていない。
換言すると、 図 6 7で示されるように、 細線含有実世界領域 2 3 0 1の空間方 向の定常性の方向は略角度 0方向である。 しかしながら、 第 1の方法は、 細線含 有実世界領域 2 3 0 1の空間方向の定常性の方向は Y方向であると仮定して (即 ち、 角度 0が 9 0度であると仮定して) 、 近似関数 (X)の特徴量 を演算す る方法である。
このため、 近似関数 ^ (x)は、 その波形が鈍り、 元の画素値よりディテールが 減少する関数となってしまう。 換言すると、 図示はしないが、 第 1の方法により 生成される近似関数: ^ (X)は、 実際の X断面波形 F (x)とは大きく異なる波形と なってしまう。
そこで、 本願出願人は、 第 1の方法に対して、 空間方向の定常性をさらに考慮 して (角度 0を利用して) 特徴量 ^ を演算する第 2の方法を発明した。
即ち、 第 2の方法は、 細線含有実世界領域 2 3 0 1の定常性の方向は略角度 Θ 方向であるとして、 近似関数 f2 (x) の特徴量 を演算する方法である。
具体的には、 例えば、 空間方向の定常性に対応するデータの定常性を表す傾き Gf は、 次の式 (4 2 ) で表される。
Gf = tan θ = • · · (42) なお、 式 (42) において、 dxは、 図 6 7で示されるような X方向の微小移 動量を表しており、 dyは、 図 6 7で示されるような dxに対する Y方向の微小移 動量を表している。
この場合、 シフト量 Cx (y)を、 次の式 (43) のように定義すると、 第 2の方 法においては、 第 1の方法で利用した式 (40) に相当する式は、 次の式 (4 4) のようになる。
• ■ ■ (43) P(x, y) = f2(x-Cx(y) ) +e
• · · (44) 即ち、 第 1の方法で利用した式 (40) は、 画素の中心の位置(x、y)のうちの X方向の位置 Xが、 同一の位置に位置する画素の画素値 P(x, y)はいずれも同じ 値であることを表している。 換言すると、 式 (40) は、 同じ画素値の画素が Y 方向に続いている (Y方向に定常性がある) ことを表している。
これに対して、 第 2の方法で利用する式 (44) は、 画素の中心の位置が (X, y)である画素の画素値 P(x,y)は、 注目画素 (その中心の位置が原点(0,0)で ある画素) から X方向に Xだけ離れた場所に位置する画素の画素値 (^f2 (x)) とは一致せず、 その画素からさらに X方向にシフト量 Cx (y)だけ離れた場所に位 置する画素 (注目画素から X方向に x + Cx (y)だけ離れた場所に位置する画素) の画素値 ( f2 (x + Cx (y)) ) と同じ値であることを表している。 換言すると、 式 (44) は、 同じ画素値の画素が、 シフト量 Cx (y)に対応する角度 0方向に続 いている (略角度 6方向に定常性がある) ことを表している。
このように、 シフト量 Cx (y)が、 空間方向の定常性 (いまの場合、 図 6 7の傾 き GF で表される定常性 (厳密には、 傾き Gf で表されるデータの定常性) ) を考 慮した補正量であり、 シフ ト量 Cx (y)により式 (40) を補正したものが式 (4 4) となる。
この場合、 図 64で示される細線含有データ領域 230 2の 20個の画素値 P(x, y) (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃至 2のうちのいずれかの整数値).のそれぞれを、 上述した式 (44) に代入すると 次の式 (45) で示される 20個の方程式が生成される。
P(— 1,- ■2) = f2( .-1-Cx(-2))+e1
P(0, - ■2) = f2( :0-Cx(-2))+e2
P(1, - -2) = f2( :i-Cx(-2))+e3
P(2,- -2) = f2( :2-Gx(— 2))+e4
P (- 1, - -1) = f2( :-1-Cx(-1))+e5
P(0, - -1) = f2( :0-Cx(-1))+e6
P(1, - -1) = f2( :i-Cx(-1))+e7
P(2,- -1) =f2 :2-Gx (- 1))+e8
P(-1, 0) =f2 :—1)+e9
P(0, 0) =f2 :0)+e10
P(1, 0) =f2
P(2, 0) =f2 (2)+e12
P(-1, 1) =f2 (-1-Cx(1))+e13
P(0, 1) iO-Cx(1)) H-e14
P(1, 1) =f2 (1-Cx(1))+e15
P(2, 1) =f2 (2-Cx(1))+e16
P(-1, 2) =f2 (-1-Cx(2))+el7
P(0, 2) =f2 (0-Cx(2))+e18
P(1, 2) =f2 (1-Cx(2))+e19
P(2, 2) =f2 (2— Gx(2))+e20
• · · (45) 式 (45) は、 上述した式 (4 1) と同様に、 20個の方程式より構成されて いる。 従って、 第 1の方法と同様に第 2の方法においても、 近似関数 f2 (x)の特 徴量 Wi の個数が 20個より少ない場合、 即ち、 近似関数 f2 (X)が 1 9次より少 ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 ^ の算出が 可能である。 なお、 最小自乗法の具体的な解法は後述する。 例えば、 第 1の方法と同様に近似関数 f2 (x)の次数が 5次とされた場合、 第 2 の方法においては、 次のようにして特徴量 Wi が演算される。
即ち、 図 68は、 式 (45) の左辺で示される画素値 P(x,y)をグラフ化した ものを表している。 図 68で示される 5つのグラフのそれぞれは、 基本的に図 6 5で示されるものと同一である。
図 68で示されるように、 最大の画素値 (細線に対応する画素値) は、 傾き Gf で表されるデータの定常性の方向に続いている。
そこで、 第 2の方法においては、 図 68で示される入力画素値 P(x, - 2),P(x,- l),P(x, 0),P(x, l),P(x, 2)のそれぞれを、 例えば、 x軸に沿って足し こむ場合、 第 1の方法のようにそのまま足しこむ (yを一定とみなして、 図 68 で示される状態のまま 5つのグラフを重ねる) のではなく、 図 69で示される状 態に変化させてから足しこむ。
即ち、 図 69は、 図 6 8で示される入力画素値 P(x,- 2),P(x, - 1),? ,0),?( ,1),? ,2)のそれぞれを、 上述した式 (43) で示されるシフ ト量 Cx (y)だけシフ トさせた状態を表している。 換言すると、 図 6 9は、 図 68 で示される 5つのグラフを、 データの定常性の実際の方向を表す傾き GF を、 あ たかも傾き GF' とするように (図中、 点線の直線を実線の直線とするように) 移動させた状態を表している。
図 6 9の状態で、 入力画素値 P (X, -2), P (X, - 1) , P (X, 0), P (x, 1), P (x, 2)のそ れぞれを、 例えば、 X軸に沿って足しこむと (図 69で示される状態で 5つのグ ラフを重ねると) 、 図 70で示されるような、 X軸に平行な複数の線 (点線、 3 点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。
なお、 図 70において、 縦軸は画素値を表しており、 横軸は注目画素からの相 対位置 Xを表している。 また、 点線は入力画素値 P(x,- 2)を、 3点鎖線は入力画 素値 P(x,-1)を、 実線は入力画素値 P(x,0)を、 1点鎖線は入力画素値 Ρ(χ, 1)を、 2点鎖線は入力画素値 Ρ(χ, 2)を、 それぞれ表している。 さらに、 同一の画素値 の場合、 実際には 2本以上の線が重なることになるが、 図 7 0においては、 各線 の区別がつくように、 各線のそれぞれが重ならないように描画されている。
そして、 このように分布した 2 0個の入力画素値 P (x,y)のそれぞれ (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃至 2のうちのいずれ かの整数値) と、 値 f2 (x+Cx (y) )の誤差が最小となるような回帰曲線 (最小自 乗法により演算された特徴量 ^ を上述した式 (3 8 ) に代入して得られる近似 関数 f2 (x) ) は、 図 7 0の実線で示される曲線 f2 (X)となる。
このように、 第 2の方法により生成された近似関数 f2 (X)は、 データ定常性検 出部 1 0 1 (図 5 8 ) より出力される角度 Θ方向 (即ち、 ほぼ空間方向の定常性 の方向) の入力画素値 P (x,y)の平均値を X方向に結んだ曲線を表すことになる。 これに対して、 上述したように、 第 1の方法により生成された近似関数 (X) は、 Y方向 (即ち、 空間方向の定常性とは異なる方向) の入力画素値 P (x,y)の 平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。
従って、 図 7 0で示されるように、 第 2の方法により生成された近似闋数 f2 (x)は、 第 1の方法により生成された近似関数 (X)よりも、 その波形の鈍り 度合いが減少し、 かつ、 元の画素値に対するディテールの減り具合も減少する関 数となる。 換言すると、 図示はしないが、 第 2の方法により生成される近似関数 f2 (X)は、 第 1の方法により生成される近似関数 (X)よりも実際の X断面波形 F (x)により近い波形となる。
しかしながら、 上述したように、 近似関数 f2 (x)は、 空間方向の定常性が考慮 されたものではあるが、 入力画像 (入力画素値) を原点 (基準) として生成され たものに他ならない。 即ち、 上述した図 6 3で示されるように、 近似関数 f2 (x) は、 X断面波形 F (x)とは異なる入力画像を近似したに過ぎず、 X断面波形 F (x) を近似したとは言い難い。 換言すると、 第 2の方法は、 上述した式 (4 4 ) が成 立するとして特徴量 を演算する方法であり、 上述した式 (3 8 ) の関係は考 慮していない (センサ 2の積分効果を考慮していない) 。 そこで、'本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに考 慮することで近似関数 f3 (x)の特徴量 Wi を演算する第 3の方法を発明した。 即ち、 第 3の方法は、 空間混合または時間混合の概念を導入した方法である。 なお、 空間混合と時間混合の両方を考慮すると、 説明が複雑になるため、 ここで は、 空間混合と時間混合のうちの、 例えば空間混合を考慮し、 時間混合を無視す るものとする。
そこで、 第 3の方法の説明の前に、 図 7 1を参照して、 空間混合について説明 する。
図 7 1において、 実世界 1の光信号の 1部分 2 3 2 1 (以下、 領域 2 3 2 1と 称する) は、 センサ 2の 1つの検出素子 (画素) と同じ面積を有する領域を表し ている。 ,
領域 2 3 2 1がセンサ 2に検出されると、 センサ 2からは、 領域 2 3 2 1が時 空間方向 (X方向, Y方向,および t方向) に積分された値 (1つの画素値) 2 3 2 2が出力される。 なお、 画素値 2 3 2 2は、 図中、 画像として表現されている 1 実際には、 所定の値を表すデータである。
実世界 1の領域 2 3 2 1は、 前景 (例えば、 上述した細線) に対応する光信号 (図中白い領域) と、 背景に対応する光信号 (図中黒い領域) に明確に区分され る。
これに対して、 画素値 2 3 2 2は、 前景に対応する実世界 1の光信号と、 背景 に対応する実世界 1の光信号が積分された値である。 換言すると、 画素値 2 3 2 2は、 前景に対応する光のレベルと背景に対応する光のレベルが空間的に混合さ れたレベルに対応する値である。
このように、 実世界 1の光信号のうちの 1画素 (センサ 2の検出素子) に対応 する部分が、 同一レベルの光信号が空間的に一様に分布する部分ではなく、 前景 と背景のように異なるレベルの光信号のそれぞれが分布する部分である場合、 そ の領域は、 センサ 2により検出されると、 センサ 2の積分効果により、 異なる光 のレベルがあたかも空間的に混合されて (空間方向に積分されて) 1つの画素値 となってしまう。 このように、 センサ 2の画素において、 前景に対する画像 (実 世界 1の光信号) と、 背景に対する画像 (実世界 1の光信号) が空間的に積分さ れて、 いわば混合されてしまうことが、 空間混合であり、 そのような画素からな る領域を、 ここでは、 空間混合領域と称する。
従って、 第 3の方法においては、 実世界推定部 10 2 (図 5 8) 1 実世界 1 の元の領域 23 21 (実世界 1の光信号のうちの、 センサ 2の 1画素に対応する 部分 232 1) を表す X断面波形 F(x)を、 例えば、 .図 72で示されるような、 1次の多項式などの近似関数 f3 (X)で近似することによって、 X断面波形 F(x) を推定する。
即ち、 図 72は、 空間混合領域である画素値 2322 (図 7 1) に対応する近 似関数 f3 (x)、 即ち、 実世界 1の領域 23 3 1内の実線 (図 7 1) に対応する X 断面波形 F (x) を近似する近似関数 f3 (X)の例を表している。 図 72において、 図中水平方向の軸は、 画素値 23 22に対応する画素の左下端 xsから右下端 xe までの辺 (図 7 1) に平行な軸を表しており、 X軸とされている。 図中垂直方向 の軸は、 画素値を表す軸とされている。
図 72において、 近似関数 f3 (x)を xsから の範囲 (画素幅) で積分したも のが、 センサ 2から出力される画素値 P (x,y)とほぼ一致する (誤差 eだけ存在 する) として、 次の式 (46) を定義する。
P= L f3(x)dx+e v (w0+ iX+w2x +·■· +wnx ) dx+e
Figure imgf000109_0001
• · · (46) いまの場合、 図 6 7で示される細線含有データ領域 2302の 20個の画素値 P (x,y) (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃 至 2のうちのいずれかの整数値) から、 近似関数 f3 (X)の特徴量 ^が算出され るので、 式 (46) の画素値 Pは、 画素値 P(x,y)となる。
また、 第 2の方法と同様に、 空間方向の定常性も考慮する必要があるので、 式 (46) の積分範囲の開始位置 xs と終了位置 xeのそれぞれは、 シフト量 Cx (y) にも依存することになる。 即ち、 式 (46) の積分範囲の開始位置 xs と終了位 置 xe のそれぞれは、 次の式 (47) のように表される。
X. = x-Cx(y) -0.5
xe = x-Cx (y) +0.5
• · · (47) この場合、 図 67で示される細線含有データ領域 2 302の各画素値それぞれ、 即ち、 図 68で示される入力画素値 P(x,- 2),P(x,-l),P(x,0),P(x, l),P(x, 2) のそれぞれ (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値) を、 上述し た式 (46) (積分範囲は、 上述した式 (47) ) に代入すると次の式 (48) で示される 20個の方程式が生成される。
r-1-Gx(-2)+0.5
P(-1,一 2 = J - 5 ( + ,
r0- (-2)+0.5
P(0, -2 = Jo- 0.5 f3(x)dx+e2
P(1,一 2 3 )dx+e3, P(2,一 2 f3(x)dx+e4,
Figure imgf000111_0001
-1-CX (- 1)+0.5
P (- 1, - 1) = ■1-— (- 1 υ) -— Ο。.:ί5 f3(x)dx+e5- r 00-G,((--11))++00.·55
P(0, -1
= Jo-¾(-1)-0.5 f3(x)dX+e6'
r1一 (一 1)+0.5
P(1, -1 = JI-¾(-1)-O.5 f3(x) e7
Figure imgf000111_0002
f一 1+0.5
P(-1, 0) =· J一卜。.5 f3(x)d +e9,
P(0, 0) -
Figure imgf000111_0003
f3(x)dx+e10
+0.5
P(1, 0) =. Jl_0.5 f3(x)dx+e11'
2+0.5
P(2, 0) =■ J2_o.5 f3(x)dx+e12,
Figure imgf000111_0004
r0-Cx(1)+0.5
P(0, 1) =, fl)一 0.5 f3(x)dX+e1 '
P(1, 1) =,
r2-C>((1)+0.5
P(2, 1) =. J2-cxa)-o.5 f3(x)dx+e16,
r- 1 - (^(ΰ+ο.δ
P (- 1, 2) =· 卜 ¾(2) - 0.5 f3(x)dX+e17-
(.0-0,(2) +0.5
P(0, 2) =, Jo-¾(2)-0.5 f3(X)dx+e18
1- (2)+0.5
P(1, 2) =■ Jl-¾(2)-0.5 f3(x)dx+e19
P(2, 2) =' l2-c(2)-o.5 f3(x)dx+ 0
• · ■ (4 8) 式 (48) は、 上述した式 (4 5) と同様に、 20個の方程式より構成されて いる。 従って、 第 2の方法と同様に第 3の方法においても、 近似関数 f3 (X)の特 徴量 の個数が 2 0個より少ない場合、 即ち、 近似関数 f3 (x)が 1 9次より少 ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 の算出が 可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 近似関数 f 3 (X)の次数が 5次とされた場合、 式 (4 8 ) を利用して最 小自乗法により演算された近似関数 f3 (x) (演算された特徴量 により生成さ れる近似関数 f 3 (X) ) は、 図 7 3の実線で示される曲線のようになる。
なお、 図 7 3において、 縦軸は画素値を表しており、 横軸は注目画素からの相 対位置 Xを表している。
図 7 3で示されるように、 第 3の方法により生成された近似関数 f 3 (X) (図中、 実線で示される曲線) は、 第 2の方法により生成された近似関数 f2 (X) (図中、 点線で示される曲線) と比較すると、 x = 0における画素値が大きくなり、 また、 曲線の傾斜の度合いも急な波形となる。 これは、 入力画素よりディティルが増加 して、 入力画素の解像度とは無関係となっているためである。 即ち、 近似関数 f3 (X) は、 X断面波形 F (x)を近似していると言える。 従って、 図示はしないが、 近似関数 f3 (X)は、 近似関数 f 2 (X)よりも X断面波形 F (x)に近い波形となる。 図 7 4は、 このような 1次近似手法を利用する実世界推定部 1 0 2の構成例を 表している。
図 7 4において、 実世界推定部 1 0 2は、 例えば、 特徴量 を上述した第 3 の方法 (最小自乗法) により演算し、 演算した特徴量^ を利用して上述した式 ( 3 9 ) の近似関数 f (x)を生成することで、 X断面波形 F (x)を推定する。
図 7 4で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 3 3 1、 入 力画像記憶部 2 3 3 2、 入力画素値取得部 2 3 3 3、 積分成分演算部 2 3 3 4、 正規方程式生成部 2 3 3 5、 および近似関数生成部 2 3 3 6が設けられている。 条件設定部 2 3 3 1は、 注目画素に対応する X断面波形 F (x)を推定するため に使用する画素の範囲 (以下、 タップ範囲と称する) や、 近似関数 f (x)の次数 nを設定する。 入力画像記憶部 233 2は、 センサ 2からの入力画像 (画素値) を一次的に格 納する。
入力画素値取得部 23 3 3は、 入力画像記憶部 23 32に記憶された入力画像 のうちの、 条件設定部 223 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 233 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。 なお、 入力画素値テーブルの具体 例については後述する。
ところで、 ここでは、 実世界推定部 10 2は、 上述した式 (46) と式 (4 7) を利用して最小自乗法により近似関数 f(x)の特徴量 を演算するが、 上述 した式 (46) は、 次の式 (49) のように表現することができる。
P(x,y)
n (x-Cx (y) +0.5)i+1一 (x-Cx(y) -0.5)i+1
= ∑ Wj —— r—.—— +e
i =0 11 1
Figure imgf000113_0001
• · ■ (49) 式 (49) において、 Si (xs,xe) は、 i 次項の積分成分を表している。 即ち、 積分成分 Si (xs,xe)は、 次の式 (50) で示される。
Figure imgf000113_0002
• · · (50) 積分成分演算部 2334は、 この積分成分 Si (xs、xe)を演算する。
具体的には、 式 (50) で示される積分成分 Si (xs,xe) (ただし、 値 xs と値 xeは、 上述した式 (46) で示される値) は、 相対画素位置(x,y)、 シフト量 Cx (y)、 および、 i次項の iが既知であれば演算可能である。 また、 これらのう ちの、 相対画素位置(x,y)は注目画素とタップ範囲により、 シフト量 Cx (y)は角 度 Θにより (上述した式 (4 1 ) と式 (4 3 ) により) 、 iの範囲は次数 ηによ り、 それぞれ決定される。
従って、 積分成分演算部 2 3 3 4は、 条件設定部 2 3 3 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデータ定 常性情報のうちの角度 Θに基づいて積分成分 Si (xs,xe )を演算し、 その演算結果 を積分成分テーブルとして正規方程式生成部 2 3 3 5に供給する。
正規方程式生成部 2 3 3 5は、 入力画素値取得部.2 3 3 3より供給された入力 画素値テーブルと、 積分成分演算部 2 3 3 4より供給された積分成分テーブルを 利用して、 上述した式 (4 6 ) 、 即ち、 式 (4 9 ) の右辺の特徴量 ^ を最小自 乗法で求める場合の正規方程式を生成し、 それを正規方程式テーブルとして近似 関数生成部 2 3 3 6に供給する。 なお、 正規方程式の具体例については後述する。 近似関数生成部 2 3 3 6は、 正規方程式生成部 2 3 3 5より供給された正規方 程式テーブルに含まれる正規方程式を行列解法で解くことにより、 上述した式 ( 4 9 ) の特徴量 ^ (即ち、 1次元多項式である近似関数 f (x)の係数 のそ れぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 7 5のフローチャートを参照して、 1次元近似手法を利用する実世界 推定部 1 0 2 (図 7 4 ) の実世界の推定処理 (図 2 9のステップ S 1 0 2の処 理) について説明する。
例えば、 いま、 センサ 2から出力された 1フレームの入力画像であって、 上述 した図 6 0の細線含有データ領域 2 3 0 2を含む入力画像が、 既に入力画像記憶 部 2 3 3 2に記憶されているとする。 また、 データ定常性検出部 1 0 1が、 ステ ップ S 1 0 1 (図 2 9 ) の定常性の検出の処理において、 細線含有データ領域 2 3 0 2に対してその処理を施して、 データ定常性情報として角度 0を既に出力し ているとする。
この場合、 図 7 5のステップ S 2 3 0 1において、 条件設定部 2 3 3 1は、 条 件 (タップ範囲と次数) を設定する。 例えば、 いま、 図 76で示されるタップ範囲 235 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 76は、 タップ範囲の 1例を説明する図である。 図 76において、 X 方向と Y方向は、 センサ 2の X方向と Y方向 (図 59) を表している。 また、 タ ップ範囲 235 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 20個の 画素 (図中、 20個の正方形) からなる画素群を表している。
さらに、 図 76で示されるように、 注目画素が、 タップ範囲 23 5 1のうちの、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとする。 ま た、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x,y) (注目画素 の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 76で示され るような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付されるとす る。
図 75に戻り、 ステップ S 2302において、 条件設定部 233 1は、 注目画 素を設定する。
ステップ S 2303において、 入力画素値取得部 2 3 3 3は、 条件設定部 23 31により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 23 33は、 細線含有データ領域 2302 (図 64) を取得し、 入力画素値テーブルとして、 20個の入力画素値 P(l)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係は、 次の式 (5 1) で示される関係とされる。 ただし、 式 (5 1) において、 左辺が 入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。 P(0) = P(0,0)
P(1)
P(2) = II P(0,2)
(1,2)
Figure imgf000116_0001
• · · (5 1) ステップ S 2304において、 積分成分演算部 23 34は、 条件設定部 233 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 101より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x,y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 23 34は、 上述し た式 (50) の積分成分 Si (xs,xe)を、 次の式 (5 2) の左辺で示される積分成 分 Si (1)といった 1の関数として演算する。
Figure imgf000116_0002
• · · (5 2) 具体的には、 いまの場合、 次の式 (53) で示される積分成分 Si (1)が演算さ れる。
S (0) =S (一 0.5,0.5)
S (1) =S (-1.5-Cx(2),-0.5-Cx(2))
S (2) =S (-0.5-Cx(2),0.5-Cx(2))
S (3) =S (0.5-Cx(2),1.5-Cx(2))
S (4) =S (1.5-CX(2),2.5-Cx(2))
S (5) =S (-1.5-CX(1), -0.5-Cx(D)
S (6) =S (-0.5-Cx(1),0.5-Cx(D)
S (7) =S (0.5-Cx(1),1.5-Cx(D)
S (8) =S (1.5-CX(1),2.5-Cx(1))
S (9) =S (-1.5, -0.5)
S (10) =S (0.5,1.5)
S (11) =S (1.5, 2.5)
S (12) =S (-1.5-CX(-1), -0.5-Cx(-D)
S (13) =S (-0.5-Cx(-1),0.5-Cx(-D)
S (14) =S (0.5-Cx(-1),1.5-Cx(-D)
S (15) =S (1.5-CX(-1),2.5-CX(-D)
S (16) =S (-1.5-Cx(-2),-0.5-Cx(-2))
S (17) =S (-0.5-Cx(-2),0.5-Cx(-2))
S (18) =S (0.5-Cx(-2),1.5-Cx(-2))
S (19) =s (1.5-Cx(-2),2.5-Cx(-2))
• · · (53) なお、 式 (5 3) において、 左辺が積分成分 Si (1 )を表し、 右辺が積分成分 Si (xs,xe)を表している。 即ち、 いまの場合、 iは 0乃至 5であるので、 20個 の S。(1), 20個の (1), 20個の S2 (1), 20個の S3 (1), 20個の S4 (1), 20 個の S5 (1)の総計 1 20個の Si (1)が演算されることになる。
より具体的には、 はじめに、 積分成分演算部 2334は、 データ定常性検出部 101より供給された角度 0を使用して、 シフト量 Cx (- 2),CX (- 1),CX (1),CX (2)のそれぞれを演算する。 次に、 積分成分演算部 23 34は、 演 算したシフト量 Cx (-2), (- 1),CX (1),CX (2)を使用して式 (52) の右辺に示 される 20個の積分成分 Si (xs, xe)のそれぞれを、 i=0乃至 5のそれぞれにつ いて演算する。 即ち、 1 20個の積分成分 Si (xs,xe)が演算される。 なお、 この 積分成分 Si (xs,xe)の演算においては、 上述した式 (50) が使用される。 そし て、 積分成分演算部 23 34は、 式 (53) に従って、 演算した 1 20個の積分
X
成分 Si (xs,xe)のそ sれぞれを、 対応する積分成分 Si (1)に変換し、 変換した 1 2 0個の積分成分 Si (1)を含む積分成分テーブルを生成する。
なお、 ステップ S 2303の処理とステップ S 2304の処理の順序は、 図 7 5の例に限定されず、 ステップ S 2304の処理が先に実行されてもよいし、 ス テツプ S 2303の処理とステップ S 2304の処理が同時に実行されてもよい 次に、 ステップ S 2305において、 正規方程式生成部 23 3 5は、 ステップ S 2303の処理で入力画素値取得部 2333により生成された入力画素値テー ブルと、 ステップ S 2304の処理で積分成分演算部 23 34により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 s s s(49) に対応する 次の式 (54) の特徴量 Wi を演算する。 それに対応する正規方程式は、 次の式
(55) のように表される。
(54)
Figure imgf000118_0001
(55) なお、 式 (55) において、 Lは、 タップ範囲の画素の番号 1のうちの最大値 を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具体的 には、 いま Lの場合、 n=5となり、 L=l 9となる。
s
式 (55) で示される正規方程式の各行列のそれぞれを、 次の式 (56) 乃至 (58) のように定義すると、 正規方程式は、 次の式 (59) のように表される c ノ (l)
(l)
(56)
Figure imgf000119_0001
(57)
∑ S0(I)P(I)
l=0
Figure imgf000119_0002
(58)
SMAT¾T = PMAT • · · (5 9) 式 (57) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 で ある。 従って、 式 (59) において、 左辺の行列 SMAT と右辺の行列 PMATが決 定されれば、 行列解法によって行列 WMAT (即ち、 特徴量 Wi) の算出が可能であ る。
具体的には、 式 (56) で示されるように、 行列 SMAT の各成分は、 上述した 積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成分演 算部 2334より供給された積分成分テーブルに含まれているので、 正規方程式 生成部 23 35は、 積分成分テーブルを利用して行列 SMAT の各成分を演算する ことができる。
また、 式 (58) で示されるように、 行列 PMAT の各成分は、 積分成分 Si (1) と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行列 S MAT の各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素値取得部 2 33 3より供給された入力画素値テーブルに含まれているの で、 正規方程式生成部 233 5は、 積分成分テーブルと入力画素値テーブルを利 用して行列 PMATの各成分を演算することができる。
このようにして、 正規方程式生成部 23 35は、 行列 SMAT と行列 PMATの各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMATの各成分) を正規方程式 テーブルとして近似関数生成部 2336に出力する。
正規方程式生成部 23 35より正規方程式テーブルが出力されると、 ステップ S 2306において、 近似関数生成部 23 36は、 正規方程式テーブルに基づい て、 上述した式 (5 9) の行列 WMAT の各成分である特徴量 Wi (即ち、 1次元多 項式である近似関数 f(x)の係数^) を演算する。
具体的には、 上述した式 (5 9) の正規方程式は、 次の式 (60) のように変 形できる。
¾Τ = ¾ΑΤΓ ΑΤ • · · ( 6 0 ) 式 (6 0 ) において、 左辺の行列 WM A Tの各成分が、 求めたい特徴量 ^ であ る。 また、 行列 SM A T と行列 PM A Tのそれぞれの各成分は、 正規方程式生成部 2 3 3 5より供給された正規方程式テーブルに含まれている。 従って、 近似関数生 成部 2 3 3 6は、 正規方程式テーブルを利用して、 式 (6 0 ) の右辺の行列演算 を行うことで行列 WM A T を演算し、 その演算結果 (特徴量 Wi ) を画像生成部 1 0 3に出力する。
ステップ S 2 3 0 7において、 近似関数生成部 2 3 3 6は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 3 ◦ 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2 3 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 3 0 2乃至 S 2 3 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 3 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
なお、 以上のようにして演算された係数 (特徴量) Wi により生成される近似 関数 f (x)の波形は、 上述した図 7 3の近似関数 (X)のような波形となる。
このように、 1次元近似手法においては、 1次元の X断面波形 F (x)と同一形 状の波形が定常性の方向に連なっていると仮定して、 例えば、 1次元の多項式な どの近似関数 f (x)の特徴量が演算される。 従って、 1次元近似手法においては、 他の関数近似手法に比較して、 少ない演算処理量で近似関数 f (x)の特徴量の算 出が可能となる。 .
次に、 図 7 7乃至図 8 3を参照して、 第 2の関数近似手法について説明する。 即ち、 第 2の関数近似手法とは、 例えば、 図 7 7で示されるような、 傾き GF で表される空間方向の定常性を有する実世界 1の光信号を、 X— Y平面上 (空間 方向の 1方向である X方向と、 X方向に垂直な Y方向に水平な平面上) の波形 F (x, y)とみなし、 2次元の多項式などの近似関数 f (X, y)で波形 F (x, y)を近似す ることによって、 その波形 F(x,y)を推定する手法である。 従って、 以下、 第 2 の関数近似手法を、 2次元近似手法と称する。
なお、 図 77において、 図中、 水平方向は、 空間方向の 1方向である X方向を、 右上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 そ れぞれ表している。 GFは、 空間方向の定常性の傾きを表している。
また、 2次元近似手法の説明においても、 センサ 2は、 図 78で示されるよう な、 複数の検出素子 2— 1がその平面上に配置されて構成される CCDとされる。 図 78の例では、 検出素子 2 _ 1の所定の 1辺に平行な方向が、 空間方向の 1 方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向であ る Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t 方向とされている。
また、 図 78の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な形 状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時間 (露光時間) が 1とされている。
さらに、 図 78の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 (1方向の位置 =0) とされている。
この場合、 空間方向の原点 (x==0, y = 0) にその中心が存在する検出素子 2— 1は、 X方向に -0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 およ び t方向に- 0.5乃至 0.5の範囲で光信号関数 F(X, y, t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (6 1) で表される。
/+0.5 p+O.B p+O.B /
ハ c
-0.5 J I一 n
0.5 J J - Λ 0.5 F(x, y, t)dxdydt
• · · (6 1) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (6 1) で示される画素値 Pを出力することになる。 ところで、 上述したように、 2次元近似手法は、 実世界 1の光信号を、 例えば、 図 77で示されるような波形 F(x, y)として扱い、 その 2次元の波形 F(x,y)を、 2次元の多項式などの近似関数 f(x,y)に近似する手法である。
そこで、 はじめに、 このような近似関数 f(x,y)を 2次元の多項式で表現する 手法について説明する。
上述したように、 実世界 1の光信号は、 3次元の空間上の位置 x, y、 および z、 並びに時刻 tを変数とする光信号関数 F (x, y, ΐ)で表される。 この光信号関数 F(x,y,t)を、 Y方向の任意の位置 yにおいて、 X方向に射影した 1次元の波形 を、 ここでは、 X断面波形 F(x)と称している。
この X断面波形 F (x) に注目すると、 実世界 1の信号が、 空間方向の所定の 方向に定常性を有している場合、 X断面波形 F ( X ) と同一形状の波形がその定 常性の方向に連なっていると考えることができる。 例えば、 図 77の例では、 X 断面波形 F ( X ) と同一形状の波形が、 傾き GFの方向に連なっている。 換言す ると、 X断面波形 F (x) と同一形状の波形が傾き GFの方向に連なって、 波形 F(x,y)が形成されているとも言える。
従って、 波形 F(x,y)を近似する近似関数 f (x,y)の波形は、 X断面波形 F(x) を近似する近似関数 f(x)と同一形状の波形が連なって形成されると考えること で、 近似関数 f(x,y)を 2次元の多項式で表現することが可能になる。
さらに詳細に、 近似関数 f(x,y)の表現方法について説明する。
例えば、 いま、 上述した図 77で示されるような、 実世界 1の光信号、 即ち、 傾き GFで表される空間方向の定常性を有する光信号が、 センサ 2 (図 78) に より検出されて入力画像 (画素値) として出力されたとする。
さらに、 図 79で示されるように、 データ定常性検出部 10 1 (図 3) 力 こ の入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2◦個の 画素 (図中、 点線で表される 20個の正方形) から構成される入力画像の領域 2 40 1に対してその処理を実行し、 データ定常性情報の 1つとして角度 Θ (傾き GFに対応する傾き Gf で表されるデータの定常性の方向と、 X方向とのなす角度 Θ) を出力したとする。
なお、 入力画像の領域 2401において、 図中水平方向は、 空間方向の 1方 向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y方向 を表している。
また、 図 79中、 左から 2画素目であって、 下から.3画素目の画素が注目画素 とされ、 その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定され ている。 そして、 原点(0,0)を通る角度 Θの直線 (データの定常性の方向を表す 傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離と称す る) が x, と記述されている。
さらに、 図 79中、 右側のグラフは、 X断面波形 F(x' )が近似された関数で あって、 n次 (nは、 任意の整数) の多項式である近似関数 f(x' )を表している。 右側のグラフの軸のうち、 図中水平方向の軸は、 断面方向距離を表しており、 図 中垂直方向の軸は、 画素値を表している。
この場合、 図 79で示される近似関数 f(x, )は、 n次の多項式であるので、 次の式 (6 2) のように表される。
π .
f{X') = V/0+WiX' +W2X? + · ·■ +WnX = ∑ WjX"
i=0
• · · (6 2) また、 角度 0が決定されていることから、 原点(0,0)を通る角度 0の直線は一 意に決まり、 Y方向の任意の位置 yにおける、 直線の X方向の位置 力 次の 式 (6 3) のように表される。 ただし、 式 (63) において、 sは cot Θ (= 1 /tan θ ) を表している。
X| = sxy
■ · ■ (63) 即ち、 図 79で示されるように、 傾き Gf で表されるデータの定常性に対応す る直線上の点は、 座標値(Xl,y)で表される。
式 (63) より、 断面方向距離 x' は、 次の式 (64) のように表される。
x, = χ-χ| = x-s xy
· · · (64)
従って、 入力画像の領域 240 1内の任意の位置(x,y)における近似関数 f (X, y)は、 式 (6 2) と式 (64) より、 次の式 (6 5) のように示される。
" n .
f (x, y = ∑ Wj -sxy)1
i=0
• · - (6 5) なお、 式 (6 5) において、 Wi は、 近似関数 f (x, y)の係数を表している。 な お、 近似関数 f(x,y)を含む近似関数 f の係数 ^ を、 近似関数 f の特徴量と位置 づけることもできる。 従って、 以下、 近似関数 f の係数 を、 近似関数 f の特 徴量 Wi とも称する。
このようにして、 角度 0が既知であれば、 2次元波形の近似関数 f(x, y)を、 式 (6 5) の多項式として表現することができる。
従って、 実世界推定部 102は、 式 (6 5) の特徴量 を演算することがで きれば、 図 77で示されるような波形 F(x,y)を推定することができる。
そこで、 以下、 式 (6 5) の特徴量 Wi を演算する手法について説明する。
即ち、 式 (6 5) で表される近似関数 f (x,y)を、 画素 (センサ 2の検出素子 2— 1 (図 78) ) に対応する積分範囲 (空間方向の積分範囲) で積分すれば、 その積分値が、 画素の画素値の推定値となる。 このことを、 式で表現したものが、 次の式 (66) である。 なお、 2次元近似手法においては、 時間方向 tは一定値 とみなされるので、 式 (66) は、 空間方向 (X方向と Y方法) の位置 x,yを 変数とする方程式とされている。
Figure imgf000125_0001
• · · ( 6 6 ) 式 (6 6 ) において、 P (x, y)は、 センサ 2からの入力画像のうちの、 その中 心位置が位置(x, y) (注目画素からの相対位置(x,y) ) に存在する画素の画素値 を表している。 また、 eは、 誤差を表している。
このように、 2次元近似手法においては、 入力画素値 P (x,y)と、 2次元の多 項式などの近似関数 f (x,y)の関係を、 式 (6 6 ) で表現することが可能である ので、 実世界推定部 1 0 2は、 式 (6 6 ) を利用して、 特徴量 Wi を、 例えば、 最小自乗法等により演算することで (演算した特徴量 Wi を式 (6 4 ) に代入し て近似関数 f (x,y)を生成することで) 、 2次元の関数 F (x,y) (傾き GF (図 7 7 ) で表される空間方向の定常性を有する実世界 1の光信号を、 空間方向に着目 して表した波形 F (x, y) ) を推定することが可能となる。
図 8 0は、 このような 2次元近似手法を利用する実世界推定部 1 0 2の構成例 を表している。
図 8 0で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 4 2 1、 入 力画像記憶部 2 4 2 2、 入力画素値取得部 2 4 2 3、 積分成分演算部 2 4 2 4、 正規方程式生成部 2 4 2 5、 および近似関数生成部 2 4 2 6が設けられている。 条件設定部 2 4 2 1は、 注目画素に対応する関数 F (x,y)を推定するために使 用する画素の範囲 (タップ範囲) や、 近似関数 f (x,y)の次数 nを設定する。 入力画像記憶部 2 4 2 2は、 センサ 2からの入力画像 (画素値) を一次格納す る。
入力画素値取得部 2 4 2 3は、 入力画像記憶部 2 4 2 2に記憶された入力画像 のうちの、 条件設定部 2 4 2 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 2 4 2 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。 なお、 入力画素値テーブルの具体 例については後述する。 ところで、 上述したように、 2次元近似手法を利用する実世界推定部 1 0 2は、 上述した式 (6 6) を最小自乗法で解くことにより、 上述した式 (6 5) で示さ れる近似関数 f(x,y)の特徴量 ^ を演算する。
式 (6 6) は、 次の式 (6 7) 乃至式 (6 9) を用いることで得られる次の式 (70) を使用することで、 次の式 (7 1) のように表現することができる。
Figure imgf000127_0001
(6 7)
Figure imgf000127_0002
(6 8)
(x-sxy)
J (x-sxy)'dy
(6 9)
Figure imgf000127_0003
y+0.5 +2 y+0.5
(x+0.5-sxy)i+2 (x-0.5-sxy)
L s(i+1) (i+2) 」y - 0.5 s(i+1) (i+2) y-0.5
(x+0 -sxy+0Js)i+2-(x+0.5-s)<H.5s) il†+'2-(x-0.5-sxy+0.5s) 、li+'2+(x-0.5-s)<y-0,
s(i+1Hi+2)
(70)
Figure imgf000128_0001
一(x+0.5-sxy-0.5s)i+2-(x-0.5-sxy+0.5s)i+2
+ (x-0.5-s x y-0.5s)i+2] +e
n
= ∑ WjSj (x-0.5, x+0.5, y-0.5, y+0.5) +e
i=0
• · · (71) 式 (7 1) において、 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 i次項の積分成分 を表している。 即ち、 積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 次の式 (72) で示される通りである。
Sj (x-0.5, x+0.5, y-0.5, y+0.5) =
(x+0i-sxv+0is)i+2-(x+0i-sxy 5s)i+2-(x-0 -sxy+0.5s)i+2+(x-0.5-sxy-0.5s)i+2
^ ^+D(i+2) .
• · - (72) 積分成分演算部 2424は、 この積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5) を演算する。
具体的には、 式 (72) で示される積分成分 Si (x-0.5, x+0.5, y-
0.5, y+0.5) は、 相対画素位置(x,y)、 上述した式 (6 5) における変数 s、 お よび、 i次項の iが既知であれば、 演算可能である。 これらのうちの、 相対画素 位置(x,y)は注目画素とタップ範囲により、 変数 sは cot 0であるので角度 0に より、 iの範囲は次数 nにより、 それぞれ決定される。
従って、 積分成分演算部 2424は、 条件設定部 242 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 10 1より出力されたデータ定 常性情報のうちの角度 Θに基づいて積分成分 Sj (x-0.5, x+0.5, y-0.5, y+0.5) を演算し、 その演算結果を積分成分テーブルとして正規方程式生成部 2425に 供給する。 正規方程式生成部 2 4 2 5は、 入力画素値取得部 2 4 2 3より供給された入力 画素値テーブルと、 積分成分演算部 2 4 2 4より供給された積分成分テーブルを 利用して、 上述した式 (6 6 ) 、 即ち、 式 (7 1 ) を最小自乗法で求める場合の 正規方程式を生成し、 それを正規方程式テーブルとして近似関数生成部 2 4 2 6 に出力する.。 なお、 正規方程式の具体例については後述する。
近似関数生成部 2 4 2 6は、 正規方程式生成部 2 4 2 5より供給された正規方 程式テーブルに含まれる正規方程式を行列解法で解くことにより、 上述した式
( 6 6 ) の特徴量^ (即ち、 2次元多項式である近似関数 f (x,y)の係数 Wi ) の それぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 8 1のフローチャートを参照して、 2次元近似手法が適用される実世 界の推定処理 (図 2 9のステップ S 1 0 2の処理) について説明する。
例えば、 いま、 傾き GFで表される空間方向の定常性を有する実世界 1の光信 号が、 センサ 2 (図 7 8 ) により検出されて、 1フレームに対応する入力画像と して、 入力画像記憶部 2 4 2 2に既に記憶されているとする。 また、 データ定常 性検出部 1 0 1力 ステップ S 1 0 1 (図 2 9 ) の定常性の検出の処理において、 入力画像のうちの、 上述した図 7 9で示される領域 2 4 0 1に対して処理を施し て、 データ定常性情報として角度 Θを既に出力しているとする。
この場合、 ステップ S 2 4 0 1において、 条件設定部 2 4 2 1は、 条件 (タッ プ範囲と次数) を設定する。
例えば、 いま、 図 8 2で示されるタップ範囲 2 4 4 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 8 2は、 タップ範囲の 1例を説明する図である。 図 8 2において、 X 方向と Y方向は、 センサ 2の X方向と Y方向 (図 7 8 ) を表している。 また、 タ ップ範囲 2 4 4 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 2 0個の 画素 (図中、 2 0個の正方形) からなる画素群を表している。
さらに、 図 8 2に示されるように、 注目画素が、 タップ範囲 2 4 4 1のうちの、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとする。 ま た、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x,y) (注目画素 の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 82で示され るような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付されるとす る。
図 8 1に戻り、 ステップ S 2402において、 条件設定部 242 1は、 注目画 素を設定する。
ステップ S 240 3において、 入力画素値取得部 2423は、 条件設定部 24 21により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 2423は、 入力画像の領域 240 1 (図 79) を取得し、 入力画素値テーブルとして、 20 個の入力画素値 P (1)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係は、 次の式 (7 3) で示される関係とされる。 ただし、 式 (73) において、 左辺が 入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。
P(0) -P(0,0)
P(1) = P(-1,2)
Figure imgf000131_0001
P(19) = P(2,一 2)
• · · (73) ステップ S 2404において、 積分成分演算部 2424は、 条件設定部 242 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 101より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x,y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2424は、 上述し た式 (72) の積分成分 Si (x-0.5, x+0.5, y-0.5, y+0.5)を、 次の式 (74) の 左辺で示される積分成分 Si (1)といった 1の関数として演算する。
Sj(l) (x-0.5, x+0.5, y-0.5, y+0.5)
- - - (74) 具体的には、 いまの場合、 次の式 (75) で示される積分成分 Si (1)が演算さ れる。
5|(0) =S (一 5, 0.5, -0.5, 0.5)
Sj(1) =S (一 1.5,一 0· 5,1.5, 2.5)
Sj(2) =S (-0.5, 0.5,1.5, 2.5)
Sj(3) =S (0.5,1.5,1.5, 2.5)
Sj(4) =S (1.5, 2.5,1.5, 2.5)
Sj(5) =S (-1.5,一 0.5, 0.5,1.5)
Sj(6) =S (-0.5, 0.5, 0.5, 1.5)
Sj(7) =S (0.5, 1.5, 0.5,1.5)
Sj(8) =S (1.5, 2.5, 0.5,1.5)
S:(9) =S (-1.5, -0.5, -0.5, 0.5)
S (10) =S (0.5, 1.5, -0.5, 0.5)
S (11) =S (1.5, 2.5,一 0· 5, 0.5)
S (12) =S (-1.5, -0.5,-1.5, -0.5)
S (13) =S (-0.5,0.5, -1.5, -0.5)
S (14) =S (0.5,1.5, -1.5, -0.5)
S (15) =S (1.5, 2.5, -1.5, -0.5)
S (16) =s (-1.5,一 0.5, -2.5,一 1.5)
S (17) =s (一 0.5, 0.5, -2.5, -1.5)
S (18) =s (0.5, 1.5, -2.5, -1.5)
S (19) =s (1.5, 2.5,一 2.5, -1.5)
• · · (75) なお、 式 (7 5) において、 左辺が積分成分 Si ( 1 )を表し、 右辺が積分成分 Si (X - 0.5, x+0.5, y_0.5, y+0.5)を表している。 即ち、 いまの場合、 iは 0乃至 5 であるので、 20個の S。(1), 20個の (1), 20個の S2 (1), 20個の S3 (1), 20個の S4 (1), 20個の S5 (1)の総計 1 20個の Si (1)が演算されることにな る。
より具体的には、 はじめに、 積分成分演算部 2424は、 データ定常性検出部 1◦ 1より供給された角度 0に対する cot 0を演算し、 それを変数 sとする。 次 に、 積分成分演算部 2424は、 演算した変数 sを使用して式 (74) の右辺で 示される 20個の積分成分 Si (X - 0.5, x+0.5, y- 0.5, y+0.5) のそれぞれを、 i=0 乃至 5のそれぞれについて演算する。 即ち、 1 2 0個の積分成分 Si (X -
0. 5, x+0. 5, y-0. 5, y+0. 5) が演算されることになる。 なお、 この積分成分 Si (x -
0. 5, x+0. 5, y-0
. 5, y+0. 5) の演算においては、 上述した式 (7 2 ) が使用される。 そして、 積 分成分演算部 2 4 2 4は、 式 (7 5 ) に従って、 演算した 1 2 0個の積分成分 Si (x-0. 5, x+0. 5, y-0. 5, y+0. 5)のそれぞれを、 対応する Si (1)のそれぞれに変 換し、 変
換した 1 2 0個の Si (1)を含む積分成分テーブルを生成する。
なお、 ステップ S 2 4 0 3の処理とステップ S 2 4 0 4の処理の順序は、 図 8 1の例に限定されず、 ステップ S 2 4 0 4の処理が先に実行されてもよいし、 ス テツプ S 2 4 0 3の処理とステップ S 2 4 0 4の処理が同時に実行されてもよい , 次に、 ステップ S 2 4 0 5において、 正規方程式生成部 2 4 2 5は、 ステップ S 2 4 0 3の処理で入力画素値取得部 2 4 2 3により生成された入力画素値テー ブルと、 ステップ S 2 4 0 4の処理で積分成分演算部 2 4 2 4により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 上述した式 (7 1 ) を利用して最小自乗法により特 徴量 が演算される (ただし、 式 (7 0 ) において、 積分成分 Si (X - 0. 5, x+0. 5,y- 0. 5,y+0. 5)は、 式 (7 4 ) により変換される Si (1)が使用され る) ので、 それに
対応する正規方程式は、 次の式 (7 6 ) のように表される
Figure imgf000133_0001
( 7 6 ) なお、 式 (76) において、 Lは、 タップ範囲の画素の番号 1のうちの最大値 を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具体的 には、 いまの場合、 n=5となり、 L=1 9となる。
式 (76) で示される正規方程式の各行列のそれぞれを、 次の式 (77) 乃至 (79) のように定義すると、 正規方程式は、 次の式 (80) のように表現され る。
(l)
(77)
(78)
Figure imgf000134_0001
(79) AT¾T = P AT
• · · (80) 式 (78) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 Wi で ある。 従って、 式 (80) において、 左辺の行列 SMAT と右辺の行列 PMATが決 定されれば、 行列解法によって行列 WMAT の演算が可能になる。
具体的には、 式 (77) で示されるように、 行列 SMAT の各成分は、 上述した 積分成分 Si (1)で演算可能である。 即ち、 積分成分 Si (1)は、 積分成分演算部 2
424より供給された積分成分テーブルに含まれているので、 正規方程式生成部 2425は、 積分成分テーブルを利用して行列 SMAT の各成分を演算することが できる。
また、 式 (79) で示されるように、 行列 PMAT の各成分は、 積分成分 Si (1) と入力画素値 P(l)で演算可能である。 即ち、 積分成分 Si (1)は、 行列 SMAT の各 成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素 値取得部 2423より供給された入力画素値テーブルに含まれているので、 正規 方程式生成部 242 5は、 積分成分テーブルと入力画素値テーブルを利用して行 列 PMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 2425は、 行列 SMAT と行列 PMATの各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMAT の各成分) を正規方程式 テーブルとして近似関数生成部 2426に出力する。
正規方程式生成部 2425より正規方程式テーブルが出力されると、 ステップ
52406において、 近似関数生成部 2426は、 正規方程式テーブルに基づい て、 上述した式 (80) の行列 WMAT の各成分である特徴量 Wi (即ち、 2次元多 項式である近似関数 f(x,y)の係数^) を演算する。
具体的には、 上述した式 (80) の正規方程式は、 次の式 (8 1) のように変 形できる。
W, ,Τ PMAT • · · ( 8 1 ) 式 (8 1 ) において、 左辺の行列 WM A Tの各成分が、 求めたい特徴量 であ る。 また、 行列 SM A T と行列 PM A Tのそれぞれの各成分は、 正規方程式生成部 2 4 2 5より供給された正規方程式テーブルに含まれている。 従って、 近似関数生 成部 2 4 2 6は、 正規方程式テーブルを利用して、 式 (8 1 ) の右辺の行列演算 を行うことで行列 WM A T を演算し、 その演算結果 (特徴量 Wi ) を画像生成部 1 0 3に出力する。
ステップ S 2 4 0 7において、 近似関数生成部 2 4 2 6は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2 4 0 7において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2 4 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 4 0 2乃至 S 2 4 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 4 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
以上、 2次元近似手法の説明として、 空間方向 (X方向と Y方向) に対する近 似関数 f (x, y)の係数 (特徴量) Wi を演算する例を用いたが、 2次元近似手法は、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対しても適用可能で ある。
即ち、 上述した例は、 実世界 1の光信号が、 例えば、 傾き GF (図 7 7 ) で表 される空間方向の定常性を有する場合の例であったので、 上述した式 (6 6 ) で 示されるような、 空間方向 (X方向と Y方向) の二次元積分が含まれる式が利用 された。 しかしながら、 二次元積分の考え方は、 空間方向だけによるものではな く、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対して適用する ことも可能である。
換言すると、 2次元近似手法においては、 推定したい光信号関数 F (x, y,t)力 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方向、 または、 Y方向と t方向) の定常性を有している場合であっても、 2次元の近似関数 f に より近似することが可能である。
具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 その 物体の動きの方向は、 図 8 3で示されるような X-t平面においては、 傾き VFの ように表される。 換言すると、 傾き は、 X - 1平面における時空間方向の定常 性の方向を表しているとも言える。 従って、 データ定常性検出部 1 0 1は、 上述 した角度 0 (X- Y平面における、 傾き GFで表される空間方向の定常性に対応す るデータ定常性情報) と同様に、 X-t平面における時空間方向の定常性を表す傾 き VFに対応するデータ定常性情報として、 図 8 3で示されるような動き Θ (厳 密には、 図示はしないが、 傾き VFに対応する傾き Vf で表されるデータの定常性 の方向と、 空間方向の X方向とのなす角度である動き 0 ) を出力することが可能 である。
従って、 2次元近似手法を利用する実世界推定部 1 0 2は、 動き Θを上述した 角度 0の代わりとして使用すれば、 上述した方法と同様な方法で、 近似関数 f (x,t)の係数 (特徴量) Wi を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (6 6 ) ではなく、 次の式 (8 2 ) である。
t -t+0.5 x+0.5 Jl ;
P(x, t) = •' It- ΛO. 5 _ • I'χ- Λ0. 5 j∑_Q W; I (x-s t)' dxdt+e
• · · ( 8 2 ) なお、 式 (8 2 ) において、 sは cot 0 (ただし、 Θは動きである) である。 また、 空間方向 Xの変わりに、 空間方向 Υに注目した近似関数 f (y, t) も、 上述した近似関数 f (x, t)と全く同様に取り扱うことが可能である。
このように、 2次元近似手法は、 1次元ではなく 2次元の積分効果を考慮して いるので、 1次元近似手法に比較して、 より正確に実世界 1の光信号を推定する ことが可能になる。
次に、 図 8 4乃至図 8 8を参照して、 第 3の関数近似手法について説明する。 即ち、 第 3の関数近似手法とは、 例えば、 時空間方向のうちの所定の方向の定 常性を有する実世界 1の光信号が、 光信号関数 F(x, y, t)で表されることに注目 して、 近似関数 f(x,y,t)で光信号関数 F(x,y,t)を近似することによって、 光信 号関数 F(X,y,t)を推定する手法である。 従って、 以下、 第 3の関数近似手法を、 3次元近似手法と称する。
また、 3次元近似手法の説明においても、 センサ 2は、 図 84で示されるよう な、 複数の検出素子 2— 1がその平面上に配置されて構成される CCDとされる。 図 84の例では、 検出素子 2 _ 1の所定の 1辺に平行な方向が、 空間方向の 1 方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向であ る Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向である t 方向とされている。
また、 図 84の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な形 状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ時間 (露光時間) が 1とされている。
さらに、 図 84の例では、 センサ 2の所定の 1つの検出素子 2 _ 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原 点 ^向の位置 =0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 およ ぴ t方向に- 0.5乃至 0.5の範囲で光信号関数 F (x, y, t)を積分し、 その積分値を 画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される画 素値 Pは、 次の式 (83) で表される。
广 +0,5 r+0.B P+ .B t
p = J-o.5 J-0.5 J-0.5 F(x,y,t)dxdydt
• · · (8 3) その他め検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間方 向の原点とすることで、 式 (83) で示される画素値 Pを出力することになる。 ところで、 上述したように、 3次元近似手法においては、 光信号関数
F(x, y, t)は、 3次元の近似関数 f (x, y, t)に近似される。
具体的には、 例えば、 近似関数 f(x,y,t)を、 N個の変数 (特徴量) を有する 関数とし、 式 (83) に対応する入力画素値 P(x,y,t)と近似関数 f (x,y,t)の関 係式を定義する。 これにより、 Nより大きい M個の入力画素値 P(x,y,t)が取得 されていれば、 定義された関係式から N個の変数 (特徴量) の算出が可能であ る。 即ち、 実世界推定部 102は、 M個の入力画素値 P(x,y,t)を取得して N個 の変数 (特徴量) を演算することで、 光信号関数 F(x,y,i:)を推定することが可 能である。
この場合、 実世界推定部 1 02は、 センサ 2からの入力画像 (入力画素値) に 含まれるデータの定常性を縛りとして (即ち、 データ定常性検出部 10 1より出 力される入力画像に対するデータ定常性情報を利用して) 、 入力画像全体のうち の、 M個の入力画像 P(x,y,t)を抽出 (取得) する。 結果的に、 近似関数
f (x,y,t)は、 データの定常性に拘束されることになる。
例えば、 図 8 5で示されるように、 入力画像に対応する光信号関数 F(x,y,t) 力 S、 傾き GFで表される空間方向の定常性を有している場合、 データ定常性検出 部 10 1は、 入力画像に対するデータ定常性情報として、 角度 0 (傾き GFに対 応する傾き Gf (図示せず) で表されるデータの定常性の方向と、 X方向のなす 角度 Θ) を出力することになる。
この場合、 光信号関数 F(X,y,t)を X方向に射影した 1次元の波形 (ここでは、 このような波形を、 X断面波形と称している) は、 Y方向のいずれの位置で射影 した場合であっても同一の形状であるとする。
即ち、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 0方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元 波形が時間方向 tに連なった 3次元波形を、 近似関数 f (x,y, t)で近似する。 換言すると、 注目画素の中心から Y方向に位置 yだけずれた X断面波形は、 注目画素の中心を通る X断面波形が X方向に所定の量 (角度 Θに応じて変化す る量) だけ移動した (シフトした) 波形となる。 なお、 以下、 このような量を、 シフト量と称する。
このシフト量は、 次のようにして算出が可能である。
即ち、 傾き Vf (例えば、 図 85の傾き VFに対応する、 データの定常性の方向 を表す傾き Vf) と角度 0は、 次の式 (84) のように表される。
Gf = tan θ =
τ dx
• · · (84) なお、 式 (84) において、 dx は、 X方向の微小移動量を表しており、 dy は、 dxに対する Y方向の微小移動量を表している。
従って、 X方向に対するシフト量を Cx (y)と記述すると、 次の式 (8 5) のよ うに表される。 )=
• - · (85) このようにして、 シフト量 Cx (y)を定義すると、 式 (8 3) に対応する入力画 素値 P(x, y,t)と近似関数 f(x, y,t)の関係式は、 次の式 (86) のように表され る。
P(x, y, t)
Figure imgf000140_0001
„ f f (χ, y, t)dxdydt+e
• · · (86) 式 (86) において、 eは、 誤差を表している。 ts は、 t方向の積分開始位 置を表しており、 te は、 t方向の積分終了位置を表している。 同様に、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表してい る。 また、 は、 X方向の積分開始位置を表しており、 χβ は、 X方向の積分終 了位置を表している。 ただし、 具体的な各積分範囲のそれぞれは、 次の式 (8 7) で示される通りになる。 ts = t-0.5
te = t+0.5
ys = y-o.5
Figure imgf000141_0001
xs = x-Cx(y)-0.5
xe = x-Cx(y)+0.5
• · · (87) 式 (87) で示されるように、 注目画素から空間方向に(x,y)だけ離れて位置 する画素に対する X方向の積分範囲を、 シフト量 Cx (y)だけ移動させることで、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 0方向) に連なつ ていることを表すことが可能になる。
このように、 3次元近似手法においては、 画素値 P(x,y,t)と、 3次元の近似 関数 f(x,y,t)の関係を式 (8 6) (積分範囲は、 式 (87) ) で表すことがで きるので、 式 (86) と式 (87) を利用して、 近似関数 f(x,y,t)の N個の特 徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t)
(例えば、 図 8 5で示されるような傾き VF表される空間方向の定常性を有する 光信号) の推定が可能となる。
なお、 光信号関数 F(x,y,t)で表される光信号が、 例えば、 図 85で示される ような傾き VFで表される空間方向の定常性を有している場合、 次のようにして 光信号関数 F (X, y, ΐ)を近似してもよい。
即ち、 光信号関数 F(x,y,t)を Υ方向に射影した 1次元の波形 (以下、 このよ うな波形を、 Y断面波形と称する) は、 X方向のいずれの位置で射影した場合で あっても同一の形状であるとする。
換言すると、 同一形状の Y断面波形が、 定常性の方向 (X方向に対して角度 0 方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元波形が時間方向 tに連なった 3次元波形を、 近似関数 f (x,y,t)で近似す る。 '
従って、 注目画素の中心から X方向に Xだけずれた Y断面波形は、 注目画素 の中心を通る Y断面波形が Y方向に所定のシフト量 (角度 Θに応じて変化する シフト量) だけ移動した波形となる。
このシフト量は、 次のようにして算出が可能である。
即ち、 傾き GF力 上述した式 (84) のように表されるので、 Y方向に対す るシフ ト量を Cy )と記述すると、 次の式 (88) のように表される。
Cy (x) = 6fxx
■ · · (88) このようにして、 シフト量 Cy (X)を定義すると、 式 (8 3) に対応する入力画 素値 P(x,y,t)と近似関数 f (x,y,t)の関係式は、 シフト量 Cx (y)を定義したとき と同様に、 上述した式 (86) で表される。
ただし、 今度は、 具体的な各積分範囲のそれぞれは、 次の式 (8 9) で示され る通りになる。 ts = t-0.5
te = t+0.5
ys = y-Cy(x)-0.5 '
ye = y-Cy(x)+0.5
x = x-0.5
xe = x+0.5
• · · (89) 式 (89) (および上述した式 (8 6) ) で示されるように、 注目画素から (x,y)だけ離れて位置する画素に対する Y方向の積分範囲を、 シフト量 Cy (X)だ け移動させることで、 同一形状の Y断面波形が、 定常性の方向 (X方向に対して 角度 0方向) に連なっていることを表すことが可能になる。 このように、 3次元近似手法においては、 上述した式 (86) の右辺の積分範 囲を式 (8 7) のみならず式 (8 9) とすることもできるので、 積分範囲として 式 (8 9) が採用された式 (86) を利用して、 近似関数 f (x,y,t)の n個の特 徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t) (傾き GFで表される空間方向の定常性を有する実世界 1の光信号) の推定が可 能となる。
このように、 積分範囲を表す式 (8 7) と式 (89) は、 定常性の方向にあわ せて周辺画素を X方向にシフトさせるか (式 (8 7) の場合) 、 或いは Y方向 にシフトさせるか (式 (89) の場合) の違いがあるだけであり、 本質的には同 じことを表している。
しかしながら、 定常性の方向 (傾き GF) に応じて、 光信号関数 F(x,y,t)を、 X断面波形の集まりと捉えるか、 Y断面波形の集まりと捉えるかが異なる。 即ち、 定常性の方向が Y方向に近い場合、 光信号関数 F(x,y,t)を、 X断面波形の集ま りと捉えた方が好適である。 これに対して、 定常性の方向が X方向に近い場合、 光信号関数 F(x,y,t)を、 Y断面波形の集まりと捉えた方が好適である。
従って、 実世界推定部 102は、 積分範囲として式 (87) と式 (8 9) の両 方を用意しておき、 定常性の方向に応じて、 適宜式 (86) の右辺の積分範囲と して、 式 (87) と式 (89) のうちのいずれか一方を選択するとよい。
以上、 光信号関数 F(x,y,t)が空間方向 (X方向と Y方向) の定常性 (例えば、 図 85の傾き GFで表される空間方向の定常性) を有する場合についての 3次元 近似手法について説明したが、 3次元近似手法は、 図 86で示されるように、 光 信号関数 F(x,y,t)が時空間方向 (X方向、 Y方向、 および t方向) の定常性 (傾 き VFで表される定常性) を有する場合についても適用可能である。
即ち、 図 86において、 フレーム番号 #N-1のフレームに対応する光信号関数 が F(x,y,#N- 1)とされ、 フレーム番号 #Nのフレームに対応する光信号関数が F(x,y,#N)とされ、 かつ、 フレーム番号 #N+1のフレームに対応する光信号関数 が F(x,y, +1)とされている。 なお、 図 86において、 図中、 水平方向は、 空間方向の 1方向である X方向 とされており、 右斜め上方向は、 空間方向の他方向である Y方向とされており、 かつ、 垂直方向は、 時間方向である t方向とされている。
また、 フレーム - 1は、 フレーム に対して時間的に前のフレームであり、 フレーム +1は、 フレーム に対して時間的に後のフレームである。 即ち、 フ レーム #N-1、 フレーム #N、 およびフレーム #N+1 は、 フレーム #N- 1、 フレーム #N およびフレーム #N+1の順で表示される。
図 86の例では、 傾き VFで示される方向 (図中左下手前から右上奥の方向) に沿った断面の光のレベルがほぼ一定とされている。 従って、 図 86の例では、 光信号関数 F(x,y,t)は、 傾き VFで表される時空間方向の定常性を有していると この場合、 時空間方向の定常性を表す関数 C(x,y,t)を定義し、 かつ、 定義さ れた関数 C(x,y,t)を利用して、 上述した式 (86) の積分範囲を定義すれば、 上述した式 (8 7) や式 (8 9) と同様に、 近似関数 f (x,y,t)の N個の特徴量 の算出が可能になる。
関数 C(x,y,t)は、 定常性の方向を表す関数であれば特に限定されない。 ただ し、 以下においては、 直線的な定常性であるとして、 それに対応する関数
C(x,y,t)として、 上述した空間方向の定常性を表す関数であるシフト量 Cx (y) (式 (8 5) ) ゃシフト量 Cy (x) (式 (8 7) ) に相当する、 Cx (t)と Cy (t)を 次のように定義するとする。
即ち、 上述した空間方向のデータの定常性を表す傾き Gf に対応する、 時空間 方向のデータの定常性の傾きを Vf とすると、 この傾き Vf を X方向の傾き (以 下、 Vfx と記述する) と Y方向の傾き (以下、 Vfy と記述する) に分割すると、 傾き Vfxは次の式 (90) で、 傾き Vfyは次の式 (9 1) で、 それぞれ表され る。
V = • · · (90) vf =
Vfy dt.
• · · (9 1) この場合、 関数 Cx (t)は、 式 (90) で示される傾き Vfx を利用して、 次の式 (92) のように表される。
Cx(t) =Vfxxt
• · · (9 2) 同様に、 関数 Cy (t)は、 式 (9 1) で示される傾き Vfyを利用して、 次の式 (93) のように表される。
Cy(t) =Vfyxt
• · · (93) このようにして、 時空間方向の定常性 25 1 1を表す関数 Cx (t)と関数 Cy (t) を定義すると、 式 (86) の積分範囲は、 次の式 (94) のように表される。 ts = t-0.5
te = t+0.5
ys = y-Cy(t)-0.5
ye = y-Cy(t)+0.5
xs = x-Cx(t)-0.5
xe = x-Cx(t)+0.5
• · · (94) このように、 3次元近似手法においては、 画素値 P(x,y,t)と、 3次元の近似 関数 f (X, y, t)の関係を式 (86) で表すことができるので、 その式 (86) の 右辺の積分範囲として式 (94) を利用して、 近似関数 f(x,y,t)の n+ 1個の 特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t)
(時空間方向の所定の方向に定常性を有する実世界 1の光信号) を推定すること が可能となる。 図 8 7は、 このような 3次元近似手法を利用する実世界推定部 1 0 2の構成例 を表している。
なお、 3次元近似手法を利用する実世界推定部 1 0 2が演算する近似関数 f (x, y, t) (実際には、 その特徴量 (係数) を演算する) は、 特に限定されない 力 以下の説明においては、 n (n=N-l) 次の多項式とされる。
図 8 7で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 5 2 1、 入 力画像記憶部 2 5 2 2、 入力画素値取得部 2 5 2 3、 積分成分演算部 2 5 2 4、 正規方程式生成部 2 5 2 5、 および近似関数生成部 2 5 2 6が設けられている。 条件設定部 2 5 2 1は、 注目画素に対応する光信号関数 F (x,y,t)を推定する ために使用する画素の範囲 (タップ範囲) や、 近似関数 f (x,y,t)の次数 nを設 定する。
入力画像記憶部 2 5 2 2は、 センサ 2からの入力画像 (画素値) を一次格納す る。
入力画素値取得部 2 5 2 3は、 入力画像記憶部 2 5 2 2に記憶された入力画像 のうちの、 条件設定部 2 5 2 1により設定されたタップ範囲に対応する入力画像 の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 2 5 2 5に 供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各画素のそ れぞれの画素値が記述されたテーブルである。
ところで、 上述したように、 3次元近似手法を利用する実世界推定部 1 0 2は、 上述した式 ( 8 6 ) (ただし積分範囲は、 式 (8 7 ) 、 式 (9 0 ) 、 または式 ( 9 4 ) ) を利用して最小自乗法により近似関数 f (x,y, t)の N個の特徴量 (い まの場合、 各次の係数) を演算する。
式 (8 6 ) の右辺は、 その積分を演算することで、 次の式 (9 5 ) のように表 現することができる。
n
P (x, y, t) = WjSj (xs, xe, ys, ye, ts, te) +e
i =0
• · · ( 9 5 ) 式 (95) において、 Wi は、 i次項の係数 (特徴量) を表しており、 また、 Si (xs,xe,ys,ye)ts,te) は、 i次項の積分成分を表している。 ただし、 xs は X 方向の積分範囲の開始位置を、 xeは X方向の積分範囲の終了位置を、 ys は Y方 向の積分範囲の開始位置を、 yeは Y方向の積分範囲の終了位置を、 ts は t方向 の積分範囲の開始位置を、 te は t方向の積分範囲の終了位置を、 それぞれ表し ている。
積分成分演算部 2524は、 この積分成分 Si (x5,xe,ys,ye,ts,te) を演算 する。
即ち、 積分成分演算部 25 24は、 条件設定部 25 2 1により設定されたタツ プ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデータ定常 性情報のうちの角度若しくは動き (積分範囲として、 上述した式 (8 7) 若しく は式 (90) が利用される場合には角度であり、 上述した式 (94) が利用され る場合には動きである) に基づいて積分成分 Si (x5,xe)ys,ye )ts,te) を演算 し、 その演算結果を積分成分テーブルとして正規方程式生成部 25 25に供給す る。
正規方程式生成部 25 25は、 入力画素値取得部 2523より供給された入力 画素値テーブルと、 積分成分演算部 2524より供給された積分成分テーブルを 利用して、 上述した式 (95)' を最小自乗法で求める場合の正規方程式を生成し、 それを正規方程式テーブルとして近似関数生成部 25 26に出力する。 正規方程 式の例については、 後述する。
近似関数生成部 2526は、 正規方程式生成部 25 25より供給された正規方 程式テーブルに含まれる正規方程式を行列解法で解くことにより、 特徴量 Wi
(いまの場合、 多項式である近似関数 f(x,y,t)の係数 のそれぞれを演算し、 画像生成部 1 03に出力する。
次に、 図 88のフローチャートを参照して、 3次元近似手法が適用される実世 界の推定処理 (図 29のステップ S 1 02の処理) について説明する。 はじめに、 ステップ S 250 1において、 条件設定部 252 1は、 条件 (タツ プ範囲と次数) を設定する。
例えば、 いま、 L個の画素からなるタップ範囲が設定されたとする。 また、 各 画素のそれぞれに対して、 所定の番号 1 (1は、 0乃至 L_ 1のうちのいずれか の整数値) が付されるとする。
次に、 ステップ S 2502において、 条件設定部 252 1は、 注目画素を設定 する。
ステップ S 2503において、 入力画素値取得部 2523は、 条件設定部 25 21により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力 画素値テープルを生成する。 いまの場合、 L個の入力画素値 P(x,y, t)からなる テーブルが生成されることになる。 ここで、 L個の入力画素値 P(x, y,t)のそれ ぞれを、 その画素の番号 1の関数として P(l)と記述することにする。 即ち、 入 力画素値テーブルは、 L個の P(l)が含まれるテーブルとなる。
ステップ S 2504において、 積分成分演算部 25 24は、 条件設定部 2 52 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検出部 101より供給されたデータ定常性情報 (角度若しくは動き) に基づいて積分成 分を演算し、 積分成分テーブルを生成する。
ただし、 いまの場合、 上述したように、 入力画素値は、 P(x,y, t)でなく P(l) といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2524 は、 上述した式 (9 5) の積分成分 Si (xs,xe,ys,yeJts,te) を、 積分成分
Si (1)といった 1 の関数として演算することになる。 即ち、 積分成分テーブルは、 L X i個の Si (1)が含まれるテーブルとなる。
なお、 ステップ S 2503の処理とステップ S 2504の処理の順序は、 図 8 8の例に限定されず、 ステップ S 2504の処理が先に実行されてもよいし、 ス テツプ S 2503の処理とステップ S 2504の処理が同時に実行されてもよレ、。 次に、 ステップ S 2505において、 正規方程式生成部 25 25は、 ステップ S 2503の処理で入力画素値取得部 25 23により生成された入力画素値テー ブルと、 ステップ S 2504の処理で積分成分演算部 25 24により生成された 積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 (95) に対応する 次の式 (9 6) の特徴量 を演算する。 で、 それに対応する正規方程式は、 次 の式 (97) のように表される。 WjSjiD+e
Figure imgf000149_0001
(96)
Figure imgf000149_0002
… (97) 式 (97) で示される正規方程式の各行列のそれぞれを、 次の式 (9 8) 乃至 (100) のように定義すると、 正規方程式は、 次の式 (10 1) のように表さ れる。
Figure imgf000149_0003
(98) ∑ L - -o s s
Figure imgf000150_0001
(9 9)
0
PMAT =
∑ Sn(l)P(l)
\l=0 ノ
(1 00)
Figure imgf000150_0002
• ■ · (1 01) 式 (99) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 ^ で ある。 従って、 式 (10 1) において、 左辺の行列 SMAT と右辺の行列 PMATが 決定されれば、 行列解法によって行列 WMAT (即ち、 特徴量 Wi) の算出が可能で ある。
具体的には、 式 (98) で示されるように、 行列 SMAT の各成分は、 上述した 積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成分演 算部 2 524より供給された積分成分テーブルに含まれているので、 正規方程式 生成部 25 25は、 積分成分テーブルを利用して行列 SMATの各成分を演算する ことができる。
また、 式 (1 00) で示されるように、 行列 PMAT の各成分は、 積分成分
(1)と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行 列 SMATの各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l) は、 入力画素値取得部 2523より供給された入力画素値テーブルに含まれてい るので、 正規方程式生成部 2525は、 積分成分テーブルと入力画素値テーブル を利用して行列 PMATの各成分を演算することができる。
このようにして、 正規方程式生成部 2525は、 行列 SMAT と行列 PMAT の各 成分を演算し、 その演算結果 (行列 SMAT と行列 PMAT の各成分) を正規方程式 テーブルとして近似関数生成部 2526に出力する。
正規方程式生成部 2526より正規方程式テーブルが出力されると、 ステップ S 2506において、 近似関数生成部 2526は、 正規方程式テーブルに基づい て、 上述した式 (101) の行列 WMATの各成分である特徴量 Wi (即ち、 近似関 数 f (X, y, t)の係数 を演算する。
具体的には、 上述した式 (101) の正規方程式は、 次の式 (102) のよう に変形できる。
¾Γ = S ATPMAT
· ■ · (102) 式 (102) において、 左辺の行列 WMATの各成分が、 求めたい特徴量^ で ある。 また、 行列 SMAT と行列 PMATのそれぞれの各成分は、 正規方程式生成部 2525より供給された正規方程式テーブルに含まれている。 従って、 近似関数 生成部 2526は、 正規方程式テーブルを利用して、 式 (102) の右辺の行列 演算を行うことで行列 AT を演算し、 その演算結果 (特徴量 Wi) を画像生成部 103に出力する。
ステップ S 2507において、 近似関数生成部 2526は、 全画素の処理を終 了したか否かを判定する。
ステップ S 2507において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 2502に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 5 0 2乃至 S 2 5 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 5 0 7において、 全画素の 処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。
以上、 説明したように、 3次元近似手法は、 1次元や 2次元ではなく、 時空間 方向の 3次元の積分効果を考慮しているので、 1次元近似手法や 2次元近似手法 に比較して、 より正確に実世界 1の光信号を推定することが可能になる。
次に、 図 8 9乃至図 1 1 0を参照して、 画像生成部 1 0 3 (図 3 ) の実施の形 態の 1例について説明する。
図 8 9は、 この例の実施の形態の原理を説明する図である。
図 8 9で示されるように、 この例の実施の形態においては、 実世界推定部 1 0 2が、 関数近似手法を利用することが前提とされている。 即ち、 センサ 2に入射 される画像である、 実世界 1の信号 (光の強度の分布) 力 所定の関数 Fで表さ れるとして、 実世界推定部 1 0 2が、 センサ 2から出力された入力画像 (画素値 P ) と、 データ定常性検出部 1 0 1から出力されたデータ定常性情報を使用して、 関数!7を所定の関数 f で近似することによって、 関数 Fを推定することが前提と されている。
なお、 以下、 この例の実施の形態の説明においても、 画像である、 実世界 1の 信号を、 特に光信号と称し、 関数 Fを、 特に光信号関数 Fと称する。 また、 関数 ίを、 特に近似関数 f と称する。
そこで、 この例の実施の形態においては、 このような前提に基づいて、 画像生 成部 1 0 3が、 データ定常性検出部 1 0 1から出力されたデータ定常性情報と、 実世界推定部 1 0 2から出力された実世界推定情報 (図 8 9の例では、 近似関数 f の特徴量、 または特徴量が特定された近似関数 f) を使用して、 近似関数 f を 所定の時空間範囲で積分し、 その積分値を出力画素値 M (出力画像) として出力 する。 なお、 この例の実施の形態においては、 入力画像の画素と出力画像の画素 を区別するために、 入力画素値を Pと記述し、 出力画素値を Mと記述する。 換言すると、 光信号関数 Fが 1度積分されて入力画素値 Pとなり、 その入力画 素値 Pから光信号関数 Fが推測され (近似関数 f で近似され) 、 推測された光 信号関数 F (即ち、 近似関数 f) が再度積分されて、 出力画素値 Mが生成される。 従って、 以下、 画像生成部 1 0 3が実行する近似関数 f の積分を、 再積分と称 する。 また、 この例の実施の形態を、 再積分手法と称する。
なお、 後述するように、 再積分手法において、 出力画素値 Mが生成される場合 の近似関数 f の積分範囲は、 入力画素値 Pが生成される場合の光信号関数 Fの 積分範囲 (即ち、 空間方向においては、 センサ 2の検出素子の縦幅と横幅であり、 時間方向においては、 センサ 2の露光時間である) に限定されず、 任意の積分範 囲とすることが可能である。
例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲のうちの空 間方向の積分範囲を可変することで、 その積分範囲に応じて出力画像の画素ピッ チを可変することが可能になる。 即ち、 空間解像度の創造が可能になる。
同様に、 例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲の うちの時間方向の積分範囲を可変することで、 時間解像度の創造が可能になる。 以下、 図面を参照して、 このような再積分手法のうちの 3つの具体的な手法に ついてそれぞれ個別に説明していく。
即ち、 3つの具体的な手法とは、 関数近似手法の 3つの具体的な手法 (実世界 推定部 1 0 2の実施の形態の上述した 3つの具体的な例) のそれぞれに対応する 再積分手法である。
具体的には、 1つ目の手法は、 上述した 1次元近似手法 (関数近似手法の 1手 法) に対応する再積分手法である。 従って、 1つ目の手法では 1次元の再積分を 行うことになるので、 以下、 このような再積分手法を、 1次元再積分手法と称す る。
2つ目の手法は、 上述した 2次元近似手法 (関数近似手法の 1手法) に対応す る再積分手法である。 従って、 2つ目の手法では 2次元の再積分を行うことにな るので、 以下、 このような再積分手法を、 2次元再積分手法と称する。 3つ目の手法は、 上述した 3次元近似手法 (関数近似手法の 1手法) に対応す る再積分手法である。 従って、 3つ目の手法では 3次元の再積分を行うことにな るので、 以下、 このような再積分手法を、 3次元再積分手法と称する。
以下、 1次元再積分手法、 2次元再積分手法、 および 3次元再積分手法のそれ ぞれの詳細について、 その順番で説明していく。
はじめに、 1次元再積分手法について説明する。
1次元再積分手法においては、 1次元近似手法により近似関数 f (X)が既に生 成されていることが前提とされる。
即ち、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする光信 号関数 F(x,y,t)を、 空間方向である X方向、 Y方向、 および Z方向、 並びに時 間方向である t方向のうちの所定の 1方向 (例えば、 X方向) に射影した 1次元 の波形 (再積分手法の説明においても、 このような波形のうちの X方向に射影 した波形を、 X断面波形 F(x)と称することにする) I n次 (nは、 任意の整 数) の多項式などの近似関数 f(x)で近似されていることが前提とされる。
この場合、 1次元再積分手法においては、 出力画素値 Mは、 次の式 (103) のように演算される。
Figure imgf000154_0001
• · ■ (10 3) なお、 式 (1 03) において、 xsは、 積分開始位置を表しており、 xe は、 積 分終了位置を表している。 また、 Geは、 所定のゲインを表している。
具体的には、 例えば、 いま、 実世界推測部 102が、 図 90で示されるような 画素 3 10 1 (センサ 2の所定の 1つの検出素子に対応する画素 3 10 1) を注 目画素として、 図 90で示されるような近似関数 f(x) (X断面波形 F(x)の近似 関数 f(x)) を既に生成しているとする。
なお、 図 90の例では、 画素 3 10 1の画素値 (入力画素値) が Pとされ、 か つ、 画素 3 101の形状が、 1辺の長さが 1の正方形とされている。 また、 空間 方向のうちの、 画素 3 1 0 1の 1辺に平行な方向 (図中水平方向) が X方向とさ れ、 X方向に垂直な方向 (図中垂直方向) が Y方向とされている。
また、 図 90の下側に、 画素 3 10 1の中心が原点とされる空間方向 (X方向 と Y方向) の座標系 (以下、 注目画素座標系と称する) と、 その座標系における 画素 3 10 1が示されている。
さらに、 図 90の上方に、 y=0 (yは、 図中下側で示される注目画素座標系 の Y方向の座標値) における近似関数 f(x)をグラフ化したものが示されている。 このグラフにおいて、 図中水平方向に平行な軸は、 図中下側で示される注目画素 座標系の X方向の X軸と同一の軸であり (原点も同一であり) 、 また、 図中垂 直方向に平行な軸は、 画素値を表す軸とされている。
この場合、 近似関数 f(x)と画素 3 1 0 1の画素値 Pの間には、 次の式 (10 4) の関係が成立する。
Figure imgf000155_0001
(104) また、 図 90で示されるように、 画素 3 10 1は、 傾き Gf で表される空間方 向のデータの定常性を有しているとする。 そして、 データ定常性検出部 10 1 (図 8 9) 、 傾き Gf で表されるデータの定常性に対応するデータ定常性情報 として、 図 90で示されるような角度 Θを既に出力しているとする。
この場合、 例えば、 1次元再積分方法においては、 図 9 1で示されるように、 X方向に一 0. 5乃至 0. 5の範囲、 かつ Y方向に _0. 5乃至 0. 5の範囲 (図 90の画素 3 1 0 1が位置する範囲) に、 4個の画素 3 1 1 1乃至画素 3 1 14を新たに創造することが可能である。
なお、 図 9 1の下側に、 図 90のものと同一の注目画素座標系と、 その注目画 素座標系における画素 3 1 1 1乃至画素 3 1 14が示されている。 また、 図 9 1 の上側に、 図 90のものと同一のグラフ (y=0における近似関数 f (X)をグラフ 化したもの) が示されている。 具体的には、 図 9 1で示されるように、 1次元再積分方法においては、 次の式 (105) により画素 3 1 1 1の画素値 M (1) の算出が、 次の式 (1 06) に より画素 3 1 1 2の画素値 M (2) の算出が、 次の式 (1 07) により画素 3 1 1 3の画素値 M ( 3 ) の算出が、 次の式 (108) により画素 3 1 14の画素値 M (4) の算出が、 それぞれ可能である。
M(1) =2x I te1f (x)dx
… (105) f (x)dx
:s2
• · · (106) f (x)dx
【s3
• · · (107) f (x)dx
-【s4
- · ■ (108) なお、 式 (1 05) の xs l、 式 (106) の xs2、 式 (107) の xsい およ び式 (1 08) の xs4 のそれぞれは、 対応する式の積分開始位置を表している。 また、 式 (1 0 5) の xeい 式 (1 06) の xeい 式 (107) の xe3、 および 式 (1 08) の xe4のそれぞれは、 対応する式の積分終了位置を表している。 式 (105) 乃至式 (108) のそれぞれの右辺の積分範囲は、 画素 3 1 1 1 乃至画素 3 1 14のそれぞれの画素幅 (X方向の長さ) となる。 即ち、 xel - xsい xe2_xs2,xe3- xs3,xe4- xs4 のそれぞれは、 0. 5となる。
ただし、 いまの場合、 y=0における近似関数 f (X)と同一形状の 1次元の波形 ヽ Y方向ではなく、 傾き Gf で表されるデータの定常性の方向 (即ち、 角度 0 方向) に連なっていると考えられる (実際には、 y=0における X断面波形 F(x) と同一形状の波形が定常性の方向に連なっている) 。 即ち、 図 9 1の注目画素座 標系における原点(0, 0) (図 90の画素 3 1 01の中心) における画素値 f(0)を ' 画素値 flとした場合、 画素値 Πが続く方向は、 Y方向ではなく、 傾き Gf で表 されるデータの定常性の方向 (角度 0方向) である。
換言すると、 Y方向の所定の位置 y (ただし、 yは 0以外の数値) における近 似関数 f(x)の波形を考えた場合、 画素値 Πとなる位置は、 位置 (0,y) ではな く、 位置 (0, y) から X方向に所定の量 (ここでも、 このような量をシフト量と 称することにする。 また、 シフト量は、 Y方向の位置 yに依存する量であるので、 このシフト量を Cx (y)と記述することにする) だけ移動した位置 (Cx (y),y) で ある。 従って、 上述した式 (1 05) 乃至式 (108) のそれぞれの右辺の積 分範囲として、 求めたい画素値 M (1) (ただし、 1は、 1乃至 4のうちのいず れかの整数値) の中心が存在する Y方向の位置 yを考慮した範囲、 即ち、 シフ ト量 Cx (y)を考慮した積分範囲の設定が必要である。
具体的には、 例えば、 画素 3 1 1 1と画素 3 1 1 2の中心が存在する Y方向 の位置 yは、 y=0ではなく、 y=0.25である。
従って、 y=0.25における近似関数 f )の波形は、 y=0における近似関数 f (X)の波形を X方向にシフト量 Cx (0.25)だけ移動させた波形に相当する。
換言すると、 上述した式 (105) において、 画素 3 1 1 1に対する画素値 M(l)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xslから終了 位置 xel まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs l =_0.5から終了位置 xe l = 0までの範囲 (画素 3 1 1 1が X方向に占める範囲 そのもの) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs l=-0.5 + Cx (0.25)から終了位置 xel = 0 +CX (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 1を仮に移動させた場合における、 画素 3 1 1 1が X方向に占める範囲) とな る。
同様に、 上述した式 (1 06) において、 画素 3 1 1 2に対する画素値 M (2) は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs2から終了位置 xe2まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs2 = 0 から終了位置 xe2 =0.5までの範囲 (画素 3 1 1 2の X方向に占める範囲そのも の) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs2 = 0+Cx (0.25)か ら終了位置 xel=0.5 + Cx (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 2を仮に 移動させた場合における、 画素 3 1 1 2の X方向に占める範囲) となる。
また、 例えば、 画素 3 1 1 3と画素 3 1 14の中心が存在する Y方向の位置 y は、 y=0ではなく、 y=- 0.25である。
従って、 y=- 0.25における近似関数 f(x)の波形は、 y=0における近似関数 f (X)の波形を X方向にシフト量 Cx (-0.25)だけ移動させた波形に相当する。 換言すると、 上述した式 (107) において、 画素 3 1 1 3に対する画素値 M(3)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs3から終了 位置 xe3まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs 3 =- 0.5から終了位置 xe3 = 0までの範 ffl (画素 3 1 1 3の X方向に占める範囲 そのもの) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs 3=- 0.5 + Cx (- 0.25)から終了位置 xe3 = 0+Cx (-0.25) (シフト量 Cx (-0.25)だけ画素 3 1 1 3を仮に移動させた場合における、 画素 3 1 1 3の X方向に占める範囲) となる。
同様に、 上述した式 (108) において、 画素 3 1 14に対する画素値 M(4) は、 y=0における近似関数 f (X)を所定の積分範囲 (開始位置 xs4から終了位置 xe4まで) で積分したものであるとすると、 その積分範囲は、 開始位置 xs4 = 0 から終了位置 xe4 =0.5までの範囲 (画素 3 1 14の X方向の占める範囲そのも の) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs4 = 0+Cx (- 0.25)か ら終了位置 xel=0.5 + Cx (-0.25) (シフト量 Cx (-0.25)だけ画素 3 1 1 4を仮 に移動させた場合における、 画素 3 1 14の X方向に占める範囲) となる。
従って、 画像生成部 1 02 (図 89) は、 上述した式 (105) 乃至式 (10 8) のそれぞれに、 上述した積分範囲のうちの対応するものを代入してそれぞれ 演算し、 それらの演算結果を出力画素値 M(l)乃至 M (4) のそれぞれとして出 力することになる。
このように、 画像生成部 1 02は、 1次元再積分手法を利用することで、 セン サ 2 (図 8 9) からの出力画素 3 10 1 (図 90) における画素として、 出力画 素 3 1 01よりも空間解像度の高い 4つの画素、 即ち、 画素 3 1 1 1乃至画素 3 1 14 (図 9 1) を創造することができる。 さらに、 図示はしないが、 上述した ように、 画像生成部 10 2は、 画素 3 1 1 1乃至画素 3 1 14のみならず、 積分 範囲を適宜変えることで、 出力画素 3 10 1に対して任意の倍率の空間解像度の 画素を劣化することなく創造することができる。
図 9 2は、 このような 1次元再積分手法を利用する画像生成部 1 03の構成例 を表している。
図 9 2で示されるように、 この例の画像生成部 103には、 条件設定部 3 1 2 1、 特徴量記憶部 3 1 22、 積分成分演算部 3 1 23、 および出力画素値演算部 3 1 24が設けられている。
条件設定部 3 1 2 1は、 実世界推定部 1 02より供給された実世界推定情報 (図 9 2の例では、 近似関数 f (X)の特徴量) に基づいて近似関数 f(x)の次数 n を設定する。
条件設定部 3 1 2 1はまた、 近似関数 f(x)を再積分する場合 (出力画素値を 演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 1 2 1が設定する積 分範囲は、 画素の幅である必要は無い。 例えば、 近似関数 f (x) は空間方向 (X 方向) に積分されるので、 センサ 2 (図 8 9) からの入力画像の各画素の空間的 な大きさに対する、 出力画素 (画像生成部 103がこれから演算する画素) の相 対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範囲の決定が可能 である。 従って、 条件設定部 3 1 21は、 積分範囲として、 例えば、 空間解像度 倍率を設定することもできる。
特徴量記憶部 3 1 22は、 実世界推定部 102より順次供給されてくる近似関 数 f(x)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 122は、 近似 関数 (x) の特徴量の全てを記憶すると、 近似関数 f(x)の特徴量を全て含む 特徴量テーブルを生成し、 出力画素値演算部 31 24に供給する。
ところで、 上述したように、 画像生成部 103は、 上述した式 (103) を利 用して出力画素値 Mを演算するが、 上述した式 (103) の右辺に含まれる近 似関数 f(x)は、 具体的には、 次の式 (109) のように表される。
n .
f (X) = ∑ Wj χχ'
i=0
• ■ · (1 0 9) なお、 式 (1 09) において、 は、 実世界推定部 102より供給される近 似関数 f(x)の特徴量を表している。
従って、 上述した式 (103) の右辺の近似関数 f(x)に、 式 (1 09) の近 似関数 f (X) を代入して、 式 (10 3) の右辺を展開 (演算) すると、 出力画 素値 Mは、 次の式 (1 10) のように表される。 = GeX∑ W. X 、e .~ ΰ
i=o i + l
n .
=∑ Wj xkj (xs, xe)
i=0
• · ■ (1 1 0) 式 (1 1 0) において、 Ki (xs,xe) は、 i次項の積分成分を表している。 即 ち、 積分成分 (xs,xe) は、 次の式 (1 1 1) で示される通りである。
Figure imgf000160_0001
積分成分演算部 3 1 23は、 この積分成分 (xs,xe) を演算する。
具体的には、 式 (1 1 1) で示されるように、 積分成分 (xs,xe) は、 積分 範囲の開始位置 xs、 および終了位置 xe、 ゲイン Ge、 並びに i次項の iが既知で あれば演算可能である。 これらのうちの、 ゲイン Ge は、 条件設定部 31 21により設定された空間解 像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 1 2 1により設定された次数 nにより決定される。 また、 積分範囲の開始位置 xs、 および終了位置 xeのそれぞれは、 これから生 成する出力画素の中心画素位置(x,y)および画素幅、 並びにデータの定常性の方 向を表すシフ ト量 Cx (y)により決定される。 なお、 (x,y)は、 実世界推定部 10
2が近似関数 f (X)を生成したときの注目画素の中心位置からの相対位置を表し ている。
さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそれ ぞれは、 条件設定部 3 1 21により設定された空間解像度倍率 (積分範囲) によ り決定される。
また、 シフ ト量 Cx (y)と、 データ定常性検出部 10 1より供給された角度 0は、 次の式 (1 1 2) と式 (1 1 3) のような関係が成り立つので、 シフト量 Cx (y) は角度 0により決定される。
Gf = tan θ =
' dx
• · · (1 1 2)
Gx(y) =
• · ■ (1 1 3) なお、 式 (1 1 2) において、 Gf は、 データの定常性の方向を表す傾きを表 しており、 0は、 データ定常性検出部 10 1 (図 8 9) より出力されるデータ定 常性情報の 1つである角度 (空間方向の 1方向である X方向と、 傾き Gf で表さ れるデータの定常性の方向とのなす角度) を表している。 また、 dxは、 X方向 の微小移動量を表しており、 dyは、 dxに対する Y方向 (X方向と垂直な空間方 向) の微小移動量を表している。 従って、 積分成分演算部 3 1 2 3は、 条件設定部 3 1 2 1により設定された次 数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1より出 力されたデータ定常性情報のうちの角度 Θに基づいて積分成分 (xs , xe ) を演 算し、 その演算結果を積分成分テーブルとして出力画素値演算部 3 1 2 4に供給 する。 .
出力画素値演算部 3 1 2 4は、 特徴量記憶部 3 1 2 2より供給された特徴量テ 一ブルと、 積分成分演算部 3 1 2 3より供給された積分成分テーブルを利用して、 上述した式 (1 1 0 ) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 9 3のフローチャートを参照して、 1次元再積分手法を利用する画像 生成部 1 0 3 (図 9 2 ) の画像の生成の処理 (図 2 9のステップ S 1 0 3の処 理) について説明する。
例えば、 いま、 上述した図 2 9のステップ S 1 0 2の処理で、 実世界推測部 1 0 2が、 上述した図 9 0で示されるような画素 3 1 0 1を注目画素として、 図 9 0で示されるような近似関数 f (x)を既に生成しているとする。
また、 上述した図 2 9のステップ S 1 0 1の処理で、 データ定常性検出部 1 0 1が、 データ定常性情報として、 図 9 0で示されるような角度 Θを既に出力して いるとする。
この場合、 図 9 3のステップ S 3 1 0 1において、 条件設定部 3 1 2 1は、 条 件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4倍 密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設定さ れたとする。
即ち、 この場合、 図 9 1で示されるように、 X方向に一 0 . 5乃至 0 . 5の範 囲、 かつ Y方向に一 0 . 5乃至 0 . 5の範囲 (図 9 0の画素 3 1 0 1の範囲) に、 4個の画素 3 1 1 1乃至画素 3 1 1 4を新たに創造することが設定されたことに なる。 ステップ S 3 1 0 2において、 特徴量記憶部 3 1 2 2は、 実世界推定部 1 0 2 より供給された近似関数 f(x)の特徴量を取得し、 特徴量テーブルを生成する。 いまの場合、 5次の多項式である近似関数 f(x)の係数^乃至 w5が実世界推定 部 1 0 2より供給されるので、 特徴量テーブルとして、 (M^ Wp W^ W W Ws ) が生成される。
ステップ S 3 1 0 3において、 積分成分演算部 3 1 2 3は、 条件設定部 3 1 2 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 0 ) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成する画素 3 1 1 1乃至画素 3 1 1 4のそれ ぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃至 4 のそれぞれが付されているとすると、 積分成分演算部 3 1 2 3は、 上述した式
( 1 1 1) の積分成分 (xs , χβ ) を、 次の式 ( 1 1 4) の左辺で示される積分 成分 ひ)といった 1 (ただし、 1はモード番号を表している) の関数として演 算する。
Figure imgf000163_0001
• · · (1 1 4)
具体的には、 いまの場合、 次の式 (1 1 5) で示される積分成分 (1)が演算 される。 kj(1) = kj (—0, 5-Cx(-0.25),0-Cx(-0.25))
kj (2) = kj (0-Cx (-0.25), 0.5-Cx (-0.25))
kj(3) = kj (-0.5-Cx (0.25), 0-Cx (0.25))
kj (4) = kj (0-Cx(0.25),0.5-Cx(0.25))
• · · ( 1 1 5) なお、 式 ( 1 1 5) において、 左辺が積分成分 Ki (1)を表し、 右辺が積分成分 (xs,xe) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちのいずれ かであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個の (1), 6 個の (2), 6個の (3), 6個の (4)の総計 24個の (1)が演算されるこ とになる。
より具体的には、 はじめに、 積分成分演算部 3 1 2 3は、 データ定常性検出部 1 0 1より供給された角度 6を使用して、 上述した式 (1 1 2) と式 (1 1 3) よりシフト量 Cx (- 0.25)、 およぴ (0.25)のそれぞれを演算する。
次に、 積分成分演算部 3 1 2 3は、 演算したシフト量 Cx (-0.25)、 および
Cx (0.25)を使用して、 式 (1 1 5) の 4つの式の各右辺の積分成分
(xs )xe) のそれぞれを、 i= 0乃至 5についてそれぞれ演算する。 なお、 この 積分成分 Ki (xs , xe ) の演算においては、 上述した式 (1 1 1 ) が使用される。 そして、 積分成分演算部 3 1 2 3は、 式 (1 1 5) に従って、 演算した 24個 の積分成分 ^ (xs,xe) のそれぞれを、 対応する積分成分 (1)に変換し、 変換 した 24個の積分成分 (1) (即ち、 6個の (1)、 6個の (2)、 6個の (3)、 および 6個の (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3 1 0 2の処理とステップ S 3 1 0 3の処理の順序は、 図 9 3の例に限定されず、 ステップ S 3 1 0 3の処理が先に実行されてもよいし、 ス テツプ S 3 1 0 2の処理とステップ S 3 1 0 3の処理が同時に実行されてもよい。 次に、 ステップ S 3 1 04において、 出力画素値演算部 3 1 24は、 ステップ S 3 1 0 2の処理で特徴量記憶部 3 1 2 2により生成された特徴量テーブルと、 ステップ S 3 1 0 3の処理で積分成分演算部 3 1 2 3により生成された積分成分 テーブルに基づいて出力画素値 M(l)乃至 M (4)のそれぞれを演算する。
具体的には、 いまの場合、 出力画素値演算部 3 1 24は、 上述した式 (1 1 0) に対応する、 次の式 (1 1 6) 乃至式 (1 1 9) の右辺を演算することで、 画素 3 1 1 1 (モード番号 1の画素) の画素値 M(l)、 画素 3 1 1 2 (モード番 号 2の画素) の画素値 M (2)、 画素 3 1 1 3 (モード番号 3の画素) の画素値
M(3)、 および画素 3 1 1 4 (モード番号 4の画素) の画素値 M (4)のそれぞれを 演算する。
Figure imgf000165_0001
• · · (1 1 6)
Figure imgf000165_0002
• · · (1 1 7)
Figure imgf000165_0003
• ■ · (1 1 8)
Figure imgf000165_0004
■ · · (1 1 9) ステップ S 3 1 05において、 出力画素値演算部 3 1 24は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 105において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 1 02に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 1 02乃至 S 3 1 04の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 10 5において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 1 24は、 ステップ S 3 1 06において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 次に、 図 94乃至図 10 1を参照して、 所定の入力画像に対して、 1次元再積 分手法を適用して得られた出力画像と、 他の手法 (従来のクラス分類適応処理) を適用して得られた出力画像の違いについて説明する。
図 94は、 入力画像の元の画像を示す図であり、 図 95は、 図 94の元の画像 に対応する画像データを示している。 図 9 5において、 図中垂直方向の軸は、 画 素値を示し、 図中右下方向の軸は、 画像の空間方向の一方向である X方向を示し、 図中右上方向の軸は、 画像の空間方向の他の方向である Y方向を示す。 なお、 後 述する図 9 7、 図 9 9、 およぴ図 1 0 1の軸のそれぞれは、 図 9 5の軸と対応し ている。
図 9 6は、 入力画像の例を示す図である。 図 9 6で示される入力画像は、 図 9 4で示される画像の 2 X 2の画素からなるプロックに属する画素の画素値の平均 値を、 1つの画素の画素値として生成された画像である。 即ち、 入力画像は、 図 9 4で示される画像に、 センサの積分特性を模した、 空間方向の積分を適用する ことにより得られた画像である。 また、 図 9 7は、 図 9 6の入力画像に対応する 画像データを示している。
図 9 4で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾い た細線の画像が含まれている。 同様に、 図 9 6で示される入力画像において、 上 下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 9 8は、 図 9 6で示される入力画像に、 従来のクラス分類適応処理を適用し て得られた画像 (以下、 図 9 8で示される画像を、 従来の画像と称する) を示す 図である。 また、 図 9 9は、 従来の画像に対応する画像データを示している。 なお、 クラス分類適応処理は、 上述したように、 クラス分類処理と適応処理と からなり、 クラス分類処理によって、 データを、 その性質に基づいてクラス分け し、 各クラスごとに適応処理を施すものである。 適応処理では、 例えば、 低画質 または標準画質の画像が、 所定のタップ係数を用いてマッピング (写像) される ことにより、 高画質の画像に変換される。
図 1 0 0は、 図 9 6で示される入力画像に、 1次元再積分手法を適用して得ら れた画像 (以下、 図 1 0 0で示される画像を、 再積分画像と称する) を示す図で ある。 また、 図 1 0 1は、 再積分画像に対応する画像データを示している。 図 9 8の従来の画像と、 図 1 0 0の再積分画像を比較するに、 従来の画像にお いては、 細線の画像が、 図 9 4の元の画像とは異なるものになっているのに対し て、 再積分画像においては、 細線の画像が、 図 9 4の元の画像とほぼ同じものに なっていることがわかる。 この違いは、 従来のクラス分類適応処理は、 あくまでも図 9 6の入力画像を基 準 (原点) として処理を行う手法であるのに対して、 1次元再積分手法は、 細線 の定常性を考慮して、 図 9 4の元の画像を推定し (元の画像に対応する近似関数 f (x)を生成し) 、 推定した元の画像を基準 (原点) として処理を行う (再積分 して画素値を演算する) 手法であるからである。
このように、 1次元再積分手法においては、 1次元近似手法により生成された 1次元の多項式などの近似関数 f (x) (実世界の X断面波形 F (X)の近似関数 f (x) )
を基準 (原点) として、 近似関数 f (x)を任意の範囲に積分することで出力画像 (画素値) が生成される。
従って、 1次元再積分手法においては、 従来の他の手法に比較して、 元の画像 (センサ 2に入射される前の実世界 1の光信号) により近い画像の出力が可能に なる。
また、 1次元再積分手法においては、 上述したように、 積分範囲は任意なので、 積分範囲を可変することにより、 入力画像の解像度とは異なる解像度 (時間解像 度、 または空間解像度) を創造することも可能になる。 即ち、 入力画像の解像度 に対して、 整数値だけではなく任意の倍率の解像度の画像を生成することが可能 になる。
さらに、 1次元再積分手法においては、 他の再積分手法に比較して、 より少な い演算処理量で出力画像 (画素値) の算出が可能となる。
次に、 図 1 0 2乃至図 1 0 8を参照して、 2次元再積分手法について説明する。 2次元再積分手法においては、 2次元近似手法により近似関数 f (X, y)が既に 生成されていることが前提とされる。
即ち、 例えば、 図 1 0 2で示されるような、 傾き GFで表される空間方向の定 常性を有する実世界 1 (図 8 9 ) の光信号を表す画像関数 F (x,y,t)を、 空間方 向 (X方向と Y方向) に射影した波形、 即ち、 X— Y平面上の波形 F (x, y)が、 n 次 (nは、 任意の整数) の多項式などの近似関数 f(x,y)に近似されていること が前提とされる。
図 1 02において、 図中、 水平方向は、 空間方向の 1方向である X方向を、 右 上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 それ ぞれ表している。 Gpは、 空間方向の定常性の傾きを表している。
なお、 図 102の例では、 定常性の方向は、 空間方向 (X方向と Y方向) とさ れているため、 近似の対象とされる光信号の射影関数は、 関数 F(x,y)とされて いるが、 後述するように、 定常性の方向に応じて、 関数 F(x,t)や関数 F(y,t)が 近似の対象とされてもよい。
図 102の例の場合、 2次元再積分手法においては、 出力画素値 Mは、 次の式 (1 20) のように演算される。
M = XJys x:ef(X'y)dXdy
• · · (1 20) なお、 式 (1 20) において、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開始 位置を表しており、 xeは、 X方向の積分終了位置を表している。 また、 Geは、 所定のゲインを表している。
式 (1 20) において、 積分範囲は任意に設定可能であるので、 2次元再積分 手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 8 9 ) からの入力画像の画素) に対して任意の倍率の空間解像度の画素を劣化する ことなく創造することが可能になる。
図 1 03は、 2次元再積分手法を利用する画像生成部 1 03の構成例を表して いる。
図 1 03で示されるように、 この例の画像生成部 1 03には、 条件設定部 3 2 0 1、 特徴量記憶部 3202、 積分成分演算部 3 203、 および出力画素値演算 部 3204が設けられている。 条件設定部 3 2 0 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 1 0 3の例では、 近似関数 f (x,y)の特徴量) に基づいて近似関数 f (x,y)の 次数 nを設定する。
条件設定部 3 2 0 1はまた、 近似関数 f (x,y)を再積分する場合 (出力画素値 を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 2 0 1が設定する 積分範囲は、 画素の縦幅や横幅である必要は無い。 例えば、 近似関数 f (x, y) は空間方向 (X方向と Y方向) に積分されるので、 センサ 2からの入力画像の各 画素の空間的な大きさに対する、 出力画素 (画像生成部 1 0 3がこれから生成す る画素) の相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範囲 の決定が可能である。 従って、 条件設定部 3 2 0 1は、 積分範囲として、 例えば、 空間解像度倍率を設定することもできる。
特徴量記憶部 3 2 0 2は、 実世界推定部 1 0 2より順次供給されてくる近似関 数 f (x, y)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 2 0 2は、 近 似関数 f (x,y)の特徴量の全てを記憶すると、 近似関数 f (x,y)の特徴量を全て含 む特徴量テーブルを生成し、 出力画素値演算部 3 2 0 4に供給する。
ここで、 近似関数 f (x, y)の詳細について説明する。
例えば、 いま、 上述した図 1 0 2で示されるような傾き GFで表される空間方 向の定常性を有する実世界 1 (図 8 9 ) の光信号 (波形 F (x,y) で表される光信 号)が、 センサ 2 (図 8 9 ) により検出されて入力画像 (画素値) として出力さ れたとする。
さらに、 例えば、 図 1 0 4で示されるように、 データ定常性検出部 1 0 1 (図 3 ) 力、 この入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素分の総 計 2 0個の画素 (図中、 点線で表される 2 0個の正方形) から構成される入力画 像の領域 3 2 2 1に対してその処理を実行し、 データ定常性情報の 1つとして角 度 Θ (傾き GF に対応する傾き Gf で表されるデータの定常性の方向と、 X方向と のなす角度 e ) を出力したとする。 なお、 実世界推定部 1 02から見ると、 データ定常性検出部 10 1は、 注目画 素における角度 0を単に出力すればよいので、 データ定常性検出部 10 1の処理 範囲は、 上述した入力画像の領域 3221に限定されない。
また、 入力画像の領域 322 1において、 図中水平方向は、 空間方向の 1方 向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y方向 を表している。
さらに、 図 1 04中、 左から 2画素目であって、 下から 3画素目の画素が注目 画素とされ、 その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定 されている。 そして、 原点(0,0)を通る角度 0の直線 (データの定常性の方向を 表
す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離と称す る) が x' とされている。
さらに、 図 1 04中、 右側のグラフは、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする画像関数 F(x,y, t)を、 Y方向の任意の位置 yにおい て、 X方向に射影した 1次元の波形 (以下、 このような波形を、 X断面波形 .
F(x5 )と称する) が近似された関数であって、 n次 (nは、 任意の整数) の多項 式などの近似関数 f(x' )を表している。 右側のグラフの軸のうち、 図中水平方 向の軸は、 断面方向距離を表しており、 図中垂直方向の軸は、 画素値を表してい る。
この場合、 図 1 04で示される近似関数 f (x, )は、 n次の多項式であるので、 次の式 (1 2 1) のように表される。
π .
f ') = W0+W1X'H-W9X' + "' '+Wnx'n = ∑ WjX"
ί=0
• · · (1 21) また、 角度 Θが決定されていることから、 原点(0,0)を通る角度 6の直線は一 意に決まり、 Υ方向の任意の位置 yにおける、 直線の X方向の位置 Xl力 次の 式 (1 22) のように表される。 ただし、 式 (1 22) において、 sは cot Θを 表している。
x w
X| = sxy
… (1 22) 即ち、 図 104で示されるように、 傾き Gf で表されるデータの定常性に対応 する直線上の点は、 座標値(Xl , y)で表される。
式 (1 22) より、 断面方向距離 x' は、 次の式 (1 23) のように表される。 x, = x-X| = x-s xy
- … (1 23) 従って、 入力画像の領域 322 1内の任意の位置(x,y)における近似関数 f(x,y)は、 式 (1 21) と式 (1 23) より、 次の式 (1 24) のように示さ れる。
f{x, y) = ∑ Wj (x— sxy)
i=0
. · · ■ (1 24) なお、 式 (1 24) において、 ^ は、 近似関数 f (x,y)の特徴量を表している。 図 1 03に戻り、 式 (1 24) に含まれる特徴量^ ヽ 実世界推定部 102 より供給され、 特徴量記憶部 3202に記憶される。 特徴量記憶部 3202は、 式 (1 24) で表される特徴量 の全てを記憶すると、 特徴量 を全て含む特 徴量テーブルを生成し、 出力画素値演算部 3 204に供給する。
また、 上述した式 (1 20) の右辺の近似関数 f (x,y)に、 式 (1 24) の近 似関数 f (x,y) を代入して、 式 (1 20) の右辺を展開 (演算) すると、 出力 画素値 Mは、 次の式 (1 25) のように表される。 i(xe-sxye)i+-(xe-sxys)i+2-(x sxye}i+2+(xs-sxys)i+2l
1 s(i+1)(i+2)
> i (xs, xe,ys, ye) • · · (1 25) 式 (1 25) において、 (xs )xe,ys )ye) は、 i次項の積分成分を表してい る。 即ち、 積分成分 Ki (xs , xe , ys , ye ) は、 次の式 (1 26) で示される通り である。 ki (x s'x e' ys,ye)
P v j (xe-s χ ye +2- (xe-s x ys)i+2- (xs-s (xs-s x ys)i+2)
e s(i+1)(i+2) .
• ■ · (1 26) 積分成分演算部 3 20 3は、 この積分成分 (xs,xe,ys,ye) を演算する。 具体的には、 式 (1 25) と式 (1 26) で示されるように、 積分成分 Ki (xs,xe,ys,ye) は、 積分範囲の X方向の開始位置 xs、 および X方向の終了位 置 xe、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 ye、 変数 s、 ゲイン Ge、 並びに i次項の iが既知であれば演算可能である。
これらのうちの、 ゲイン Geは、 条件設定部 3201により設定された空間解 像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 320 1により設定された次数 nにより決定される。 変数 sは、 上述したように、 coteであるので、 データ定常性検出部 10 1よ り出力される角度 Θにより決定される。
また、 積分範囲の X方向の開始位置 xs、 および X方向の終了位置 xe、 並びに、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 ye のそれぞれは、 こ れから生成する出力画素の中心画素位置(x, y)および画素幅により決定される。 なお、 (x,y)は、 実世界推定部 102が近似関数 f(x)を生成したときの注目画素 の中心位置からの相対位置を表している。
さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそれ ぞれは、 条件設定部 320 1により設定された空間解像度倍率 (積分範囲) によ り決定される。 従って、 積分成分演算部 3 2 0 3は、 条件設定部 3 2 0 1により設定された次 数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1より出 力されたデータ定常性情報のうちの角度 0に基づいて積分成分
(xs , xe , ys , ye ) を演算し、 その演算結果を積分成分テーブルとして出力画素値 演算部 3 2 0 4に供給する。
出力画素値演算部 3 2 0 4は、 特徴量記憶部 3 2 0 2より供給された特徴量テ 一ブルと、 積分成分演算部 3 2 0 3より供給された積分成分テーブルを利用して、 上述した式 (1 2 5 ) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 1 0 5のフローチャートを参照して、 2次元再積分手法を利用する画 像生成部 1 0 3 (図 1 0 4 ) の画像の生成の処理 (図 2 9のステップ S 1 0 3の 処理) について説明する。
例えば、 いま、 図 1 0 2で示される関数 F (x, y)で表される光信号がセンサ 2 に入射されて入力画像となり、 上述した図 2 9のステップ S 1 0 2の処理で、 実 世界推測部 1 0 2が、 その入力画像のうちの、 図 1 0 6で示されるような 1つの 画素 3 2 3 1を注目画素として、 関数 F (x, y)を近似する近似関数 f (x,y)を既に 生成しているとする。
なお、 図 1 0 6において、 画素 3 2 3 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 2 3 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空 間方向のうちの、 画素 3 2 3 1の 1辺に平行な方向が X方向とされ、 X方向に垂 直な方向が Y方向とされている。 さらに、 画素 3 2 3 1の中心が原点とされる空 間方向 (X方向と Y方向) の座標系 (以下、 注目画素座標系と称する) が設定さ れている。
また、 図 1 0 6において、 上述した図 2 9のステップ S 1 0 1の処理で、 デー タ定常性検出部 1 0 1力 画素 3 2 3 1を注目画素として、 傾き Gf で表される データの定常性に対応するデータ定常性情報として、 角度 0を既に出力している とする。 図 1 05に戻り、 この場合、 ステップ S 320 1において、 条件設定部 3 20 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4倍 密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設定さ れたとする。
即ち、 この場合、 図 1 07で示されるように、 X方向に一0. 5乃至 0. 5の 範囲、 かつ Y方向に一 0. 5乃至 0. 5の範囲 (図 106の画素 323 1の範 囲) に、 4個の画素 3241乃至画素 3244を新たに創造することが設定され たことになる。 なお、 図 107においても、 図 1 06のものと同一の注目画素座 標系が示されている。
また、 図 107において、 M(l)は、 これから生成される画素 3241の画素 値を、 M(2)は、 これから生成される画素 3 242の画素値を、 M(3)は、 これか ら生成される画素 3 243の画素値を、 M(4)は、 これから生成される画素 32 41の画素値を、 それぞれ表している。 '
図 105に戻り、 ステップ S 3 202において、 特徴量記憶部 3 202は、 実 世界推定部 102より供給された近似関数 f(x,y)の特徴量を取得し、 特徴量テ 一ブルを生成する。 いまの場合、 5次の多項式である近似関数 f(x)の係数 w。乃 至^が実世界推定部 102より供給されるので、 特徴量テーブルとして、
(w0 , 1 , Ψ2 , Ψ3 > Ψ4 , Ψ5 ) カ生成される。
ステップ S 3 203において、 積分成分演算部 3203は、 条件設定部 3 20 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成される画素 324 1乃至画素 3244のそ れぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃至 4のそれぞれが付されているとすると、 積分成分演算部 3 20 3は、 上述した式 (1 2 5) の積分成分 (xs , xe , ys , ye ) を、 次の式 (1 27) の左辺で示さ れる積分成分 Ki (1)といった 1 (ただし、 1はモード番号を表している) の関数 として演算する。
kj (I) = kj (xs, xe, ys, ye)
• · (1 27) 具体的には、 いまの場合、 次の式 (1 2 8) で示される積分成分 ^ (1)が演算 さ;^る。 )
Figure imgf000175_0001
• · · (1 2 8) なお、 式 (1 2 8) において、 左辺が積分成分 (1)を表し、 右辺が積分成分 (xs,xe,ys,ye) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちの いずれかであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個の
(1), 6個の (2), 6個の (3), 6個の ^ (4)の総計 24個の ^ (1)が演 算されることになる。
より具体的には、 はじめに、 積分成分演算部 3 20 3は、 データ定常性検出部 1 0 1より供給された角度 0を使用して、 上述した式 (1 2 2) の変数 s ( s = cot 0 ) を演算する。
次に、 積分成分演算部 3 2 0 3は、 演算した変数 sを使用して、 式 (1 2 8) の 4つの式の各右辺の積分成分 (xs,xe,ys,ye) のそれぞれを、 i= 0乃至 5 についてそれぞれ演算する。 なお、 この積分成分 ^ (xs , χθ , ys , ye ) の演算に おいては、 上述した式 (1 2 5) が使用される。
そして、 積分成分演算部 3 20 3は、 式 (1 2 8) に従って、 演算した 2 4個 の積分成分 ^ (xs , xe , ys , ye ) のそれぞれを、 対応する積分成分 (1)に変換し、 変換した 24個の積分成分 ^ (1) (即ち、 6個の (1)、 6個の (2)、 6個の (3)、 および 6個の (4)) を含む積分成分テーブルを生成する。 なお、 ステップ S 32◦ 2の処理とステップ S 3203の処理の順序は、 図 1 05の例に限定されず、 ステップ S 3 203の処理が先に実行されてもよいし、 ステップ 202の処理とステップ S 3 203の処理が同時に実行されてもよ
W
い。
次に、 ステップ S 3204において、 出力画素値演算部 3204は、 ステップ S 3202の処理で特徴量記憶部 3202により生成された特徴量テーブルと、 ステップ S 3203の処理で積分成分演算部 3203により生成された積分成分 テーブルに基づいて出力画素値 M(l)乃至 M (4)のそれぞれを演算する。
具体的には、 いまの場合、 出力画素値演算部 3 204は、 上述した式 (1 2 5) に対応する、 次の式 (1 29) 乃至式 (1 3 2) の右辺のそれぞれを演算す ることで、 図 1 07で示される、 画素 3241 (モード番号 1の画素) の画素値 ¾1(1)、 画素3242 (モード番号 2の画素) の画素値 M(2)、 画素 3243 (モ ード番号 3の画素) の画素値 M (3)、 および画素 3 244 (モード番号 4の画 素) の画素値 M(4)のそれぞれを演算する。
Figure imgf000176_0001
• · · (1 2 9) xk-,(2)
■ ■ · (1 30)
Figure imgf000176_0002
• · · (1 3 1)
Figure imgf000176_0003
• · · (1 3 2) ただし、 いまの場合、 式 (1 29) 乃至式 (1 32) の nは全て 5となる。 ステップ S 3 2 0 5において、 出力画素値演算部 3 2 0 4は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 2 0 5において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 2 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 2 0 2乃至 S 3 2 0 4の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 2 0 5において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 2 0 4は、 ステップ S 3 2 0 6において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 このように、 2次元再積分手法を利用することで、 センサ 2 (図 8 9 ) からの 入力画像の画素 3 2 3 1 (図 1 0 6 ) における画素として、 入力画素 3 2 3 1よ りも空間解像度の高い 4つの画素、 即ち、 画素 3 2 4 1乃至画素 3 2 4 4 (図 1 0 7 ) を創造することができる。 さらに、 図示はしないが、 上述したように、 画 像生成部 1 0 3は、 画素 3 2 4 1乃至画素 3 2 4 4のみならず、 積分範囲を適宜 変えることで、 入力画素 3 2 3 1に対して任意の倍率の空間解像度の画素を劣化 することなく創造することができる。
以上、 2次元再積分手法の説明として、 空間方向 (X方向と Y方向) に対する 近似関数 f (x, y)を 2次元積分する例を用いたが、 2次元再積分手法は、 時空間 方向 (X方向と t方向、 または、 Y方向と t方向) に対しても適用可能である。 即ち、 上述した例は、 実世界 1 (図 8 9 ) の光信号が、 例えば、 図 1 0 2で示 されるような傾き GFで表される空間方向の定常性を有する場合の例であつたの で、 上述した式 (1 2 0 ) で示されるような、 空間方向 (X方向と Y方向) の二 次元積分が含まれる式が利用された。 しかしながら、 二次元積分の考え方は、 空 間方向だけによるものではなく、 時空間方向 (X方向と t方向、 または、 Y方向 と t方向) に対して適用することも可能である。
換言すると、 2次元再積分手法の前提となる 2次元近似手法においては、 光信 号を表す画像関数 F (x,y, t)が、 空間方向の定常性のみならず、 時空間方向 (た だし、 X方向と t方向、 または、 Y方向と t方向) の定常性を有している場合で あっても、 2次元の近似関数 f により近似することが可能である。
具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 その 物体の動きの方向は、 図 108で示されるような X-t平面においては、 傾き VF のように表される。 換言すると、 傾き VFは、 X-t平面における時空間方向の定 常性の方向を表しているとも言える。 従って、 データ定常性検出部 10 1 (図 8 9) は、 上述した角度 ø (X- Y平面における、 空間方向の定常性を表す傾き GF に対応するデータ定常性情報) と同様に、 X_t平面における時空間方向の定常性 を表す傾き VFに対応するデータ定常性情報として、 図 108で示されるような 動き Θ (厳密には、 図示はしないが、 傾き VFに対応する傾き Vf で表されるデー タの定常性の方向と、 空間方向の X方向とのなす角度である動き e ) を出力する ことが可能である。
また、 2次元近似手法を利用する実世界推定部 102 (図 89) は、 動き 0を 上述した角度 Θの代わりとして使用すれば、 上述した方法と同様な方法で、 近似 関数 f(x,t)の係数 (特徴量) Wi を演算することが可能になる。 ただし、 この場 合、 使用される式は、 上述した式 (1 24) ではなく、 次の式 (1 3 3) である。
n
f (x, y) = ∑ Wj (x-sx t)
i=0
• · · (1 33) なお、 式 (1 33) において、 sは cot0 (ただし、 Θは動きである) である。 従って、 2次元再積分手法を利用する画像生成部 1 03 (図 89) は、 次の式 (1 34) の右辺に、 上述した式 (1 33) の f(x,t)を代入して、 演算するこ とで、 画素値 Mを算出することが可能になる。
Figure imgf000178_0001
• · · (1 34) なお、 式 (1 3 4 ) において、 ts は、 t方向の積分開始位置を表しており、 は、 t方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開始 位置を表しており、 xe は、 X方向の積分終了位置を表している。 Ge は、 所定の ゲインを表している。
また、 空間方向 Xの変わりに、 空間方向 Yに注目し 近似関数 f (y, t) も、 上述した近似関数 f (x,t)と全く同様に取り扱うことが可能である。
ところで、 式 (1 3 3 ) において、 t方向を一定とみなし、 即ち、 t方向の積 分を無視して積分することで、 時間方向には積分されないデータ、 即ち、 動きポ ケのないデータを得ることが可能になる。 換言すると、 この手法は、 2次元の近 似関数 f のうちの所定の 1次元を一定として再積分する点で、 2次元再積分手 法の 1つとみなしてもよいし、 実際には、 X方向の 1次元の再積分をすることに なるという点で、 1次元再積分手法の 1つとみなしてもよい。
また、 式 (1 3 4 ) において、 積分範囲は任意に設定可能であるので、 2次元 再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 8 9 ) からの入力画像の画素) に対して任意の倍率の解像度の画素を劣化す ることなく創造することが可能になる。
即ち、 2次元再積分手法においては、 時間方向 tの積分範囲を適宜変えること で、 時間解像度の創造が可能になる。 また、 空間方向 X (または、 空間方向 Y) の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間 方向 tと空間方向 Xの積分範囲のそれぞれを適宜変えることで、 時間解像度と空 間解像度の両方の創造が可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創造 は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再積分 手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて可能に なる。 即ち、 2次元再積分手法と後述する 3次元再積分手法ではじめて、 両方の 解像度の創造が可能になる。 また、 2次元再積分手法は、 1次元ではなく 2次元の積分効果を考慮している ので、 より実世界 1 (図 8 9 ) の光信号に近い画像を生成することも可能になる。 次に、 図 1 0 9と図 1 1 0を参照して、 3次元再積分手法について説明する。
3次元再積分手法においては、 3次元近似手法により近似関数 f (x, y, t)が既 に生成されていることが前提とされる。
この場合、 3次元再積分手法においては、 出力画素値 Mは、 次の式 (1 3 5 ) のように演算される。 = Ge x fte fVe fXe f (x, y, t) dxdydt
• · · ( 1 3 5 ) なお、 式 (1 3 5 ) において、 ts は、 t方向の積分開始位置を表しており、 teは、 t方向の積分終了位置を表している。 同様に、 ys は、 Y方向の積分開始 位置を表しており、 yeは、 Y方向の積分終了位置を表している。 また、 xs は、 X方向の積分開始位置を表しており、 xeは、 X方向の積分終了位置を表してい る。 さらに、 Ge は、 所定のゲインを表している。
式 (1 3 5 ) において、 積分範囲は任意に設定可能であるので、 3次元再積分 手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 8 9 ) からの入力画像の画素) に対して任意の倍率の時空間解像度の画素を劣化す ることなく創造することが可能になる。 即ち、 空間方向の積分範囲を小さくすれ ば、 画素ピッチを自由に細かくできる。 逆に、 空間方向の積分範囲を大きくすれ ば、 画素ピッチを自由に大きくすることができる。 また、 時間方向の積分範囲を 小さくすれば、 実世界波形に基づいて時間解像度を創造できる。
図 1 0 9は、 3次元再積分手法を利用する画像生成部 1 0 3の構成例を表して いる。
図 1 0 9で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 3 0 1、 特徴量記憶部 3 3 0 2、 積分成分演算部 3 3 0 3、 および出力画素値演算 部 3 3 0 4が設けられている。 条件設定部 3 30 1は、 実世界推定部 1 02より供給された実世界推定情報 (図 1 09の例では、 近似関数 f (x,y,t)の特徴量) に基づいて近似関数 f (x,y,t)の次数 nを設定する。
条件設定部 3 30 1はまた、 近似関数 f (x,y,t)を再積分する場合 (出力画素 値を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 30 1が設定す る積分範囲は、 画素の幅 (縦幅と横幅) やシャツタ時間そのものである必要は無 い。 例えば、 センサ 2 (図 8 9) からの入力画像の各画素の空間的な大きさに対 する、 出力画素 (画像生成部 103がこれから生成する画素) の相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な空間方向の積分範囲の決定が可能で ある。 同様に、 センサ 2 (図 89) のシャツタ時間に対する出力画素値の相対的 な時間 (時間解像度の倍率) がわかれば、 具体的な時間方向の積分範囲の決定が 可能である。 従って、 条件設定部 3301は、 積分範囲として、 例えば、 空間解 像度倍率や時間解像度倍率を設定することもできる。
特徴量記憶部 3 302は、 実世界推定部 1◦ 2より順次供給されてくる近似関 数 f (x,y,t)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 302は、 近似関数 f (x, y, ΐ)の特徴量の全てを記憶すると、 近似関数 f , y, t)の特徴量を 全て含む特徴量テーブルを生成し、 出力画素値演算部 3 304に供給する。
ところで、 上述した式 (1 35) の右辺の近似関数 f (x,y)の右辺を展開 (演 算) すると、 出力画素^ tMは、 次の式 (1 36) のように表される。
π
M = え Wi ki(xs, xe, y5, ye, ts, te)
1=0
• · · (1 36) 式 (1 36) において、 (Xs,xe,ys,ye,ts,te) は、 i次項の積分成分を表 している。 ただし、 xs は X方向の積分範囲の開始位置を、 xeは X方向の積分範 囲の終了位置を、 ys は Y方向の積分範囲の開始位置を、 ye は Y方向の積分範囲 の終了位置を、 ts は t方向の積分範囲の開始位置を、 teは t方向の積分範囲の 終了位置を、 それぞれ表している。 積分成分演算部 3 303は、 この積分成分 Ki (xs,xe)ys,ye,ts,te) を演算 する。
具体的には、 積分成分演算部 3 303は、 条件設定部 3301により設定され た次数、 および積分範囲 (空間解像度倍率や時間解像度倍率) 、 並びにデータ定 常性検出部 10 1より出力されたデータ定常性情報のうちの角度 Θまたは動き 0 に基づいて積分成分 ^ (x5,xe,ys,ye,ts,te) を演算し、 その演算結果を積分 成分テーブルとして出力画素値演算部 3304に供給する。
出力画素値演算部 3 304は、 特徴量記憶部 3 30 2より供給された特徴量テ 一ブルと、 積分成分演算部 3 303より供給された積分成分テーブルを利用して、 上述した式 (1 36) の右辺を演算し、 その演算結果を出力画素値 Mとして外 部に出力する。
次に、 図 1 1 0のフローチャートを参照して、 3次元再積分手法を利用する画 像生成部 1 03 (図 109) の画像の生成の処理 (図 29のステップ S 1 03の 処理) について説明する。
例えば、 いま、 上述した図 29のステップ S 1 02の処理で、 実世界推測部 1 02 (図 8 9) が、 入力画像のうちの、 所定の画素を注目画素として、 実世界 1 (図 8 9) の光信号を近似する近似関数 f(x,y,t)を既に生成しているとする。 また、 上述した図 29のステップ S 10 1の処理で、 データ定常性検出部 1 0 1 (図 89) i 実世界推定部 1 02と同じ画素を注目画素として、 データ定常 性情報として、 角度 6または動き 0を既に出力しているとする。
この場合、 図 1 1 0のステップ S 3 30 1において、 条件設定部 330 1は、 条件 (次数と積分範囲) を設定する。
ステップ S 3 302において、 特徴量記憶部 3 302は、 実世界推定部 1 02 より供給された近似関数 f(x,y,t)の特徴量 Wi を取得し、 特徴量テーブルを生成 する。
ステップ S 3 303において、 積分成分演算部 3303は、 条件設定部 3 30 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出部 1 0 1より供給されたデータ定常性情報 (角度 Θまたは動き 0 ) に基づいて積分成 分を演算し、 積分成分テーブルを生成する。
なお、 ステップ S 3 3 0 2の処理とステップ S 3 3 0 3の処理の順序は、 図 1 1 0の例に限定されず、 ステップ S 3 3 0 3の処理が先に実行されてもよいし、 ステップ S 3 3 0 2の処理とステップ S 3 3 0 3の処理が同時に実行されてもよ い。
次に、 ステップ S 3 3 0 4において、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 2の処理で特徴量記憶部 3 3 0 2により生成された特徴量テーブルと、 ステップ S 3 3 0 3の処理で積分成分演算部 3 3 0 3により生成された積分成分 テーブルに基づいて各出力画素値のそれぞれを演算する。
ステップ S 3 3 0 5において、 出力画素値演算部 3 3 0 4は、 全画素の処理を 終了したか否かを判定する。
ステップ S 3 3 0 5において、 全画素の処理がまだ終了されていないと判定さ れた場合、 処理はステップ S 3 3 0 2に戻り、 それ以降の処理が繰り返される。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 3 0 2乃至 S 3 3 0 4の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 3 0 5において、 全画素の 処理が終了されたと判定すると) 、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 6において、 画像を出力する。 その後、 画像の生成の処理は終了となる。 このように、 上述した式 (1 3 5 ) において、 その積分範囲は任意に設定可能 であるので、 3次元再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2 (図 8 9 ) からの入力画像の画素) に対して任意の倍率の解 像度の画素を劣化することなく創造することが可能になる。
即ち、 3次元再積分手法においては、 時間方向の積分範囲を適宜変えることで、 時間解像度の創造が可能になる。 また、 空間方向の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間方向と空間方向の積分範囲のそれ ぞれを適宜変えることで、 時間解像度と空間解像度の両方の創造が可能になる。 具体的には、 3次元再積分手法においては、 2次元や 1次元に落とすときの近 似がないので精度の高い処理が可能になる。 また、 斜め方向の動きも 2次元に縮 退することなく処理することが可能になる。 さらに、 2次元に縮退していないの で各次元の加工が可能になる。 例えば、 2次元再積分手法において、 空間方向 ( X方向と Y方向) に縮退している場合には時間方向である t方向の加工ができ なくなってしまう。 これに対して、 3次元再積分手法においては、 時空間方向の いずれの加工も可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創造 は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再積分 手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて可能に なる。 即ち、 上述した 2次元再積分手法と 3次元再積分手法ではじめて、 両方の 解像度の創造が可能になる。
また、 3次元再積分手法は、 1次元や 2次元ではなく 3次元の積分効果を考慮 しているので、 より実世界 1 (図 8 9 ) の光信号に近い画像を生成することも可 能になる。
次に、 図 3の信号処理装置 4においては、 データ定常性検出部 1 0 1において データの定常性が検出され、 実世界推定部 1 0 2において、 その定常性に基づき、 実世界 1の信号の波形の推定、 即ち、 例えば、 X断面波形 F ( X ) を近似する近 似関数が求められる。
このように、 信号処理装置 4では、 定常性に基づいて、 実世界 1の信号の波形 の推定が行われるため、 データ定常性検出部 1 0 1で検出される定常性が誤って いたり、 あるいは、 その検出精度が悪い場合には、 実世界 1の信号の波形の推定 精度も悪くなる。
また、 信号処理装置 4では、 ここでは、 例えば、 画像である、 実世界 1の信号 が有する定常性に基づいて信号処理を行うため、 実世界 1の信号のうちの定常性 が存在する部分に対しては、 他の信号処理装置の信号処理に比べて、 精度のよい 信号処理を実行することができ、 その結果、 より実世界 1の信号に対応する画像 に近い画像を出力することが可能になる。
しかしながら、 信号処理装置 4は、 定常性に基づいて信号処理を実行する以上、 実世界 1の信号のうちの明確な定常性が存在しない部分に対しては、 定常性が存 在する部分に対する処理と同等の精度で、 信号処理を実行することができず、 そ の結果、 実世界 1の信号に対応する画像に対して誤差を含む画像を出力すること になる。
従って、 信号処理装置 4において実世界 1の信号に対応する画像より近い画像 を得るためには、 信号処理装置 4による信号処理の対象とする処理領域や、 信号 処理装置 4で用いる定常性の精度などが問題となる。
そこで、 図 1 1 1は、 図 1の信号処理装置 4の他の一実施の形態の構成例を示 している。
図 1 1 1では、 信号処理装置 4は、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 およびュ 一ザ I Z F (Interface) 10006力、ら構成されている。
図 1 1 1に構成を示す信号処理装置 4には、 データ 3の一例である画像データ (入力画像) センサ 2 (図 1 ) から入力され、 その入力画像は、 処理領域設 定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 お よび画像表示部 10005に供給される。
処理領域設定部 10001は、 入力画像について、 処理領域を設定し、 その処理 領域を特定する処理領域情報を、 定常性設定部 10002、 実世界推定部 10003、 お よび画像生成部 10004に供給する。 ·
定常性設定部 10002は、 処理領域設定部 10001から供給される処理領域情報 から、 入力画像における処理領域を認識し、 その処理領域の画像データにおいて 欠落した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実 世界推定部 10003および画像生成部 10004に供給する。 実世界推定部 10003は、 モデル生成部 10011、 方程式生成部 10012、 および実 世界波形推定部 10013から構成され、 処理領域内の画像データから、 対応する 実世界 1の信号の定常性に応じて、 その実世界 1の信号を推定する。
即ち、 モデル生成部 10011は、 処理領域設定部 10001から供給される処理領 域情報から、 入力画像における処理領域を認識し、 その処理領域を構成する画素 と、 その処理領域の画像データに対応する実世界 1の信号の定常性に応じて、 処 理領域内の各画素の画素値と実世界 1の信号との関係をモデル化したモデルとし ての関数を生成し、 方程式生成部 10012に供給する。
方程式生成部 10012は、 処理領域設定部 10001から供給される処理領域情報 から、 入力画像における処理領域を認識する。 さらに、 方程式生成部 10012 は、 その処理領域を構成する各画素の画素値を、 モデル生成部 10011から供給され るモデルとしての関数に代入し、 これにより、 方程式を生成して、 実世界波形推 定部 10013に供給する。
実世界波形推定部 10013は、 方程式生成部 10012から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推定部 10013は、 方程式生成部 10012から供給される方程式を解くことにより、 実世界 1の信号を近似する近似関数を求め、 その近似関数を、 実世界 1の信号の波形の 推定結果として、 画像生成部 10004に供給する。 ここで、 実世界 1の信号を近 似する近似関数には、 引数の値にかかわらず、 関数値が一定の関数も含まれる。 画像生成部 10004は、 実世界推定部 10003で推定された実世界 1の信号の波 形を表す近似関数と、 定常性設定部 10002から供給される定常性情報とに基づ いて、 実世界 1の信号により近似した信号を生成する。 即ち、 画像生成部 10004 は、 処理領域設定部 10001から供給される処理領域情報から、 入力画像におけ る処理領域を認識し、 その処理領域について、 実世界推定部 10003 (の実世界波 形推定部 10013) から供給される近似関数と、 定常性設定部 10002から供給され る定常性情報とに基づき、 実世界 1の信号に対応する画像により近似した画像デ ータを生成する。 さらに、 画像生成部 10004は、 入力画像と、 近似関数に基づいて生成した画 像データ (以下、 適宜、 近似画像ともいう) とを合成し、 入力画像の処理領域の 部分を、 近似画像に置き換えた画像を生成し、 その画像を、 出力画像として画像 表示部 10005に供給する。
画像表示部 10005は、 CRT (Cathode Ray Tube)や LCD (Liquid Crystal
Display)で構成され、 入力画像や、 画像生成部 10004から供給される出力画像 を表示する。
なお、 画像表示部 10005は、 1または複数の CRTや LCDで構成することが可 能である。 画像表示部 10005を 1つの CRTや LCDで構成する場合には、 その 1 つの CRTや LCDの画面を複数の画面に分割し、 ある画面に入力画像を表示する とともに、 他の画面に出力画像を表示するようにすることができる。 さらに、 画 像表示部 10005を複数の CRTや LCDで構成する場合には、 ある 1つの CRTや LCDに入力画像を表示するとともに、 他の CRTや LCDに出力画像を表示するよう にすることができる。
また、 画像表示部 10005は、 ユーザ I Z F 10006の出力に応じて、 各種の表示 を行う。 即ち、 画像表示部 10005は、 例えば、 カーソルを表示し、 ユーザが力 一ソルを移動するようにユーザ I Z F 10006 を操作した場合、 その操作に応じて、 カーソルを移動させる。 また、 画像表示部 10005は、 例えば、 ユーザが所定の 範囲を選択するようにユーザ I Z F 10006を操作した場合、 その操作に応じて、 画面上の選択された範囲を囲む枠を表示する。
ユーザ I / F 10006は、 ユーザによって操作され、 そのユーザの操作に応じて、 例えば、 処理領域、 定常性、 または現実世界の信号のうちの少なくとも 1つに関 連する情報を、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定 部 10003に供給する。
即ち、 ユーザは、 画像表示部 10005 に表示された入力画像や出力画像を見て、 その入力画像や出力画像に対する入力を与えるように、 ユーザ I / F 10006を操 作する。 ユーザ I Z F 10006は、 ユーザの操作に応じて、 処理領域、 定常性、 ま たは現実世界の信号に関連する情報を、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003の処理を補助する補助情報として、 処理領域 設定部 10001、 定常性設定部 10002、 または実世界推定部 10003に供給する。 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003は、 ユーザ I / F 10006から補助情報が供給された場合、 その補助情報に基づき、 処 理領域の設定、 定常性の設定、 または実世界 1の信号の推定を、 それぞれ行う。 伹し、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003では、 補助情報を用いずに、 即ち、 ユーザによって、 ユーザ I Z F 10006 が操作されなくても、 処理領域の設定、 定常性の設定、 または実世界 1の信号の 推定を、 それぞれ行うことが可能である。
具体的には、 処理領域設定部 10001では、 図 3 0乃至図 4 8で説明したよう に、 図 3のデータ定常性検出部 1 0 1における場合と同様にして、 入力画像から、 定常領域を検出し、 例えば、 その定常領域を囲む矩形 (長方形) の領域を、 処理 領域として設定することができる。
また、 定常性設定部 10002では、 図 4 9乃至図 5 7で説明したように、 図 3 のデータ定常性検出部 1 0 1における場合と同様にして、 入力画像から、 データ の定常性を検出し、 そのデータの定常性に基づき、 対応する実世界 1の信号の定 常性を設定すること、 即ち、 例えば、 データの定常性を、 そのまま実世界 1の信 号の定常性として設定することができる。
さらに、 実世界推定部 10003では、 図 5 8乃至図 8 8で説明したように、 図 3の実世界推定部 1 0 2における場合と同様にして、 処理領域設定部 10001で 設定された処理領域の画像データから、 定常性設定部 10002で設定された定常 性に応じて、 実世界 1の信号を推定することができる。 なお、 図 3では、 実世界 推定部 1 0 2において、 実世界 1の信号の推定に、 データの定常性を用いたが、 実世界 1の信号の推定には、 データの定常性に代えて、 対応する実世界 1の信号 の定常性を用いることができる。 次に、 図 1 1 2のフローチャートを参照して、 図 1 1 1の信号処理装置 4の処 理について説明する。
まず最初に、 ステップ S10001において、 信号処理装置 4は、 前処理を行い、 ステップ S 10002に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデー タ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処 理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 および画像表示部 10005に供給する。 さらに、 信号処理部 4は、 画像表 示部 10005に、 入力画像を表示させる。
ステップ S10002では、 ユーザ I / F 10006は、 ユーザがユーザ I / F 10006 を操作することにより、 何らかのユーザ入力があつたかどうかを判定する。 ステ ップ S10002において、 ユーザ入力がなかったと判定された場合、 即ち、 ユーザ が何らの操作も行わなかった場合、 ステップ S 10003乃至 S 10005をスキップし て、 ステップ S 10006に進む。
また、 ステップ S 10002において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 10005に表示された入力画像を見て、 ユーザ I / F 10006を操作し、 これにより、 何らかの指示または情報を表すユーザ入力があつ た場合、 ステップ S 10003に進み、 ユーザ I / F 10006は、 そのユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定する。 ステップ S 10003において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 10003において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S10004に進み、 ユーザ I Z F 10006は、 ユーザ入力が補助情報 であるかどうかを判定する。 ステップ S10004において、 ユーザ入力が補助情報 でないと判定された場合、 ステップ S10005をスキップして、 ステップ S 10006 に進む。
また、 ステップ S 10004において、 ユーザ入力が補助情報であると判定された 場合、 ステップ S10005に進み、 ユーザ I ZF 10006は、 その補助情報を、 処理 領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10006に供給し、 ステップ S 10006に進む。
ステップ S 10006では、 処理領域設定部 10001は、 入力画像について、 処理領 域を設定し、 その処理領域を特定する処理領域情報を、 定常性設定部 10002、 実 世界推定部 10003、 および画像生成部 10004に供給し、 ステップ S 10007に進む。 ここで、 処理領域設定部 10001は、 直前に行われたステップ S 10005においてュ 一ザ I Z F 10006から補助情報が供給された場合は、 その補助情報を用いて、 処 理領域の設定を行う。
ステップ S10007では、 定常性設定部 10002は、 処理領域設定部 10001から供 給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定 常性設定部 10002は、 その処理領域の画像データにおいて欠落した実世界 1の 信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界推定部 10003 に供給して、 ステップ S 10008に進む。 ここで、 定常性設定部 10002は、 直前に 行われたステップ S 10005においてユーザ I Z F 10006から補助情報が供給され た場合は、 その補助情報を用いて、 定常性の設定を行う。
ステップ S 10008では、 実世界推定部 10003は、 入力画像における処理領域内 の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実世界 1の信号を推定する。
即ち、 実世界推定部 10003では、 モデル生成部 10011力 処理領域設定部 10001から供給される処理領域情報から、 入力画像における処理領域を認識する とともに、 定常性設定部 10002から供給される定常性情報から、 処理領域の画 像データに対応する実世界 1の信号の定常性を認識する。 さらに、 モデル生成部 10011は、 入力画像における処理領域を構成する画素と、 その処理領域の画像デ ータに対応する実世界 1の信号の定常性に応じて、 処理領域内の各画素の画素値 と実世界 1の信号との関係をモデル化したモデルとしての関数を生成し、 方程式 生成部 10012に供給する。 方程式生成部 10012は、 処理領域設定部 10001から供給される処理領域情報 から、 入力画像における処理領域を認識し、 その処理領域を構成する入力画像の 各画素の画素値を、 モデル生成部 10011から供給されるモデルとしての関数に 代入し、 これにより、 実世界 1の信号を近似する近似関数を求める方程式を生成 して、 実世界波形推定部 10013に供給する。
実世界波形推定部 10013は、 方程式生成部 10012から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推定部 10013は、 方程式生成部 10012から供給される方程式を解くことにより、 実世界 1の信号をモデル化したモデルとしての近似関数を求め、 その近似関数を、 実世 界 1の信号の波形の推定結果として、 画像生成部 10004に供給する。
なお、 実世界推定部 10003においては、 モデル生成部 10011および方程式生 成部 10012は、 直前に行われたステップ S10005においてユーザ I / F 10006力、 ら補助情報が供給された場合は、 その補助情報を用いて、 処理を行う。
ステップ S 10008の処理後は、 ステップ S10009に進み、 画像生成部 10004は、 実世界推定部 10003 (の実世界波形推定部 10013) から供給された、 実世界 1の 信号の波形を近似する近似関数に基づいて、 実世界 1の信号により近似した信号 を生成する。 即ち、 画像生成部 10004は、 処理領域設定部 10001から供給され る処理領域情報から、 入力画像における処理領域を認識し、 その処理領域につい て、 実世界推定部 10003から供給された近似関数に基づき、 実世界 1の信号に 対応する画像により近似した画像データである近似画像を生成する。 さらに、 画 像生成部 10004 は、 入力画像の処理領域の部分を近似画像に置き換えた画像を、 出力画像として生成し、 画像表示部 10005に供給して、 ステップ S 10009から S10010に進む。
ステップ S 10010では、 画像表示部 10005は、 画像生成部 10004から供給され た出力画像を、 ステップ S10001で表示された入力画像に代えて、 またはその入 力画像とともに表示し、 ステップ S10011に進む。 ステップ S10011では、 ユーザ I / F 10006は、 ステシプ S10002における場 合と同様に、 ユーザがユーザ I Z F 10006を操作することにより、 何らかのユー ザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S10011に戻り、 何らかのュ 一ザ入力があるまで待つ。
また、 ステップ S 10011において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 10005に表示された入力画像や出力画像を見て、 ュ 一ザ I / F 10006を操作し、 これにより、 何らかの指示または情報を表すユーザ 入力があった場合、 ステップ S 10012に進み、 ユーザ I Z F 10006は、 そのユー ザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判 定する。
ステップ S 10012において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 10012において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S10013に進み、 ユーザ I Z F 10006は、 ユーザ入力が補助情報 であるかどうかを判定する。 ステップ S10013において、 ユーザ入力が捕助情報 でないと判定された場合、 ステップ S 10011に戻り、 以下、 同様の処理が繰り返 される。
また、 ステップ S 10013において、 ユーザ入力が補助情報であると判定された 場合、 ステップ S10005に戻り、 上述したように、 ユーザ I / F 10006は、 その 補助情報を、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10006に供給する。 そして、 ステップ S10005から S 10006に進み、 以下、 同様 の処理が繰り返される。
以上のように、 図 1 1 1の信号処理装置 4によれば、 ユーザの操作に応じて、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003の処理 を補助する補助情報を、 ユーザ I / F 10006から処理領域設定部 10001、 定常性 設定部 10002、 または実世界推定部 10003に供給し、 処理領域設定部 10001、 定 常性設定部 10002、 または実世界推定部 10003において、 ユーザ I Z F 10006か らの補助情報に基づき、 処理領域の設定、 定常性の設定、 または実世界 1の信号 の推定を行うので、 処理領域設定部 10001、 定常性設定部 10002、 または実世界 推定部 10003の処理精度を向上させ、 例えば、 ユーザの好みにあった、 高画質 の出力画像を得ることが可能となる。
次に、 図 1 1 1に示した信号処理装置 4の各種の応用例について説明する。 図 1 1 3は、 図 1 1 1に示した信号処理装置 4の応用例の一実施の形態の構成 例を示している。
図 1 1 3の信号処理装置 4には、 センサ 2からデータ 3として、 例えば、 1フ レームまたは 1フィールドの画像が入力される。 なお、 ここでは、 入力画像に画 像の水平方向 (横方向) にシャツタ時間 (露光時間) あたり V画素の一定速度で 移動している所定の形状を有する物体 (オブジェクト) が表示されているものと する。 即ち、 入力画像は、 物体が水平方向に V画素の動き量で動いているために、 センサ 2の時間積分効果によって、 そのオブジェクトの光信号と、 そのオブジェ タト以外の部分の光信号とが混合 (時間混合) し、 これにより、 オブジェク トの 境界部分などにおいて、 ボケた画像となっている。 図 1 1 3の信号処理装置 4で は、 このような時間混合によって生じた動きボケを入力画像から除去した高画質 の出力画像が生成される。
図 1 1 3において、 処理領域設定部 15011、 定常性設定部 15012、 実世界推定 部 15013、 画像生成部 15014、 画像表示部 15015、 ユーザ I / F 15016は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像 生成部 10004、 画像表示部 10005、 ユーザ I / F 10006にそれぞれ対応しており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I 10006それぞれと同様の処 理を行う。 さらに、 図 1 1 3において、 実世界推定部 15013は、 モデル生成部 15021、 方程式生成部 15022、 実世界波形推定部 15023で構成されている。 モデ ル生成部 15021、 方程式生成部 15022、 実世界波形推定部 15023は、 図 1 1 1の モデル生成部 10011、 方程式生成部 10012、 実世界波形推定部 10013にそれぞれ 対応しており、 基本的には、 モデル生成部 10011、 方程式生成部 10012、 実世界 波形推定部 10013それぞれと同様の処理を行う。
伹し、 図 1 1 3においては、 ユーザがユーザ I Z F 15016を操作することによ り、 ユーザ I Z F 15016が出力する補助情報が、 方程式生成部 15022に供給され るようになっている。
即ち、 図 1 1 3では、 ユーザは、 ユーザ I Z F 15016を操作することにより、 方程式生成部 15022において、 入力画像に対応する実世界 1の画像である、 動 きボケがない画像の各画素間の関係を拘束する拘束条件を設定することができる ようになつており、 ユーザ I / F 15016は、 ユーザが拘束条件を設定する操作を 行うと、 その操作によって設定された拘束条件を表す拘束条件情報を、 方程式生 成部 15022に供給する。
具体的には、 例えば、 画像表示部 15015に表示された、 物体がボケて映って いる画像を見たユーザが、 本来の画像、 即ち、 入力画像に対応する実世界 1の画 像である、 動きボケがない画像を推測する。 そして、 例えば、 ユーザは、 ボケが 発生している所定の領域をェッジ部分と推測し、 ェッジ部分の隣り合う画素間の 画素値 (レベル) の差は大きい、 などの各画素間の画素値の関係 (拘束条件) を 推測する。 さらに、 ユーザは、 その推測した各画素間の画素値の関係に適合する 条件を、 ユーザ I Z F 15016を操作することにより、 方程式生成部 15022に設定 することができる。
また、 図 1 1 3においては、 処理領域設定部 15011から実世界推定部 15013 に供給される処理領域情報は、 実世界推定部 15013のうちのモデル生成部 15021 と方程式生成部 1δ022に供給されるようになっている。 モデル生成部 15021と 方程式生成部 15022は、 処理領域設定部 15011から供給される処理領域情報か ら、 入力画像における処理領域を認識する。
定常性設定部 15012は、 入力画像において、 物体 (オブジェクト) 1S 画像 の水平方向にシャッタ時間あたり V画素の一定速度で移動しているという定常性 の情報として、 動き量 (動きベク トル) Vを設定し、 その動き量 Vを定常性情報 として、 実世界推定部 15013のモデル生成部 15021に供給する。
モデル生成部 15021は、 処理領域設定部 15011から供給される処理領域情報 から認識される処理領域について、 定常性設定部 15012から供給される定常性 情報としての動き量 Vを考慮した、 入力画像としての動きボケ画像の各画素の画 素値と、 実世界 1の信号との関係をモデル化したモデル (以下、 適宜、 関係モデ ルと称する) としての方程式 (以下、 適宜、 モデル方程式と称する) を生成し、 その生成したモデル方程式を方程式生成部 15022に供給する。
方程式生成部 15022は、 ユーザ I Z F 15016から供給される拘束条件情報に基 づいて、 拘束条件の方程式 (以下、 適宜、 拘束条件式と称する) を生成し、 その 拘束条件式と、 モデル生成部 1δ021から方程式生成部 15022に供給されるモデ ル方程式に、 処理領域を構成する入力画像の各画素の画素値を代入し、 これによ り、 実世界 1の信号をモデル化したモデル (以下、 適宜、 近似モデルと称する) としての近似関数を求める方程式を生成して、 実世界波形推定部 15023に供給 する。
実世界波形推定部 15023は、 方程式生成部 15022から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推定部 15023は、 近似モデルとしての近似関数を求め、 その近似関数を、 実世界 1の信 号の波形の推定結果として、 画像生成部 15014に供給する。 ここで、 実世界 1 の信号を近似する近似関数には、 引数の値にかかわらず、 関数値が一定の関数も 含まれる。
画像生成部 15014は、 処理領域設定部 15011から供給された処理領域情報に 基づいて、 入力画像の処理領域を認識する。 また、 画像生成部 15014は、 実世 界波形推定部 15023から供給された近似関数から、 実世界 1の信号により近似 した信号、 即ち、 動きボケがない画像を生成し、 入力画像の処理領域の画像を、 動きボケがない画像に置き換えて出力画像として生成し、 画像表示部 15015に 供給する。 次に、 図 1 1 4のフローチヤ一トを参照して、 図 1 1 3の信号処理装置 4の処 理について説明する。
最初に、 ステップ S15001において、 信号処理装置 4は、 前処理を行い、 ステ ップ S15002に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデータ 3 として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領 域設定部 15011、 定常性設定部 15012、 実世界推定部 15013、 画像生成部 15014、 および画像表示部 15015に供給する。 さらに、 信号処理装置 4は、 画像表示部 15015に、 入力画像を表示させる。
ステップ S 15002では、 ユーザ I / F 15016は、 ユーザがユーザ I Z F 15016 を操作することにより、 何らかのユーザ入力があつたかどうかを判定する。 ステ ップ S15002において、 ユーザ入力がなかったと判定された場合、 即ち、 ユーザ が何らの操作も行わなかった場合、 ステップ S 15003乃至 S 15005をスキップし て、 ステップ S 15006に進む。
一方、 ステップ S15002において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15015に表示された入力画像を見て、 ユーザ I Z F 15016を操作し、 これにより、 何らかの指示または情報を表すユーザ入力があつ た場合、 ステップ S 15003に進み、 ユーザ I Z F 15016は、 そのユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定する。 ステップ S 15003において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 15003において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15004に進み、 ユーザ I / F 15016は、 ユーザ入力が拘束条件 情報であるかどうかを判定する。 ステップ S15004において、 ユーザ入力が拘束 条件情報でないと判定された場合、 ステップ S 15005をスキップして、 ステップ S15006に進む。 また、 ステップ S15004において、 ユーザ入力が拘束条件情報であると判定さ れた場合、 ステップ S15005に進み、 ユーザ I Z F 15016は、 その拘束条件情報 を、 方程式生成部 15022に供給し、 ステップ S 15006に進む。
ステップ S 15006では、 処理領域設定部 15011は、 入力画像について、 処理領 域を設定し、 その処理領域を特定する処理領域情報を、 定常性設定部 15012、 実 世界推定部 15013のモデル生成部 15021および方程式生成部 15022、 並びに画 像生成部 15014に供給し、 ステップ S15007に進む。 ここで、 ステップ S15006 における処理領域の設定は、 ユーザがユーザ I Z F 15016を操作することにより 処理領域指示情報を入力し、 その処理領域指示情報に基づいて行うことも可能で あるし、 ユーザからの処理領域指示情報なしで行うことも可能である。
ステップ S 15007では、 定常性設定部 15012は、 処理領域設定部 15011から供 給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定 常性設定部 15012は、 その処理領域の画像データにおいて定常性の一部が欠落 した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界 推定部 15013のモデル生成部 15021に供給して、 ステップ S15008に進む。 ここ で、 定常性設定部 15012は、 シャツタ時間 (露光時間) あたり V画素の一定速 度で水平方向に移動していることを表す動き量 Vを定常性情報として設定し、 実 世界推定部 15013のモデル生成部 15021に供給するものとする。 なお、 ここで は、 定常性設定部 15012は、 入力画像において、 オブジェク トが水平方向に移 動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報 として設定するようにしたが、 その他、 オブジェクトの動きの大きさと方向を表 す動きベク トルを、 定常性情報として設定することも可能である。 ステップ S15007における定常性の設定は、 ユーザがユーザ I Z F 15016を操作すること により定常性指示情報を入力し、 その定常性指示情報に基づいて行うことも可能 であるし、 ユーザからの定常性指示情報なしで行うことも可能である。
ステップ S15008では、 実世界推定部 15013は、 実世界推定処理を行う。 即ち、 実世界推定部 15013では、 モデル生成部 15021が、 ステップ S 15007において定 常性設定部 15012から供給された動き量 Vと、 ステップ S15006において処理領 域設定部 15011から供給された処理領域情報に基づいて、 入力画像としての動 きボケ画像の各画素の画素値と、 実世界 1の信号との関係をモデル化したモデル (関係モデル) としての方程式 (モデル方程式) を生成し、 その生成したモデル 方程式を方程式生成部 15022に供給する。
方程式生成部 15022は、 ステップ S15005においてユーザ I / F 15016から供 給される拘束条件情報に基づいて、 拘束条件式を生成し、 さらに、 その拘束条件 式とモデル生成部 15021から方程式生成部 15022に供給されるモデル方程式と から、 実世界 1の信号をモデル化したモデル (近似モデル) としての近似関数を 求める方程式を生成し、 その方程式に入力画像の各画素の画素値を代入して、 実 世界波形推定部 15023に供給する。
実世界波形推定部 15023は、 方程式生成部 15022から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定、 即ち、 実世界 1の信号をモデ ル化したモデルとしての近似関数を求め、 その近似関数を、 実世界 1の信号の波 形の推定結果として、 画像生成部 15014に供給する。
なお、 ステップ S 15008の実世界推定処理の詳細については、 図 1 3 0を参照 して後述する。
ステップ S 15008の処理後は、 ステップ S15009に進み、 画像生成部 15014は 実世界波形推定部 15023から供給された近似関数から、 実世界 1の信号により 近似した信号、 即ち、 動きボケがない画像を生成し、 処理領域設定部 1501 1か ら供給された処理領域情報に基づいて、 入力画像の処理領域の部分を、 生成した 動きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15015 に供給して、 ステップ S 15010に進む。
ステップ S 15010では、 画像表示部 15015は、 画像生成部 15014から供給され た出力画像を、 ステップ S15001で表示された入力画像に代えて、 またはその入 力画像とともに表示し、 ステップ S15011に進む。 ステップ S15011では、 ユーザ I Z F 15016は、 ステップ S15002における場 合と同様に、 ユーザがユーザ I / F 15016を操作することにより、 何らかのユー ザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S15011に戻り、 何らかのュ 一ザ入力があるまで待つ。
また、 ステップ S 15011において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15015に表示された入力画像や出力画像を見て、 ュ 一ザ I / F 15016を操作し、 これにより、 何らかの指示または情報を表すユーザ 入力があった場合、 ステップ S15012に進み、 ユーザ I Z F 15016は、 そのユー ザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判 定する。
ステップ S15012において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
—方、 ステップ S 15012において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15013に進み、 ユーザ I Z F 15016は、 ユーザ入力が拘束条件 情報であるかどうかを判定する。 ステップ S15013において、 ユーザ入力が拘束 条件情報でないと判定された場合、 ステップ S 15011に戻り、 以下、 同様の処理 が繰り返される。
また、 ステップ S 15013において、 ユーザ入力が拘束条件情報であると判定さ れた場合、 ステップ S15005に戻り、 上述したように、 ユーザ I Z F 15016は、 その拘束条件情報を、 方程式生成部 15022に供給する。 そして、 ステップ
S15005から S15006に進み、 以下、 同様の処理が繰り返される。 なお、 信号処 理装置 4が、 ステップ S15005乃至 S15013の処理を繰り返す場合において、 上 述のステップ S15006ぉょぴ S 15007の処理は、 1回目の S15006および S 15007 の処理で設定されるものと同一であり、 1回目の処理と同じ処理を繰り返しても 良いし、 スキップするようにしても良い。 以上のように、 図 1 1 3の信号処理装置 4では、 実世界 1の信号をモデル化し たモデルとしての近似関数を求めることにより、 動きボケがない、 高画質の出力 画像を生成することができる。
また、 ユーザは、 ユーザ I ZF 15016を操作することにより、 本来の動きボケ がないときの画像における、 各画素間の関係を拘束する拘束条件を設定すること ができ、 新たな拘束条件が入力された場合には、 再度、 動きボケがない画像を求 めることができるので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得 ることができる。
なお、 図 1 1 3の信号処理装置 4では、 実世界 1の光信号を近似する近似闋 数を求めることにより、 動きボケのない出力画像を生成するが、 この出力画像は、 入力画像から動きボケが除去されたものであるとみることができる。 従って、 図 1 1 3の信号処理装置 4では、 動きボケ除去の処理が行われるということができ る。
以下において、 図 1 1 3の信号処理装置 4による、 動きボケ除去の処理の詳細 について説明する。 初めに、 動きボケ発生のメカュズムをモデル化 (定式化) す ることにより、 入力画像としての動きボケ画像の各画素の画素値と、 実世界 1 の信号との関係をモデル化した関係モデルを生成する。 実世界 1の光信号は、 動 きボケを有していないので、 関係モデルは、 動きボケ画像の各画素の画素値と、 動きボケのない画像の各画素の画素値との関係をモデル化したものである。
図 1 1 5は、 実世界 1の光信号を説明する図である。
実世界 1の光信号を、 図 1 1 5に示されるような、 X— Y平面上 (空間方向の 1方向である X方向と、 X方向に垂直な Y方向からなる平面上) の波形 F (x, y) とみなすこととする。 図 1 1 3の信号処理装置 4に入力される信号は、 上述した ように、 水平方向に V画素の動き量で動いているので、 空間方向 Xと同じ方向 に、 シャツタ時間あたり V画素の動き量で動いている波形 F (x, y)と等価である。 以下では、 波形 F (x, y)を光信号関数 F (x, y)と称する。 図 1 1 3の信号処理装置 4の実世界推定部 15013は、 センサ 2からの入力画 像に基づいて、 実世界 1の光信号関数 F(x,y)を近似する近似関数 f(x,y)を求め ることにより、 実世界 1の光信号関数 F(x,y)を推定する。
センサ 2の出力である、 入力画像は、 積分効果を有する、 センサの検出素子 (画素) により、 上述の実世界 1の光信号 (光信号関数 F(x,y)) が画素値とし て射影された複数の画素で構成される画像データである。
そこで、 図 1 1 6を参照して、 センサ 2が CCDとされる場合の積分効果につ いて説明する。
図 1 1 6で示されるように、 センサ 2の平面上には、 複数の検出素子 (画素) 15031が配置されている。
図 1 1 6の例では、 検出素子 15031の所定の 1辺に平行な方向が、 空間方向 の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向 である Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向であ る t方向とされている。
また、 図 1 1 6の例では、 センサ 2の各検出素子 15031 (センサ 2が出力する 画像データの画素に対応する)' のそれぞれの空間的な形状は、 1辺の長さが 1の 正方形とされている。 そして、 センサ 2のシャツタ時間 (露光時間) が 1とされ ている。
さらに、 図 1 1 6の例では、 センサ 2の所定の 1つの検出素子 15031の中心 、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の 位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原点 (1:方向の位置1: =0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素子 15031は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に -0.5乃至 0.5の範囲、 およ び t方向に- 0.5乃至 0.5の範囲で光信号関数 F(x,y,t)を積分し、 その積分値を 画素値 Pとして出力することになる。 即ち、 空間方向の原点にその中心が存在する検出素子 15031から出力される 画素値 Pは、 次の式 (1 3 7 ) で表される。 -
P = J-o.5 Jo.5 0. 5 F ,y, t) dXdydt
• · · ( 1 3 7 ) その他の検出素子 15031も同様に、 対象とする検出素子 15031の中心を空間 方向の原点とすることで、 式 (1 3 7 ) で示される画素値 Pを出力することにな る。
以上のように、 センサ 2からの入力画像は、 それぞれ 1つの検出素子 (画素) 15031が、 センサ 2の積分効果により、 一定の画素値とされるデータの集まりで ある。 また、 センサ 2の積分効果は、 実世界 1の光信号の空間方向 (X _ Y方 向) の積分 (空間混合) と、 時間方向 (t方向) の積分 (時間混合) とで構成さ れている。
従って、 入力画像に物体の動きボケが発生している場合においても、 厳密に言 えば、 入力画像の各画素の画素値は、 空間積分効果と時間積分効果の両方が生じ た (空間混合と時間混合がされた) 値であるが、 物体の水平方向の移動による動 きボケでは、 時間積分効果の影響が大であるので、 この実施の形態では、 より簡 単に動きボケの発生をモデル化するために、 物体がシャツタ時間あたり V画素の 移動をすることによる時間積分効果のみ生じるものとして、 近似関数 f (x, y)を モデル化するものとする。
即ち、 実世界 1を近似する近似関数 f (x, y)は、 図 1 1 7に示すように、 空間 積分効果がない、 換言すれば、 センサの各画素内では一定の値を有する関数であ り、 動きボケが発生している入力画像の各画素の画素値は、 図 1 1 7の近似関数 f (x, y)が、 動き量 Vの一定速度で水平方向に移動することにより、 時間積分さ れた値であるとする。
図 1 1 8は、 信号処理装置 4に入力される入力画像と、 処理領域設定部 15011 で設定される処理領域の関係を表す図である。 センサ 2 (図 1) から信号処理装置 4に入力される画像 15041 (入力画像)は、 空間方向の X方向と空間方向の Y方向に所定の画素数を有する画像である。 画像 15041の 1部分または全部である領域 15042が、 処理領域設定部 15011 により処理領域として設定される。 画像 15041内の領域 15042を示す情報が、 処理領域情報として、 処理領域設定部 15011から定常性設定部 15012、 実世界推 定部 15013、 および画像生成部 15014に供給されるようになっている。 以下にお いて、 領域 15042を処理領域 15042と称する。
図 1 1 9は、 処理領域 15042を表す図である。
処理領域 15042は、 例えば、 図 1 1 9に示すように、 処理領域幅 1 = 10画 素、 ライン数 k==4を有する領域であるとする。 即ち、 図 1 1 9では、 処理領域 15042は、 1 0 X 4 = 40画素で構成されている。
図 1 20は、 処理領域 15042内の、 yの値が所定の値 ye (y = y。) の 1ラ インについて、 所定の瞬時のタイミングにおける、 図 1 1 7の近似関数 f(x, y) を表した図である。 即ち、 図 1 20は、 所定の瞬時のタイミングにおける近似関 数 f (x,yc)を示す図である。 この近似関数 f(x,yc)は、 時間方向 tおよび空間方 向 Yが、 ある固定の値であるときの空間方向 Xの位置と画素のレベルとの関係を 示した近似関数 f(x,y)であり、 単に近似関数 f )と称する。
図 1 20の近似関数 f (X)は、 次の式 (1 38) のように表すことができる。
% 一 0.5≤x<0.5
Figure imgf000204_0001
Q2 1. 5≤x<2. 5
Figure imgf000204_0002
Q4 3. 5≤x<4. 5
f(x) 二
Figure imgf000204_0003
Q6 5. 5≤x<6. 5
Q7 6. 5≤x<7. 5
Figure imgf000204_0004
Q9 8. 5≤x<9. 5
• • • (1 38) 式 (1 38) は、 瞬時のタイミングにおける近似関数 f(x)であり、 実際には、 近似関数 f(x)は、 動き量 Vを有しているので、 図 1 20の lZv時間後には、 図 1 2 1に示される状態になる。 図 1 2 1の近似関数 f )は、 次の式 (1 3 9) で表される。
0 -0. 5≤x<0. 5
Figure imgf000204_0005
1. 5≤x<2. 5
Q2 2. 5≤x<3. 5
Q3 3. 5≤x<4. 5
¾ 4. 5≤x<5. 5
Figure imgf000204_0006
Q6 6. 5≤x<7. 5
Q7 7. 5≤x<8. 5
Q8 8. 5≤x<9. 5
• · - (1 3 9) さらに、 図 1 21の 1 時間後には、 図 1 22に示されるようになり、 この ときの近似関数 f (X)は、 次の式 (140) で表される。
f (X) =
Figure imgf000205_0001
■ · · (140) ここで、 図 1 20乃至図 1 22に示した近似関数 f(x)の動きより、 物体の動 き量 Vを、 図 1 23に示すような簡略化した形態で考えることにする。 即ち、 物 体は、 lZv時間おきに、 瞬時に X方向に 1つ隣の画素の中心へ移動し、 1/v 時間はそこに留まる。 従って、 1/v時間の間は、 物体が動いていないときと同 様の値の画素値が、 センサの画素に蓄積される。 そして、 次の lZv時間は、 X 方向に 1だけ進んだ画素に対して、 物体が動いていないときと同様の画素値が、 蓄積される。
つまり、 物体 (実世界 1の光信号) が動き量 Vで移動している場合、 1つの画 素には、 物体が動き量 Vで移動していないときと同じ画素値の 1/ v倍の画素値 、 lZv時間ごとに順次、 蓄積されていくと考えることができる。
なお、 上述のように、 物体が lZv時間おきに瞬時に X方向に 1画素分だけ移 動するという考え方を採用しても、 図 1 23において直線で示すように、 いわゆ るマクロ的には、 物体は、 単位時間あたり V画素の動き量で X方向に等速で移動 していると見ることができる。 動き量 Vを有する物体の、 センサの検出素子による蓄積 (時間積分) について、 図 1 24乃至図 1 26を参照して、 さらに説明する。
図 1 24は、 図 1 20に示した、 所定の瞬時のタイミングにおける、 y = yc の近似関数 f(x)を、 X_ t平面で表した図である。
図 1 24において、 それぞれの画素 15031の X方向の幅は、 図 1 16で説明 したように 1であり、 t方向の高さは、 シャツタ時間 (= 1) である。 そして、 それぞれの画素 15031の面積 (X方向の幅 X t方向の高さ) 力 それぞれの画 素 15031に蓄積される (電荷の総量で表される) 画素値 Q。乃至 Q9 となってい る。 この画素値 Q。乃至 Q9 は、 動きボケがない画像の画素値である。
一方、 図 1 25は、 図 1 24の画素値 Q。乃至 Q9 に対応するように、 物体が 動き量 Vで動いているときに、 時間積分されて蓄積される画素値を、 それぞれ P 0乃至 P9 として表した図である。 即ち、 処理領域 15042内の y = ycの 1ライ ンについての、 入力画像の画素値 P。乃至 P9の X— t平面の図である。
例えば、 v = 4 (画素) として、 上述の図 1 20乃至図 1 23で説明した、 物 体の動きに基づいて、 図 1 25の画素値 P。乃至 P9 を、 図 1 24の画素値 Q。 乃至 Q9 を用いて表すと、 図 1 26のようになる。
即ち、 シャツタ時間のうち、 最初の lZv時間は、 動きボケのない画素値 Qh (h = 0乃至 9) の lZvに相当する画素値 (に対応する電荷) 力 x = hのそ れぞれの画素に蓄積される。 そして、 次の lZv時間には、 X方向の移動方向側 (図中、 右側の画素) に 1画素ずれて、 同様の画素値 Qh (h = 0乃至 8) の 1 Zvに相当する画素値が、 x = hのそれぞれの画素に蓄積される。 以下、 同様に、 lZv時間ごとに、 1画素ずつ X方向の移動方向側にずれながら、 画素値 Qh (h = 0乃至 9) の 1/vに相当する画素値が蓄積されていく。 なお、 以下にお いて、 添え字の変数 hについて特に断りがない限り、 変数 hは、 h = 0乃至 9の 整数を表すものとする。
即ち、 X=0を中心とする画素 (以下において、 X=0の画素と称する) では、 画素値 Q。の 1/ vの画素値 (Q。 V ) が蓄積される。 X=0の画素の右隣の X= lを中心とする画素 (以下において、 X= lの画素と称する) では、 画素値 の 1/vの画素値 (Qi/v) と画素値 Q。 の 1/vの画素値 (Qi/v) 力 S 蓄積される。 X= 1の画素の右隣の X= 2を中心とする画素 (以下において、 X = 2の画素と称する) では、 画素値 Q。 の lZvの画素値 (Q。Zv) 、 画素値 の lZvの画素値 (QiZv) 、 および画素値 Q2 の 1/vの画素値 (Q2Z
V) が蓄積される。 以下、 同様に画素値 Qhの lZvの画素値が、 それぞれの画 素に 1/v時間ごとにずれて、 蓄積されていく。
図 1 25と図 1 26に示される関係を式で表すと、 次の式 (14 1) が得られ る。
(Q0H-Q1+Q2+Q3)/v = P3
Figure imgf000207_0001
(Q2+Q3+Q4+Q5)/v = P5
(03+Q4+Q5+Q6)/v = P6
(Q4+Q5+Q6+Q7) v = P7
(Q5+Q6+Q7+Q8)/v = P8
(Q6+Q7+Q8+Q9レ v = P9
• · · (141) ここで、 x = 0, 1, および 2の画素には、 蓄積される画素値が空白 (未知) の領域が存在する。 そのため、 P。, P1 ; および P2 のそれぞれは、 シャツタ時 間内の全てにおいて蓄積される画素値が得られていないので、 式をたてることが できない。
式 (14 1) は、 動きボケ画像の各画素の画素値を、 動きボケが生じていない 画像の各画素の画素値が、 動き量 Vで移動しながら蓄積 (積分) された値である として、 動きボケ発生のメカニズムをモデル化した連立方程式である。 式 ( 14 1) において、 物体が動き量 Vで動いているときの画素値 Phは、 信号処理装置 4に入力される入力画像の既知の画素値であり、 物体の動きがないときの画素値 Qh ヽ 求めるべき動きボケがない画素値を表している。 以上から、 物体が動き量 vで動いているときの画素値 Phは、 物体の動きがな いときの画素値 Qhを 1/v時間ずつ混合した (時間混合した) 画素値であると いえる。 以下においては、 物体が動き量 Vで動いているときの画素値 Ph を混合 画素値 Ph、 物体の動きがないときの画素値 Qhを、 単に画素値 Qh と称する。 実世界 1の信号をモデル化した近似モデルとしての近似関数 f(x)は、 上述の 例では、 式 (1 39) で示されるように、 Qhの値で構成されるので、 式 (14 1) は、 入力画像としての動きボケ画像の各画素の画素値と、 実世界 1の信号と の関係をモデル化した関係モデルとしてのモデル方程式である。 そして、 動きボ ケがない画素値 Qhを求めることは、 実世界推定部 15013が実世界 1の信号をモ デル化した近似関数 f (X)を求めることに等しい。
上述の連立方程式 (141) は、 処理領域 15042の処理領域幅 1 と動き量 V が設定されることにより、 たてることができる。 しかしながら、 連立方程式 (1 41) は、 変数の数が画素値 Qhの 10個に対して、 式の数が 7個しかない。 従 つて、 式 (14 1) だけでは画素値 Qh を求めることは困難である。
そこで、 少なくとも式の数と変数の数を同じようにするための 2つの方法を説 明する。
第 1の方法は、 処理領域の端部を 「平坦である」 と仮定する方法である。 即ち、 図 1 27に示すように、 画素値の空白 (未知) 領域 15051に対して、 蓄積され る画素値は、 最初の lZv時間の端部である、 画素値 Q。の lZvの画素値 (Q 。Zv) と同じであると仮定する方法である。
この場合、 新たに次の式 (142) を得ることができる。
(Q0+Q0+Q0+Q0)/v = P0
Figure imgf000208_0001
/V = P】
(Q0+Q0+Q1 +02)^ = ?o
• · · (142) 式 (14 1) と式 (142) とにより、 式の数が 10個、 変数の数が 10個と なり、 画素値 Qh を求めることができる。 図 1 14のフローチャートを参照して説明した処理において、 ユーザによる拘 束条件の指定 (設定) がない場合、 即ち、 ユーザ I/F15016から方程式生成部 15022に拘束条件情報が供給されない場合などでは、 例えば、 第 1の方法などが 採用される。 しかしながら、 第 1の方法では、 処理領域の端部が 「平坦である」 と仮定するため、 第 1の方法で求められる画素値 Qhから構成される画像には、 ノィズが生じることがあり得る。
そこで、 ユーザ I /F15016から方程式生成部 15022に拘束条件情報が供給さ れた場合には、 第 1の方法と異なる第 2の方法を適用することができる。 第 2 の方法は、 動きボケがない画像における、 隣接する各画素の画素値の関係を仮定 する (拘束する) 式 (以下、 拘束条件式と称する) を立てることにより、 式 (1 41) と合せて変数の数以上の式の数を得るという方法である。
一般に、 画像は、 空間的な相関関係を有している場合が多いため、 隣り合う画 素値が大きく異なるという場合は少ないと考えることができる。 そこで、 例えば、 動きボケが生じていない各画素間の画素値 Qhの差分が 0 (以下、 適宜、 「隣接 画素差分 =0」 と称する) という条件 (以下、 拘束条件と称する) を仮定するこ とができる。 この拘束条件は、 次の式 (143) で表すことができる。
Qh— = h = 1,…, (1-1)
■ · · (143) また、 例えば、 「なだらかに画素値が変化している」 という条件を仮定するこ とができる。 この拘束条件は、 例えば、 次の式 (144) で表すことができる。 一 Qh— ·! +2Qh-Qh+1 =0 h = 1 ' …, (ト 2)
• · · (144) ユーザは、 画像表示部 15015に表示された、 物体がボケて映っている画像を 見て、 本来の画像、 即ち、 入力画像に対応する実世界 1の画像である、 動きボケ がない画像を推測し、 その推測した状態を表す各画素間の関係式 (拘束条件) を ユーザ I/F 15016を操作することにより、 方程式生成部 15022に設定すること ができる。 図 113の信号処理装置 4においては、 式 (143) の拘束条件がユーザによ り設定された (ユーザ IZF15016から式 (143) を指示する拘束条件情報が 供給された) とする。 その場合、 図 124で示されるラインについては、 次の式 (145) で表される拘束条件式が得られる。
QQ-Q! = 0
Q厂 Q2 = 0
Q2-Q3 = 0
Figure imgf000210_0001
Q5 - Q6 = 0
Q6-Q7 = 0
Q厂 ¾ = 0
Figure imgf000210_0002
… (145) 式 (145) は、 式の数が 9個であり、 式 (141) と合せると、 式の数は 1 6個となり、 変数 Qh の数は 10個なので、 例えば、 最小自乗法を用いることに より、 それぞれの式において発生する誤差の二乗和が最小となる変数 Qh を算出 することができる。 すなわち、 動きボケを除去した (動きボケがない) 画素値 Q hの推定が可能となる。
具体的には、 式 (141) のそれぞれの式で発生する誤差を emi (i ==3乃 至 9) 、 式 (145) のそれぞれの式で発生する誤差を ebj ( j = 0乃至 8) とすると、 式 (141) と式 (145) は、 それぞれ式 (146) および式 (1 47) で表すことができる。 ((¾+() +Q2+Q3),v = P3+em3
(Q1 -Q2+Q3+Q4)/v = P4+etn4
(Q2+Q3+Q4+Q5)zv = P5+em5
(Q3+Q4+Q5+Q6レ v = P6+em6
(Q4+Q5+Q6+Q7) v = P7+em7
(Q5+Q6+Q7+08)/v = P8+em8
(Q6+Q7+Q8+Q9)/v = P9+em9
Q0- = 0+eb0
Figure imgf000211_0001
Q2- -Q3 = 0+eb2
Q3- -O4 = 0+eb3
Figure imgf000211_0002
Q5" -Q6 = 0+eb5
Q6" - Q7 = 0+eb6
Q7- -Q8二 0+eb7
-Q9 = 0+eb8
■ ' · (147) 式 (146) および式 (147) から次の式 (148) が成立する。
Figure imgf000212_0001
• · · (.148) なお、 以下において、 変数 i, jについて特に断りがない限り、 iは、 i = 3 乃至 9, jは、 j = 0乃至 8の整数をそれぞれ表すものとする。
式 ( 148) を、 行列 A、 列べクトノレ x, y , eを用いて、 式 ( 149) に置 き換える。
Ax - y+e
• · · (149) この場合、 式 (146) の誤差 emi と式 (147) の誤差 ebjの二乗誤差の 総和 Eは、 次式で表すことができる。
E= |e| =∑emi +∑ebj
= (Ax-y)'(Ax-y)
= xTATAx-2xTATy+yTy
(1 50) 二乗誤差の総和 Eを最小にする Qhを求めるためには、 式 (1 50) の二乗誤 差の総和 Eを、 Qhをコンポーネントとする列べクトル Xで偏微分した値が 0と なればよいことから、 次式が導かれる。 - = 2(ATAx-ATy) =0 · · · (1 5 1) 式 (1 5 1) から、 求める列ベク トル X (画素値 Qh をコンポーネントとする 列べクトル X ) は、 式 (1 5 2) で表すことができる。 x = (ATA)一 Vy
• ■ · (1 5 2) なお、 式 (1 5 2) において、 上付きの Tは転置を表し、 上付きの一 1は、 逆 行列を表す。
式 (1 5 2) に混合画素値 Pi をコンポーネントとする列ベク トル yを代入し て演算することにより、 動きボケを除去した (動きボケがない) 画素値 Qhを推 定することができる。
図 1 28は、 処理領域 15042を再度、 表した図である。
式 (1 5 2) により求めることができる列ベク トル X (=画素値 Qh) は、 図 1 28で示される処理領域 15042の y = ycの 1ラインについての列べクトル x (=画素値 Qh) なので、 処理領域 15042の全ての画素について、 動きボケがな い画素値を推定するためには、 式 (1 5 2) の演算をライン数と同じ k (=4) 回繰り返す必要がある。
即ち、 上述の説明における、 y = yeのラインのように、 動きボケがない画素 値 Qhを求める処理を行う 1ラインを、 注目ラインと呼ぶことにすると、 実世界 推定部 15013は、 それぞれのライン全てを、 順次、 注目ラインとして設定し、 注目ラインの近似関数 f(x)である、 画素値 Q。乃至 Q。 を推定する処理を行うこ とにより、 入力画像の処理領域 15042について、 動きボケがない画像を推定す る。
図 1 2 9は、 図 1 1 3の実世界推定部 15013の内部の構成例である。
実世界推定部 15013は、 モデル生成部 15021、 方程式生成部 15022、 およぴ実 世界波形推定部 15023で構成されている。 さらに、 方程式生成部 15022は、 拘 束条件設定部 15061と正規方程式生成部 15062とで構成されている。
モデル生成部 15021には、 定常性.設定部 15012から定常性情報としての動き 量 Vが供給される。 この例での動き量 Vは、 入力画像のうちの処理領域設定部 15011で設定された処理領域において、 物体がシャツタ時間あたり V画素だけ水 平方向に移動していることを表しており、 例えば、 上述の例と同様に V = 4とす る。 また、 動き量 Vは、 ライン毎に異なる値でもよく、 動き量 Vがライン毎に異 なる場合には、 ライン数に等しい k個の動き量 Vが、 定常性情報として、 定常性 設定部 15012からモデル生成部 15021に供給される。
また、 モデル生成部 15021には、 処理領域設定部 15011から入力画像のなか の処理領域を特定する処理領域情報も供給される。 処理領域として矩形の形状の 領域を採用する場合には、 処理領域情報は、 例えば、 入力画像の所定の位置 (画 素) を原点とする絶対座標系に対する、 矩形の処理領域の対角の座標値や、 処理 領域の中心座標と処理領域の幅 (水平方向) と高さ (垂直方向) などで表すこと ができる。
モデル生成部 1δ021は、 処理領域設定部 15011から供給された処理領域情報 から、 例えば、 図 1 1 9に示したような、 処理領域幅 1 とライン数 kを取得する。 この例では、 処理領域 15042は、 矩形とされ、 例えば、 1 = 1 0, k = 4とす るものとする。 この場合、 各ラインの処理領域幅 (画素数) は、 同じとされてい るが、 処理領域 15042は、 各ラインで異なる処理領域幅となるようにすること もできる。 処理領域幅 1がライン毎に異なる場合には、 モデル生成部 15021 は、 ライン数と同じ個数 (k個) の処理領域幅 1を取得する。 そして、 モデル生成部 15021は、 定常性設定部 15012から供給された動き量 Vと、 処理領域情報から取得した処理領域幅 1 とライン数 kに基づいて、 上述の 式 (141) で示した混合画素値 Pi の方程式 (モデル方程式) を生成し、 正規 方程式生成部 15062に供給する。
拘束条件設定部 15061には、 ユーザが、 ユーザ I/F 15016を操作することに より指定した拘束条件情報がユーザ I /F 15016から供給される。 例えば、 ユー ザは、 拘束条件設定部 15061の内部に予め設定されている、 上述した式 (14 3) や式 (144) などの、 動きボケのない画像の各画素の画素値 Qhの関係を 拘束する拘束条件の中から、 所望の拘束条件を選択 (指定) する操作をユーザ I ZF15016により行い、 ユーザ I /F 15016が、 その選択された拘束条件を示す 情報を拘束条件情報として、 拘束条件設定部 15061に供給する。
拘束条件設定部 15061は、 自身の内部に有する拘束条件式のなかから、 ユー ザ I /F15016から供給された拘束条件情報に対応する拘束条件式を選択する。 さらに、 拘束条件設定部 15061は、 処理領域設定部 15011から方程式生成部 15022に供給される入力画像の処理領域情報に基づいて処理領域幅 1を取得し、 拘束条件式を処理領域幅 1に対応する数だけ生成する。 例えば、 拘束条件情報と して、 「隣接画素差分 =0」 という条件である式 (143) が採用される場合に は、 拘束条件設定部 15061は、 処理領域設定部 15011から供給された処理領域 情報に基づいて処理領域幅 1を取得することにより、 上述した式 (145) で示 した拘束条件式を生成し、 正規方程式生成部 15062に供給する。 なお、 図 1 1 9で示した処理領域 15042の例では、 処理領域 15042が矩形であり、 各ライン の処理領域幅 1は同じとされているが、 ライン毎に処理領域幅 1が異なる場合に は、 拘束条件の式の数もライン毎に異なることとなる。
正規方程式生成部 15062には、 モデル生成部 15021からライン数と同じ k個 の混合画素値 Pi の方程式 (式 (141) ) と、 拘束条件設定部 15061からユー ザがユーザ I / F 15016を操作することにより選択した拘束条件に対応する拘束 条件の方程式 (式 (145) ) とが供給される。 初めに、 正規方程式生成部 15062は、 図 1 28に示されるように、 処理領域 15042のなかから、 所定の 1つのラインを注目ラインとして選択する。 そして、 正規方程式生成部 15062は、 選択した注目ラインに対応する、 モデル生成部 15021から供給された式 (141) で示される混合画素値 Pi の方程式と、 拘束 条件設定部 15061から供給された式 (145) で示される拘束条件の方程式と から、 式 (148) (式 (149) ) で示される正規方程式を生成する。
さらに、 正規方程式生成部 15062は、 式 (1 5 2) の右辺の列べクトル yの 係数である、 行列 (ATA) ^ATを演算し、 センサ 2 (図 1) から供給された 入力画像に基づいて取得した混合画素値 Pi を、 列べク トル yに代入する。 行列 (Ατ A) 1 Ατが演算され、 さらに混合画素値 Pi が代入された式 (1 5 2) 力 正規方程式生成部 15062から実世界波形推定部 15023に供給される。
正規方程式生成部 15062は、 選択している注目ラインに対して、 上述した、 正規方程式の生成、 行列 (ATA) -1 Ατの演算、 および、 混合画素値 Pi の代 入等の処理を終了すると、 まだ選択されていないラインを次の注目ラインとして 選択し、 その選択された次の注目ラインに対して同様の処理を行う。
実世界波形推定部 15023は、 正規方程式生成部 15062から供給された式 (1 52) を演算することにより、 列ベク トル x、 即ち、 動きボケがない画素値 Qh (近似関数) を求め、 画像生成部 15014 (図 1 1 3) に供給する。
画像生成部 15014は、 処理領域設定部 15011から供給された処理領域情報に 基づいて、 入力画像の処理領域 15042の部分を、 実世界波形推定部 15023から 供給された、 動きボケがない画素値 Qhの画像に置き換えて、 出力画像として生 成し、 画像表示部 15015に供給する。
次に、 図 1 30のフローチヤ一トを参照して、 図 1 14のステップ S15008に おける実世界推定部 15013の実世界推定処理について詳述する。
初めに、 ステップ S15031では、 モデル生成部 15021は、 処理領域設定部
15011から供給される処理領域情報に基づいて、 処理領域幅 1 とライン数 kを取 得して、 ステップ S15032に進む。 ステップ S15032では、 モデル生成部 15021は、 処理領域 15042のライン数に 等しい k個の動き量 Vを、 定常性設定部 15012から取得して、 ステップ S15033 に進む。
ステップ S15033では、 モデル生成部 15021は、 ライン毎に混合画素値 P i の 方程式を生成して、 ステップ S1S034に進む。 即ち、 モデル生成部 15021は、 k 個のモデル方程式 (式 (14 1) ) を生成する。
ステップ S15034では、 拘束条件設定部 15061は、 自身の内部に有する拘束条 件式のなかから、 ユーザ I ZF15016から供給された拘束条件情報に対応する拘 束条件式を選択する。 また、 拘束条件設定部 15061は、 処理領域設定部 15011 から方程式生成部 15022に供給される、 入力画像の処理領域情報から、 処理領 域幅 1を取得し、 処理領域幅 1に対応する方程式の数で構成される、 ユーザ I / F15016からの拘束条件情報に対応する拘束条件の方程式 (式 (145) ) を生 成し、 ステップ S15035に進む。
ステップ S15035では、 正規方程式生成部 15062は、 処理領域 15042のなかか ら、 所定の 1つのラインを注目ラインとして選択して、 ステップ S15036 に進む。 ステップ S15036では、 正規方程式生成部 15062は、 モデル生成部 15021から 供給された式 (14 1) で示される混合画素値 Pi の方程式 (モデル方程式) と、 拘束条件設定部 15061から供給された式 (145) で示される拘束条件の方程 式 (拘束条件式) とから、 式 (148) (式 (1 49) ) で示される正規方程式 を生成して、 ステップ Sl5037に進む。
ステップ S15037では、 正規方程式生成部 15062は、 式 (1 52) の右辺の列 ベタトル yの係数である、 行列 (ATA) -1 Ατを演算し、 ステップ Sl5038に進 む。
ステップ S15038では、 正規方程式生成部 15062は、 センサ 2 (図 1 ) から供 給された入力画像に基づいて取得した混合画素値 Pi を、 列べクトル yに代入し て、 ステップ S15039に進む。 ステップ S15039では、 実世界波形推定部 15023は、 正規方程式を演算する。 即ち、 実世界波形推定部 15023は、 正規方程式生成部 15062から供給された、 式 (1 5 2 ) を演算することにより、 動きボケがない画素値 Qh を求めて、 ステ ップ S15040に進む。
ステップ S 15040では、 処理領域 15042の全てのラインに対して、 動きボケが ない画素値 Qhを求める処理が行われたか否かが判定される。 処理領域 15042の 全てのラインに対して、 動きボケがない画素値 Qh を求める処理が行われていな いと判定された場合、 処理はステップ S15035に戻り、 ステップ S15035乃至 S15040の処理が繰り返される。 即ち、 まだ選択されていない処理領域 15042の うちの 1ラインが注目ラインとして選択され、 動きボケがない画素値 Qh を求め る処理が行われる。
一方、 処理領域 15042の全てのラインに対して、 動きボケがない画素値 Qh を 求める処理が行われたと判定された場合、 実世界推定処理を終了してリターンす る。
以上のように、 処理領域 15042の注目ラインとした 1ラインに対して、 正規 方程式 (式 (1 4 8 ) ) を生成し、 動きボケがない画素値 Qhを求める処理を、 処理領域 15042のライン数である k回繰り返すことにより、 処理領域 15042の 全域に亘る動きボケがない画素値 Qhを求めることができる。
ここで、 処理領域 15042の各ラインの動き量 Vと処理領域幅 1が、 それぞれ 同じ場合には、 式 (1 4 8 ) の行列 Aは、 各ラインで同じものとなる。 従って、 式 (1 5 2 ) の行列 (AT A) - 1 Ατ も各ラインで同じものとなり、 ライン毎に 行列 (AT A) — 1 AT を演算する処理を省略することができる。
そこで、 図 1 3 1のフローチャートを参照して、 処理領域 15042の各ライン の動き量 Vと処理領域幅 1力 それぞれ同じ場合の、 図 1 1 4のステップ
S15008 における実世界推定部 15013 の実世界推定処理について説明する。 なお、 図 1 3 1において、 図 1 3 0のフローチャートと同様の部分については、 その説 明を適宜省略する。 図 1 3 1においては、 図 1 3 0のステップ S 15035に対応するステップ
S15057の処理が、 ステップ S 15054と S15055の間ではなくて、 ステップ
S15056と S 15058の間に配置されている。 さらに、 ステップ S15060で、 処理領 域 15042の全てのラインに対して、 動きボケがない画素値 Qhを求める処理が行 われていないと判定された場合、 ステップ S15057に戻る処理とされている。 即ち、 処理領域 15042の各ラインの動き量 Vと処理領域幅 1力 それぞれ同 じ場合、 ステップ S 15055で生成される正規方程式は、 各ラインで同じものとな るため、 最初の注目ラインに対して、 ステップ S15056で、 行列 (AT A) - 1 Ατ を演算した後、 その後の注目ラインに対しては、 行列 (AT A) - 1 Ατ の演算 (ステップ S 15056の処理) を行う必要がない。 従って、 注目ラインの選択 (ス テツプ S 15057) 、 混合画素値 P i の代入 (ステップ S15058の処理) 、 正規方程 式の演算 (ステップ S15059の処理) を、 順次、 まだ選択されていない処理領域 15042のラインに対して実行するだけでよい。
以上のように、 図 1 1 3に示される実施の形態においては、 動きボケが発生し ている画素値を、 動きボケのない画素値でモデル化した混合画素値 Pi の方程式 (モデル方程式) と、 動きボケのない画素値の隣接する画素間の関係を用いた拘 束条件式とから、 正規方程式を生成し、 その正規方程式を演算することにより、 動きボケがない画素値 (近似関数) を求めるので、 画質の良い画像を生成するこ とができる。
図 1 3 2乃至図 1 3 4は、 図 1 1 3の信号処理装置 4による処理結果を説明す る図である。
図 1 3 2は、 図 1 1 3の信号処理装置 4に入力される入力画像を示している。 図 1 3 2の入力画像においては、 「T A L」 の文字が左から右方向に等速で移動 しており、 水平方向に動きボケが発生している。
図 1 3 3は、 図 1 3 2の入力画像から、 上述した第 1の方法、 即ち、 モデル 方程式に、 処理領域の端部を 「平坦である」 と仮定した式を付加して正規方程式 を生成し、 その正規方程式を演算することにより生成された画像である。 図 1 3 2と、 図 1 3 3とを比較して明らかなように、 図 1 3 3の画像では、 図 1 3 2の 入力画像に生じている動きボケが低減され、 「T A L」 の文字が比較的はっきり と表示されている。
一方、 図 1 3 4は、 図 1 3 2の入力画像から、 上述した第 2の方法、 即ち、 モデル方程式に、 隣接する画素値の関係を拘束する条件式を付加して正規方程式 を生成し、 その正規方程式を演算することにより生成された画像である。 図 1 3 4の画像においても、 図 1 3 2の入力画像に生じている動きボケが低減され、 「T A L」 の文字がはっきりと表示されている。
なお、 図 1 3 2乃至図 1 3 4の実施の形態では、 第 2の方法による図 1 3 4の 画像は、 第 1の方法による図 1 3 3の画像よりもノイズが少ない、 動きボケの ない画像になっている。
上述の例では、 ユーザ I Z F 15016から拘束条件設定部 15061に供給される拘 束条件情報は、 拘束条件設定部 15061の内部に予め設定されている、 いくつか の拘束条件のなかから、 ユーザがどの拘束条件を選択 (指定) したかを表す情報 としたが、 ユーザがユーザ I / F 15016を操作することにより、 拘束条件式を直 接入力するようにしてもよい。
図 1 1 3に示した信号処理装置 4の実施の形態においては、 式 (1 5 0 ) で表 される二乗誤差の総和 Eの全体が最小となるような、 即ち、 混合画素値 P i の方 程式で発生する誤差と、 拘束条件の方程式で発生する誤差との全体が最小となる ような、 動きボケのない画像が生成される。 これに対して、 例えば、 式 (1 4
6 ) の混合画素値 P i の方程式で発生する誤差 e m i と、 式 (1 4 7 ) の拘束条件 の方程式で発生する誤差 e b j のうち、 どちらか一方の誤差の方をできるだけ小 さくする、 というように、 モデル方程式と拘束条件式のバランス (重み) を調整 して、 動きボケのない画像を生成するようにすることもできる。
図 1 3 5は、 そのような、 混合画素値 P i の方程式 (モデル方程式) と、 拘束 条件の方程式 (拘束条件式) との重みを調整して、 動きボケのない画像を生成す る信号処理装置 4の実施の形態の構成例を示している。 即ち、 図 1 3 5は、 図 1 1 1に示した信号処理装置 4の応用例のその他の一実 施の形態の構成例を示している。
図 1 3 5の信号処理装置 4には、 センサ 2からデータ 3として、 例えば、 1フ レームまたは 1フィールドの画像が入力される。 なお、 ここでは、 入力画像に画 像の水平方向 (横方向) にシャツタ時間 (露光時間) あたり V画素の一定速度で 移動している所定の形状を有する物体 (オブジェクト) が表示されているものと する。 即ち、 入力画像は、 物体が水平方向に V画素の動き量で動いているために、 センサ 2の時間積分効果によって、 そのオブジェクトの光信号と、 そのオブジェ タト以外の部分の光信号とが混合 (時間混合) し、 これにより、 オブジェクトの 境界部分などにおいて、 ボケた画像となっている。 図 1 3 5の信号処理装置 4で は、 このような時間混合によって生じた動きボケを入力画像から除去した高画質 の出力画像が生成される。
図 1 3 5において、 処理領域設定部 15081、 定常性設定部 15082、 実世界推定 部 15083、 画像生成部 15084、 画像表示部 15085、 ユーザ I Z F 15086は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像 生成部 10004、 画像表示部 10005、 ユーザ I Z F 10006 にそれぞれ対応しており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006それぞれと同様の処 理を行う。 さらに、 図 1 3 5において、 実世界推定部 15083は、 モデル生成部 15091、 方程式生成部 15092、 実世界波形推定部 15093で構成されている。 モデ ル生成部 15091、 方程式生成部 15092、 実世界波形推定部 15093は、 図 1 1 1の モデル生成部 10011、 方程式生成部 10012、 実世界波形推定部 10013にそれぞれ 対応しており、 基本的には、 モデル生成部 10011、 方程式生成部 10012、 実世界 波形推定部 10013それぞれと同様の処理を行う。
伹し、 図 1 3 5においては、 ユーザがユーザ I ZF 15086を操作することによ り、 ユーザ I Z F 15086が出力する補助情報が、 方程式生成部 15092に供給され るようになっている。 即ち、 図 1 3 5では、 ユーザは、 ユーザ I / F 15086を操作することにより、 方程式生成部 15092において、 入力画像に対応する実世界 1の画像である、 動 きボケがない画像の各画素間の関係を拘束する拘束条件を設定することができる ようになつており、 ユーザ I / F 15086は、 ユーザが拘束条件を設定する操作を 行うと、 その操作によって設定された拘束条件を表す拘束条件情報を、 方程式生 成部 15092に供給する。
具体的には、 例えば、 画像表示部 15085に表示された、 物体がボケて映って いる画像を見たユーザが、 本来の画像、 即ち、 入力画像に対応する実世界 1の画 像である、 動きボケがない画像を推測する。 そして、 例えば、 ユーザは、 ボケが 発生している所定の領域をエッジ部分と推測し、 エッジ部分の隣り合う画素間の 画素値 (レベル) の差は大きい、 などの各画素間の画素値の関係 (拘束条件) を 推測する。 さらに、 ユーザは、 その推測した各画素間の画素値の関係に適合する 条件を、 ユーザ I / F 15086を操作することにより、 方程式生成部 15092に設定 することができる。
また、 図 1 3 5においては、 処理領域設定部 15081から実世界推定部 15083 に供給される処理領域情報は、 実世界推定部 15083のうちのモデル生成部 15091 と方程式生成部 15092に供給されるようになっている。 モデル生成部 15091と 方程式生成部 15092は、 処理領域設定部 15081から供給される処理領域情報か ら、 入力画像における処理領域を認識する。
定常性設定部 15082は、 入力画像において、 物体 (オブジェクト) 力 画像 の水平方向にシャッタ時間あたり V画素の一定速度で移動しているという定常性 の情報として、 動き量 (動きベク トル) Vを設定し、 その動き量 Vを定常性情報 として実世界推定部 15083のモデル生成部 15091に供給する。
モデル生成部 15091は、 処理領域設定部 15081から供給される処理領域情報 から認識される処理領域について、 定常性設定部 15082から供給された定常性 情報としての動き量 Vを考慮した、 入力画像としての動きボケ画像の各画素の画 素値と、 実世界 1の信号との関係をモデル化したモデル (以下、 適宜、 関係モデ ルと称する) としての方程式 (以下、 モデル方程式と称する) を生成し、 その生 成したモデル方程式を方程式生成部 15092に供給する。
方程式生成部 15092は、 ユーザ I Z F 15086から供給される拘束条件情報に基 づいて、 拘束条件の方程式 (以下、 拘束条件式と称する) を生成する。 また、 方 程式生成部 15092は、 その拘束条件式に、 モデル生成部 15091から供給される モデル方程式とのバランスを調整する重みを設定し、 重み付けされた拘束条件式 とモデル方程式とからなる方程式に、 処理領域を構成する入力画像の各画素の画 素値を代入し、 これにより、 実世界 1の信号をモデル化したモデル (以下、 適宜、 近似モデルと称する) としての近似関数を求める方程式を生成して、 実世界波形 推定部 15093に供給する。
実世界波形推定部 15093は、 方程式生成部 15092から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推定部 15093は、 近似モデルとしての近似関数を求め、 その近似関数を、 実世界 1の信 号の波形の推定結果として、 画像生成部 15084に供給する。 ここで、 実世界 1 の信号を近似する近似関数には、 引数の値にかかわらず、 関数値が一定の関数も 含まれる。
画像生成部 15084は、 処理領域設定部 15081から供給された処理領域情報に 基づいて、 入力画像の処理領域を認識する。 また、 画像生成部 15084は、 実世 界波形推定部 15093から供給された近似関数から、 実世界 1の信号により近似 した信号、 即ち、 動きボケがない画像を生成し、 入力画像の処理領域の画像を動 きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15085に 供給する。
次に、 図 1 3 6のフローチャートを参照して、 図 1 3 5の信号処理装置 4の処 理について説明する。
最初に、 ステップ S15081において、 信号処理装置 4は、 前処理を行い、 ステ ップ S15082に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデータ 3 として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領 域設定部 15081、 定常性設定部 15082、 実世界推定部 15083、 画像生成部 15084、 および画像表示部 15085に供給する。 さらに、 信号処理装置 4は、 画像表示部 15085に、 入力画像を表示させる。
ステップ S15082では、 ユーザ I / F 15086は、 ユーザがユーザ I Z F 15086 を操作することにより、 何らかのユーザ入力があつたかどうかを判定する。 ステ ップ S15082において、 ユーザ入力がなかったと判定された場合、 即ち、 ユーザ が何らの操作も行わなかった場合、 ステップ S 15083乃至 S 15085をスキップし て、 ステップ S15086に進む。
一方、 ステップ S15082において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15085に表示された入力画像を見て、 ユーザ I Z F 15086を操作し、 これにより、 何らかの指示または情報を表すユーザ入力があつ た場合、 ステップ S 15083に進み、 ユーザ I ZF 15086は、 その ーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定する。 ステップ S 15083において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
一方、 ステップ S 15083において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15084に進み、 ユーザ I ZF 15086は、 ユーザ入力が拘束条件 情報であるかどうかを判定する。 ステップ S15084において、 ユーザ入力が拘束 条件情報でないと判定された場合、 ステップ S 15085をスキップして、 ステップ S15086に進む。
また、 ステップ S 15084において、 ユーザ入力が拘束条件情報であると判定さ れた場合、 ステップ S15085に進み、 ユーザ I Z F 15086は、 その拘束条件情報 を、 方程式生成部 15092に供給し、 ステップ S 15086に進む。
ステップ S 15086では、 処理領域設定部 15081は、 入力画像について、 処理領 域を設定し、 その処理領域を特定する処理領域情報を、 定常性設定部 15082、 実 世界推定部 15083のモデル生成部 15091および方程式生成部 15092、 並びに画 像生成部 15084に供給し、 ステップ S15087に進む。 ここで、 ステップ S15086 における処理領域の設定は、 ユーザがユーザ I Z F 15086を操作することにより 処理領域指示情報を入力し、 その処理領域指示情報に基づいて行うことも可能で あるし、 ユーザからの処理領域指示情報なしで行うことも可能である。
ステップ S 15087では、 定常性設定部 15082は、 処理領域設定部 15081から供 給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定 常性設定部 15082は、 その処理領域の画像データにおいて定常性の一部が欠落 した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界 推定部 15083のモデル生成部 15091に供給して、 ステップ S 15088に進む。 こ こで、 定常性設定部 15082は、 シャツタ時間 (露光時間) あたり V画素の一定 速度で水平方向に移動していることを表す動き量 Vを定常性情報として設定し、 実世界推定部 15083のモデル生成部 15091に供給するものとする。 なお、 ここ では、 定常性設定部 15082は、 入力画像において、 オブジェク トが水平方向に 移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情 報として設定するようにしたが、 その他、 オブジェクトの動きの大きさと方向を 表す動きベクトルを、 定常性情報として設定することも可能である。 ステップ S15087における定常性の設定は、 ユーザがユーザ I Z F 15086を操作すること により定常性指示情報を入力し、 その定常性指示情報に基づいて行うことも可能 であるし、 ユーザからの定常性指示情報なしで行うことも可能である。
ステップ S 15088では、 実世界推定部 15083は、 実世界推定処理を行う。 即ち、 実世界推定部 15083では、 モデル生成部 15091が、 ステップ S 15087において定 常性設定部 15082から供給された動き量 Vと、 ステップ S15086において処理領 域設定部 15081から供給された処理領域情報に基づいて、 入力画像としての動 きボケ画像の各画素の画素値と、 実世界 1の信号との関係をモデル化したモデル (関係モデル) としての方程式 (モデル方程式) を生成し、 その生成したモデル 方程式を方程式生成部 15092に供給する。
方程式生成部 15092は、 ステップ S15085においてユーザ I Z F 15086から供 給される拘束条件情報に基づいて拘束条件式を生成し、 生成した拘束条件式に、 モデル方程式とのバランスを調整する重みを設定する。 そして、 方程式生成部 15092は、 重み付けされた拘束条件式と、 モデル生成部 15091から方程式生成部 15092に供給されるモデル方程式とから、 実世界 1の信号をモデル化したモデノレ (近似モデル) としての近似関数を求める方程式を生成し、 その方程式に入力画 像の各画素の画素値を代入して、 実世界波形推定部 15093 に供給する。 ここで、 ユーザが拘束条件情報を指定 (設定) しなかった場合、 即ち、 ステップ S15082 または S 15084で N Oと判定された場合、 方程式生成部 15092は、 例えば、 図 1 1 3の実施の形態において説明した、 モデル方程式と処理領域の端部を 「平坦で ある」 と仮定した式とから成る連立方程式を解く方法などの、 所定の処理が行わ れる。
なお、 重みは、 拘束条件式だけに設定する他、 モデル方程式だけ、 または拘束 条件式とモデル方程式の両方に設定することが可能である。
実世界波形推定部 15093は、 方程式生成部 15092から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定、 即ち、 実世界 1の信号をモデ ル化したモデルとしての近似関数を求め、 その近似関数を、 実世界 1の信号の波 形の推定結果として、 画像生成部 15084に供給する。
なお、 ステップ S15088の実世界推定処理の詳細については、 図 1 3 8を参照 して後述する。
ステップ S15088 の処理後は、 ステップ S15089に進み、 画像生成部 15084は、 実世界波形推定部 15093から供給された近似関数から、 実世界 1の信号により 近似した信号、 即ち、 動きボケがない画像を生成し、 処理領域設定部 15081か ら供給された処理領域情報に基づいて、 入力画像の処理領域の部分を、 生成した 動きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15085 に供給して、 ステップ S 15090に進む。
ステップ S 15090では、 画像表示部 15085は、 画像生成部 15084から供給され た出力画像を、 ステップ S 15081で表示された入力画像に代えて、 またはその入 力画像とともに表示し、 ステップ S15091に進む。 ステップ S15091では、 ユーザ I Z F 15086は、 ステップ S15082における場 合と同様に、 ユーザがユーザ I / F 15086を操作することにより、 何らかのユー ザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S15091に戻り、 何らかのュ 一ザ入力があるまで待つ。
また、 ステップ S 15091において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15085に表示された入力画像や出力画像を見て、 ュ 一ザ I Z F 15086を操作し、 これにより、 何らかの指示または情報を表すユーザ 入力があった場合、 ステップ S15092に進み、 ユーザ I / F 15086は、 そのユー ザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判 定する。
ステップ S15092において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
一方、 ステップ S15092において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15093に進み、 ユーザ I / F 15086は、 ユーザ入力が拘束条件 情報であるかどうかを判定する。 ステップ S15093において、 ユーザ入力が拘束 条件情報でないと判定された場合、 ステップ S 15091に戻り、 以下、 同様の処理 が繰り返される。
また、 ステップ S 15093において、 ユーザ入力が拘束条件情報であると判定さ れた場合、 ステップ S15085に戻り、 上述したように、 ユーザ I F 15086は、 その拘束条件情報を、 方程式生成部 15092に供給する。 そして、 ステップ
S15085から S15086に進み、 以下、 同様の処理が繰り返される。 なお、 信号処 理装置 4が、 ステップ S15085乃至 S15093の処理を繰り返す場合において、 上 述のステップ S15086および S 15087の処理は、 1回目の S15086および S 15087 の処理で設定されるものと同一であり、 1回目の処理と同じ処理を繰り返しても 良いし、 スキップするようにしても良い。 以上のように、 図 1 3 5の信号処理装置 4では、 実世界 1の信号をモデル化し たモデルとしての近似関数を求めることにより、 動きボケがない、 高画質の出力 画像を生成することができる。
また、 ユーザは、 ユーザ I / F 15086を操作することにより、 本来の動きボケ がないときの画像における、 各画素間の関係を拘束する拘束条件を設定すること ができ、 新たな拘束条件が入力された場合には、 再度、 動きボケがない画像を求 めることができるので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得 ることができる。
なお、 図 1 3 5の信号処理装置 4では、 実世界 1の光信号を近似する近似関 数を求めることにより、 動きボケのない出力画像を生成するが、 この出力画像は、 入力画像から動きボケが除去されたものであるとみることができる。 従って、 図 1 3 5の信号処理装置 4では、 動きボケ除去の処理が行われるということができ る。
次に、 図 1 3 7を参照して、 図 1 3 5の実世界推定部 15083の内部の構成に ついて説明する。 なお、 図 1 3 5の実施の形態においても、 入力画像に映ってい る物体の動きボケ発生のメカニズムを、 一例である図 1 2 5と図 1 2 6に示され る、 上述した式 (1 4 1 ) の関係として、 モデル化するものとする。
即ち、 入力画像としての動きボケ画像の各画素の画素値を、 動きボケが生じて いない画像の各画素の画素値 (に対応する電荷) 力 動き量 Vで移動しながら蓄 積 (積分) された値であるとして、 動きボケ発生のメカニズムをモデル化するも のとする。
実世界推定部 15083は、 モデル生成部 15091、 方程式生成部 15092、 および実 世界波形推定部 15093で構成されている。 さらに、 方程式生成部 15092は、 拘 束条件設定部 15101、 重み変更部 15102、 および正規方程式生成部 15103とで構 成されている。
モデル生成部 15091には、 定常性設定部 15082から定常性情報としての動き 量 Vが供給される。 この例での動き量 Vは、 入力画像のうちの処理領域設定部 15081で設定された処理領域において、 物体がシャツタ時間あたり V画素の一定 速度で水平方向に移動している定常性を表しており、 例えば、 上述の例と同様に v = 4とする。 また、 動き量 Vは、 ライン毎に異なる値でもよく、 動き量 Vがラ イン毎に異なる場合には、 ライン数に等しい k個の動き量 Vが、 定常性情報とし て、 定常性設定部 15082からモデル生成部 15091に供給される。
また、 モデル生成部 15091には、 処理領域設定部 15081から入力画像のなか の処理領域を特定する処理領域情報も供給される。 処理領域として矩形の形状の 領域を採用する場合には、 処理領域情報は、 例えば、 入力画像の所定の位置 (画 素) を原点とする絶対座標系に対する、 矩形の処理領域の対角の座標値や、 処理 領域の中心座標と処理領域の幅 (水平方向) と高さ (垂直方向) などで表すこと ができる。
モデル生成部 15091は、 処理領域設定部 15081から供給された処理領域情報 から、 例えば、 図 1 1 9に示したような、 処理領域幅 1 とライン数 kを取得する。 この例では、 処理領域 15042は、 矩形とされ、 例えば、 1 = 1 0 , k = 4とす るものとする。 この場合、 各ラインの処理領域幅 (画素数) は、 同じとされてい るが、 処理領域 15042は、 各ラインで異なる処理領域幅となるようにすること もできる。 処理領域幅 1がライン毎に異なる場合には、 モデル生成部 15091 は、 ライン数と同じ個数 (k個) の処理領域幅 1を取得する
そして、 モデル生成部 15091は、 定常性設定部 15082から供給された動き量 Vと、 処理領域情報から取得した処理領域幅 1 とライン数 kに基づいて、 上述の 式 (1 4 1 ) で示した混合画素値 P i の方程式 (モデル方程式) を生成し、 正規 方程式生成部 15103に供給する。
拘束条件設定部 15101には、 ユーザが、 ユーザ I / F 15086を操作することに より指定した拘束条件情報がユーザ I / F 15086から供給される。 例えば、 ユー ザは、 拘束条件設定部 15101の内部に予め設定されている、 上述した式 (1 4 3 ) や式 (1 4 4 ) などの、 動きボケのない画像の各画素の画素値 Qhの関係を 拘束する拘束条件の中から、 所望の拘束条件を選択 (指定) する操作をユーザ I Z F 15086により行い、 ユーザ I / F 15086が、 その選択された拘束条件を示す 情報を拘束条件情報として、 拘束条件設定部 15101に供給する。
拘束条件設定部 15101は、 自身の内部に有する拘束条件式のなかから、 ユー ザ I Z F 15086から供給された拘束条件情報に対応する拘束条件式を選択する。 さらに、 拘束条件設定部 15101は、 処理領域設定部 15081から方程式生成部 15092に供給される入力画像の処理領域情報に基づいて処理領域幅 1を取得し、 拘束条件式を処理領域幅 1に対応する数だけ生成する。 例えば、 拘束条件情報と して、 「隣接画素差分 = 0」 という条件である式 (1 4 3 ) が採用される場合に は、 拘束条件設定部 15101は、 処理領域設定部 15081から供給された処理領域 情報に基づいて処理領域幅 1を取得することにより、 上述した式 (1 4 5 ) で示 した拘束条件式を生成し、 正規方程式生成部 15103に供給する。 なお、 図 1 1 9で示した処理領域 15042の例では、 処理領域 15042が矩形であり、 各ライン の処理領域幅 1は同じとされているが、 ライン毎に処理領域幅 1が異なる場合に は、 拘束条件の式の数もライン毎に異なることとなる。
重み変更部 15102には、 モデル方程式に対する重み Wm と、 拘束条件式に対す る重み Wbが予め設定されている。 なお、 この実施の形態では、 拘束条件式に係 る重み係数 Wを、 式 (1 5 3 ) により設定し、 拘束条件式に係る重みのみを利用 して、 モデル方程式と拘束条件式とのバランスを調整する。
W = Wb/ m
· · · ( 1 5 3 ) 重み変更部 15102は、 正規方程式生成部 15103に重み係数 Wを供給すること により、 正規方程式生成部 15103で生成される正規方程式における、 モデル方 程式と拘束条件式との重みを変更する。
正規方程式生成部 15103には、 モデル生成部 15091からライン数と同じ k個 の混合画素値 P i の方程式 (式 (1 4 1 ) ) と、 拘束条件設定部 15101からユー ザがユーザ I Z F 15086を操作することにより選択した拘束条件に対応する拘束 条件の方程式 (式 (1 4 5 ) ) とが供給される。 正規方程式生成部 1δ103では、 拘束条件設定部 15101から供給された拘束条 件式 (145) に誤差 ebj を考慮した式 (147) について、 重み変更部
15102により重み係数 Wが設定される (1 : 1であったモデル方程式と拘束条件 に対する重み Wが変更される) 。
即ち、 式 (147) は、 その両辺に重み Wを乗じた次の式 (1 54) に変更さ れる。 ここで、 重み係数 Wは、 例えば、 0. 1などの所定の値とされる。 この場 合、 モデル方程式の誤差 emi の方を、 拘束条件式の誤差 ebj よりも、 より小さ くする画素値 Qhが求められることになる。
Figure imgf000231_0001
W(Q厂 Q2) =Web1
W(Q2-Q3) = eb2
W(Q3-Q4) =Web3
W(Q4-Q5) =Web4
W(Q5 - Q6) =Web5
W(Q6-Q7) =Web6
W(Q广 Q8) = eb7
W(Q8 - Q9) = Web8
- - - (1 54) 正規方程式生成部 15103は、 図 1 28に示されるように、 処理領域 15042の なかから、 所定の 1つのラインを注目ラインとして選択する。 そして、 正規方程 式生成部 15103は、 選択した注目ラインに対応する、 モデル生成部 15091から 供給された式 (14 1) で示される混合画素値 Pi の方程式 (モデル方程式) と、 拘束条件設定部 15101から供給された式 (145) に重み係数 Wが付加された 式 (1 54) で示される拘束条件の方程式とから、 次の式 (1 5 5) で示される 正規方程式を生成する。 1/V 1/V 1/v 1/v 0 0 0 0 0 0 P3 ¾3
0 1/V 1/v 1/v 1/v 0 0 0 0 0 P4 em4
0 0 1/v 1/v 1/v 1/v 0 0 0 0 p5 em5
0 0 0 1/v 1/v 1/v 1/v 0 0 0 p6 eni6
0 0 0 0 1/v 1/v 1/v 1/v 0 0 p7 em7
0 0 0 0 0 1/v 1/v 1/v 1/v 0 8 em8
0 0 0 0 0 0 1/v 1/v 1/v 1/v eni9
w 一 If 0 0 0 0 0 0 0 0 o
0 w -w 0 0 0 0 0 0 0 o
0 0 w -w 0 0 0 0 0 0 o Ieb2
0 0 0 w -w 0 0 0 0 0 o Web3
0 0 0 0 -w 0 0 0 0 o Web4
0 0 0 0 0 w -w 0 0 0 o
0 0 0 0 0 0 -w 0 0 o
0 0 0 0 0 0 0 ΪΪ - w 0 o
0 0 0 0 0 0 0 0 1 o 23456789 I o Web8
• · · ( 1 5 5) なお、 em i は、 式 (1 4 1 ) のそれぞれの式で発生する誤差であり、 eb j は、 式 (1 54) のそれぞれの式で発生する誤差である。
ここで、 式 (1 5 5) を行列 A'、 列べクトル X , y , e'を用いて、 式 (1 5 6) に置き換える。
A'x - y+e,
• · · ( 1 5 6) この場合、 式 (1 4 6) の誤差 em i と式 (1 5 4) の誤差 eb jの二乗誤差の 総和 E,は、 次式で表すことができる。
2
:, =∑emi 2+Vf ∑ebj
( 1 5 7) 二乗誤差の総和 E'を最小とする Qh を求めるためには、 列べクトル X (画素 値 Qhをコンポーネントとする列ベクトル X ) は、 上述の式 (1 50) および (1 5 1) と同様の式から、 式 (1 5 8) で表すことができる。 x = (A"A')~1A'Ty · · · ( 1 5 8) なお、 式 (1 58) において、 上付きの Tは転置を表し、 上付きの— 1は、 逆 行列を表す。
式 (1 5 7) において、 重み係数 Wが小さいときには、 多少ノイズを許容して も式 (14 1) をより満たすような鮮鋭な画像を求めることができ、 一方、 重み 係数 Wが大きいときには、 式 (141) の成立よりも式 (145) を満たすよう な、 平坦でノイズの少ない画像を求めることができる。 即ち、 重み係数 Wの値を 調整することにより、 「鮮鋭感」 と 「ノイズ感」 のバランスを調整することがで 含る。
正規方程式生成部 15103は、 式 (1 58) の右辺の列べクトル yの係数であ る、 行列 (Α'ΤΑ') -1 Α'τ を演算し、 センサ 2 (図 1) から供給された入力画 像に基づいて取得した混合画素値 Pi を、 列べク トル yに代入する。 行列 (Α'τ Α') が演算され、 混合画素値 Pi が代入された式 (1 58) 1 正規方 程式生成部 15103から実世界波形推定部 15093に供給される。
正規方程式生成部 15103は、 選択している注目ラインに対して、 上述した、 正規方程式の生成、 行列 (Α'ΤΑ') -1 Α'τの演算、 および、 混合画素値 Pi の 代入等の処理を終了すると、 まだ選択されていないラインを次の注目ラインとし て選択し、 その選択された次の注目ラインに対して同様の処理を行う。
実世界波形推定部 15093は、 正規方程式生成部 15103から供給された式 ( 1 58) を演算することにより、 列ベクトル x、 即ち、 動きボケのない画素値 Qh を求め、 画像生成部 15084 (図 1 35) に供給する。 画像生成部 15084は、 処理領域設定部 15081から供給された処理領域情報に 基づいて、 入力画像の処理領域 15042の部分を、 実世界波形推定部 15093から 供給された、 動きボケがない画素値 Qhの画像に置き換えて、 出力画像として生 成し、 画像表示部 15085に供給する。
次に、 図 1 3 8のフローチャートを参照して、 図 1 3 6のステップ S15088に おける実世界推定部 15083の実世界推定処理について詳述する。
初めに、 ステップ S15101では、 モデル生成部 15091は、 処理領域設定部 15081から供給される処理領域情報に基づいて、 処理領域幅 1 とライン数 kを取 得して、 ステップ S 15102に進む。
ステップ S15102では、 モデル生成部 15091は、 処理領域 15042のライン数に 等しい k個の動き量 Vを、 定常性設定部 15082から取得して、 ステップ S 15103 に進む。
ステップ S 15103では、 モデル生成部 15091は、 ライン毎に混合画素値 P i の 方程式を生成して、 ステップ S15104に進む。 即ち、 モデル生成部 15091は、 k 個のモデル方程式 (式 (1 4 1 ) ) を生成する。
ステップ S 15104では、 拘束条件設定部 15101は、 自身の内部に有する拘束条 件式のなかから、 ユーザ I " F 15086から供給された拘束条件情報に対応する拘 束条件式を選択する。 また、 拘束条件設定部 15101は、 処理領域設定部 15081 から方程式生成部 15092に供給される、 入力画像の処理領域情報から、 処理領 域幅 1を取得し、 処理領域幅 1に対応する方程式の数で構成される、 ユーザ I / F 15086からの拘束条件情報に対応する拘束条件の方程式 (式 (1 4 5 ) ) を生 成し、 ステップ S 15105に進む。
ステップ S15105では、 重み変更部 15102は、 自身の内部に予め設定されてい る、 式 (1 5 3 ) で表される重み係数 Wを正規方程式生成部 15103に供給し、 拘束条件式に対する重みを変更して、 ステップ S15106に進む。 即ち、 重み変更 部 15102は、 正規方程式生成部 15103において、 上述の式 (1 5 4 ) を生成さ せる。 ステップ S15106では、 正規方程式生成部 15103は、 処理領域 15042のなかか ら、 所定の 1つのラインを注目ラインとして選択して、 ステップ S15107 に進む。 ステップ S15107では、 正規方程式生成部 15103は、 モデル生成部 15091から 供給された式 (14 1) で示される混合画素値 Pi の方程式にそれぞれの式の誤 差 erai を考慮した式 (146) と、 拘束条件設定部 15101から供給された式
(145) にそれぞれの式の誤差 ebj を考慮した式 (147) に、 ステップ S15105で重み変更部 15102により重みが変更された拘束条件の方程式 (1 5 4) とから、 式 (1 55) (式 (1 56) ) で示される正規方程式を生成して、 ステップ S15108に進む。
ステップ S15108では、 正規方程式生成部 15103は、 式 (1 58) の右辺の列 ベタトル yの係数である、 行列 (Α,ΤΑ') -1 Α'τ を演算し、 ステップ S15109 に進む。
ステップ S15109では、 正規方程式生成部 15103は、 センサ 2 (図 1 ) から供 給された入力画像に基づいて取得した混合画素値 Pi を、 列べク トル yに代入し て、 ステップ S15110に進む。
ステップ S15110では、 実世界波形推定部 15093は、 正規方程式を演算する。 即ち、 実世界波形推定部 15093は、 正規方程式生成部 15103から供給された、 式 (1 58) を演算することにより、 動きボケがない画素値 Qh を求めて、 ステ ップ S15111に進む。
ステップ S15111では、 処理領域 15042の全てのラインに対して、 動きボケが ない画素値 Qhを求める処理が行われたか否かが判定される。 処理領域 15042の 全てのラインに対して、 動きボケがない画素値 Qhを求める処理が行われていな いと判定された場合、 処理はステップ S15106に戻り、 ステップ S15106乃至 S15111の処理が繰り返される。 即ち、 まだ選択されていない処理領域 15042の うちの 1ラインが注目ラインとして選択され、 動きボケがない画素値 Qh を求め る処理が行われる。 一方、 処理領域 15042の全てのラインに対して、 動きボケがない画素値 Qh を 求める処理が行われたと判定された場合、 実世界推定処理を終了してリターンす る。
以上のように、 処理領域 15042の注目ラインとした 1ラインに対して、 正規 方程式 (式 (1 5 5 ) ) を生成し、 動きボケがない画素値 Qhを求める処理を、 処理領域の 15042のライン数である k回繰り返すことにより、 処理領域 15042 の全域に亘る動きボケがない画素値 Qhを求めることができる。
ここで、 処理領域 15042の各ラインの動き量 Vと処理領域幅 1が、 それぞれ 同じ場合には、 式 (1 5 5) の行列 Aは、 各ラインで同じものとなる。 従って、 式 (1 5 8 ) の行列 (Α,Τ Α' ) — 1 Α,τ も各ラインで同じものとなり、 ライン毎 に行列 (Α' Τ Α' ) ^ Α'τ を演算する処理を省略することができる。
そこで、 図 1 3 9のフローチャートを参照して、 処理領域 15042の各ライン の動き量 Vと処理領域幅 1力 それぞれ同じ場合の、 図 1 3 6のステップ
S15088 における実世界推定部 15083 の実世界推定処理について説明する。 なお、 図 1 3 9において、 図 1 3 8のフローチャートと同様の部分については、 その説 明を適宜省略する。
図 1 3 9においては、 図 1 3 8のステップ S15106に対応するステップ
S15138の処理が、 ステップ S15135と S15136の間ではなくて、 ステップ
S15137と S15139の間に配置されている。 さらに、 ステップ S15141で、 処理領 域 15042の全てのラインに対して、 動きボケがない画素値 Qhを求める処理が行 われていないと判定された場合、 ステップ S15138に戻る処理とされている。
即ち、 処理領域 15042の各ラインの動き量 Vと処理領域幅 1力 それぞれ同 じ場合、 ステップ S15136で生成される正規方程式は、 各ラインで同じものとな るため、 最初の注目ラインに対して、 ステップ S15137で、 行列 (Α' Τ Α' ) 一1 Α' τ を演算した後、 その後の注目ラインに対しては、 行列 (Α'Τ Α' ) -1 Α'τ の演算 (ステップ S15137の処理) を行う必要がない。 従って、 注目ラインの選 択 (ステップ S15138) 、 混合画素値 Pi の代入 (ステップ S15139の処理) 、 正 規方程式の演算 (ステップ S15140の処理) を、 順次、 まだ選択されていない処 理領域 15042のラインに対して実行するだけでよい。
以上のように、 図 1 3 5に示される実施の形態においては、 動きボケが発生し ている画素値を動きボケのない画素値でモデル化した混合画素値 Pi の方程式 (モデル方程式) と、 動きボケのない画素値の隣接する画素間の関係を用いた拘 束条件式とから、 正規方程式を生成し、 その正規方程式を演算することにより、 動きボケがない画素値 (近似関数) を求めるので、 画質の良い画像を生成するこ とができる。
また、 混合画素値 P i の方程式と、 拘束条件の方程式とのバランス (重み) を 調整することができるので、 「鮮鋭感」 と 「ノイズ感」 のバランスを考慮したュ 一ザの好みの画質の、 動きボケのない画像を生成することができる。
上述の例では、 ユーザ I Z F 15086から拘束条件設定部 15101に供給される拘 束条件情報は、 拘束条件設定部 15101の内部に予め設定されている、 いくつか の拘束条件のなかから、 ユーザがどの拘束条件を選択 (指定) したかを表す情報 としたが、 ユーザがユーザ I / F 15086を操作することにより、 拘束条件式を直 接入力するようにしてもよい。
図 1 3 5の信号処理装置 4の実施の形態においては、 混合画素値 P i の方程式 と、 拘束条件の方程式との重み (バランス) を調整する、 拘束条件の方程式に係 る重み係数 Wが、 予め設定された所定の値 (上述の場合には、 0 . 1 ) とされて いた。
しかしながら、 拘束条件の方程式に係る重み係数 Wを、 所定の値 (一定値) と することは、 拘束条件が成立していない個所 (画素間の関係) に対しても、 拘束 条件が成立している個所と同様に、 拘束条件を適用することになり、 処理画像を 劣化させてしまうことがあり得る。
そこで、 次に、 信号処理装置 4が、 拘束条件の方程式等に係る重みを、 入力画 像のアクティビティ (特徴量) に対応して決定するようにすることができるよう にした実施の形態について説明する。 図 1 4 0は、 図 1 1 1に示した信号処理装置 4の応用例のその他の一実施の形 態の構成例を示している。
図 1 4 0の信号処理装置 4には、 センサ 2からデータ 3として、 例えば、 1フ レームまたは 1フィールドの画像が入力される。 なお、 ここでは、 入力画像に画 像の水平方向 (横方向) にシャツタ時間 (露光時間) あたり V画素の一定速度で 移動している所定の形状を有する物体 (オブジェクト) が表示されているものと する。 即ち、 入力画像は、 物体が水平方向に V画素の動き量で動いているために、 センサ 2の時間積分効果によって、 そのオブジェクトの光信号と、 そのオブジェ クト以外の部分の光信号とが混合 (時間混合) し、 これにより、 オブジェク トの 境界部分などにおいて、 ボケた画像となっている。 図 1 4 0の信号処理装置 4で は、 このような時間混合によって生じた動きボケを入力画像から除去した高画質 の出力画像が生成される。
図 1 4 0において、 処理領域設定部 15111、 定常性設定部 15112、 実世界推定 部 15113、 画像生成部 15114、 画像表示部 15115、 ユーザ IZF15116は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生 成部 10004、 画像表示部 10005、 ユーザ I Z F 10006にそれぞれ対応しており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006それぞれと同様の処 理を行う。 さらに、 図 1 4 0において、 実世界推定部 15113は、 モデル生成部 15121、 方程式生成部 15122、 実世界波形推定部 15123で構成されている。 モデ ル生成部 15121、 方程式生成部 15122、 実世界波形推定部 15123は、 図 1 1 1の モデル生成部 10011、 方程式生成部 10012、 実世界波形推定部 10013にそれぞれ 対応しており、 基本的には、 モデル生成部 10011、 方程式生成部 10012、 実世界 波形推定部 10013それぞれと同様の処理を行う。
但し、 図 1 4 0においては、 ユーザがユーザ I/F15116を操作することによ り、 ユーザ I/F15116が出力する補助情報が、 方程式生成部 15122に供給され るようになっている。 即ち、 図 1 4 0では、 ユーザは、 ユーザ I Z F 15116を操作することにより、 方程式生成部 15122において、 入力画像に対応する実世界 1の画像である、 動 きボケがない画像の各画素間の関係を拘束する拘束条件を設定することができる ようになつており、 ユーザ I / F 15116は、 ユーザが拘束条件を設定する操作を 行うと、 その操作によって設定された拘束条件を表す拘束条件情報を、 方程式生 成部 15122に供給する。
具体的には、 例えば、 画像表示部 15115に表示された、 物体がボケて映って いる画像を見たユーザが、 本来の画像、 即ち、 入力画像に対応する実世界 1の画 像である、 動きボケがない画像を推測する。 そして、 例えば、 ユーザは、 ボケが 発生している所定の領域をエッジ部分と推測し、 エッジ部分の隣り合う画素間の 画素値 (レベル) の差は大きい、 などの各画素間の画素値の関係 (拘束条件) を 推測する。 さらに、 ユーザは、 その推測した各画素間の画素値の関係に適合する 条件を、 ユーザ I / F 15116を操作することにより、 方程式生成部 15122に設定 することができる。
また、 図 1 4 0においては、 処理領域設定部 15111から実世界推定部 15113 に供給される処理領域情報は、 実世界推定部 15113のうちのモデル生成部 15121 と方程式生成部 15122に供給されるようになっている。 モデル生成部 15121と 方程式生成部 15122は、 処理領域設定部 15111から供給される処理領域情報か ら、 入力画像における処理領域を認識する。
定常性設定部 15112は、 入力画像において、 物体 (オブジェクト) 、 画像 の水平方向にシャッタ時間あたり V画素の一定速度で移動しているという定常性 の情報として、 動き量 (動きベク トル) Vを設定し、 その動き量 Vを定常性情報 として実世界推定部 15113のモデル生成部 15121に供給する。
モデル生成部 15121は、 処理領域設定部 15111から供給される処理領域情報 から認識される処理領域について、 定常性設定部 15112から供給された定常性 情報としての動き量 Vを考慮した、 入力画像としての動きボケ画像の各画素の画 素値と、 実世界 1の信号との関係をモデル化したモデル (以下、 適宜、 関係モデ ノレと称する) としての方程式 (以下、 モデル方程式と称する) を生成し、 その生 成したモデル方程式を方程式生成部 15122に供給する。
方程式生成部 15122は、 ユーザ I/F15116から供給される拘束条件情報に基 づいて、 拘束条件の方程式 (以下、 拘束条件式と称する) を生成する。 また、 方 程式生成部 15122は、 その拘束条件式と、 モデル生成部 15121から供給される モデル方程式とに、 入力画像のアクティビティから決定される重みを設定し、 重 み付けされた拘束条件式とモデル方程式とから成る方程式に、 処理領域を構成す る入力画像の各画素の画素値を代入し、 これにより、 実世界 1の信号をモデル化 したモデル (以下、 適宜、 近似モデルと称する) としての近似関数を求める方程 式を生成して、 実世界波形推定部 15123に供給する。
実世界波形推定部 15123は、 方程式生成部 15122から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推定部 15123は、 近似モデルとしての近似関数を求め、 その近似関数を、 実世界 1の信 号の波形の推定結果として、 画像生成部 15114に供給する。 ここで、 実世界 1 の信号を近似する近似関数には、 引数の値にかかわらず、 関数値が一定の関数も 含まれる。
画像生成部 15114は、 処理領域設定部 15111から供給された処理領域情報に 基づいて、 入力画像の処理領域を認識する。 また、 画像生成部 15114は、 実世 界波形推定部 15123から供給された近似関数から、 実世界 1の信号により近似 した信号、 即ち、 動きボケがない画像を生成し、 入力画像の処理領域の画像を動 きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15115に 供給する。
次に、 図 1 4 1のフローチャートを参照して、 図 1 4 0の信号処理装置 4の処 理について説明する。
最初に、 ステップ S15161において、 信号処理装置 4は、 前処理を行い、 ステ ップ S15162に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデータ 3 として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領 域設定部 15111、 定常性設定部 15112、 実世界推定部 15113、 画像生成部 15114、 および画像表示部 15115に供給する。 さらに、 信号処理装置 4は、 画像表示部 15115に、 入力画像を表示させる。
ステップ S 15162では、 ユーザ IZF15116は、 ユーザがユーザ IZF15116を操 作することにより、 何らかのユーザ入力があつたかどうかを判定する。 ステップ S15162において、 ユーザ入力がなかったと判定された場合、 即ち、 ユーザが何 らの操作も行わなかった場合、 ステップ S 15163乃至 S15165をスキップして、 ステップ S15166に進む。
—方、 ステップ S 15162において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15115に表示された入力画像を見て、 ユーザ IZ
F15116を操作し、 これにより、 何らかの指示または情報を表すユーザ入力があ つた場合、 ステップ S15163に進み、 ユーザ I/F15116は、 そのユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定する。 ステップ S 15163において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
一方、 ステップ S 15163において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15164に進み、 ユーザ IZF15116は、 ユーザ入力が拘束条件情 報であるかどうかを判定する。 ステップ S 15164において、 ユーザ入力が拘束条 件情報でないと判定された場合、 ステップ S15165をスキップして、 ステップ S 15166に進む。
また、 ステップ S15164において、 ユーザ入力が拘束条件情報であると判定さ れた場合、 ステップ S 15165に進み、 ユーザ IZF15116は、 その拘束条件情報を、 方程式生成部 15122に供給し、 ステップ S15166に進む。
ステップ S15166では、 処理領域設定部 15111は、 入力画像について、 処理領 域を設定し、 その処理領域を特定する処理領域情報を、 定常性設定部 15112、 実 世界推定部 15113のモデル生成部 15121および方程式生成部 15122、 並びに画 像生成部 15114に供給し、 ステップ S15167に進む。 ここで、 ステップ S15166 における処理領域の設定は、 ユーザがユーザ I / F l5116を操作することにより 処理領域指示情報を入力し、 その処理領域指示情報に基づいて行うことも可能で あるし、 ユーザからの処理領域指示情報なしで行うことも可能である。
ステップ S15167では、 定常性設定部 15112は、 処理領域設定部 15111から供 給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定 常性設定部 15112は、 その処理領域の画像データにおいて定常性の一部が欠落 した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界 推定部 15113のモデル生成部 15121に供給して、 ステップ S 15168に進む。 こ こで、 定常性設定部 15112は、 シャツタ時間 (露光時間) あたり V画素の一定 速度で水平方向に移動していることを表す動き量 Vを定常性情報として設定し、 実世界推定部 15113のモデル生成部 15121に供給するものとする。 なお、 ここ では、 定常性設定部 15112は、 入力画像において、 オブジェク トが水平方向に 移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情 報として設定するようにしたが、 その他、 オブジェク トの動きの大きさと方向を 表す動きベクトルを、 定常性情報として設定することも可能である。 ステップ S15167における定常性の設定は、 ユーザがユーザ I / F 15116を操作すること により定常性指示情報を入力し、 その定常性指示情報に基づいて行うことも可能 であるし、 ユーザからの定常性指示情報なしで行うことも可能である。
ステップ S 15168では、 実世界推定部 15113は、 実世界推定処理を行う。 即ち、 実世界推定部 15113では、 モデル生成部 15121が、 ステップ S 1S 167において定 常性設定部 15112から供給された動き量 Vと、 ステップ S15166において処理領 域設定部 15111から供給された処理領域情報に基づいて、 入力画像としての動 きボケ画像の各画素の画素値と、 実世界 1の信号との関係をモデル化したモデル (関係モデル) としての方程式 (モデル方程式) を生成し、 その生成したモデル 方程式を方程式生成部 15122に供給する。
方程式生成部 15122は、 ステップ S15165においてユーザ IZF15116から供給 される拘束条件情報に基づいて、 拘束条件式を生成し、 生成された拘束条件式と、 モデル生成部 15121から方程式生成部 15122に供給されるモデル方程式とに、 入力画像のアクティビティから決定される重みを設定する。 そして、 方程式生成 部 15122は、 重み付けされた拘束条件式とモデル方程式とから成る方程式に、 処理領域を構成する入力画像の各画素の画素値を代入し、 これにより、 実世界 1 の信号をモデル化したモデル (近似モデル) としての近似関数を求める方程式を 生成して、 実世界波形推定部 15123に供給する。 ここで、 ユーザが拘束条件情 報を指定 (設定) しなかった場合、 即ち、 ステップ. S15162または S15164で N Oと判定された場合、 方程式生成部 15122は、 例えば、 図 1 1 3の実施の形態 において説明した、 モデル方程式と処理領域の端部を 「平坦である」 と仮定した 式とから成る連立方程式を解く方法などの、 所定の処理が行われる。
実世界波形推定部 15123は、 方程式生成部 15122から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定、 即ち、 実世界 1の信号をモデ ル化したモデルとしての近似関数を求め、 その近似関数を、 実世界 1の信号の波 形の推定結果として、 画像生成部 15114に供給する。
なお、 ステップ S 15168の実世界推定処理の詳細については、 図 1 4 3を参照 して後述する。
ステップ S 15168 の処理後は、 ステップ S15169に進み、 画像生成部 15114は、 実世界波形推定部 15123から供給された近似関数から、 実世界 1の信号により 近似した信号、 即ち、 動きボケがない画像を生成し、 処理領域設定部 15111か ら供給された処理領域情報に基づいて、 入力画像の処理領域の部分を、 生成した 動きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15115 に供給して、 ステップ S 15170に進む。
ステップ S 15170では、 画像表示部 15115は、 画像生成部 15114から供給され た出力画像を、 ステップ S15161で表示された入力画像に代えて、 またはその入 力画像とともに表示し、 ステップ S15171に進む。
ステップ S 15171では、 ユーザ IZF15116は、 ステップ S 15162における場合 と同様に、 ユーザがユーザ I/F15116を操作することにより、 何らかのユーザ 入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S15171に戻り、 何らかのュ 一ザ入力があるまで待つ。
また、 ステップ S15171において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15115に表示された入力画像や出力画像を見て、 ュ 一ザ IZF15116を操作し、 これにより、 何らかの指示または情報を表すユーザ 入力があった場合、 ステップ S15172に進み、 ユーザ IZF15116は、 そのユーザ 入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定 する。
ステップ S 15172において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
一方、 ステップ S15172において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15173に進み、 ユーザ IZF15116は、 ユーザ入力が拘束条件情 報であるかどうかを判定する。 ステップ S15173において、 ユーザ入力が拘束条 件情報でないと判定された場合、 ステップ S 15171に戻り、 以下、 同様の処理が 繰り返される。
また、 ステップ S15173において、 ユーザ入力が拘束条件情報であると判定さ れた場合、 ステップ S15165に戻り、 上述したように、 ユーザ I / F 15116は、 その拘束条件情報を、 方程式生成部 15122に供給する。 そして、 ステップ S15165から S15166に進み、 以下、 同様の処理が繰り返される。 なお、 信号処 理装置 4が、 ステップ S 15165乃至 S15173の処理を繰り返す場合において、 上 述のステップ S15166および S 15167の処理は、 1回目の S15166および S 15167 の処理で設定されるものと同一であり、 1回目の処理と同じ処理を繰り返しても 良いし、 スキップするようにしても良い。 '
以上のように、 図 1 4 0の信号処理装置 4では、 実世界 1の信号をモデル化し たモデルとしての近似関数を求めることにより、 動きボケがない、 高画質の出力 画像を生成することができる。 また、 ユーザは、 ユーザ I Z F 15116を操作することにより、 本来の動きボケ がないときの画像における、 各画素間の関係を拘束する拘束条件を設定すること ができ、 新たな拘束条件が入力された場合には、 再度、 動きボケがない画像を求 めることができるので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得 ることができる。
なお、 図 1 4 0の信号処理装置 4では、 実世界 1の光信号を近似する近似関 数を求めることにより、 動きボケのない出力画像を生成するが、 この出力画像は、 入力画像から動きボケが除去されたものであるとみることができる。 従って、 図 1 4 0の信号処理装置 4では、 動きポケ除去の処理が行われるということができ る。
次に、 図 1 4 2を参照して、 図 1 4 0の実世界推定部 15113の内部の構成に ついて説明する。 なお、 図 1 4 0の実施の形態においても、 入力画像に映ってい る物体の動きボケ発生のメカニズムを、 一例である図 1 2 5と図 1 2 6に示され る、 上述した式 (1 4 1 ) の関係として、 モデル化するものとする。
即ち、 入力画像としての動きボケ画像の各画素の画素値を、 動きボケが生じて いない画像の各画素の画素値 (に対応する電荷) 力 動き量 Vで移動しながら蓄 積 (積分) された値であるとして、 動きボケ発生のメカニズムをモデル化するも のとする。
実世界推定部 15113は、 モデル生成部 15121、 方程式生成部 15122、 および実 世界波形推定部 15123で構成されている。 さらに、 方程式生成部 15122は、 拘 束条件設定部 15131、 ァクティビティ検出部 15132、 重み変更部 15133、 および 正規方程式生成部 15134で構成されている。
モデル生成部 15121には、 定常性設定部 15112から定常性情報としての動き 量 Vが供給される。 この例での動き量 Vは、 入力画像のうちの処理領域設定部 15111で設定された処理領域において、 物体がシャツタ時間あたり V画素の一定 速度で水平方向に移動している定常性を表しており、 例えば、 上述の例と同様に v = 4とする。 また、 動き量 Vは、 ライン毎に異なる値でもよく、 動き量 Vがラ イン毎に異なる場合には、 ライン数に等しい k個の動き量 Vが、 定常性情報とし て、 定常性設定部 15112からモデル生成部 15121に供給される。
また、 モデル生成部 15121には、 処理領域設定部 15111から入力画像のなか の処理領域を特定する処理領域情報も供給される。 処理領域として矩形の形状の 領域を採用する場合には、 処理領域情報は、 例えば、 入力画像の所定の位置 (画 素) を原点とする絶対座標系に対する、 矩形の処理領域の対角の座標値や、 処理 領域の中心座標と処理領域の幅 (水平方向) と高さ (垂直方向) などで表すこと ができる。 ,
モデル生成部 15121は、 処理領域設定部 15111から供給された処理領域情報 から、 例えば、 図 1 1 9に示したような、 処理領域幅 1 とライン数 kを取得する。 この例では、 処理領域 15042は、 矩形とされ、 例えば、 1 = 1 0, k = 4とす るものとする。 この場合、 各ラインの処理領域幅 (画素数) は、 同じとされてい るが、 処理領域 15042は、 各ラインで異なる処理領域幅となるようにすること もできる。 処理領域幅 1がライン毎に異なる場合には、 モデル生成部 15121 は、 ライン数と同じ個数 (k個) の処理領域幅 1を取得する
そして、 モデル生成部 15121は、 定常性設定部 15112から供給された動き量 Vと、 処理領域情報から取得した処理領域幅 1 とライン数 kに基づいて、 上述の 式 (141) で示した混合画素値 Pi ( i =3乃至 9) の方程式 (モデル方程 式) を生成し、 正規方程式生成部 15134に供給する。
拘束条件設定部 15131には、 ユーザが、 ユーザ I ZF 15116を操作することに より指定した拘束条件情報がユーザ I /F15116から供給される。 例えば、 ユー ザは、 拘束条件設定部 15131の内部に予め設定されている、 上述した式 (14 3) や式 (144) などの、 動きボケのない画像の各画素の画素値 Qhの関係を 拘束する拘束条件の中から、 所望の拘束条件を選択 (指定) する操作をユーザ I /F15116により行い、 ユーザ I /F 15116が、 その選択された拘束条件を示す 情報を拘束条件情報として、 拘束条件設定部 15131に供給する。 拘束条件設定部 15131は、 自身の内部に有する拘束条件式のなかから、 ユー ザ I ZF 15116から供給された拘束条件情報に対応する拘束条件式を選択する。 さらに、 拘束条件設定部 15131は、 処理領域設定部 15111から方程式生成部 15122に供給される入力画像の処理領域情報に基づいて処理領域幅 1を取得し、 拘束条件式を処理領域幅 1に対応する数だけ生成する。 例えば、 拘束条件情報と して、 「隣接画素差分 =0」 という条件である式 (143) が採用される場合に は、 拘束条件設定部 15131は、 処理領域設定部 15111から供給された処理領域 情報に基づいて処理領域幅 1を取得することにより、 上述した式 (145) で示 した拘束条件式を生成し、 正規方程式生成部 15134に供給する。 なお、 図 1 1 9で示した処理領域 15042の例では、 処理領域 15042が矩形であり、 各ライン の処理領域幅 1は同じとされているが、 ライン毎に処理領域幅 1が異なる場合に は、 拘束条件の式の数もライン毎に異なることとなる。
アクティビティ検出部 15132では、 重み変更部 15133が、 各混合画素値 の 方程式 (モデル方程式) に対する重み Wmi、 および、 各拘束条件式に対する重 み Wbj を決定するための情報となる、 入力画像の処理領域内の各画素 (注目画 素) のアクティビティ (特徴量) が検出される。
即ち、 アクティビティ検出部 15132は、 例えば、 入力画像の処理領域内の各 画素を注目画素 Pj として、 例えば、 その注目画素 Ρ」 とその右隣の画素 Pj + 1 との隣接画素差分 (Pj— Pj + 1) の値などを、 注目画素 Ρ」 のアクティビティと して検出し、 重み変更部 15133に供給する。
重み変更部 151133は、 各混合画素値 Pi の方程式 (モデル方程式) に対する重 み Wmi (以下、 単に重み Wmi と称する) と、 各拘束条件式に対する重み Wbj (以下、 単に重み Wbj と称する) を有している。
重み変更部 15133は、 重み Wmi と重み Wbj とを、 正規方程式生成部 15134に 供給することにより、 正規方程式生成部 15134で生成される、 モデル生成部
15121から供給される混合画素値 Pi の方程式 (モデル方程式) と、 拘束条件設 定部 15131から供給される拘束条件式とから成る方程式の、 それぞれの式の重 みを変更 (設定) する。
実世界推定部 15113で得られる画素値 Qhで構成される画像の劣化は、 拘束条 件が不適切な個所で発生することが多いと考えられるので、 重み Wrai よりも重 み Wbj を適切に調整する方がより効果的である。 そこで、 この実施の形態では、 重み Wmi は所定の値 (一定値) とし、 重み Wbj を、 アクティビティ検出部
15132より供給されるアクティビティに基づいて変更することとする。 なお、 重 み Wmi についても、 以下で説明する同様の方法や、 その他の方法により求めら れるァタティビティにより変更するようにしてもよい。
拘束条件式として、 例えば、 上述の式 (143) で表される 「隣接画素差分 = 0」 を採用した場合、 式 (143) で表される拘束条件式が成立しない個所 (画 素) は、 動きボケのない画像における、 物体 (オブジェクト) のエッジ部分に対 応する画素である。 ここで、 式 (143) で表される拘束条件式は、 空間方向 X の方向に隣合う画素間の差分を考えているので、 拘束条件式が成立しないォブジ エタトのエッジ部分とは、 オブジェク トのエッジの方向 (境界線) が、 水平方向
(空間方向 Xと平行な方向) ではない方向のエッジである。
動きボケの発生していない画像のェッジ部分は、 動きボケの発生している画像 においても、 エッジになっている。 換言すれば、 動きボケの発生している画像に おいても、 動きボケの発生していない画像でエッジ部分であった画素は、 その画 素の近傍で、 エッジの特徴が残って表れている。 従って、 動きボケの発生してい る画像 (入力画像) の隣接画素差分 (Pj_Pj + 1) の値に応じて、 重み Wbj を 決定するようにすることができる。
即ち、 入力画像の隣接画素差分 (Pj— Pj + 1) の値が大きい個所は、 動きボ ケの発生していない画像において、 エッジである可能性が高い。 そこで、 隣接画 素どうしの差分が小さいという、 上述の式 (143) の拘束条件式の重み Wbj を小さくする (拘束条件を緩くする) ようにする。 アクティビティを表す隣接画 素差分 (Pj— Pj + 1) に応じて重み Wbj を小さくする方法として、 例えば、 以 下に説明する 2つの方法がある。
第 1の方法は、 入力画像の隣接画素差分 (Pj— Pj + 1) の値の逆比を、 重み Wbj として採用する方法である。 式で表すと、 次のように書くことができる。
¾ = P¾ j =0, . . .,8
• · · (1 5 9) 第 2の方法は、 入力画像の隣接画素差分 (Pj— Pj + 1) の値に応じて、 拘束 条件式の重み Wbj を 0または 1のうちのいずれかにし、 等価的に、 拘束条件式 を入れるか入れないかを決定する方法である。 式で表すと、 次のように書くこと ができる。 j =0, ,8
Figure imgf000249_0001
(1 60) ここで、 式 (1 60) において、 閾値 Thは、 拘束条件式を入れるか入れない かを判断する基準となる値であり、 重み変更部 15133に予め設定しておくこと ができる。 重み Wbj が 0と設定された拘束条件式は、 実質的に拘束条件式から 削除されることになる。
正規方程式生成部 15134には、 モデル生成部 15121からライン数と同じ k個 の混合画素値 Pi の方程式 (式 (14 1) ) が供給される。 また、 正規方程式生 成部 15134には、 拘束条件設定部 15132からユーザがユーザ I ZF 15116を操 作することにより選択した拘束条件に対応する拘束条件の方程式 (式 (14 5) ) が供給される。
正規方程式生成部 15134では、 重み変更部 15133により、 拘束条件設定部 15132から供給された拘束条件式 (145) に誤差 ebj を考慮した式 (14 7) について、 重み Wbj が設定される (1 : 1であったモデル方程式と拘束条 件に対する重み Wbj が変更される) 。 即ち、 式 (147) は、 その両辺に重み Wbj を乗じた次の式 (161) 更される。
Figure imgf000250_0001
Wbi(Qr -Q2) = Wbieb1
Wb2(Q2- -Q3) - Wb2eb2
b3(Q3- -Q4) = ¾3eb3
4(Q4- -Q5) 二 Wb4eb4 <
II II
b5(Q5- -Q6)二 Wb5eb5
X
Figure imgf000250_0002
-Q9) = ¾8eb8
• · - (161) また、 正規方程式生成部 15134では、 重み変更部 15133により、 モデル生成 部 15121から供給された混合画素値 Piの方程式 (モデル方程式) (141) に i を考慮した式 (146) について、 重み Wmi が設定される。
即ち、 式 (146) は、 その両辺に :重み wrai
更される。
"v = Wm3x (Ρ3+½
Figure imgf000250_0003
Wm5x (Q2+Q3+Q4+Q5)/ "v = Wm5x
6X (Q3„ +Q6レ "v = Wm6x
Wm7x (Q4+Q5+Q6+Q7)/ = Wm7x
8X (Q5+Q6+Q7+Q8レ "v = Wm8x (P8+em8
Wm9X (Q6 -Q7+Q8+Q9)/ (Pg+em9
• · · (162) なお、 上述したよう .では、 式 (162) における重み Wmi は、 一定 値である。 正規方程式生成部 15134は、 図 1 28に示されるように、 処理領域 15042の なかから、 所定の 1つのラインを注目ラインとして選択する。 そして、 正規方程 式生成部 15134は、 選択した注目ラインに対応する、 式 (16 1) と式 (1 6 2) と力ゝら、 次の式 (1 63) で示される正規方程式を生成する。
Figure imgf000251_0001
… (163)
·>- - で、 式 (1 6 3) を行列 A" ヽ 列 クトル x, y ョ" を用いて、 式 (1 64) に置き換える。
A"x = y+e"
• · · (1 64) この場合、 式 (1 6 1) の誤差 ebj と式 (1 6 2) の誤差 emiの二乗誤差の 総和 E" は、 次式で表すことができる。
2
:' =∑(Wmiemi) +∑( bjebj)
(1 6 5) 二乗誤差の総和 E" を最小とする Qh を求めるためには、 列べクトル X (画素 値 Qhをコンポーネントとする列ベクトル X ) は、 上述の式 (1 5 0) および (1 5 1) と同様の式から、 式 (1 6 6) で表すことができる。 x= (A"TA")"1A"Ty
- - - ( 1 6 6) なお、 式 (1 6 6) において、 上付きの Tは転置を表し、 上付きの一 1は、 逆 行列を表す。
従って、 正規方程式生成部 15134は、 式 (1 6 6) の右辺の列べクトル yの 係数である、 行列 (A" T A" ) -1 A" τ を演算し、 センサ 2 (図 1) から供給 された入力画像に基づいて取得した混合画素値 Pi を、 列ベク トル yに代入する。 行列 (A" TA" ) -1 A" τが演算され、 混合画素値 Pi が代入された式 (1 6 6) 正規方程式生成部 15134から実世界波形推定部 15123に供給される。 以上のような、 処理領域 15042の所定の 1ラインを注目ラインとして行った 処理が終了すると、 正規方程式生成部 15134は、 まだ選択されていないライン を次の注目ラインとして選択し、 その選択された次の注目ラインに対して同様の 処理を行う。
実世界波形推定部 15123は、 正規方程式生成部 15134から供給された式 (1 6 6) を演算することにより、 列ベク トル x、 即ち、 動きボケのない画素値 Qh を求め、 画像生成部 15114 (図 1 40) に供給する。
画像生成部 15114は、 処理領域設定部 15111から供給された処理領域情報に 基づいて、 入力画像の処理領域 15042の部分を、 実世界波形推定部 15123から 供給された、 動きボケがない画素値 Qh の画像に置き換えて、 出力画像として生 成し、 画像表示部 15115に供給する。
次に、 図 1 4 3のスローチャートを参照して、 図 1 4 1のステップ S15168に おける実世界推定部 15113の実世界推定処理について詳述する。 初めに、 ステップ S15191では、 モデル生成部 15121は、 処理領域設定部 15111から供給される処理領域情報に基づいて、 処理領域幅 1 とライン数 kを取 得して、 ステップ S 15192に進む。
ステップ S 15192では、 モデル生成部 15121は、 処理領域 15042のライン数に 等しい k個の動き量 Vを、 定常性設定部 15112から取得して、 ステップ S15193 に進む。
ステップ S 15193,では、 モデル生成部 15121は、 ライン毎に混合画素値 P i の 方程式を生成して、 ステップ S15194に進む。 即ち、 モデル生成部 15121は、 k 個のモデル方程式 (式 (1 4 1 ) ) を生成する。
ステップ S 15194では、 拘束条件設定部 15131は、 自身の内部に有する拘束条 件式のなかから、 ユーザ I / F 15116から供給された拘束条件情報に対応する拘 束条件式を選択する。 また、 拘束条件設定部 15131は、 処理領域設定部 15111 から方程式生成部 15122に供給される、 入力画像の処理領域情報から、 処理領 域幅 1を取得し、 処理領域幅 1に対応する方程式の数で構成される、 ユーザ I Z F l5116からの拘束条件情報に対応する拘束条件の方程式 (式 (1 4 5 ) ) を生 成し、 ステップ S15195に進む。
ステップ S 15195では、 アクティビティ検出部 15132は、 重み変更部 15133力 重み Wb j を決定するための情報となる、 入力画像の処理領域内の各画素のァク テイビティ (特徴量) を検出し、 重み変更部 ' 15133に供給して、 ステップ
S15196に進む。
ステップ S 15196では、 重み変更部 15133は、 アクティビティ検出部 15132か ら供給された、 入力画像の処理領域内の各画素のアクティビティを用いて、 例え ば、 上述の第 1 または第 2の方法などで求められる重み Wb j を算出する。 また、 重み変更部 15133は、 算出した重み Wb j と予め一定値として与えられている重 み Wra i とを、 正規方程式生成部 15134の混合画素値 P i の方程式 (モデル方程 式) と、 拘束条件の方程式 (拘束条件式) のそれぞれの式の重みとして設定して、 ステップ S15197に進む。 ステップ S15197では、 正規方程式生成部 15134は、 処理領域 15042のなかか ら、 所定の 1つのラインを注目ラインとして選択して、 ステップ S15198 に進む ステップ S15198では、 正規方程式生成部 15134は、 モデル生成部 15121から 供給された式 (14 1) で示される混合画素値 Pi の方程式に、 それぞれの式の 誤差 emi を考慮した式 (146) に対して、 ステップ S15196で重み変更部 15133により重み Wraiが変更された式 (1 62) と、 拘束条件設定部 15131か ら供給された拘束条件式 (145) に、 それぞれの式の誤差 ebj を考慮した式 (147) に対して、 ステップ S15196で重み変更部 1δ133により重み Wbjが 変更された拘束条件の方程式 (1 6 1) とから、 式 (1 6 3) (式 (1 64) ) で示される正規方程式を生成して、 ステップ S15199に進む。
ステップ S15199では、 正規方程式生成部 15134は、 式 (1 66) の右辺の列 ベタトル yの係数である、 行列 (A" T A" ) ^Α" τを演算し、 ステップ S15200に進む。
ステップ S15200では、 正規方程式生成部 15134は、 センサ 2 (図 1 ) から供 給された入力画像に基づいて取得した混合画素値 Pi を、 列べク トル yに代入し て、 ステップ S15201に進む。
ステップ S15201では、 実世界波形推定部 15123は、 正規方程式を演算する。 即ち、 実世界波形推定部 15123は、 正規方程式生成部 15134から供給された、 式 (1 66) を演算することにより、 動きボケがない画素値 Qh を求めて、 ステ ップ S15202に進む。
ステップ S15202では、 処理領域 15042の全てのラインに対して、 動きボケが ない画素値 Qhを求める処理が行われたか否かが判定される。 処理領域 15042の 全てのラインに対して、 動きボケがない画素値 Qh を求める処理が行われていな いと判定された場合、 処理はステップ S15197に戻り、 ステップ S15197乃至 S15202の処理が繰り返される。 即ち、 まだ選択されていない処理領域 15042の うちの 1ラインが注目ラインとして選択され、 動きボケがない画素値 Qh を求め る処理が行われる。 一方、 処理領域 15042の全てのラインに対して、 動きボケがない画素値 Qh を 求める処理が行われたと判定された場合、 実世界推定処理を終了してリターンす る。
以上のように、 処理領域 15042の注目ラインとした 1ラインに対して、 正規 方程式 (式 (1 6 3 ) ) を生成し、 動きボケがない画素値 Qhを求める処理を、 処理領域の 15042のライン数である k回繰り返すことにより、 処理領域 15042 の全域に亘る動きボケがない画素値 Qhを求めることができる。
以上のように、 図 1 4 0に示される実施の形態においては、 動きボケの発生し ている画素値を動きボケのない画素値でモデル化した混合画素値 Pi の方程式と 動きボケのない画素値の隣接する画素間の関係を用いた拘束条件式とから、 正規 方程式を生成し、 その正規方程式を演算することにより、 動きボケがない画素値 を求めるので、 画質の良い画像を生成することができる。
また、 拘束条件の方程式のそれぞれの重みを、 入力画像のアクティビティに基 づいて変更するので、 入力画像の特徴量に応じた、 画質の良い画像を生成するこ とができる。
図 1 4 4乃至図 1 4 6は、 図 1 4 0の信号処理装置 4の処理結果を説明する図 である。 .
図 1 4 4は、 図 1 4 0の信号処理装置 4に入力される入力画像を示している。 図 1 4 4の入力画像においては、 「T A L j の文字が左から右方向に等速で移動 しており、 水平方向に動きボケが発生している。
図 1 4 5は、 図 1 4 4の入力画像を、 図 1 3 5の信号処理装置 4が処理した出 力画像を示している。 即ち、 拘束条件式に対する重み Wb j が、 全ての拘束条件 式について、 同じ重みとして処理された場合の、 図 1 4 4の入力画像に対する出 力画像である。 図 1 4 4と、 図 1 4 5とを比較して明らかなように、 図 1 4 5の 画像では、 図 1 4 4の入力画像に生じている動きボケが低減され、 「T A L」 の 文字が比較的はっきりと表示されている。 一方、 図 1 4 6は、 図 1 4 4の入力画像を、 上述した実施の形態である、 図 1 4 0の信号処理装置 4が、 上述の第 2の方法を利用して処理した出力画像を示し ている。 即ち、 拘束条件式に対する重み Wb j力 入力画像のアクティビティに 応じて、 0または 1とされたときの、 図 1 4 4の入力画像に対する出力画像であ る。 図 1 4 6の画像においても、 図 1 4 4の入力画像に生じている動きボケが低 減され、 「T A L」 の文字がはっきりと表示されている。
なお、 図 1 4 4乃至図 1 4 6の実施の形態では、 図 1 4 6の処理画像の方が、 図 1 4 5の処理画像よりもエッジ部分が鮮明になった画像になっている。
なお、 上述の例では、 ユーザ I / F 15116から拘束条件設定部 15131に供給さ れる拘束条件情報は、 拘束条件設定部 15131の内部に予め設定されている、 い くつかの拘束条件のなかから、 ユーザがどの拘束条件を選択 (指定) したかを表 す情報としたが、 ユーザがユーザ I Z F 15116を操作することにより、 拘束条件 式を直接入力するようにしてもよい。
また、 重み変更部 15133において上述の第 2の方法を採用した場合、 拘束条 件式を入れるか入れないかを判断する基準となる値である閾値 T hを、 その内部 に予め設定しておくようにしたが、 ユーザが画像表示部 15115に表示される処 理画像を見ながら、 ユーザ I Z F 15116を操作することにより、 閾値 T hを適宜 調整できるようにすることもできる。
図 1 4 7は、 図 1 1 1に示した信号処理装置 4の応用例のその他の一実施の形 態の構成例を示している。
図 1 4 7の信号処理装置 4には、 センサ 2からデータ 3として、 例えば、 1フ レームまたは 1フィールドの画像が入力される。 なお、 ここでは、 入力画像に画 像の水平方向 (横方向) にシャツタ時間 (露光時間) あたり V画素の一定速度で 移動している所定の形状を有する物体 (オブジェクト) が表示されているものと する。 即ち、 入力画像は、 物体が水平方向に V画素の動き量で動いているために、 センサ 2の時間積分効果によって、 そのオブジェクトの光信号と、 そのオブジェ タト以外の部分の光信号とが混合 (時間混合) し、 これにより、 オブジェク トの 境界部分などにおいて、 ボケた画像となっている。 図 1 4 7の信号処理装置 4で は、 このような時間混合によって生じた動きボケを入力画像から除去した高画質 の出力画像が生成される。
図 1 4 7において、 処理領域設定部 15151、 定常性設定部 15152、 実世界推定 部 15153、 画像生成部 15154、 画像表示部 15155、 ユーザ I F 15156は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像 生成部 10004、 画像表示部 10005、 ユーザ I / F 10006 にそれぞれ対応しており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I Z F 10006それぞれと同様の処 理を行う。 さらに、 図 1 4 7において、 実世界推定部 15153は、 モデル生成部 15161、 方程式生成部 15162、 実世界波形推定部 15163で構成されている。 モデ ル生成部 15161、 方程式生成部 15162、 実世界波形推定部 15163は、 図 1 1 1の モデル生成部 10011、 方程式生成部 10012、 実世界波形推定部 10013にそれぞれ 対応しており、 基本的には、 モデル生成部 10011、 方程式生成部 10012、 実世界 波形推定部 10013それぞれと同様の処理を行う。
伹し、 図 1 4 7においては、 ユーザがユーザ I Z F 15156を操作することによ り、 ユーザ I / F 15156が出力する補助情報が、 方程式生成部 15162に供給され るようになっている。
即ち、 図 1 4 7では、 ユーザは、 ユーザ I / F 15156を操作することにより、 方程式生成部 15162において、 入力画像に対応する実世界 1の画像である、 動 きボケがない画像の各画素間の関係を拘束する拘束条件と、 その拘束条件に対す る重みとを設定することができるようになつており、 ユーザ I / F 15156は、 ュ 一ザが拘束条件を設定する操作や重みを設定する操作を行うと、 その操作によつ て設定された拘束条件を表す拘束条件情報や拘束条件に対する重みを、 方程式生 成部 15162に供給する。
具体的には、 例えば、 画像表示部 15155に表示された、 物体がボケて映って いる画像を見たユーザが、 本来の画像、 即ち、 入力画像に対応する実世界 1の画 像である、 動きボケがない画像を推測する。 そして、 例えば、 ユーザは、 ボケが 発生している所定の領域をェッジ部分と推測し、 ェッジ部分の隣り合う画素間の 画素値 (レベル) の差は大きい、 などの各画素間の画素値の関係 (拘束条件) を 推測する。 さらに、 ユーザは、 その推測した各画素間の画素値の関係に適合する 条件を、 ユーザ I Z F 15156を操作することにより、 方程式生成部 15162に設定 することができる。
また、 図 1 4 7においては、 処理領域設定部 15151から実世界推定部 15153 に供給される処理領域情報は、 実世界推定部 15153のうちのモデル生成部 15161 と方程式生成部 15162に供給されるようになっている。 モデル生成部 15161と 方程式生成部 15162は、 処理領域設定部 15151から供給される処理領域情報か ら、 入力画像における処理領域を認識する。
定常性設定部 15152は、 入力画像において、 物体 (オブジェクト) ヽ 画像 の水平方向にシャツタ時間あたり V画素の一定速度で移動しているという定常性 の情報として、 動き量 (動きベク トル) Vを設定し、 その動き量 Vを定常性情報 として実世界推定部 15153のモデル生成部 15161に供給する。
モデル生成部 15161は、 処理領域設定部 15151から供給される処理領域情報 から認識される処理領域について、 定常性設定部 15152から供給された定常性 情報としての動き量 Vを考慮した、 入力画像としての動きボケ画像の各画素の画 素値と、 実世界 1の信号との関係をモデル化したモデル (以下、 適宜、 関係モデ ルと称する) としての方程式 (以下、 モデル方程式と称する) を生成し、 その生 成したモデル方程式を方程式生成部 15162に供給する。
方程式生成部 1δ162は、 ユーザ I / F 15156から供給される拘束条件情報に基 づいて、 拘束条件の方程式 (以下、 拘束条件式と称する) を生成する。 また、 方 程式生成部 15162は、 その拘束条件式と、 モデル生成部 15161から方程式生成 部 15162に供給されるモデル方程式とに、 ユーザ I Z F 15156から供給される重 みを設定し、 重み付けされた拘束条件式とモデル方程式とから成る方程式に、 処 理領域を構成する入力画像の各画素の画素値を代入し、 これにより、 実世界 1の 信号をモデル化したモデル (以下、 適宜、 近似モデルと称する) としての近似関 数を求める方程式を生成して、 実世界波形推定部 15163に供給する。
実世界波形推定部 15163は、 方程式生成部 15162から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推定部 15163は、 近似モデルとしての近似関数を求め、 その近似関数を、 実世界 1の信 号の波形の推定結果として、 画像生成部 15154に供給する。 ここで、 実世界 1 の信号を近似する近似関数には、 引数の値にかかわらず、 関数値が一定の関数も 含まれる。
画像生成部 15154は、 処理領域設定部 15151から供給された処理領域情報に 基づいて、 入力画像の処理領域を認識する。 また、 画像生成部 15154は、 実世 界波形推定部 15163から供給された近似関数から、 実世界 1の信号により近似 した信号、 即ち、 動きボケがない画像を生成し、 入力画像の処理領域の画像を動 きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15155に 供給する。
次に、 図 1 4 8のフローチャートを参照して、 図 1 4 7の信号処理装置 4の処 理について説明する。
最初に、 ステップ S15211において、 信号処理装置 4は、 前処理を行い、 ステ ップ S15212に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデータ 3 として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領 域設定部 15151、 定常性設定部 15152、 実世界推定部 15153、 画像生成部 15154、 および画像表示部 15155に供給する。 さらに、 信号処理装置 4は、 画像表示部
15155に、 入力画像を表示させる。
ステップ S 15212では、 ユーザ I / F 15156は、 ユーザがユーザ I Z F 15156 を操作することにより、 何らかのユーザ入力があつたかどうかを判定する。 ステ ップ S15212において、 ユーザ入力がなかったと判定された場合、 即ち、 ユーザ が何らの操作も行わなかった場合、 ステップ S 15213乃至 S 15215をスキップし て、 ステップ S15216に進む。 一方、 ステップ S 15212において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15155に表示された入力画像を見て、 ユーザ I Z F 15156を操作し、 これにより、 何らかの指示または情報を表すユーザ入力があつ た場合、 ステップ S 15213に進み、 ユーザ I Z F 15156は、 そのユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定する。 ステップ S 15213において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
一方、 ステップ S 15213において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15214に進み、 ユーザ I / F 15156は、 ユーザ入力が拘束条件 情報または重みであるかどうかを判定する。 ステップ S 15214において、 ユーザ 入力が拘束条件情報および重みのいずれでもないと判定された場合、 ステップ S15215をスキップして、 ステップ S15216に進む。
また、 ステップ S 15214において、 ユーザ入力が拘束条件情報または重みであ ると判定された場合、 ステップ S 15215に進み、 ユーザ I Z F 15156は、 その拘 束条件情報または重みを、 方程式生成部 15162に供給し、 ステップ S15216に進 む。 ユーザ I Z F 15156では、 拘束条件情報と重みの両方を入力することが可能 であり、 ユーザが拘束条件情報と重みの両方を入力した場合には、 ユーザ I / F 15156は、 入力された拘束条件情報と重みの両方を方程式生成部 15162に供給す る。
ステップ S 15216では、 処理領域設定部 15151は、 入力画像について、 処理領 域を設定し、 その処理領域を特定する処理領域情報を、 定常性設定部 15152、 実 世界推定部 15153のモデル生成部 15161および方程式生成部 15162、 並びに画 像生成部 15154に供給し、 ステップ S15217に進む。 ここで、 ステップ S 15216 における処理領域の設定は、 ユーザがユーザ I / F 15156を操作することにより 処理領域指示情報を入力し、 その処理領域指示情報に基づいて行うことも可能で あるし、 ユーザからの処理領域指示情報なしで行うことも可能である。 ステップ S15217では、 定常性設定部 15152は、 処理領域設定部 15151から供 給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定 常性設定部 15152は、 その処理領域の画像データにおいて定常性の一部が欠落 した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界 推定部 15153のモデル生成部 15161に供給して、 ステップ S15218に進む。 ここ で、 定常性設定部 15152は、 シャツタ時間 (露光時間) あたり V画素の一定速 度で水平方向に移動していることを表す動き量 Vを定常性情報として設定し、 実 世界推定部 15153のモデル生成部 15161に供給するものとする。 なお、 ここで は、 定常性設定部 15152は、 入力画像において、 オブジェクトが水平方向に移 動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報 として設定するようにしたが、 その他、 オブジェク トの動きの大きさと方向を表 す動きベク トルを、 定常性情報として設定することも可能である。 ステップ S15217における定常性の設定は、 ユーザがユーザ I Z F 15156を操作すること により定常性指示情報を入力し、 その定常性指示情報に基づいて行うことも可能 であるし、 ユーザからの定常性指示情報なしで行うことも可能である。
ステップ S 15218では、 実世界推定部 15153は、 実世界推定処理を行う。 即ち、 実世界推定部 15153では、 モデル生成部 15161が、 ステップ S 15217において定 常性設定部 15152から供給された動き量 Vと、 ステップ S15216において処理領 域設定部 15151から供給された処理領域情報に基づいて、 入力画像としての動 きボケ画像の各画素の画素値と、 実世界 1の信号との関係をモデル化したモデル (関係モデル) としての方程式 (モデル方程式) を生成し、 その生成したモデル 方程式を方程式生成部 15162に供給する。
方程式生成部 15162は、 ステップ S 15215においてユーザ I / F 15156から供 給される拘束条件情報に基づいて、 拘束条件式を生成し、 生成された拘束条件式 と、 モデル生成部 15161から方程式生成部 15162に供給されるモデル方程式と に、 ユーザ I / F 15156から供給される重みを設定する。 そして、 方程式生成部 15162は、 重み付けされた拘束条件式とモデル方程式とから成る方程式に、 処理 領域を構成する入力画像の各画素の画素値を代入し、 これにより、 実世界 1の信 号をモデル化したモデル (近似モデル) としての近似関数求める方程式を生成し て、 実世界波形推定部 15163に供給する。 ここで、 ユーザが拘束条件情報を指 定 (設定) しなかった場合、 即ち、 ステップ S15212または S15214で N Oと判 定された場合、 方程式生成部 15162は、 例えば、 図 1 1 3の実施の形態におい て説明した、 モデル方程式と処理領域の端部を 「平坦である」 と仮定した式とか ら成る連立方程式を解く方法などの、 所定の処理が行われる。
なお、 重みは、 拘束条件式とモデル方程式の両方に設定する他、 拘束条件式だ け、 またはモデル方程式だけに設定するすることが可能である。
実世界波形推定部 15163は、 方程式生成部 15162から供給される方程式を演 算することにより、 実世界 1の信号の波形を推定、 即ち、 実世界 1の信号をモデ ル化したモデルとしての近似関数を求め、 その近似関数を、 実世界 1の信号の波 形の推定結果として、 画像生成部 15154に供給する。
なお、 ステップ S 15218の実世界推定処理の詳細については、 図 1 5 0を参照 して後述する。
ステップ S 15218の処理後は、 ステップ S15219に進み、 画像生成部 15154は、 実世界波形推定部 15163から供給された近似関数から、 実世界 1の信号により 近似した信号、 即ち、 動きボケがない画像を生成し、 処理領域設定部 15151か ら供給された処理領域情報に基づいて、 入力画像の処理領域の部分を、 生成した 動きボケがない画像に置き換えて、 出力画像として生成し、 画像表示部 15155 に供給して、 ステップ S 15220に進む。
ステップ S 15220では、 画像表示部 15155は、 画像生成部 15154から供給され た出力画像を、 ステップ S15211で表示された入力画像に代えて、 またはその入 力画像とともに表示し、 ステップ S15221に進む。
ステップ S 15221では、 ユーザ I / F 15156は、 ステップ S 15212における場 合と同様に、 ユーザがユーザ I / F 15156を操作することにより、 何らかのユー ザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S15221に戻り、 何らかのュ 一ザ入力があるまで待つ。
また、 ステップ S 15221において、 ユーザ入力があつたと判定された場合、 即 ち、 ユーザが、 画像表示部 15155に表示された入力画像や出力画像を見て、 ュ —ザ I Z F 15156を操作し、 これにより、 何らかの指示または情報を表すユーザ 入力があった場合、 ステップ S15222に進み、 ユーザ I / F 15156は、 そのユー ザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判 定する。
ステップ S 15222において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
—方、 ステップ S 15222において、 ユーザ入力が終了指示でないと判定された 場合、 ステップ S15223に進み、 ユーザ I / F 15156は、 ユーザ入力が拘束条件 情報または重みであるかどうかを判定する。 ステップ S 15223において、 ユーザ 入力が拘束条件情報および重みのいずれでもないと判定された場合、 ステップ S15221に戻り、 以下、 同様の処理が繰り返される。
また、 ステップ S 15223において、 ユーザ入力が拘束条件情報または重みであ ると判定された場合、 ステップ S 15215に戻り、 上述したように、 ユーザ I / F 151δ6は、 その拘束条件情報または重みを、 方程式生成部 15162に供給する。 そ して、 ステップ S 15215 から S15216 に進み、 以下、 同様の処理が繰り返される。 なお、 信号処理装置 4が、 ステップ S 15215乃至 S15223の処理を繰り返す場合 において、 上述のステップ S 15216および S 15217の処理は、 1回目の S15216お よび S15217の処理で設定されるものと同一であり、 1回目の処理と同じ処理を 繰り返しても良いし、 スキップするようにしても良い。
以上のように、 図 1 4 7の信号処理装置 4では、 実世界 1の信号をモデル化し たモデルとしての近似関数を求めることにより、 動きボケがない、 高画質の出力 画像を生成することができる。 また、 ユーザは、 ユーザ I Z F 15156を操作することにより、 本来の動きボケ がないときの画像における、 各画素間の関係を拘束する拘束条件を設定すること ができ、 新たな拘束条件が入力された場合には、 再度、 動きボケがない画像を求 めることができるので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得 ることができる。
なお、 図 1 4 7の信号処理装置 4では、 実世界 1の光信号を近似する近似関 数を求めることにより、 動きボケのない出力画像を生成するが、 この出力画像は、 入力画像から動きボケが除去されたものであるとみることができる。 従って、 図 1 4 7の信号処理装置 4では、 動きボケ除去の処理が行われるということができ る。
次に、 図 1 4 9を参照して、 図 1 4 7の実世界推定部 15153の内部の構成に ついて説明する。 なお、 図 1 4 7の実施の形態においても、 入力画像に映ってい る物体の動きボケ発生のメカニズムを、 一例である図 1 2 5と図 1 2 6に示され る、 上述した式 (1 4 1 ) の関係として、 モデル化するものとする。
即ち、 入力画像としての動きボケ画像の各画素の画素値を、 動きボケが生じて いない画像の各画素の画素値 (に対応する電荷) 力 動き量 Vで移動しながら蓄 積 (積分) された値であるとして、 動きボケ発生のメカニズムをモデル化するも のとする。
実世界推定部 15153は、 モデル生成部 15161、 方程式生成部 15162、 および実 世界波形推定部 15163で構成されている。 さらに、 方程式生成部 15162は、 拘 束条件設定部 15171、 重み変更部 15172、 および正規方程式生成部 15173で構成 されている。
モデル生成部 15161には、 定常性設定部 15152から定常性情報としての動き 量 Vが供給される。 この例での動き量 Vは、 入力画像のうちの処理領域設定部 15151で設定された処理領域において、 物体がシャツタ時間あたり V画素の一定 速度で水平方向に移動している定常性を表しており、 例えば、 上述の例と同様に v = 4とする。 また、 動き量 Vは、 ライン毎に異なる値でもよく、 動き量 Vがラ イン毎に異なる場合には、 ライン数に等しい k個の動き量 Vが、 定常性情報とし て、 定常性設定部 15152からモデル生成部 15161に供給される。
また、 モデル生成部 15161には、 処理領域設定部 15151から入力画像のなか の処理領域を特定する処理領域情報も供給される。 処理領域として矩形の形状の 領域を採用する場合には、 処理領域情報は、 例えば、 入力画像の所定の位置 (画 素) を原点とする絶対座標系に対する、 矩形の処理領域の対角の座標値や、 処理 領域の中心座標と処理領域の幅 (水平方向) と高さ .(垂直方向) などで表すこと ができる。
モデル生成部 15161は、 処理領域設定部 15151から供給された処理領域情報 から、 例えば、 図 1 1 9に示したような、 処理領域幅 1 とライン数 kを取得する。 この例では、 処理領域 15042は、 矩形とされ、 例えば、 1 = 1 0 , k = 4とす るものとする。 この場合、 各ラインの処理領域幅 (画素数) は、 同じとされてい るが、 処理領域 15042は、 各ラインで異なる処理領域幅となるようにすること もできる。 処理領域幅 1がライン毎に異なる場合には、 モデル生成部 15021 は、 ライン数と同じ個数 (k個) の処理領域幅 1を取得する
そして、 モデル生成部 15161は、 定常性設定部 15152から供給された動き量 Vと、 処理領域情報から取得した処理領域幅 1 とライン数 kに基づいて、 上述の 式 (1 4 1 ) で示した混合画素値 P i の方程式 (モデル方程式) を生成し、 正規 方程式生成部 15173に供給する。
拘束条件設定部 15171には、 ユーザが、 ユーザ I Z F 15156を操作することに より指定した拘束条件情報がユーザ I Z F 15156から供給される。 例えば、 ユー ザは、 拘束条件設定部 15171の内部に予め設定されている、 上述した式 (1 4 3 ) や式 (1 4 4 ) などの、 動きボケのない画像の各画素の画素値 Qhの関係を 拘束する拘束条件の中から、 所望の拘束条件を選択 (指定) する操作をユーザ I / F 15156により行い、 ユーザ I / F 15156が、 その選択された拘束条件を示す 情報を拘束条件情報として、 拘束条件設定部 15171に供給する。 拘束条件設定部 15171は、 自身の内部に有する拘束条件式のなかから、 ユー ザ I/F15156から供給された拘束条件情報に対応する拘束条件式を選択する。 さらに、 拘束条件設定部 15171は、 処理領域設定部 15151から方程式生成部 15162に供給される入力画像の処理領域情報に基づいて処理領域幅 1を取得し、 拘束条件式を処理領域幅 1に対応する数だけ生成する。 例えば、 拘束条件情報と して、 「隣接画素差分 =0」 という条件である式 (143) が採用される場合に は、 拘束条件設定部 15171は、 処理領域設定部 15151から供給された処理領域 情報に基づいて処理領域幅 1を取得することにより、 上述した式 (145) で示 した拘束条件式を生成し、 正規方程式生成部 15173に供給する。 なお、 図 1 1 9で示した処理領域 15042の例では、 処理領域 15042が矩形であり、 各ライン の処理領域幅 1は同じとされているが、 ライン毎に処理領域幅 1が異なる場合に は、 拘束条件の式の数もライン毎に異なることとなる。
重み変更部 1δΠ2は、 各混合画素値 Pi の方程式 (モデル方程式) に対する重 み Wrai (以下、 単に重み Wrai と称する) と、 各拘束条件式に対する重み Wbj (以下、 単に重み Wbj と称する) を有している。 重み Wmi と重み Wbjのそれぞ れの値は、 ユーザがユーザ I ZF 15156を操作することにより、 ユーザ I ZF 15156から供給されて、 デフォルトの値 (例えば 1) から変更される。 即ち、 ュ 一ザはユーザ IZF 15156を操作することにより、 重み Wmi と重み Wbj のそれ ぞれの値を決定(設定)することができる。 重み変更部 15172は、 ユーザにより 設定された重み Wmi と重み Wbj のそれぞれを正規方程式生成部 15173 に供給し、 正規方程式生成部 15173のモデル方程式と拘束条件式のそれぞれ対応する式の 重みを設定 (変更) する。
具体的には、 正規方程式生成部 15173では、 重み変更部 15172により、 拘束 条件設定部 15171から供給された拘束条件式 (145) に誤差 ebj を考慮した 式 (147) について、 重み Wbjが設定される。 即ち、 式 (147) は、 その 両辺に重み Wbj を乗じた式 (161) に変更される。 また、 正規方程式生成部 15173では、 重み変更部 15172により、 モデル生成 部 15161から供給された混合画素値 Pi の方程式 (モデル方程式) (141) に、 誤差 emi を考慮した式 (146) に対して、 重み Wmi が設定される。 即ち、 式 (146) は、 その両辺に重み Wmi を乗じた上述の式 (1 6 2) に変更される。 正規方程式生成部 15173は、 図 1 28に示されるように、 処理領域 15042の なかから、 所定の 1つのラインを注目ラインとして選択する。 そして、 正規方程 式生成部 15173は、 選択した注目ラインに対応する、 式 (1 6 1) と式 (1 6 2) とから、 上述の式 (1 6 3) で示される正規方程式を生成する。
ここで、 式 (16 3) を行列 A" 、 列べクトル y , e" を用いて、 式 (1 64) に置き換える。 この場合、 式 (16 1) の誤差 ebj と式 (1 6 2) の誤 差 emi の二乗誤差の総和 E" は、 式 (1 6 5) と表すことができ、 二乗誤差の 総和 E" を最小とする Qhを求めるためには、 列べク トル X (画素値 Qh をコン ポーネントとする列べク トル X ) は、 上述の式 (1 50) および (1 5 1) と同 様の式から、 式 (1 66) で表すことができる。
従って、 正規方程式生成部 15173は、 式 (1 66) の右辺の列べク トル の 係数である、 行列 (A" TA" ) -1 A" τ を演算し、 センサ 2 (図 1) から供給 された入力画像に基づいて取得した混合画素値 Pi を、 列ベク トル yに代入する。 行列 (A" T A" ) -1 A" τが演算され、 混合画素値 Pi が代入された式 (1 6 6) 力 正規方程式生成部 15173から実世界波形推定部 15163に供給される。 以上のような、 処理領域 15042の所定の 1ラインを注目ラインとして行った 処理が終了すると、 正規方程式生成部 15173は、 まだ選択されていないライン を次の注目ラインとして選択し、 その選択された次の注目ラインに対して同様の 処理を行う。
実世界波形推定部 15163は、 正規方程式生成部 15173から供給された式 (1 66) を演算することにより、 列ベク トル x、 即ち、 動きポケのない画素値 Qh を求め、 画像生成部 1δ1δ4 (図 147) に供給する。 画像生成部 15154は、 処理領域設定部 15151から供給された処理領域情報に 基づいて、 入力画像の処理領域 15042の部分を、 実世界波形推定部 15163から 供給された、 動きボケがない画素値 Qh の画像に置き換えて、 出力画像として生 成し、 画像表示部 15155に供給する。
次に、 図 1 5 0のフローチャートを参照して、 図 1 4 8のステップ S 15218に おける実世界推定部 15153の実世界推定処理について詳述する。
初めに、 ステップ S 15251では、 モデル生成部 15161は、 処理領域設定部 15151から供給される処理領域情報に基づいて、 処理領域幅 1 とライン数 kを取 得して、 ステップ S15252に進む。
ステップ S15252では、 モデル生成部 15161は、 処理領域 15042のライン数に 等しい k個の動き量 Vを、 定常性設定部 15152から取得して、 ステップ S 15253 に進む。
ステップ S 15253では、 モデル生成部 15161は、 ライン毎に混合画素値 P i の 方程式を生成して、 ステップ S15254に進む。 即ち、 モデノレ生成部 15161は、 k 個のモデル方程式 (式 ( 1 4 1 ) ) を生成する。
ステップ S 15254では、 拘束条件設定部 15171は、 自身の内部に有する拘束条 件式のなかから、 ユーザ I / F 15156から供給された拘束条件情報に対応する拘 束条件式を選択する。 また、 拘束条件設定部 15171は、 処理領域設定部 15151 から方程式生成部 15162に供給される、 入力画像の処理領域情報から、 処理領 域幅 1を取得し、 処理領域幅 1に対応する方程式の数で構成される、 ユーザ I Z F 15156からの拘束条件情報に対応する拘束条件の方程式 (式 (1 4 5 ) ) を生 成し、 ステップ S15255に進む。
ステップ S 15255では、 重み変更部 15172は、 ユーザ I Z F 15156から供給さ れた重み Wb j と重み Wm i とを正規方程式生成部 15173に供給することにより、 モデル生成部 15161から供給される混合画素値 P i の方程式 (モデル方程式) と、 拘束条件設定部 15171から供給される拘束条件式のそれぞれの式の重みとして 設定して、 ステップ S15256に進む。 ステップ S15256では、 正規方程式生成部 15173は、 処理領域 15042のなかか ら、 所定の 1つのラインを注目ラインとして選択して、 ステップ S15257 に進む ステップ S15257では、 正規方程式生成部 15173は、 モデル生成部 15161から 供給された式 (14 1) で示される混合画素値 Pi の方程式にそれぞれの式の誤 差 erai を考慮した式 (146) に対して、 ステップ S15255で重み変更部 15172 により重み Wrai が変更された式 (1 6 2) と、 拘束条件設定部 15171から供給 された式 (145) に、 ステップ S15255で重み変更部 15172により重み WbJ. が変更された拘束条件の方程式 (1 6 1) と力ゝら、 式 (1 63) (式 (1 6 4) ) で示される正規方程式を生成して、 ステップ S15258に進む。
ステップ S15258では、 正規方程式生成部 15173は、 式 (1 66) の右辺の列 ベタトル yの係数である、 行列 (A" TA" ) 一1 A" τ を演算し、 ステップ S15259に進む。
ステップ S15259では、 正規方程式生成部 15173は、 センサ 2 (図 1) から供 給された入力画像に基づいて取得した混合画素値 Pi を、 列べク トル yに代入し て、 ステップ S15260に進む。
ステップ S15260では、 実世界波形推定部 15163は、 正規方程式を演算する。 即ち、 実世界波形推定部 15163は、 正規方程式生成部 15173から供給された、 式 (1 66) を演算することにより、 動きボケがない画素値 Qh を求めて、 ステ ップ S15261に進む。
ステップ S15261では、 処理領域 15042の全てのラインに対して、 動きボケが ない画素値 Qhを求める処理が行われたか否かが判定される。 処理領域 15042の 全てのラインに対して、 動きボケがない画素値 Qh を求める処理が行われていな いと判定された場合、 処理はステップ S15256に戻り、 ステップ S15256乃至 S1526lの処理が繰り返される。 即ち、 まだ選択されていない処理領域 15042の うちの 1ラインが注目ラインとして選択され、 動きボケがない画素値 Qhを求め る処理が行われる。 一方、 処理領域 15042の全てのラインに対して、 動きボケがない画素値 Qh を 求める処理が行われたと判定された場合、 実世界推定処理を終了してリターンす る。
以上のように、 処理領域 15042の注目ラインとした 1ラインに対して、 正規 方程式 (式 (1 63) ) を生成し、 動きボケがない画素値 Qhを求める処理を、 処理領域の 15042のライン数である k回繰り返すことにより、 処理領域 15042 の全域に亘る動きボケがない画素値 Qhを求めることができる。
ここで、 処理領域 15042の各ラインの動き量 Vと処理領域幅 1力 それぞれ 同じであり、 かつ、 ユーザ I ZF 15156から重み変更部 15172に供給される重み Wbj と重み Wmi が処理領域 15042の各ラインで同じように設定 (供給) された 場合には、 式 (16 3) の行列 Aは、 各ラインで同じものとなる。 従って、 式 (1 6 6) の行列 (A" τ A" ) -1 A" τ も各ラインで同じものとなり、 ライン 毎に行列 (A" T A" ) -1 A" τ を演算する処理を省略することができる。
そこで、 図 1 51のフローチャートを参照して、 処理領域 15042の各ライン の動き量 Vと処理領域幅 1が、 それぞれ同じで、 かつ、 ユーザ I /F 15156から 重み変更部 15172に供給される重み Wbj と重み Wrai I 処理領域 15042の各ラ インで同じように設定 (供給) された場合の、 図 148のステップ S15218にお ける実世界推定部 15153の実世界推定処理について説明する。 なお、 図 1 5 1 において、 図 1 50のフローチャートと同様の部分については、 その説明を適宜 省略する。
図 1 5 1においては、 図 1 50のステップ S15256に対応するステップ S15288の処理が、 ステップ S15285と S15286の間ではなくて、 ステップ S15287と S15289の間に配置されている。 さらに、 ステップ S15291で、 処理領 域 15042の全てのラインに対して、 動きボケがない画素値 Qh を求める処理が行 われていないと判定された場合、 ステップ S15288に戻る処理とされている。 即ち、 処理領域 15042の各ラインの動き量 Vと処理領域幅 1力 それぞれ同 じで、 かつ、 ユーザ I ZF15156から重み変更部 15172に供給される重み Wb j と重み Wm i が処理領域 15042 の各ラインで同じように設定 (供給) された場合、 ステップ S15286で生成される正規方程式は、 各ラインで同じものとなるため、 最初の注目ラインに対して、 ステップ S15287で、 行列 (A" τ A" ) ~ 1 A" τ を 演算した後、 その後の注目ラインに対しては、 行列 (A" T A" ) - 1 A" τの演 算 (ステップ S15287の処理) を行う必要がない。 従って、 注目ラインの選択
(ステップ S 1S288) 、 混合画素値 P i の代入 (ステップ S1S289の処理) 、 正規 方程式の演算 (ステップ S15290の処理) を、 順次、 まだ選択されていない処理 領域 15042のラインに対して実行するだけでよい。
以上のように、 図 1 4 7に示される実施の形態においては、 動きボケの発生し ている画素値を動きボケのない画素値でモデル化した混合画素値 Pi の方程式と、 動きボケのない画素値の隣接する画素間の関係を用いた拘束条件式とから、 正規 方程式を生成し、 その正規方程式を演算することにより、 動きボケがない画素値 を求めるので、 画質の良い画像を生成することができる。
また、 混合画素値 P iの方程式と拘束条件の方程式のそれぞれの重みを、 ユー ザがユーザ I Z F 15156を操作することにより、 信号処理装置 4に供給し、 所望 の値にすることができるので、 ユーザの好みに合った、 画質の良い画像を生成す ることができる。
なお、 上述の例では、 ユーザ I Z F 15156から拘束条件設定部 15171に供給さ れる拘束条件情報として、 拘束条件設定部 15171 の内部に予め設定されている、 いくつかの拘束条件のなかから、 ユーザがどの拘束条件を選択 (指定) したかを 表す情報を採用することとしたが、 ユーザがユーザ I Z F 15156を操作すること により、 拘束条件式を直接入力するようにしてもよい。
また、 上述した実施.の形態の他に、 拘束条件設定部 15171では、 所定の拘束 条件が決定されていて (固定されていて) 、 ユーザがユーザ I Z F 15156を操作 して、 拘束条件を選択したり、 拘束条件式を直接入力する必要がないような、 実 施の形態を採用することもできる。 なお、 図 1 1 3の定常性設定部 15012 (他の定常性設定部においても同様) に おいては、 定常性情報としての動きは、 ユーザの操作に基づいて設定する他、 入 力画像から動きを検出して設定することもできる。
そこで、 図 1 1 3の定常性設定部 15012における動きの検出方法について説 明する。
入力画像におけるあるオブジェクトが動いている場合の、 そのオブジェク トの 動きとしての、 例えば動きベクトルを検出する方法としては、 いわゆるプロック マツチング法が知られている。
しかしながら、 プロックマッチング法では、 注目しているフレームと、 その前 または後のフレームとのマッチングを行うため、 注目している 1フレームだけか ら動きを検出することは困難である。
そこで、 定常性設定部 15012では、 1フレームの入力画像だけから、 動きの 検出を行うことができるようになっている。
図1 5 2は、 図 1 1 3の定常性設定部 15012の構成例を示している。
図 1 5 2で構成が示される定常性設定部 15012においては、 入力画像の中の 処理領域におけるオブジェク トの動き方向が検出され、 動き方向が水平方向にな るように入力画像が補正される。 そして、 動き方向に隣接する画素の画素値の差 分値である、 入力画像のォブジェクトの動き方向に一次微分した特徴量が検出さ れる。
さらに、 注目している画素の特徴量と動き方向に所定の距離の対応画素の特徴 量との相関が検出され、 検出された相関が最大である対応画素と注目画素との距 離に応じてオブジェクトの動き量が検出される。
すなわち、 図 1 5 2で構成が示される定常性設定部 15012は、 動き方向検出 部 11201、 動き方向修正部 11202、 特徴量検出部 11203、 および動き量検出部 11204を含む。 さらに、 動き方向検出部 1 1201は、 アクティビティ演算部 11211およびァク テイビティ評価部 11212を含む。 動き方向修正部 1 1202は、 ァフィン変換部 11213を含む。
特徴量検出部 11203は、 差分演算部 11214、 差分評価部 11215、 中間画像作成 部 11216、 中間画像作成部 11217、 フレームメモリ 11218、 符号反転部 11219、 およびフレームメモリ 11220を含む。
さらに、 動き量検出部 11204は、 相関検出部 11221および相関評価部 1 1222 を含む。
図 1 5 2で構成が示される定常性設定部 15012において、 入力画像は、 動き 方向検出部 11201および動き方向修正部 11202に供給される。 さらに、 図 1 1 3の処理領域設定部 1501 1が出力する処理領域情報も、 動き方向検出部 11201 および動き方向修正部 11202に供給される。
動き方向検出部 1 1201は、 入力画像と処理領域情報を取得して、 取得した入 力画像から処理領域における動き方向を検出する。
動いている対象物を撮像したとき、 対象物の画像には動きボケが生じる。 これ は、 対象物の画像を撮像するセンサ 2としてのカメラまたはビデオカメラのィメ ージセンサの働きによるものである。
すなわち、 CCD (Charge Coupled Devi ce) または CMOS (Compl ementary Metal-Oxi de Semiconductor) センサなどのイメージセンサは、 露光時間 (シ ャッタ時間) において、 画素毎に入射された光を連続的に電荷に変換し、 さらに 電荷を 1つの画像値に変換する。 撮像の対象物が静止しているとき、 露光してい る期間において、 対象物の同じ部位の画像 (光) が 1つの画素値に変換される。 このように撮像された画像には、 動きボケは含まれていない。
これに対して、 対象物が動いているとき、 露光している期間において、 1つの 画素に入射される対象物の部位の画像が変化し、 対象物の異なる部位の画像が 1 つの画素値に変換されてしまう。 逆に言えば、 対象物の 1つの部位の画像が複数 の画素値に射影される。 これが動きボケである。 動きボケは、 対象物の動き方向に生じる。
動きボケが生じている部分 (動きボケを含む領域) の動き方向に並んでいる画 素の画素値のそれぞれに注目すると、 動き方向に並んでいる画素の画素値には、 対象物のほぼ同じ範囲の部位の画像が射影されている。 従って、 動きボケが生じ ている部分の、 動き方向に並んでいる画素の画素値の変化は、 より少なくなつて いると言える。
動き方向検出部 11201は、 このような入力画像の処理領域における画素の画 素値の変化、 すなわちアクティビティを基に、 動き方向を検出する。
より具体的には、 動き方向検出部 11201のァクティビティ演算部 11211は、 予め定めた方向毎に、 各方向に並んでいる画素の画素値の変化 (ァクティビテ ィ) を演算する。 例えば、 アクティビティ演算部 11211は、 予め定めた方向毎 に、 各方向に対応して位置する画素の画素値の差分をァクティビティとして演算 する。 アクティビティ演算部 11211は、 演算した画素値の変化を示す情報をァ タティビティ評価部 11212に供給する。
アクティビティ評価部 11212は、 アクティビティ演算部 11211から供給され た、 予め定めた方向毎の画素の画素値の変化の中の、 最小の画素値の変化を選択 し、 選択した画素値の変化に対応する方向を動き方向とする。
動き方向検出部 11201は、 このように検出した動き方向を示す動き方向情報 を動き方向修正部 11202に供給する。
動き方向修正部 11202には、 処理領域情報も供給される。 動き方向修正部
11202は、 動き方向検出部 11201から供給された動き方向情報を基に、 動き方向 が画像の水平方向となるように入力画像における処理領域の中の画像データを変 換する。
例えば、 動き方向修正部 11202のァフィン変換部 11213は、 動き方向検出部 11201から供給された動き方向情報を基に、 動き方向情報で示される動き方向が 画像の水平方向となるように入力画像における処理領域の中の画像データをァフ ィン変換する。 動き方向修正部 11202は、 動き方向が画像の水平方向となるように変換され た入力画像における処理領域の中の画像データを特徴量検出部 11203に供給す る。
なお、 ここでは、 入力画像において、 オブジェクトが水平方向 (左から右方 向) に移動していることを仮定しているので、 定常性設定部 15012は、 動き方 向検出部 l l l と動き方向修正部 11202 を設けずに構成することが可能である。 特徴量検出部 11203は、 動き方向修正部 11202から供給された画像の特徴量 を検出する。
すなわち、 特徴量検出部 11203の差分演算部 11214は、 入力画像の処理領域 の画素から 1つの画素を選択することにより、 注目している注目画素とする。 そ して、 特徴量検出部 11203の差分演算部 11214は、 注目画素の画素値から、 注 目画素の右隣の画素の画素値を引き算することにより差分値を求める。
差分演算部 11214は、 入力画像の処理領域の画素を順に注目画素として、 差 分値を求める。 すなわち、 差分演算部 11214は、 入力画像の処理領域の全ての 画素に対して、 差分値を求める。 差分演算部 11214は、 差分値に対応する注目 画素の位置を示す情報 (差分値の画面上の位置を示す位置情報) と共に、 このよ うに演算された差分値を差分評価部 11215に供給する。
差分評価部 11215は、 差分値が 0以上であるか否かを判定し、 0以上である 差分値を、 差分値の画面上に位置を示す位置情報と共に、 中間画像作成部 11216 に供給し、 0未満である差分値を、 差分値の画面上の位置を示す位置情報と共に、 中間画像作成部 11217に供給する。 ·
中間画像作成部 11216は、 差分値の画面上に位置を示す位置情報と共に、 差 分評価部 11215から供給された 0以上である差分値を基に、 差分値からなる中 間画像を作成する。 すなわち、 中間画像作成部 11216は、 位置情報で示される 画面上の位置の画素に、 差分評価部 11215から差分値が供給された 0以上であ る差分値を設定し、 差分評価部 11215から差分値が供給されなかった位置の画 素に 0を設定して、 中間画像を作成する。 中間画像作成部 11216は、 このよう に作成した中間画像 (以下、 非反転中間画像と称する。 ) をフレームメモリ 11218に供給する。
中間画像作成部 11217は、 差分値の画面上に位置を示す位置情報と共に、 差 分評価部 11215から供給された 0未満 (負の値) である差分値を基に、 差分値 からなる中間画像を作成する。 すなわち、 中間画像作成部 11217は、 位置情報 で示される画面上の位置の画素に、 差分評価部 11215から差分値が供給された 0未満である差分値を設定し、 差分評価部 11215から差分値が供給されなかつ た位置の画素に 0を設定して、 中間画像を作成する。 中間画像作成部 11216 は、 このように作成した中間画像を符号反転部 11219に供給する。
符号反転部 11219は、 中間画像作成部 11217から供給された中間画像の画素 に設定されている、 0未満である差分値の符号を反転する。 中間画像の画素に設 定されている 0である値の符号は、 反転されない。 すなわち、 符号反転部 11219 は、 中間画像作成部 11217から供給された中間画像の画素に設定されている、 0未満である差分値を選択し、 選択した 0未満である差分値を、 差分値と同じ絶 対値の 0を超える値に変換する。 例えば、 一 1 5である差分値は、 符号が反転さ れ、 1 5に変換される。 符号反転部 11219は、 このように符号が反転された中 間画像 (以下、 反転中間画像と称する。 ) をフレームメモリ 11220 に供給する。 フレームメモリ 11218は、 0以上である差分値と 0とからなる非反転中間画 像を、 特徴量として動き量検出部 11204 に供給する。 フレームメモリ 11220 は、 符号が反転され 0を超える値とされた差分値と 0とからなる反転中間画像を、 特 徴量として動き量検出部 11204に供給する。
動き量検出部 11204は、 特徴量検出部 11203から供給された特徴量を基に、 動きを検出する。 すなわち、 動き量検出部 11204は、 入力画像の処理領域にお ける対象物の画像 (オブジェクト) の画素の中の少なくとも注目画素の特徴と、 注目画素に対して動き方向に沿って配される対応画素の特徴との相関を検出し、 検出された相関に応じて、 入力画像の処理領域における対象物の画像 (オブジェ クト) の動き量を検出する。 動き量検出部 11204の相関検出部 11221は、 特徴量検出部 11203のフレーム メモリ 11218から供給された、 特徴量としての、 非反転中間画像と、 特徴量検 出部 11203のフレームメモリ 11220から供給された、 特徴量としての、 反転中 間画像との相関を検出する。 相関検出部 11221は、 検出された相関を相関評価 部 11222に供給する。
より詳細に説明すれば、 例えば、 動き量検出部 11204 の相関検出部 11221 は、 特徴量検出部 11203のフレームメモリ 11218から供給された、 0以上である差 分値と 0とからなる非反転中間画像に対して、 特徴量検出部 11203のフレーム メモリ 11220から供給された、 符号が反転され 0を超える値とされた差分値と 0とからなる反転中間画像を、 画素を単位として、 画面の水平方向に移動させる (ずらす (シフトさせる) ) 。 すなわち、 相関検出部 11221は、 反転中間画像 を構成する画素の画面上の位置を水平方向に移動させる。
反転中間画像 (の画素) を、 画面上の水平方向に移動させることによって、 非 反転中間画像の画素と、 反転中間画像の画素との画面上の位置の関係が変化する。 例えば、 移動前に、 非反転中間画像の注目画素に対応する画面上の位置にある、 反転中間画像の対応画素は、 移動後において、 移動量だけ、 非反転中間画像の注 目画素に対応する位置から離れることになる。 より具体的には、 反転中間画像を 右に 2 0画素移動したとき、 反転中間画像の対応画素は、 非反転中間画像の注目 画素に対応する位置から右に 2 0画素離れる。 逆に言えば、 移動後に、 非反転中 間画像の注目画素に対応する画面上の位置にある、 反転中間画像の対応画素は、 移動前において、 注目画素に対応する位置から移動量だけ離れている。
相関検出部 11221は、 非反転中間画像と、 移動された反転中間画像との、 対 応する位置の画素の画素値の差分を演算し、 差分の絶対値の和を相関値とする。 例えば、 相関検出部 11221は、 非反転中間画像に対して、 反転中間画像を、 画面の左方向に 7 0画素乃至画面の右方向に 7 0画素の範囲で、 1画素ずつ画面 の水平方向に移動させ (ずらして) 、 移動させた位置毎 (移動量毎) に、 非反転 中間画像および移動された反転中間画像について、 画面上の同じ位置となる画素 の画素値の差分を演算し、 差分の絶対値の和を相関値とする。
例えば、 非反転中間画像に対して反転中間画像を、 画面の左方向に移動すると き、 移動量を負 (マイナス) で表す。 非反転中間画像に対して反転中間画像を、 画面の右方向に移動するとき、 移動量を正 (プラス) で表す。 相関検出部 11221 は、 一 7 0画素乃至 + 7 0画素の移動量毎に、 非反転中間画像および移動された 反転中間画像について、 画面上の同じ位置となる画素の画素値の差分を演算し、 差分の絶対値の和を相関値とする。
相関検出部 Π221は、 移動量に対応する相関値を相関評価部 11222に供給す る。 すなわち、 相関検出部 11221は、 移動量と相関値との組を相関評価部 11222 に供給する。
相関評価部 11222は、 相関に応じて、 入力画像の処理領域における対象物の 画像の動き量を検出する。 具体的には、 相関評価部 11222は、 相関検出部 11221 から供給された相関のうち、 最大の (最も強い) 相関に対応する移動量を動き量 とする。
例えば、 相関評価部 11222は、 相関検出部 11221から供給された相関値であ る、 差分の絶対値の和の内、 最小の値を選択し、 選択された最小の値に対応する 移動量を動き量に設定する。
相関評価部 11222は、 検出された動き量を出力する。
図 1 5 3乃至図 1 5 5は、 図 1 5 2の定常性設定部 15012による動き検出の 原理を説明する図である。
いま、 撮像の対象物である、 白い前景オブジェクトが、 他の撮像の対象物であ る、 黒い背景オブジェク トの前 (手前) に配置され、 左側から右側に移動してお り、 CCDまたは CMOSセンサなどのイメージセンサを有するカメラが、 所定の露 光時間 (シャツタ時間) で、 背景オブジェクトと共に、 前景オブジェクトを撮像 するものとする。 この場合にカメラが出力する画像の 1フレームに注目すると、 背景ォブジェク トは、 黒いので、 例えば、 カメラは、 背景オブジェクトの画像に対して 0である 画素値を出力する。 前景オブジェクトは、 白いので、 例えば、 カメラは、 前景ォ ブジエタトの画像に対して 2 5 5である画素値を出力する。 なお、 ここでは、 力 メラが、 0乃至 28— 1の範囲の画素値を出力するものであるとする。
図 1 5 3上側の図は、 カメラのシャツタが開いた瞬間 (露光を開始した瞬間) における位置に、 前景オブジェクトが静止しているとき、 カメラが出力する画像 の画素値を示す図である。
図 1 5 3下側の図は、 カメラのシャツタが閉じる瞬間 (露光を終了する瞬間) における位置に、 前景オブジェク トが静止しているとき、 カメラが出力する画像 の画素値を示す図である。
図 1 5 3で示されるように、 前景オブジェクトの画像の動き量は、 カメラのシ ャッタが開いた瞬間から、 カメラのシャツタが閉じる瞬間までに、 前景オブジェ クトの画像が移動した距離である。
図 1 5 4は、 背景オブジェクトの前を移動する前景オブジェクトをカメラで撮 像したときに、 カメラから出力される画像の画素値を示す図である。 カメラのィ メージセンサは、 露光時間 (シャツタ時間) において、 画素毎に対象物の画像
(光) を連続的に電荷に変換し、 さらに電荷を 1つの画像値に変換するので、 前 景ォブジェクト 11251の画像は、 複数の画素の画素値に射影される。 図 1 5 3 で示される画像の画素値の最大値に比較して、 図 1 5 4で示される画像の画素値 の最大値は小さくなる。
図 1 5 4で示される画素値のスロープの幅は、 背景ォブジェクトの画像の幅に 対応する。
図 1 5 4で示される画像の個々の画素について、 右隣の画素との差分値を計算 し、 差分値を画素に設定すると、 図 1 5 5に示される、 差分値からなる画像が得 られる。 すなわち、 図 1 5 4で示される画像の画素から 1つの画素が選択され、 注目し ている注目画素とされる。 そして、 注目画素の画素値から、 注目画素の右隣の画 素の画素値が引き算されることにより差分値が求められる。 差分値は、 注目画素 に対応する位置の画素に設定される。 図 1 5 4で示される画像の画素が順に注目 画素とされ、 図 1 5 5で示される差分値からなる画像が求められる。
図 1 5 3上側の図で示される、 カメラのシャツタが開いた瞬間における、 前景 オブジェクトの位置に対して 1画素左側に、 符号が負 (マイナス) である差分値 が現れ、 図 1 5 3下側の図で示される、 カメラのシャツタが閉じる瞬間における、 前景ォブジェク トの位置に対して 1画素左側に、 符号が正 (プラス) である差分 値が現れる。
従って、 図 1 5 5で示される、 符号が負 (マイナス) である差分値の符号を反 転した値と、 符号が正 (プラス) である差分値とのマッチングをとると、 例えば、 マッチングしたときの、 符号が正 (プラス) である差分値を基準とした、 符号が 負 (マイナス) である差分値の符号を反転した値の移動量は、 動き量と同じであ る。
例えば、 符号が正 (プラス) である差分値を基準として、 符号が負 (マイナ ス) である差分値の符号を反転した値が水平方向に移動され、 その移動量毎に、 負である差分値を反転した値と正である差分値との相関が検出され、 最大の (最 も強い) 相関が検出される。 最大の相関が検出されたときの移動量は、 動き量と 同じである。
より具体的には、 例えば、 符号が正 (プラス) である差分値を基準として、 符 号が負 (マイナス) である差分値の符号を反転した値が水平方向に移動され、 そ の移動量毎に、 負である差分値を反転した値と正である差分値との相関として、 画素毎に、 反転した値から正の差分値が引き算される。 そして、 引き算した結果 の内の最小の値、 すなわち最大の相関が検出される。 検出された最大の相関に対 応する移動量は、 動き量と同じである。 以上のように、 画像の 1フレームから、 露光時間 (シャツタ時間) において、 対象物の画像が移動した量である動き量を検出することができる。
すなわち、 特徴量検出部 11203の差分演算部 11214は、 入力画像の処理領域 における画素から 1つの画素を選択して、 注目画素とし、 注目画素の画素値から、 注目画素の右隣の画素の画素値を引き算することにより、 例えば、 図 1 5 5で示 される差分値を演算する。 差分評価部 11215は、 差分の符号を基に、 正の差分 値と負の差分値とに分類する。
中間画像作成部 11216は、 分類された正の差分値から、 その正の差分値から なる非反転中間画像を作成する。 中間画像作成部 11217は、 分類された負の差 分値から、 その負の差分値からなる中間画像を作成する。 符号反転部 11219 は、 負の差分値からなる中間画像の負の画素値の符号を反転することにより、 反転中 間画像を作成する。
動き量検出部 11204は、 相関が最も強い非反転中間画像と反転中間画像との 移動量を求めて、 求められた移動量を動き量とする。
特徴量検出部 11203 、 動いている対象物の画像 (オブジェク ト) を検出し、 動いている対象物の画像の特徴量を検出したとき、 動き量検出部 11204は、 特 徴量を基に相関を検出し、 検出された相関に応じて、 入力画像内の対象物の画像 (オブジェクト) の動き量を検出する。
また、 特徴量検出部 11203が、 動いている対象物の画像に属する画素から注 目している画素である注目画素を選択し、 注目画素の特徴量を検出したとき、 動 き量検出部 11204は、 注目画素の特徴量と、 注目画素に対して動き方向に沿つ て配される対応画素の特徴量との相関を検出し、 検出された相関に応じて、 入力 画像の処理領域における対象物の画像の動き量を検出する。
図 1 5 6は、 図 1 5 2の定常性設定部 15012による動き量の検出の処理を説 明するフローチャートである。
ステップ S 11201において、 動き方向検出部 11201および動き方向修正部 11202は、 入力画像と処理領域情報を取得し、 ステップ S11202に進む。 ステップ S 11202において、 動き方向検出部 11201 1のァクティビティ演算部 11211は、 ステップ S 11201の処理により取得された入力画像における処理領域 の画素について、 アクティビティを演算し、 ステップ S 11203に進む。
例えば、 アクティビティ演算部 11211は、 入力画像における処理領域の画素 のうち、 注目している画素である注目画素を選択する。 アクティビティ演算部 1121 1は、 注目画素の周辺の所定の数の周辺画素を抽出する。 例えば、 ァクティ ビティ演算部 1121 1は、 注目画素を中心とした、 縦 X横が 5 X 5の画素からな る周辺画素を抽出する。
そして、 アクティビティ演算部 1121 1は、 抽出した周辺画素から、 予め定め た画像上の方向に対応するアクティビティを検出する。
以下の説明において、 横方向の画素の 1列の並びを行と称し、 縦方向の画素の 1列の並びを列と称する。
アクティビティ演算部 11211は、 例えば、 5 X 5の周辺画素について、 画面 上の上下方向 (垂直) に隣接する画素の画素値の差分を算出して、 算出された差 分の絶対値の総和を差分の数で割り、 その結果をアクティビティとすることによ り、 画面の水平方向を基準として、 9 0度の角度 (画面の垂直方向) に対する、 アクティビティを検出する。
例えば、 2 0組の、 画面上の上下方向に隣接する 2つの画素について、 画素値 の差分が算出され、 算出された差分の絶対値の和が 2 0で割り算され、 その結果 (商) 力 9 0度の角度に対するアクティビティに設定される。
アクティビティ演算部 1121 1は、 例えば、 5 X 5の周辺画素について、 最も 下の行の画素であって、 最も左側の画素乃至左から 4番目の画素のそれぞれの画 素値と、 それぞれの画素に対して、 4画素上側であって、 1画素右側の画素の画 素値との差分を算出して、 算出された差分の絶対値の総和を差分の数で割り、 そ の結果をアクティビティとすることにより、 画面の水平方向を基準として、 7 6 度の角度 (tan—1 (4/ 1) ) に対する、 アクティビティを検出する。 そして、 例えば、 4組の、 右上方向であって、 上下方向に 4画素、 および左右 方向に 1画素離れた位置にある 2つの画素について、 画素値の差分が算出され、 算出された差分の絶対値の和が 4で割り算され、 その結果 (商) 力 7 6度の角 度に対するァクティビティに設定される。
アクティビティ演算部 11211は、 同様の処理で、 画面の水平方向を基準とし て、 9 0度乃至 1 0度の範囲の角度に対するアクティビティを検出する。 9 0 度乃至 1 8 0度の範囲の角度に対するァクティビティを検出する場合、 左上方向 に位置する画素の画素値の差分を基に、 ァクティビティが算出される。
このように検出されたァクティビティは、 注目画素に対するァクティビティと される。
なお、 検出されたアクティビティを、 周辺画素に対するアクティビティとする ようにしてもよい。
また、 周辺画素は、 縦 X横が 5 X 5の画素からなると説明したが、 5 X 5の画 素に限らず、 所望の範囲の画素とすることができる。 周辺画素の数が多い場合、 角度の分解能が向上する。
ァクティビティ演算部 11211は、 複数の方向に対応するァクティビティを示 す情報をァクティビティ評価部 11212に供給する。
図 1 5 6に戻り、 ステップ S11203において、 アクティビティ評価部 11212は、 ステップ S11202の処理において算出された、 所定の方向に対応するァクティビ ティを基に、 最小のアクティビティを選択し、 選択された方向を動き方向とする ことにより、 動き方向を求めて、 ステップ S11204に進む。
ステップ S 11204において、 動き方向修正部 11202は、 ステップ S 11203の処 理において求められた動き方向を基に、 動き方向が画像の水平方向となるように 入力画像の処理領域における画像データを変換し、 ステップ S 11205に進む。 例 えば、 ステップ S11204において、 動き方向修正部 11202のァフィン変換部
11213は、 ステップ S 11203の処理において求められた動き方向を基に、 動き方 向が画像の水平方向となるように入力画像の処理領域における画像データをァフ ィン変換する。 より具体的には、 例えば、 ァフィン変換部 11213は、 画面の水 平方向を基準として、 動き方向が 1 8度の角度であるとき、 入力画像の処理領域 における画像データを時計方向に 1 8度回動するようにァフィン変換する。
ステップ S 11205において、 特徴量検出部 11203の差分演算部 11214は、 ステ ップ S11204の処理において、 動き方向が画面の水平方向となるように変換され た入力画像の処理領域における各画素について、 水平方向に隣接する画素との画 素値の差分値を演算し、 ステップ S 11206に進む。
例えば、 ステップ S11205において、 差分演算部 11214は、 入力画像の処理領 域における画素から 1つの画素を選択することにより、 注目している注目画素と する。 そして、 差分演算部 11214は、 注目画素の画素値から、 注目画素の右隣 の画素の画素値を引き算することにより差分値を求める。
ステップ S11206において、 特徴量検出部 11203の差分評価部 11215は、 差分 値の符号を基に、 差分値を振り分け、 ステップ S 11207に進む。 すなわち、 差分 評価部 11215は、 0以上である差分値を中間画像作成部 11216に供給し、 0未 満である差分値を中間画像作成部 11217に供給する。 この場合において、 差分 評価部 11215は、 差分値の画面上に位置を示す位置情報と共に、 差分値を中間 画像作成部 11216または中間画像作成部 11217に供給する。
ステップ S 11207において、 特徴量検出部 11203の中間画像作成部 11216は、 ステップ S11206の処理で振り分けられた、 0以上である差分値 (正の差分値) を基に、 正の差分値からなる中間画像を生成し、 ステップ S 11208に進む。 すな わち、 ステップ S11207において、 中間画像作成部 11216は、 位置情報で示され る画面上の位置の画素に正の差分値を設定し、 差分値が供給されなかった位置の 画素に 0を設定することにより、 中間画像を作成する。
このように、 ステップ S 11207 の処理において、 非反転中間画像が生成される。 ステップ S11208において、 特徴量検出部 11203の中間画像作成部 11217は、 ス テツプ S11206の処理で振り分けられた、 0未満である差分値 (負の差分値) を 基に、 負の差分値からなる中間画像を生成し、 ステップ S 11209に進む。 すなわ ち、 ステップ S11208において、 中間画像作成部 11217は、 位置情報で示される 画面上の位置の画素に負の差分値を設定し、 差分値が供給されなかった位置の画 素に 0を設定することにより、 中間画像を作成する。
ステップ S 11209において、 特徴量検出部 11203の符号反転部 11219は、 ステ ップ S11208の処理で生成された負の差分値からなる中間画像の負の差分値の符 号を反転する。 すなわち、 ステップ S 11209において、 負の中間画像の画素に設 定されている、 負の差分値が、 同じ絶対値の正の値に変換される。
このように、 ステップ S11209において、 反転中間画像が生成され、 その後、 ステップ S 11210に進む。
ステップ S11210において、 動き量検出部 11204は、 相関の検出の処理を実行 する。 ステップ S 11210 の処理の詳細は、 図 1 5 7のフローチャートを参照して、 後述する。
ステップ S11211において、 相関評価部 11222は、 ステップ S11210の処理で 検出された相関のうち、 最も強い相関を選択し、 ステップ S11212に進む。 例え ば、 ステップ S11211 において、 画素値の差分の絶対値の和である相関値のうち、 最小の相関値が選択される。
ステップ S 11212において、 相関評価部 11222は、 ステップ S11211の処理で 選択された、 最も強い相関に対応する移動量を動き量に設定して、 ステップ S11213に進む。 例えば、 ステップ S 11212において、 画素値の差分の絶対値の 和である相関値のうち、 選択された最小の相関値に対応して、 後述するステップ S11223の処理により記憶されている、 反転中間画像の移動量が動き量に設定さ れる。
ステップ S 11213において、 動き量検出部 11204は、 ステップ S11210の処理 において検出した動き量を出力して、 処理は終了する。
図 1 5 7は、 ステップ S1 1210の処理に対応する、 相関の検出の処理を説明す るフローチヤ一トである。 ステップ S 11221において、 動き量検出部 11204の相関検出部 11221は、 ステ ップ S 11209の処理で生成された、 反転中間画像の画素の位置を、 画素を単位と して水平方向に移動し、 ステップ S 11222に進む。
ステップ S 11222において、 相関検出部 11221は、 非反転中間画像と、 ステツ プ S 11221の処理において、 画素の位置が移動された反転中間画像との相関を検 出し、 ステップ S 11223に進む。 例えば、 ステップ S11222において、 非反転中 間画像の画素の画素値と、 画面上で対応する位置の、 反転中間画像の画素の画素 値との差分が算出され、 算出された差分の絶対値の和が相関値として検出される。 相関検出部 11221は、 ステップ S11221の処理における反転中間画像の画素の移 動量と共に、 検出された相関を示す相関情報を相関評価部 11222に供給する。 ステップ S 11223において、 相関評価部 11222は、 ステップ S11221の処理に おける反転中間画像の画素の移動量と共に、 ステップ S 11222の処理において検 出された相関を記憶し、 ステップ S 11224に進む。 例えば、 相関評価部 11222は、 ステップ S11221の処理における反転中間画像の画素の移動量と共に、 画素値の 差分の絶対値の和である相関値を記憶する。
ステップ S 11224において、 相関検出部 11221は、 全ての移動量に対する相関 を検出したか否かを判定し、 まだ相関を検出していない移動量があると判定され た場合、 ステップ S11221に戻り、 次の移動量に対する相関を検出する処理を綠 り返す。
例えば、 ステップ S11224において、 相関検出部 11221は、 画面の左方向に 7 0画素乃至画面の右方向に 7 0画素の範囲で、 反転中間画像の画素を移動したと きの相関を全て検出したか否かを判定する。
ステップ S 11224において、 全ての移動量に対する相関を検出したと判定され た場合、 処理は終了する (リターンする) 。
このように、 相関検出部 11221は、 相関を検出することができる。
以上のように、 図 1 5 2に構成を示す定常性設定部 15012は、 画像の 1つの フレームから、 動き量を検出することができる。 なお、 ここでは、 処理領域を対象として動きを検出するようにしたが、 全画面 を処理対象とすることで、 例えば、 手振れにより発生した全画面の動きを検出す ることができる。
また、 入力画像に同じ模様の繰り返しパターンが多く含まれていても、 処理の 対象となる入力画像の処理領域の動き量および動き方向が一定であれば、 正確に 動き量を検出することができる。
なお、 上述の場合には、 画像の 1つのフレームから動き量を検出すると説明し たが、 1つのフィールドから動き量を検出するようにしてもよいことは勿論であ る。
また、 選択した注目画素の周辺についてのみ、 動き量を検出するようにしても よい。
上述した実施の形態には、 請求の範囲に記載した発明についての実施の形態の 他、 以下に示す第 1及び第 2の信号処理装置についての実施の形態も含まれてい る。
第 1の信号処理装置は、 それぞれ時間積分効果を有する複数の画素に現実世界 の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ内 の処理領域を設定する処理領域設定手段と、 画像データにおいて定常性の一部が 欠落した現実世界の光信号の定常性に対応する画像データ内のオブジェクトの動 きべクトルを設定する動きべクトル設定手段と、 処理領域内の各画素の画素値は、 オブジェク トに対応する動きボケが生じていない各画素の画素値が動きべクトル に対応して移動しながら積分された値であるとして、 処理領域内の各画素の画素 値と、 動きボケが生じていない各画素の画素値との関係をモデル化するモデル生 成手段と、 モデル生成手段により生成されたモデルに対して、 処理領域内の各画 素の画素値を代入した第 1の方程式と、 動きボケが生じていない各画素間の関係 を拘束する第 2の方程式とにより正規方程式を生成する正規方程式生成手段と、 処理領域内の各画素に対応するァクティビティを検出するァクティビティ検出手 段と、 アクティビティ検出手段による検出結果に応じて、 第 1及び第 2の方程式 の一部に対する重みを変更する重み変更手段と、 正規方程式生成手段により生成 され、 重み変更手段により重みが変更された正規方程式を演算することにより動 きボケが生じていない各画素の画素値を推定する実世界推定手段とを備えること を特徴とする。
第 2の信号処理装置は、 第 1の信号処理装置の特徴に加え、 重み変更手段は、 画像データの処理領域内の注目画素に対応する、 ァクティビティが所定の閾値以 上であるとき、 注目画素に対応する、 第 1及び第 2の方程式の一部に対する重み を 0に変更することを特徴とする。
また、 上述した実施の形態には、 以下に示す、 信号処理方法、 プログラム、 並 びに記録媒体についての実施の形態も含まれている。
即ち、 信号処理方法、 プログラム、 並びに記録媒体は、 それぞれ時間積分効果 を有する複数の画素に現実世界の光信号が射影され、 現実世界の光信号の定常性 の一部が欠落した画像データ内の処理領域を設定する処理領域設定ステップと、 画像データにおいて定常性の一部が欠落した現実世界の光信号の定常性に対応す る画像データ内のォブジェクトの動きべク トルを設定する動きべク トル設定ステ ップと、 処理領域内の各画素の画素値は、 オブジェク トに対応する動きボケが生 じていない各画素の画素値が動きべク トルに対応して移動しながら積分された値 であるとして、 処理領域内の各画素の画素値と、 動きボケが生じていない各画素 の画素値との関係をモデル化するモデル生成ステップと、 モデル生成ステップの 処理により生成されたモデルに対して、 処理領域内の各画素の画素値を代入した 第 1の方程式と、 動きボケが生じていない各画素間の関係を拘束する第 2の方程 式とにより正規方程式を生成する正規方程式生成ステップと、 処理領域内の各画 素に対応するァクティビティを検出するァクティビティ検出ステップと、 ァクテ ィビティ検出ステップの処理による検出結果に応じて、 第 1及び第 2の方程式の —部に対する重みを変更する重み変更ステップと、 正規方程式生成ステップによ り生成され、 重み変更ステツプにより重みが変更された正規方程式を演算するこ とにより動きボケが生じていない各画素の画素値を推定する実世界推定ステップ とを含むことを特徴とする。 産業上の利用可能性
以上の如く、 本発明によれば、 現実世界の信号により近似した画像等を得るこ とが可能となる。

Claims

請求の範囲
1 . それぞれ時間積分効果を有する複数の画素に現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ内の処理領域を設定する 処理領域設定手段と、
前記画像データにおいて定常性の一部が欠落した現実世界の光信号の定常性に 対応する前記画像データ内のオブジェクトの動きべク トルを設定する動きべクト ル設定手段と、
前記処理領域内の各画素の画素値は、 前記オブジェクトに対応する動きボケが 生じていない各画素の画素値が前記動きべクトルに対応して移動しながら積分さ れた値であるとして、 前記処理領域内の各画素の画素値と、 前記動きボケが生じ ていない各画素の画素値との関係をモデル化するモデル生成手段と、
前記モデル生成手段により生成されたモデルに対して、 前記処理領域内の各画 素の画素値を代入した第 1の方程式と、 前記動きボケが生じていない各画素間の 関係を拘束する第 2の方程式とにより、 正規方程式を生成する正規方程式生成手 段と、
前記正規方程式生成手段により生成された前記正規方程式を演算することによ り、 前記動きボケが生じていない各画素の画素値を推定する実世界推定手段と を備えることを特徴とする信号処理装置。
2 . 前記正規方程式生成手段は、 前記モデル生成手段により生成されたモデル に対して前記処理領域内の各画素の画素値を代入する第 1の方程式と、 前記動き ボケが生じていない各画素間の画素値の差分を 0とする第 2の方程式とにより正 規方程式を生成する
ことを特徴とする請求の範囲第 1項に記載の信号処理装置。
3 . それぞれ時間積分効果を有する複数の画素に現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像データ内の処理領域を設定する 処理領域設定ステップと、 前記画像データにおいて定常性の一部が欠落した現実世界の光信号の定常性に 対応する前記画像データ内のオブジェクトの動きべクトルを設定する動きべクト ル設定ステップと、
前記処理領域内の各画素の画素値は、 前記オブジェクトに対応する動きボケが 生じていない各画素の画素値が前記動きべクトルに対応して移動しながら積分さ れた値であるとして、 前記処理領域内の各画素の画素値と、 前記動きボケが生じ ていなレ、各画素の画素値との関係をモデル化するモデル生成ステツプと、 前記モデル生成ステップの処理により生成されたモデルに対して、 前記処理領 域内の各画素の画素値を代入した第 1の方程式と、 前記動きボケが生じていない 各画素間の関係を拘束する第 2の方程式とにより、 正規方程式を生成する正規方 程式生成ステップと、
前記正規方程式生成ステップの処理により生成された前記正規方程式を演算す ることにより、 前記動きボケが生じていない各画素の画素値を推定する実世界推 定ステップと
を含むことを特徴とする信号処理方法。
4 . コンピュータに所定の信号処理を行わせるプログラムにおいて、
それぞれ時間積分効果を有する複数の画素に現実世界の光信号が射影され、 現 実世界の光信号の定常性の一部が欠落した画像データ内の処理領域を設定する処 理領域設定ステップと、
前記画像データにおいて定常性の一部が欠落した現実世界の光信号の定常性に 対応する前記画像データ内のオブジェクトの動きべク トルを設定する動きべク ト ル設定ステップと、
前記処理領域内の各画素の画素値は、 前記ォブジェクトに対応する動きボケが 生じていない各画素の画素値が前記動きべクトルに対応して移動しながら積分さ れた値であるとして、 前記処理領域内の各画素の画素値と、 前記動きボケが生じ ていない各画素の画素値との関係をモデル化するモデル生成ステップと、 前記モデル生成ステップの処理により生成されたモデルに対して、 前記処理領 域内の各画素の画素値を代入した第 1の方程式と、 前記動きボケが生じていない 各画素間の関係を拘束する第 2の方程式とにより、 正規方程式を生成する正規方 程式生成ステップと、
前記正規方程式生成ステップの処理により生成された前記正規方程式を演算す ることにより、 前記動きボケが生じていない各画素の画素値を推定する実世界推 定ステップと
を含むことを特徴とするプログラム。
5 . コンピュータに所定の信号処理を行わせるプログラムが記録されている記 録媒体において、
それぞれ時間積分効果を有する複数の画素に現実世界の光信号が射影され、 現 実世界の光信号の定常性の一部が欠落した画像データ内の処理領域を設定する処 理領域設定ステップと、
前記画像データにおいて定常性の一部が欠落した現実世界の光信号の定常性に 対応する前記画像データ内のオブジェクトの動きべク トルを設定する動きべク ト ル設定ステップと、
前記処理領域内の各画素の画素値は、 前記ォブジェクトに対応する動きボケが 生じていない各画素の画素値が前記動きべクトルに対応して移動しながら積分さ れた値であるとして、 前記処理領域内の各画素の画素値と、 前記動きボケが生じ ていない各画素の画素値との関係をモデル化するモデル生成ステツプと、 前記モデル生成ステップの処理により生成されたモデルに対して、 前記処理領 域内の各画素の画素値を代入した第 1の方程式と、 前記動きボケが生じていない 各画素間の関係を拘束する第 2の方程式とにより、 正規方程式を生成する正規方 程式生成ステップと、
前記正規方程式生成ステップの処理により生成された前記正規方程式を演算す ることにより、 前記動きボケが生じていない各画素の画素値を推定する実世界推 定ステップと を含むプログラムが記録されていることを特徴とする記録媒体。
PCT/JP2004/008691 2003-06-27 2004-06-15 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 WO2005001763A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/562,176 US7684635B2 (en) 2003-06-27 2004-06-15 Signal processing device, and signal processing method, and program, and recording medium
US11/626,556 US7512285B2 (en) 2003-06-27 2007-01-24 Signal processing device and signal processing method, and program and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003184015A JP4392583B2 (ja) 2003-06-27 2003-06-27 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP2003-184015 2003-06-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/562,176 A-371-Of-International US7684635B2 (en) 2003-06-27 2004-06-15 Signal processing device, and signal processing method, and program, and recording medium
US11/626,556 Continuation US7512285B2 (en) 2003-06-27 2007-01-24 Signal processing device and signal processing method, and program and recording medium

Publications (1)

Publication Number Publication Date
WO2005001763A1 true WO2005001763A1 (ja) 2005-01-06

Family

ID=33549596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/008691 WO2005001763A1 (ja) 2003-06-27 2004-06-15 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体

Country Status (5)

Country Link
US (2) US7684635B2 (ja)
JP (1) JP4392583B2 (ja)
KR (1) KR101016355B1 (ja)
CN (1) CN100433058C (ja)
WO (1) WO2005001763A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913454A (zh) * 2016-04-06 2016-08-31 东南大学 一种视频图像中运动目标的像素坐标轨迹预测方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4392583B2 (ja) * 2003-06-27 2010-01-06 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4861854B2 (ja) * 2007-02-15 2012-01-25 株式会社バンダイナムコゲームス 指示位置演算システム、指示体及びゲームシステム
JP4915341B2 (ja) * 2007-12-20 2012-04-11 ソニー株式会社 学習装置および方法、画像処理装置および方法、並びにプログラム
US9721362B2 (en) * 2013-04-24 2017-08-01 Microsoft Technology Licensing, Llc Auto-completion of partial line pattern
US9275480B2 (en) 2013-04-24 2016-03-01 Microsoft Technology Licensing, Llc Encoding of line pattern representation
US9317125B2 (en) 2013-04-24 2016-04-19 Microsoft Technology Licensing, Llc Searching of line pattern representations using gestures
WO2017187966A1 (ja) * 2016-04-27 2017-11-02 富士フイルム株式会社 指標生成方法、測定方法、及び指標生成装置
US20210287573A1 (en) * 2018-05-25 2021-09-16 Nippon Telegraph And Telephone Corporation Secret batch approximation system, secure computation device, secret batch approximation method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237476A (ja) * 1994-11-22 1996-09-13 Xerox Corp データ処理方法及びデジタル出力データ生成方法
JPH10200753A (ja) * 1997-01-14 1998-07-31 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
JP2002112025A (ja) * 2000-10-03 2002-04-12 Fujitsu Ltd 画像補正装置および補正方法
JP2003016456A (ja) * 2001-06-27 2003-01-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003018578A (ja) * 2001-06-27 2003-01-17 Sony Corp 通信装置および方法、通信システム、記録媒体、並びにプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0455444B1 (en) * 1990-04-29 1997-10-08 Canon Kabushiki Kaisha Movement detection device and focus detection apparatus using such device
US5030984A (en) * 1990-07-19 1991-07-09 Eastman Kodak Company Method and associated apparatus for minimizing the effects of motion in the recording of an image
JPH0583696A (ja) 1991-06-07 1993-04-02 Sony Corp 画像符号化装置
JP3364939B2 (ja) 1991-12-18 2003-01-08 ソニー株式会社 画像符号化装置
FR2730571B1 (fr) * 1995-02-10 1997-04-04 Controle Dimensionnel Optique Procede et dispositif de mesure de la distribution de la mobilite d'elements particulaires dans un milieu
JP3444005B2 (ja) * 1995-02-24 2003-09-08 ミノルタ株式会社 撮像装置
KR100414432B1 (ko) * 1995-03-24 2004-03-18 마츠시타 덴끼 산교 가부시키가이샤 윤곽추출장치
DE19536691B4 (de) * 1995-09-30 2008-04-24 Bts Holding International B.V. Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
GB2311183A (en) * 1996-03-13 1997-09-17 Innovision Plc Gradient based motion estimation
JP4282113B2 (ja) * 1998-07-24 2009-06-17 オリンパス株式会社 撮像装置および撮像方法、並びに、撮像プログラムを記録した記録媒体
JP4193233B2 (ja) 1998-08-12 2008-12-10 ソニー株式会社 動き判定装置、その方法および画像情報変換装置
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
JP4491965B2 (ja) 1999-12-28 2010-06-30 ソニー株式会社 信号処理装置および方法、並びに記録媒体
JP4596212B2 (ja) 2001-06-15 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596225B2 (ja) 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100415313B1 (ko) * 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
US7218353B2 (en) * 2001-12-26 2007-05-15 Nikon Corporation Electronic camera that selectively performs different exposure calculation routines
US7164800B2 (en) * 2003-02-19 2007-01-16 Eastman Kodak Company Method and system for constraint-consistent motion estimation
JP4392583B2 (ja) * 2003-06-27 2010-01-06 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237476A (ja) * 1994-11-22 1996-09-13 Xerox Corp データ処理方法及びデジタル出力データ生成方法
JPH10200753A (ja) * 1997-01-14 1998-07-31 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
JP2002112025A (ja) * 2000-10-03 2002-04-12 Fujitsu Ltd 画像補正装置および補正方法
JP2003016456A (ja) * 2001-06-27 2003-01-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003018578A (ja) * 2001-06-27 2003-01-17 Sony Corp 通信装置および方法、通信システム、記録媒体、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913454A (zh) * 2016-04-06 2016-08-31 东南大学 一种视频图像中运动目标的像素坐标轨迹预测方法
CN105913454B (zh) * 2016-04-06 2018-05-15 东南大学 一种视频图像中运动目标的像素坐标轨迹预测方法

Also Published As

Publication number Publication date
US7512285B2 (en) 2009-03-31
CN1816826A (zh) 2006-08-09
JP4392583B2 (ja) 2010-01-06
CN100433058C (zh) 2008-11-12
KR20060021374A (ko) 2006-03-07
JP2005018533A (ja) 2005-01-20
US7684635B2 (en) 2010-03-23
US20070116372A1 (en) 2007-05-24
KR101016355B1 (ko) 2011-02-21
US20070098289A1 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
JP4148041B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4392584B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
WO2004077352A1 (ja) 画像処理装置および方法、並びにプログラム
WO2004072898A1 (ja) 信号処理装置および方法、並びにプログラム
US20070116372A1 (en) Signal processing device, signal processing method, program, and recording medium
JP4143916B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4423537B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4423535B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4182827B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4325296B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4419453B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4423536B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4182826B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4419454B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020057023910

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007098289

Country of ref document: US

Ref document number: 10562176

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048178117

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057023910

Country of ref document: KR

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10562176

Country of ref document: US