WO2005001762A1 - 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 - Google Patents

信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 Download PDF

Info

Publication number
WO2005001762A1
WO2005001762A1 PCT/JP2004/008690 JP2004008690W WO2005001762A1 WO 2005001762 A1 WO2005001762 A1 WO 2005001762A1 JP 2004008690 W JP2004008690 W JP 2004008690W WO 2005001762 A1 WO2005001762 A1 WO 2005001762A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
signal
real
world
real world
Prior art date
Application number
PCT/JP2004/008690
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Kazushi Yoshikawa
Tetsushi Kokubo
Hisakazu Shiraki
Michimasa Obana
Masanori Kanemaru
Hideo Kasama
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP04746160A priority Critical patent/EP1640906A4/en
Priority to US10/556,842 priority patent/US7672526B2/en
Publication of WO2005001762A1 publication Critical patent/WO2005001762A1/ja
Priority to US11/626,439 priority patent/US7672536B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Definitions

  • the present invention relates to a signal processing apparatus, a signal processing method, a program, and a recording medium.
  • the present invention relates to a signal processing device and a signal processing method, and a program and a recording medium.
  • the present invention relates to a signal processing device and a signal processing method capable of obtaining an image or the like that is closer to a real world signal, and a program Regarding recording media.
  • a second dimension having a smaller dimension than the first dimension obtained by detecting a first signal, which is a real-world signal having the first dimension, with a sensor, has a second dimension.
  • Obtain a second signal containing distortion of the first signal and perform signal processing based on the second signal to generate a third signal with reduced distortion compared to the second signal In some cases (for example, see JP-A-2001-250119). .
  • the present invention has been made in view of such a situation, and it is an object of the present invention to obtain an image or the like which is closer to a real world signal.
  • the signal processing apparatus according to the present invention is configured such that a first signal, which is a real-world signal having a first dimension, is projected, and a second dimension is smaller than the first dimension in which part of the stationarity of the real-world signal is missing.
  • Processing region setting means for setting a processing region to be processed with respect to the second signal of the dimension; stationarity setting means for setting stationarity of a real-world signal missing in the second signal; Real-world estimating means for estimating a real-world signal corresponding to the second signal in the processing area set by the processing area setting means according to the stationarity set by the property setting means; And information supply means for supplying information relating to at least one of the processing area, the stationarity, and the real world signal to the processing area setting means, the stationarity setting means, or the real world estimating means. Characterized by having The
  • the first signal which is a real-world signal having the first dimension
  • the second signal is less than the first dimension in which part of the stationarity of the real-world signal is missing.
  • Processing region setting means for setting a processing region to be processed with respect to the second signal of the second dimension; a processing region setting step of setting a processing region; and a steady state of a real world signal missing in the second signal.
  • a real-world estimation step for estimating a real-world signal, and a processing area, a stationarity, At least Tsunikan communicating information among the real world signals, processing region setting means, characterized in that it comprises an information supplying step for supplying to the continuity setting unit or the actual world estimating. Means.
  • the program according to the present invention is configured such that a first signal, which is a real-world signal having a first dimension, is projected, and a second signal having less stationarity of the real-world signal is less than the first dimension.
  • the first signal which is a real-world signal having the first dimension
  • the second signal is less than the first dimension in which a part of the continuity of the real-world signal is missing.
  • Processing region setting means for setting a processing region to be processed with respect to the second signal of the second dimension; a processing region setting step of setting a processing region; and a stationary state of a real world signal missing in the second signal.
  • the continuity setting means for setting the continuity the continuity setting step for setting the continuity, and the continuity set in the processing area setting step according to the continuity set in the continuity setting step.
  • a real-world estimating step for estimating a real-world signal and a processing area, a stationary state, or a current
  • a program comprising an information supply step of supplying information relating to at least one of world signals to a processing area setting means, a continuity setting means, or a real world estimation means is recorded. I do.
  • a first signal which is a real-world signal having a first dimension, is projected, and the continuity of the real-world signal is reduced.
  • the processing area setting means for setting the processing area to be processed for the second signal of the second dimension smaller than the first dimension having the missing part sets the processing area and the second signal.
  • Stationarity is set by stationarity setting means for setting the stationarity of the real-world signal missing in the signal, and the real-world signal corresponding to the second signal in the processing area is set according to the stationarity.
  • the world signal estimating means estimates a real world signal.
  • Information relating to at least one of the processing domain, stationarity, or real-world signal is supplied to the processing area setting unit, the stationarity setting unit, or the real-world estimation unit, depending on the operation of the user. Is done. Brief Description of Drawings
  • FIG. 1 is a diagram illustrating the principle of the present invention.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the signal processing device 4.
  • FIG. 3 is a block diagram showing a configuration example of one embodiment of the signal processing device 4 of FIG.
  • FIG. 4 is a diagram for more specifically explaining the principle of signal processing of the signal processing device 4.
  • FIG. 5 is a diagram illustrating an example of an arrangement of pixels on an image sensor.
  • FIG. 6 is a diagram for explaining the operation of a detection element which is a CCD.
  • FIG. 7 is a diagram for explaining the relationship between the light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • FIG. 8 is a diagram illustrating the relationship between the passage of time, light incident on a detection element corresponding to one pixel, and a pixel value.
  • FIG. 9 is a diagram illustrating an example of an image of a linear object in the real world 1.
  • FIG. 10 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 11 is a diagram showing an example of an image of the real world 1 of a monochromatic object having a straight edge, which is a color different from the background.
  • FIG. 12 is a diagram showing an example of pixel values of image data obtained by actual imaging c .
  • FIG. 13 is a schematic diagram of image data.
  • FIG. 14 is a diagram for explaining the estimation of the model 16 1 based on the M pieces of data 16 2.
  • FIG. 15 is a diagram for explaining the relationship between the signal of the real world 1 and the data 3.
  • FIG. 16 is a diagram showing an example of data 3 of interest when formulating an equation.
  • FIG. 17 is a diagram illustrating signals for two objects in the real world 1 and values belonging to a mixed area when an equation is formed.
  • FIG. 18 is a diagram for explaining the stationarity expressed by the equations (18), (19), and (22).
  • FIG. 19 is a diagram illustrating an example of M pieces of data 162 extracted from the data 3.
  • FIG. 20 is a diagram for explaining integration of signals of the real world 1 in data 3 in the time direction and the two-dimensional spatial direction.
  • FIG. 21 is a diagram for explaining an integration area when generating high-resolution data having a higher resolution in the spatial direction.
  • FIG. 22 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the time direction.
  • FIG. 23 is a diagram illustrating an integration area when generating high-resolution data having a higher resolution in the time-space direction.
  • FIG. 24 is a diagram showing the original image of the input image.
  • FIG. 25 is a diagram illustrating an example of an input image.
  • - Figure 26 is a diagram showing an image obtained by applying the conventional classification adaptive processing.
  • FIG. 27 is a diagram showing a result of detecting a thin line region.
  • FIG. 28 is a diagram illustrating an example of an output image output from the signal processing device 4.
  • FIG. 29 is a flowchart illustrating signal processing by the signal processing device 4.
  • FIG. 30 is a block diagram showing a configuration of the data continuity detecting unit 101.
  • FIG. 31 is a diagram showing an image of the real world 1 with a thin line in front of the background.
  • FIG. 32 is a diagram for explaining the approximation of the background by a plane.
  • FIG. 33 is a diagram showing a cross-sectional shape of image data onto which a thin line image is projected.
  • FIG. 34 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 35 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
  • FIG. 36 is a diagram for explaining processing of detecting a vertex and detecting a monotonous increase / decrease region.
  • FIG. 37 is a diagram illustrating a process of detecting a thin line region where the pixel value of the vertex exceeds the threshold value and the pixel value of an adjacent pixel is equal to or less than the threshold value.
  • FIG. 38 is a diagram illustrating the pixel values of the pixels arranged in the direction indicated by the dotted line AA ′ in FIG.
  • FIG. 39 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
  • FIG. 40 is a diagram illustrating an example of another process of detecting a region where a thin line image is projected.
  • FIG. 41 is a flowchart for explaining the continuity detection process.
  • FIG. 42 is a diagram illustrating a process of detecting continuity of data in the time direction.
  • FIG. 43 is a block diagram illustrating a configuration of the non-stationary component extraction unit 201.
  • Figure 44 illustrates the number of rejections.
  • FIG. 45 is a flowchart illustrating the process of extracting a non-stationary component.
  • FIG. 46 is a flowchart for explaining the process of extracting the stationary component.
  • FIG. 47 is a flowchart illustrating another process of extracting a steady component.
  • FIG. 48 is a flowchart illustrating still another process of extracting a steady component.
  • FIG. 49 is a block diagram showing another configuration of the data continuity detecting unit 101.
  • FIG. 50 is a diagram for explaining activity in an input image having data continuity. .
  • FIG. 51 is a diagram illustrating a block for detecting an activity.
  • FIG. 52 is a diagram illustrating an angle of data continuity with respect to activity.
  • FIG. 53 is a block diagram showing a more detailed configuration of the data continuity detector 1 ⁇ 1. .
  • FIG. 54 is a diagram illustrating a set of pixels.
  • FIG. 55 is a diagram for explaining the relationship between the position of a set of pixels and the angle of data continuity.
  • FIG. 56 is a flowchart illustrating a process of detecting data continuity.
  • FIG. 57 is a diagram illustrating a set of pixels extracted when detecting the continuity angle of the data in the time direction and the spatial direction.
  • FIG. 58 is a diagram illustrating the principle of the function approximation method, which is an example of the embodiment of the real world estimation unit in FIG.
  • FIG. 59 is a view for explaining the integration effect when the sensor is a CCD.
  • FIG. 60 is a view for explaining a specific example of the integration effect of the sensor of FIG.
  • FIG. 61 is a view for explaining another specific example of the integration effect of the sensor of FIG.
  • FIG. 62 is a diagram showing the real world region containing fine lines shown in FIG.
  • FIG. 63 is a diagram for explaining the principle of an example of the embodiment of the real world estimation unit in FIG. 3 in comparison with the example in FIG.
  • FIG. 64 is a diagram showing the thin-line-containing data area shown in FIG.
  • FIG. 65 is a diagram in which each of the pixel values included in the thin line containing data area in FIG.
  • FIG. 66 is a graph showing an approximate function obtained by approximating each pixel value included in the thin line containing data area in FIG. 65.
  • FIG. 67 is a view for explaining the continuity in the spatial direction of the fine-line-containing real world region shown in FIG. 60.
  • FIG. 68 is a diagram in which each of the pixel values included in the thin line containing data area in FIG.
  • FIG. 69 is a view for explaining a state where each of the input pixel values shown in FIG. 68 is shifted by a predetermined shift amount.
  • 'FIG. 70 is a graph showing an approximation function that approximates each pixel value included in the thin-line-containing data region in FIG. 65 in consideration of stationarity in the spatial direction.
  • -FIG. 71 is a diagram illustrating a spatial mixing region.
  • FIG. 72 is a diagram for explaining an approximation function that approximates a real-world signal in the spatial mixing region.
  • FIG. 73 is a graph showing an approximation function that approximates a real-world signal corresponding to the thin-line-containing data region in FIG. 65 in consideration of both the integration characteristic of the sensor and the stationarity in the spatial direction.
  • FIG. 74 is a block diagram illustrating a configuration example of a real-world estimator that uses a first-order polynomial approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 75 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration of FIG.
  • FIG. 76 is a diagram illustrating the tap range.
  • FIG. 77 is a diagram for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 78 is a view for explaining the integration effect when the sensor is CCD.
  • FIG. 79 is a view for explaining the distance in the sectional direction.
  • FIG. 80 is a block diagram illustrating a configuration example of a real-world estimator that uses a second-order polynomial approximation method among the function approximation methods having the principle shown in FIG.
  • FIG. 81 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration of FIG.
  • FIG. 82 is a diagram illustrating the tap range.
  • FIG. 83 is a diagram illustrating the direction of continuity in the spatiotemporal direction.
  • FIG. 84 is a view for explaining the integration effect when the sensor is CCD.
  • 'FIG. 85 is a diagram for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 86 is a view for explaining signals in the real world having stationarity in the spatiotemporal direction.
  • FIG. 87 is a block diagram illustrating a configuration example of a real-world estimator that uses a three-dimensional approximation method among function approximation methods having the principle shown in FIG.
  • FIG. 88 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration of FIG. 87.
  • FIG. 89 is a diagram illustrating the principle of the reintegration method, which is an example of the embodiment of the image generation unit in FIG.
  • FIG. 90 is a diagram illustrating an example of an input pixel and an approximation function that approximates a real-world signal corresponding to the input pixel.
  • FIG. 91 is a diagram for explaining an example of creating four high-resolution pixels in one input pixel shown in FIG. 90 from the approximation function shown in FIG.
  • FIG. 92 is a block diagram illustrating a configuration example of an image generating unit that uses a one-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 93 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG.
  • FIG. 94 is a diagram illustrating an example of the original image of the force image.
  • FIG. 95 is a diagram illustrating an example of image data corresponding to the image in FIG.
  • FIG. 96 is a diagram illustrating an example of an input image.
  • FIG. 97 is a diagram illustrating an example of image data corresponding to the image in FIG.
  • FIG. 98 is a diagram illustrating an example of an image obtained by performing a conventional classification adaptive process on an input image.
  • FIG. 99 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 100 is a diagram illustrating an example of an image obtained by performing a one-dimensional reintegration method process on an input image.
  • FIG. 101 is a diagram illustrating an example of image data corresponding to the image of FIG.
  • FIG. 102 is a view for explaining signals in the real world having stationarity in the spatial direction.
  • FIG. 103 is a block diagram illustrating a configuration example of an image generation unit that uses a two-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 104 is a diagram for explaining the distance in the cross-sectional direction.
  • FIG. 105 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG. 103. ..
  • FIG. 106 is a diagram illustrating an example of the input pixel.
  • FIG. 107 is a diagram illustrating an example of creating four high-resolution pixels in one input pixel shown in FIG. 106 by the two-dimensional reintegration method.
  • FIG. 108 is a diagram illustrating the direction of continuity in the spatiotemporal direction.
  • FIG. 109 is a block diagram illustrating a configuration example of an image generating unit that uses a three-dimensional reintegration method among the reintegration methods having the principle shown in FIG.
  • FIG. 110 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration in FIG. 4 008690
  • FIG. 11 is a block diagram showing a configuration example of another embodiment of the signal processing device 4 of FIG. -FIG. 112 is a flowchart for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 113 is a block diagram showing a configuration example of an embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 114 is a flowchart for explaining the processing of the signal processing device 4 in FIG.
  • FIG. 115 is a block diagram illustrating a configuration example of the processing region setting unit 11001.
  • FIG. 116 is a flowchart illustrating the processing of the processing area setting unit 11001.
  • FIG. 117 is a diagram illustrating an input image in which motion blur has occurred.
  • FIG. 118 is a diagram illustrating a display example of a frame representing M processing areas set in the processing area setting unit 11001.
  • FIG. 119 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 12OA is a diagram for explaining a motion vector.
  • FIG. 120B is a diagram for explaining a motion vector.
  • FIG. 120C is a diagram for explaining a motion vector.
  • FIG. 120D is a diagram for explaining a motion vector.
  • FIG. 121 is a flowchart for explaining the processing of the signal processing device 4 in FIG. 11.9.
  • FIG. 122 is a block diagram illustrating a configuration example of the continuity setting section 11042.
  • FIG. 123 is a flowchart for explaining the processing of the continuity setting unit 11042.
  • 'FIG. 124 is a flowchart for explaining the processing of the continuity setting unit 11042.
  • FIG. 125 is a view for explaining the processing of the continuity setting unit 11042.
  • FIG. 126A is a diagram showing an output image obtained for each of the three types of motion. 4 008690
  • FIG. 126B is a diagram showing an output image obtained for each of the three types of motion.
  • FIG. 126C is a diagram illustrating an output image obtained for each of the three types of motion. ⁇
  • Fig. 126D shows the output images obtained for each of the three motion amounts.
  • FIG. 126E is a diagram illustrating an output image obtained for each of the three types of motion.
  • FIG. 127 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG. '
  • FIG. 128 is a flowchart illustrating the processing of the signal processing device 4 in FIG. 127.
  • FIG. 129 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 130 is a flowchart for explaining the processing of the signal processing device 4 in FIG. _ Fig. 131 is a flowchart for explaining the processing of the signal processing device 4 of Fig. 129. ''
  • FIG. 132 is a view for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 133 is a flowchart for explaining the present process by the signal processing device 4.
  • FIG. 134 is a diagram showing a processing region in an input image and a direction of continuity.
  • FIG. 135A ' is a diagram showing an optical signal of the real world 1 and an input image obtained from the sensor 2 for the optical signal.
  • FIG. 135B is a diagram showing an optical signal of the real world 1 and an input image obtained from the sensor 2 for the optical signal.
  • FIG. 13A is a diagram for explaining the present processing by the signal processing device 4.
  • FIG. 13B is a diagram illustrating the present process performed by the signal processing device 4.
  • FIG. 136C is a diagram illustrating the present processing performed by the signal processing device 4.
  • FIG. 136D is a diagram illustrating the present processing performed by the signal processing device 4.
  • FIG. 13E is a diagram for explaining the present processing by the signal processing device 4.
  • FIG. 135 is a block diagram illustrating a configuration example of the motion detection unit 11062.
  • FIG. 138 is a view for explaining the amount of movement.
  • FIG. 139 is a diagram illustrating pixel values of an image output from a camera when a camera captures a foreground object moving in front of a background object.
  • FIG. 140 is a diagram illustrating a difference value between pixel values of the pixels of the image illustrated in FIG.
  • FIG. 141 is a flowchart illustrating the process of detecting the amount of motion.
  • FIG. 142 is a flowchart illustrating the process of detecting the correlation.
  • FIG. 144 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 144 is a flowchart for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 145 is a view for explaining the integration effect when the sensor 2 is CCD.
  • FIG. 146 is a diagram for explaining the amount of movement.
  • FIG. 147A is a diagram for explaining motion blur caused by the integration effect of the sensor 2.
  • FIG. 147B is a diagram for explaining motion blur caused by the integration effect of the sensor 2.
  • FIG. 147C is a diagram illustrating the motion blur generated by the integration effect of the sensor 2.
  • FIG. 148A is a diagram for explaining the motion blur caused by the integration effect of the sensor 2.
  • FIG. 148A is a diagram for explaining the motion blur caused by the integration effect of the sensor 2.
  • FIG. 148B is a diagram for explaining motion blur caused by the integration effect of the sensor 2. 690
  • FIG. 148C is a diagram for explaining motion blur caused by the integration effect of the sensor 2.
  • FIG. 149 is a flowchart illustrating the estimation processing of the real world by the real world estimation unit 12003.
  • FIG. 150 is a block diagram illustrating a configuration example of the equation generation unit 12012.
  • FIG. 151 is a flowchart illustrating the equation generation processing in step S12032 in FIG.
  • FIG. 152A is a diagram illustrating the constraint condition.
  • FIG. 152B is a diagram illustrating the constraint condition.
  • FIG. 15C illustrates the constraint condition
  • FIG. 153 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 154 is a flowchart for explaining the processing of the signal processing device 4 in FIG.
  • FIG. 155 is a flowchart illustrating the estimation processing of the real world by the real world estimation unit 12073.
  • FIG. 156 is a block diagram illustrating a configuration example of the equation generation unit 12082.
  • FIG. 157 is a flowchart illustrating the equation generation processing in step 312102 of FIG.
  • FIG. 158 is a diagram for explaining the outline of the processing of the signal processing device 4 in FIG.
  • FIG. 159 is a diagram for explaining the outline of the processing of the signal processing device 4 of FIG.
  • FIG. 16 OA is a diagram for explaining the constraint condition.
  • FIG. 16 OB is a diagram illustrating the constraint condition.
  • FIG. 160C is a diagram illustrating the constraint condition. '
  • FIG. 161 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG. 0
  • FIG. 162 is a flowchart for explaining the processing of the signal processing device 4 of FIG.
  • FIG. 163 is a flowchart illustrating the real world estimation processing of the real world estimation unit 12163.
  • FIG. 164 is a diagram illustrating a configuration example of the equation generation unit 12172.
  • FIG. 165 is a flowchart illustrating the equation generation processing in step 12172 of FIG.
  • FIG. 166 is a diagram for explaining the outline of the processing of the signal processing device 4 in FIG.
  • FIG. 167 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 168 is a flowchart for explaining the processing of the signal processing device 4 in FIG.
  • FIG. 169 is a flowchart illustrating the real world estimation processing of the real world estimation unit 12243.
  • FIG. 170 is a diagram illustrating a configuration example of the equation generation unit 12252.
  • FIG. 171 is a flowchart illustrating the equation generation processing in step 12232 of FIG.
  • FIG. 17A is a diagram illustrating an outline of the processing of the signal processing device 4 in FIG.
  • FIG. 17B is a diagram for explaining the outline of the processing of the signal processing device 4 in FIG.
  • FIG. 173 is a block diagram showing a configuration example of another embodiment of an application example of the signal processing device 4 of FIG.
  • FIG. 174 is a flowchart for explaining the processing of the signal processing device 4 in FIG.
  • FIG. 175 is a flowchart illustrating the real world estimation processing of the real world estimation unit 12293.
  • FIG. 176 is a diagram illustrating a configuration example of the equation generation unit 12302.
  • FIG. 177 is a flowchart illustrating the equation generation processing in step S12292 of FIG. 175.
  • FIG. 178 is a diagram for describing an outline of the processing of the signal processing device 4 in FIG. 173.
  • FIG. 179A is a diagram for explaining the outline of the processing of the signal processing device 4 in FIG.
  • FIG. 179B is a diagram illustrating an outline of the processing of the signal processing device 4 in FIG. 173.
  • FIG. 180 is a block diagram illustrating a configuration example of the signal processing device 4 equivalent to the signal processing device 4 of FIGS. 15, FIG. 16, FIG. 167, and FIG.
  • FIG. 181 is a flowchart illustrating the processing of the signal processing device 4 in FIG. '
  • FIG. 182 is a flowchart for explaining the processing of the signal processing device 4 in FIG.
  • FIG. 183 is a flowchart illustrating the processing of the signal processing device 4 in FIG. 180.
  • FIG. 184 is a flowchart for explaining the processing of the signal processing device 4 in FIG. -FIG. 185 is a diagram showing an input image.
  • FIG. 186 is a diagram for explaining the designation of the flat region with respect to the input image of FIG. 185.
  • c FIG. 187 is a diagram showing an output image which is a processing result of the input image of FIG.
  • FIG. 188 is a diagram illustrating an output image that is a processing result of the input image in FIG.
  • FIG. 189 is a diagram illustrating an instruction of a dissatisfied area with respect to the output image of FIG. 188.
  • c FIG. 19OA is a diagram illustrating an output image which is a reprocessing result of the output image of FIG. 188. You.
  • FIG. 190B is a diagram illustrating an output image that is a result of reprocessing the output image of FIG. 188.
  • FIG. 191A is a diagram illustrating an output image that is a reprocessing result of the output image selected in FIGS. 190A and 190B.
  • FIG. 191B is a diagram illustrating an output image that is a reprocessing result of the output image selected in FIGS. 190A and 190B.
  • FIG. 191C is a diagram illustrating an output image that is a reprocessing result of the output image selected in FIGS. 190A and 190B.
  • FIG. 191D is a diagram illustrating an output image that is a reprocessing result of the output image selected in FIGS. 190A and 190B.
  • FIG. 192 is an enlarged view of the input image of FIG.
  • FIG. 193 is a diagram showing an output image as a processing result of the input image of FIG.
  • FIG. 194 is a diagram illustrating an output image that is a processing result of the input image in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 illustrates the principle of the present invention.
  • events phenomena
  • events in the real world 1 having dimensions of space, time, and mass are acquired by the sensor 2 and converted into data.
  • Events in the real world 1 include light (image), sound, pressure, temperature, mass, density, brightness, darkness, or smell.
  • the events in the real world 1 are distributed in the spatio-temporal direction.
  • the image of the real world 1 is the distribution of the light intensity of the real world 1 in the spatiotemporal direction.
  • the real world 1 events that can be acquired by sensor 2 are converted to data 3 by sensor 2. You. It can also be said that the sensor 2 acquires information indicating an event in the real world 1. '
  • the sensor 2 converts information indicating an event of the real world 1 into data 3. It can be said that an event in the real world 1 having dimensions of space, time, and mass (a signal that is information indicating the phenomenon ⁇ is acquired by the sensor 2 and converted into data.
  • the distribution of events such as images, sound, pressure, temperature, mass, density, brightness, darkness, or smell in the real world 1 is also referred to as a signal that is information indicating events in the real world 1.
  • a signal that is information indicating an event of the real world 1 is simply JP2004 / 008690
  • a signal includes a phenomenon and an event, and includes a signal that the sender does not intend.
  • Data 3 (detection signal) output from the sensor 2 is information obtained by projecting information indicating an event of the real world 1 onto a lower-dimensional space-time as compared to the real world 1.
  • data 3 which is image data of a moving image, was obtained by projecting a three-dimensional spatial and temporal image of the real world 1 into a two-dimensional spatial and temporal spatio-temporal image.
  • Information for example, when data 3 is digital data, data 3 is rounded according to the sampling unit.
  • data 3 is analog data, the information in data 3 is compressed or a part of the information is deleted by a limiter or the like according to the dynamic range.
  • Data 3 includes significant information for estimating signals that are information indicating events (phenomena) in the real world 1. In.
  • information having continuity contained in the real world 1 or the data 3 is used as significant information for estimating a signal which is information of the real world 1. Constancy is a newly defined concept.
  • the event of the real world 1 includes a certain feature in a direction of a predetermined dimension.
  • a shape, a pattern, a color, or the like is continuous or a pattern such as a shape, a pattern, or a color is repeated in a space direction or a time direction.
  • the information indicating the event of the real world 1 includes a certain feature in the direction of the predetermined dimension.
  • a linear object such as a thread, a string, or a rope has the same cross-sectional shape at any position in the longitudinal direction, that is, is constant in the longitudinal direction, that is, in the spatial direction. It has the characteristics of The constant feature in the spatial direction that the cross-sectional shape is the same at an arbitrary position in the length direction arises from the feature that the linear object is long.
  • the image of the linear object has a certain feature in the longitudinal direction, that is, the spatial direction, that the cross-sectional shape is the same at an arbitrary position in the longitudinal direction.
  • a single-color object which is a tangible object extending in the spatial direction, has a certain characteristic in the spatial direction that it has the same color regardless of the part c.
  • the real world 1 real world Since an event has a certain characteristic in the direction of a predetermined dimension, the signal of the real world 1 has a certain characteristic in the direction of the predetermined dimension.
  • continuity such a certain feature in the direction of a predetermined dimension is called continuity.
  • the continuity of the signal of the real world 1 refers to a certain characteristic of a signal indicating the event of the real world 1 (real world) in a predetermined dimension. '' In the real world 1 (real world), there are countless such stationarities.
  • data 3 is obtained by projecting a signal, which is information indicating an event of the real world 1 having a predetermined dimension, by the sensor 2, and thus the continuity of the signal in the real world is Contains the corresponding stationarity.
  • Data 3 can be said to include the stationarity projected from the stationarity of the real-world signal.
  • the data 3 includes at least a part of the stationarity of the signal of the real world 1 (real world) as the stationarity of the data.
  • the data continuity is a feature of data 3 that is constant in a predetermined dimension direction.
  • the stationarity of the signal of the real world 1 or the stationarity of the data of the data 3 is used as the significant information for estimating the signal indicating the event of the real world 1.
  • information indicating a missing event of the real world 1 is generated by performing signal processing on the data 3 using the continuity of the data.
  • the signal processing device 4 uses stationarity in the space direction or the time direction among the dimensions (length (space), time, and mass) of the signal, which is information indicating an event of the real world 1.
  • the senor 2 is configured by, for example, a digital still camera or a video camera, captures an image of the real world 1, and outputs the obtained data 3 as image data to the signal processing device 4.
  • the sensor 2 can be, for example, a thermographic device or a pressure sensor using photoelasticity.
  • the signal processing device 4 is composed of, for example, a personal computer and performs signal processing on the data 3.
  • the signal processing device 4 is configured, for example, as shown in FIG. CPU
  • the (Central Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • a RAM (Random Access Memory) 23 stores data such as program data executed by the CPU 21 as appropriate. These CPU 21, ROM 22, and RAM 23 are interconnected by a bus 24.
  • An input / output interface 25 is also connected to the CPU 21 via a bus 24.
  • the input / output interface 25 is connected to an input unit 26 composed of a keyboard, a mouse, a microphone, and the like, and an output unit 27 composed of a display, speed, and the like.
  • the CPU 21 responds to commands input from the input unit 26 PC orchid 004/00 drawings
  • the processing of is performed. Then, the CPU 21 outputs an image, a sound, and the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and stores programs executed by the CPU 21 and various data.
  • the communication unit 29 communicates with an external device via the Internet or another network. In this example, the communication unit 29 functions as an acquisition unit that captures the data 3 output from the sensor 2.
  • a program may be acquired via the communication unit 29 and stored in the storage unit 28.
  • the drive 30 connected to the input / output interface 25 drives the magnetic disk 51, optical disk 52, magneto-optical disk 53, or semiconductor memory 54 when they are mounted, and records them. Get the programs and data that are being used. The acquired programs and data are transferred to and stored in the storage unit 28 as necessary.
  • FIG. 3 is a block diagram showing the signal processing device 4.
  • each function of the signal processing device 4 is realized by hardware or software. That is, each block diagram in this specification may be considered as a block diagram of hardware or a functional block diagram of software.
  • the image data as an example of the data 3 is input, and the continuity of the data is detected from the input image data (input image).
  • the signal of the real world 1 acquired by the sensor 2 is estimated from the abnormality of the detected data.
  • an image is generated based on the estimated signal of the real world 1 and the generated image (output image) is output. That is, FIG. 3 is a diagram showing a configuration of the signal processing device 4 which is an image processing device.
  • the input image (image data as an example of the data 3) input to the signal processing device 4 is supplied to the data continuity detecting unit 101 and the real world estimating unit 102.
  • the data continuity detection unit 101 detects data continuity from the input image and supplies data continuity information indicating the detected continuity to the real world estimation unit 102 and the image generation unit 103. I do.
  • the data continuity information includes, for example, the position of a pixel region having data continuity in the input image, the direction of the pixel region having data continuity (the angle or inclination in the temporal direction and the spatial direction), or data. It includes the length of the pixel area having the above continuity. Details of the configuration of the data continuity detecting unit 101 will be described later.
  • the real world estimator 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detector 101. That is, the real world estimating unit 102 estimates an image, which is a real world signal, incident on the sensor 2 when the input image is acquired. The real world estimating unit 102 supplies the real world estimation information indicating the result of the estimation of the signal of the real world 1 to the image generating unit 103. Details of the configuration of the real world estimation unit 102 will be described later.
  • the image generation unit 103 generates a signal that is more similar to the signal of the real world 1 based on the real world estimation information indicating the estimated signal of the real world 1 supplied from the real world estimation unit 102. And output the generated signal.
  • the image generation unit 103 receives the data continuity information supplied from the data continuity detection unit 101 and the data supplied from the real world estimation unit 102. Based on the real world estimation information shown, a signal that is closer to the real world 1 signal is generated, and the generated signal is output. That is, the image generation unit 103 generates an image that is closer to the image of the real world 1 based on the real world estimation information, and outputs the generated image as an output image.
  • the image generation unit 103 generates an image that is closer to the image of the real world 1 based on the data continuity information and the real world estimation information, and outputs the generated image as an output image.
  • the image generation unit 103 integrates the estimated image of the real world 1 in a desired space direction or time direction range, thereby comparing the input image with the input image. Generate high-resolution images in spatial or temporal directions The generated image is output as an output image. For example, the image generation unit 103 generates an image by extrapolation, and outputs the generated image as an output image.
  • an image a signal in the real world 1
  • a sensor 2 a CCD
  • the relationship between the image of the real world 1 acquired by the C0D and the data 3 captured and output by the CCD is clearly considered. That is, the relationship between the data 3 and the signal that is the real world information acquired by the sensor 2 is clearly considered.
  • the signal processing device 4 approximates (describes) the real world 1 using a model 16 1.
  • the model 16 1 is represented by, for example, N variables. More precisely, the model 16 1 approximates (describes) the real world 1 signal.
  • the signal processor 4 extracts M data 16 2 from the data 3.
  • the signal processing device 4 uses, for example, the continuity of the data included in the data 3.
  • the signal processing device 4 extracts data 162 for predicting the model 161, based on the stationarity of the data included in the data 3.
  • the model 16 1 is bound by the stationarity of the data.
  • the model 16 1 represented by N variables can be predicted from the M data 16 2. Wear.
  • the codeword processor 4 can consider the signal that is the information of the real world 1 .
  • An image sensor such as a CCD or a complementary metal-oxide semiconductor (CMOS) sensor that captures an image projects a signal, which is information of the real world, into two-dimensional data when imaging the real world.
  • CMOS complementary metal-oxide semiconductor
  • Each pixel of the image sensor has a predetermined area as a so-called light receiving surface (light receiving area). Light incident on a light receiving surface having a predetermined area is integrated in the spatial direction and the time direction for each pixel, and is converted into one pixel value for each pixel.
  • the image sensor captures an image of an object in the real world, and outputs image data obtained as a result in units of one frame. That is, the image sensor acquires the signal of the real world 1, which is the light reflected by the object of the real world 1, and outputs the data 3. '
  • an image sensor outputs 30 frames of image data per second.
  • the exposure time of the image sensor can be set to 1/30 seconds.
  • the exposure time is a period from the time when the image sensor starts converting incident light to electric charge until the time when the conversion of incident light to electric charge is completed.
  • the exposure time is also referred to as shirt time.
  • FIG. 5 is a diagram illustrating an example of an arrangement of pixels on an image sensor.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image displayed by the image data.
  • One detection element corresponding to one pixel is arranged on the image sensor.
  • Image sensor is real world 1 8690
  • one detection element When capturing an image, one detection element outputs one pixel value corresponding to one pixel constituting the image data.
  • the spatial position X (X coordinate) of the detecting element corresponds to the horizontal position on the image displayed by the image data
  • the spatial position Y position (Y coordinate) of the detecting element is the image. It corresponds to the vertical position on the image displayed by the data.
  • the distribution of the light intensity of the real world 1 has a spread in the three-dimensional spatial direction and the temporal direction, but the image sensor acquires the light of the real world 1 in the two-dimensional spatial direction and the temporal direction, Data 3 representing the distribution of light intensity in the two-dimensional spatial and temporal directions is generated.
  • the detection element which is a CCD, converts light input to the light receiving surface (light receiving area) (detection area) into electric charges for a period corresponding to the shutter time, and converts the light. Accumulate charge.
  • Light is real-world information (signal) whose intensity is determined by its position in three-dimensional space and time.
  • the distribution of light intensity in the real world 1 can be represented by a function F (x, y, z, t) with the positions X, y, and 2 in the three-dimensional space, and time t as variables. .
  • the amount of electric charge stored in the detection element which is a CCD, is substantially proportional to the intensity of light incident on the entire light receiving surface having a two-dimensional spatial spread and the time during which light is incident.
  • the detection element adds the electric charge converted from the light incident on the entire light receiving surface to the already accumulated electric charge in a period corresponding to the shutter time. That is, the detection element integrates the light incident on the entire light receiving surface having a two-dimensional spread in the period corresponding to the shutter time, and accumulates an amount of electric charge corresponding to the integrated light. I do. It can be said that the detector has an integrating effect on space (light receiving surface) and time (shutter time).
  • each pixel value output from the image sensor represents a part of the information (signal) in the real world 1 that has a temporal and spatial spread, It has a value projected onto a one-dimensional space, which is the result of integrating the inter-direction and the spatial direction of the light receiving surface of the detection element.
  • the pixel value of one pixel is represented by integration of F (x, y, t).
  • F (x, y, t) is a function that represents the distribution of light intensity on the light receiving surface of the detector.
  • the pixel value P is represented by Expression (1).
  • Xl is the spatial coordinate (X coordinate) of the left boundary of the light receiving surface of the detection element.
  • x 2 is the spatial coordinate of the right boundary of the light receiving surface of the detecting element (X-coordinate).
  • yi is the spatial coordinate (Y coordinate) of the upper boundary of the light receiving surface of the detection element.
  • y 2 is the spatial coordinate (Y coordinate) of the lower boundary of the light receiving surface of the detection element. Is the time at which the conversion of the incident light into charges has started.
  • t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the gain of the pixel value of the image data output from the image sensor is corrected, for example, for the entire frame.
  • Each pixel value of the image data is an integrated value of light incident on the light receiving surface of each detection element of the image sensor, and of the light incident on the image sensor, the real world 1 smaller than the light receiving surface of the detection element.
  • a light waveform is hidden by a pixel value as an integrated value.
  • a signal waveform expressed on the basis of a predetermined dimension is also simply referred to as a waveform.
  • the image data includes a part of the continuity of the image of the real world 1 Is lost, and another part of the continuity of the real world 1 image is included in the image data.
  • the image data may include stationarity that has changed from the stationarity of the real world 1 image.
  • FIG. 7 is a diagram illustrating the relationship between light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • F (x) in FIG. 7 is an example of a function that represents the distribution of light intensity in the real world 1 with the coordinate X in the spatial direction X in space (on the detection element) as a variable.
  • F (x) is an example of a function that represents the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the time direction.
  • L indicates the length in the spatial direction X of the light receiving surfaces of the detection elements corresponding to the pixels D to F.
  • the pixel value of one pixel is represented by the integral of F (x).
  • the pixel value P of the pixel E is represented by Expression (2).
  • Xl is the spatial coordinate in the spatial direction X of the left boundary of the light receiving surface of the detection element corresponding to pixel E.
  • x 2 is a spatial coordinate in the spatial direction X of the right boundary of the light-receiving surface of the detecting element corresponding to the pixel E.
  • FIG. 8 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • F (t) in FIG. 8 is a function representing the distribution of light intensity in the real world 1 with time t as a variable.
  • F (t) is an example of a function that represents the distribution of light intensity in the real world 1 when it is constant in the spatial direction Y and the spatial direction X.
  • t s indicates the shirt time.
  • Frame # n-1 is a frame temporally before frame #n
  • frame # n + l is a frame temporally subsequent to frame #n. That is, frame # n-1, frame, and frame are displayed in the order of frame # n-1, frame #n, and frame ⁇ + l. 2004/008690
  • the shirt time t s and the frame interval are the same.
  • the pixel value of one pixel is represented by the integral of F (t).
  • the pixel value P of the pixel in frame #n is represented by Expression (3).
  • equation (3) is the time at which the conversion of incident light into charge has begun. Is the time at which the conversion of the incident light into charges has been completed.
  • the integration effect in the spatial direction by the sensor 2 is simply referred to as the spatial integration effect
  • the integration effect in the time direction by the sensor 2 is simply referred to as the time integration effect
  • the spatial integration effect or the time integration effect is simply referred to as an integration effect.
  • FIG. 9 is a diagram showing an image of a linear object (for example, a thin line) in the real world 1, that is, an example of a light intensity distribution.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X, which is one direction in the spatial direction of the image.
  • the position on the right in the middle indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the linear object in the real world 1 includes a certain stationarity. That is, the image shown in FIG. 9 has continuity that the cross-sectional shape (change in level with respect to change in position in the direction orthogonal to the length direction) is the same at an arbitrary position in the length direction.
  • FIG. 10 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG.
  • FIG. 10 shows a linear object having a shorter light receiving surface of each pixel and extending in a direction deviated from the pixel array (vertical or horizontal array) of the image sensor. 2004/008690
  • FIG. 3 is a schematic diagram of image data obtained by capturing an image with an image sensor.
  • the image incident on the image sensor when the image data shown in FIG. 10 is obtained is the image of a linear object in the real world 1 in FIG.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X, which is one direction in the spatial direction of the image
  • the right position in the figure indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 10 corresponds to the level direction in FIG. 9, and the spatial direction X and the spatial direction Y in FIG. 10 are the same as the directions in FIG.
  • the linear object When an image of a linear object having a diameter that is shorter than the length of the light receiving surface of each pixel is captured by an image sensor, the linear object is schematically represented in image data obtained as a result of the imaging. For example, it is represented by a plurality of arcs (kamaboko type) of a predetermined length that are arranged diagonally.
  • Each arc shape is almost the same.
  • One arc shape is formed vertically on one row of pixels or horizontally on one row of pixels.
  • one arc shape in FIG. 10 is formed by vertically arranging one row of pixels.
  • FIG. 11 is a diagram showing an example of an image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background, that is, an example of light intensity distribution.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image.
  • the position on the right in the middle indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the image of the real world 1 of an object having a straight edge in a color different from that of the background includes a predetermined stationarity. That is, the image shown in Fig. 11 is arbitrary in the edge length direction. T JP2004 / 008690
  • the cross-sectional shape (level change with respect to position change in the direction perpendicular to the edge) is the same.
  • FIG. 12 is a diagram illustrating an example of pixel values of image data obtained by actual imaging corresponding to the image illustrated in FIG. As shown in FIG. 12, since the image data is composed of pixel values in units of pixels, the image data has a step shape.
  • FIG. 13 is a schematic diagram of the image data shown in FIG.
  • FIG. 13 is a single-color, linear edge that has a different color from the background, with the edge extending in a direction that is displaced from the pixel array (vertical or horizontal array) of the image sensor.
  • FIG. 3 is a schematic diagram of image data obtained by capturing an image of the real world 1 of an object having the above with an image sensor.
  • the image incident on the image sensor had a different color from the background shown in Fig. 11, and had a monochromatic, linear edge. It is an image of the real world 1. '
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the upper right position in the figure indicates the pixel value.
  • the position indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 13 corresponds to the direction of the level in FIG. 11, and the spatial direction X and the spatial direction Y in FIG. 13 are the same as the directions in FIG.
  • the continuity of the real world 1 image which is a color different from the background and has a single color, and has linear edges, is vertically above a row of pixels or horizontally. It can be said that the same shape of the claw shape formed on one column of pixels has changed to a stationary state in which the shapes are arranged at regular intervals.
  • the data continuity detecting unit 101 detects such continuity of data included in, for example, data 3 which is an input image.
  • the data continuity detecting unit 101 detects data continuity by detecting an area having a certain feature in a direction of a predetermined dimension.
  • the data continuity detecting unit 101 detects a region shown in FIG. 10 in which the same arc shapes are arranged at regular intervals.
  • the data continuity detecting unit 101 detects a region shown in FIG. 13 in which the same claw shapes are arranged at regular intervals.
  • the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction, which indicates a similar arrangement of shapes.
  • the data continuity detecting unit 101 detects the continuity of data by detecting angles (movements) in the spatial direction and the temporal direction, which indicate how similar shapes are arranged in the spatial direction and the temporal direction. To detect.
  • the data continuity detecting unit 101 detects data continuity by detecting a length of an area having a certain feature in a direction of a predetermined dimension.
  • the portion of the data 3 in which the image of the real world 1 of an object having a single color and a straight edge, which is a color different from the background, is projected by the sensor 2 is also referred to as a binary edge.
  • desired high-resolution data is generated from the data 3.
  • the real world 1 is estimated from the data 3, and high-resolution data is generated based on the estimation result. That is, real world 1 is estimated from data 3, and high-resolution data is generated from estimated real world 1 in consideration of data 3. 4 008690
  • the sensor 2 which is a CCD has an integral characteristic as described above. That is, one unit (for example, pixel value) of data 3 is calculated by integrating the signal of real world 1 with the detection area (for example, light receiving surface) of the detection element (for example, CCD) of sensor 2. can do.
  • the signal of the real world 1 can be estimated from the data 3, by integrating the signal of the real world 1 (in the space-time direction) for each detection area of the detection element of the virtual high-resolution sensor, One value contained in the high resolution data can be obtained.
  • the data 3 cannot represent the small change of the signal of the real world 1 . Therefore, by comparing the signal of the real world 1 estimated from the data 3 with the change of the signal of the real world 1 and integrating (spatio-temporally) for each smaller area, the signal of the real world 1 is High-resolution data showing small changes can be obtained.
  • high-resolution data can be obtained by integrating the estimated real world 1 signal in the detection area.
  • the image generation unit 103 integrates, for example, the estimated real world 1 signal in the space-time region of each detection element of the virtual high-resolution sensor, Generate high resolution data.
  • the signal processing device 4 uses the relation between the data 3 and the real world 1, the stationarity, and the spatial or temporal mixture in the data 3 ( Spatial or temporal mixing) is used.
  • mixing means that in data 3, signals for two objects in the real world 1 are mixed into one value.
  • Spatial mixing refers to mixing of signals for two objects in the spatial direction due to the spatial integration effect of the sensor 2. The time mixing will be described later.
  • the real world 1 itself consists of an infinite number of phenomena. Therefore, in order to express the real world 1 itself, for example, by mathematical formulas, an infinite number of variables are required. From Data 3, it is not possible to predict all events in the real world 1.
  • the signal processing device 4 focuses on a portion of the signal of the real world 1 which has stationarity and can be represented by a function f (x, y, z, t), and a function f (x, y , z, t), the stationary part of the real world signal 1 is approximated by a model 161 represented by N variables. Then, as shown in FIG. 14, it is predicted from M data 16 2 in the model 16 1 force data 3.
  • model 161 is represented by N variables based on stationarity
  • sensor It is necessary to formulate an equation using N variables, showing the relationship between the model represented by N variables and the M data, based on the integration characteristics of .2. is there. Since the model 16 1 is represented by N variables based on the stationarity, the relationship between the model 16 1 represented by N variables and the M data 16 2 It can be said that the equation using N variables describes the relationship between the stationary signal part of the real world 1 and the data stationary part 3 of the data.
  • the data continuity detection unit 101 uses the signal part of the real world 1 that has continuity to characterize the part of data 3 where continuity of data has occurred and the part where data continuity has occurred. To detect.
  • the edge at has a slope.
  • the arrow B in FIG. 15 indicates the edge inclination.
  • the inclination of the predetermined edge can be represented by an angle with respect to a reference axis or a direction with respect to a reference position.
  • the inclination of a predetermined edge can be represented by an angle between the coordinate axis in the spatial direction X and the edge.
  • the inclination of the predetermined edge can be represented by a direction indicated by the length in the spatial direction X and the length in the spatial direction Y.
  • the claw shape corresponding to the edge is arranged at the position indicated by A 'in Fig. 15 with respect to the position of interest (A) of the edge, and corresponds to the inclination of the edge of the image of the real world 1.
  • the claws corresponding to the edges are lined up in the direction of the inclination indicated by the middle B '.
  • the model 16 1 represented by N variables approximates the real-world one signal portion that causes data continuity in data 3.
  • A indicates the position of interest of the edge
  • a ′ indicates (the position of) a pixel in the image of the real world 1 with respect to the position of interest (A) of the edge.
  • the mixed area refers to an area of data in which the signals for two objects in the real world 1 are mixed into one value in data 3.
  • data 3 for an image of the real world 1 of an object having a color different from the background and having a single-color, linear ⁇ , an image for an object having a linear edge and an image for the background are integrated. Pixel value belongs to the mixed area.
  • FIG. 17 is a diagram for explaining signals for two objects in the real world 1 and values belonging to a mixed area when formulating is performed.
  • the left side in Fig. 17 shows the real world 1 for two objects in the real world 1 that have a predetermined spread in the spatial direction X and the spatial direction Y acquired in the detection area of one detecting element of the sensor 2. Indicates a signal.
  • the right side in FIG. 17 shows the pixel value P of one pixel of the data 3 in which the signal of the real world 1 shown on the left side of FIG. That is, data obtained by one detection element of the sensor 2 and projected from the real world 1 signal for two objects in the real world 1 having a predetermined spread in the spatial direction X and the spatial direction Y. 3 indicates the pixel value P of one pixel.
  • the mixing ratio indicates the ratio of (area of) the signal to two objects, which is incident on a detection area having a predetermined spread in the spatial direction X and the spatial direction Y of one detecting element of the sensor 2.
  • the mixture ratio ⁇ has a predetermined spread in the spatial direction X and the spatial direction ⁇ ⁇ ⁇ ⁇ with respect to the area of the detection region of one detection element of the sensor 2 and is incident on the detection area of one detection element of the sensor 2.
  • the ratio of the area of the level L signal is shown.
  • the relationship between the level L, the level R, and the pixel value P can be expressed by Expression (4).
  • level R may be the pixel value of the pixel of data 3 located on the right side of the pixel of interest
  • level L may be the left side of the pixel of interest.
  • the pixel value of data 3 can be used.
  • the mixing ratio ⁇ and the mixing region can be considered in the time direction as in the spatial direction. For example, when the object of the real world 1 to be imaged is moving with respect to the sensor 2, the ratio of the signal for the two objects that is incident on the detection area of one detection element of the sensor 2 in the time direction Changes. The signals, which are incident on the detection area of one of the detection elements of the sensor 2 and whose ratio changes in the time direction, are projected to one value of the data 3 by the detection element of the sensor 2.
  • the mixing of signals for two objects in the time direction due to the time integration effect of the sensor 2 is called time mixing.
  • the data continuity detection unit 101 detects, for example, a pixel area in data 3 on which signals of the real world 1 for two objects in the real world 1 are projected.
  • the data continuity detecting unit 101 detects, for example, the inclination in the data 3 corresponding to the inclination of the edge of the image of the real world 1.
  • the real world estimating unit 102 uses, for example, ⁇ variables based on the region of the pixel having the predetermined mixture ratio ⁇ detected by the data continuity detecting unit 101 and the gradient of the region.
  • ⁇ variables based on the region of the pixel having the predetermined mixture ratio ⁇ detected by the data continuity detecting unit 101 and the gradient of the region.
  • An equation using ⁇ ⁇ variables that shows the relationship between the represented model 16 1 and ⁇ ⁇ ⁇ data 16 2 is established, and the signals in the real world 1 are estimated by solving the equation.
  • the signal represented by the function F (x, y, z, t) in the cross section in the spatial direction Z (position of sensor 2) Consider approximating the world signal with an approximation function f (x, y, t) determined by the position x in the spatial direction X, the position y in the spatial direction Y, and the time t.
  • the detection area of the sensor 2 has a spread in the spatial direction X and the spatial direction Y.
  • the approximation function f (x, y, t) is a function that approximates the signal of the real world 1 acquired by the sensor 2 and having a spatial and temporal spread.
  • the value P (x, y, t) of the data 3 is obtained by the projection of the signal of the real world 1 by the sensor 2.
  • the value P (x, y, t) of the data 3 is, for example, a pixel value output by the sensor 2 which is an image sensor.
  • the value obtained by projecting the approximate function f (x, y, t) can be expressed as a projection function S (x, y, t).
  • the function F (x, y, z, t) representing the signal of the real world 1 can be a function of infinite order. .
  • j is the data index.
  • N is the number of variables representing the model 1 6 1 approximating the real world 1.
  • M is the number of data 162 included in data 3.
  • the variables can be made independent as.
  • i indicates the number of variables as it is.
  • the form of the function represented by can be made independent, and a desired function can be used as.
  • the number N of variables Wi can be defined without depending on the form of the function, and the variable ⁇ can be obtained by the relationship between the number N of variables Wi and the number M of data.
  • the real world 1 can be estimated from the data 3.
  • N variables are defined, that is, equation (5) is defined. This is made possible by describing the real world 1 using stationarity. For example, if the cross section is The model 161, in which the same cross-sectional shape continues in a certain direction, can be used to describe the real world 1 signal.
  • the projection by the sensor 2 is formulated, and the equation (7) is described.
  • the result of integrating the signals of the real world 2 is formulated as data 3.
  • data 162 is collected from an area having data continuity detected by the data continuity detecting unit 101.
  • data 162 of an area where a constant cross section continues which is an example of stationarity, is collected.
  • variable can be obtained by the least squares method.
  • equation (9) for predicting data 3 from real world 1 according to equation (7) is shown.
  • PjCXj.Yj, tj ⁇ WjSjCxj, yj, tj)
  • P'j ( Xj , Yj, tj) is a predicted value.
  • Equation (1 2) is derived from equation (1 1).
  • Si ( Xj , Yj , tj) Si (j)
  • Equation (13) Si represents the projection of the real world 1.
  • represents data 3.
  • Wi is a variable that describes the characteristics of the signal in the real world 1 and seeks to obtain.
  • the real world estimating unit 102 estimates the real world 1 by inputting the data 3 into the equation (13), for example, and obtaining the W MAT by a matrix solution or the like.
  • the cross-sectional shape of the signal in the real world 1 that is, the change in level with respect to the change in position is described by a polynomial. It is assumed that the cross section of the signal of the real world 1 is constant and that the cross section of the signal of the real world 1 moves at a constant speed. Then, the projection of the signal of the real world 1 from the signal of the sensor 2 onto the data 3 is formulated by integration of the signal of the real world 1 in three dimensions in the space-time direction.
  • Equations (18) and (19) are obtained from the assumption that the cross-sectional shape of the signal in the real world 1 moves at a constant speed.
  • V X and V y are constant.
  • the cross-sectional shape of the signal in the real world 1 is expressed by Expression (20) by using Expressions (18) and (19).
  • equation (2 1) is obtained.
  • S (x, y, t) is calculated from position x s to position x e in spatial direction X, from position y s to position y e in spatial direction Y, and in time direction t in spatial direction Y.
  • the integral value of the region from time t s to time t e that is, the region represented by a rectangular parallelepiped in space-time.
  • equation (13) By solving equation (13) using a desired function f (x ′, y ′) that can determine equation (21), the signal of the real world 1 can be estimated.
  • Equation (22) the function shown in equation (22) is used as an example of the function f (x ', y').
  • the signal of the real world 1 includes the stationarity expressed by the equations (18), (19), and (22). This indicates that the cross section of a certain shape is moving in the spatiotemporal direction, as shown in Fig. 18.
  • equation (23) is obtained.
  • FIG. 19 is a diagram showing an example of M pieces of data 162 extracted from data 3.
  • FIG. 19 For example, 27 pixel values are extracted as data 162, and the extracted pixel values are set to Pj (x, y, t). In this case, j is 0 to 26.
  • the pixel value of the pixel corresponding to the target position at time t, which is n, is Pi 3 (x, y, t), and the pixel values of the pixels having data continuity are arranged.
  • Direction for example, the direction in which the claw shapes of the same shape are detected by the data continuity detecting unit 101
  • pixel values P 9 (x, y, t) to P 17 (x, y, t) at time t, which is n are temporally earlier than n
  • pixel values 8 (x, y, t) through P 26 (x, y, t) are extracted.
  • the area from which the pixel value as data 3 output from the image sensor as sensor 2 has an expanse in the time direction and the two-dimensional space direction.c Therefore, for example, a rectangular parallelepiped corresponding to a pixel
  • the center of gravity of (the area where the pixel value is obtained) can be used as the position of the pixel in the spatiotemporal direction.
  • 27 pixel values P From (X, y, t) to P 26 (x, y, t) and Eq. (23), it is possible to estimate the real world 1 by generating Eq. (13) and finding W. In this way, the real-world estimating unit 102 calculates , for example, 27 pixel values P. From (X, y, t) ⁇ P 26 (x, y, t) and Eq. (23), generate Eq. (13) and estimate W to estimate the signal of real world 1 .
  • Gaussian function or sigmoid function can be used as function (x, y, t).
  • the data 3 has a value obtained by integrating the signal of the real world 1 in the time direction and the two-dimensional spatial direction.
  • the pixel value of data 3 output from the image sensor of sensor 2 is the light that is incident on the detection element
  • the signal of the real world 1 is the detection time in the direction of time.
  • the spatial direction in the light receiving region of the detection element has a value integrated in the spatial direction in the light receiving region of the detection element.
  • high-resolution data with higher resolution in the spatial direction uses the estimated signal of the real world 1 in the time direction and the sensor 2 that outputs data 3 in the time direction. It is generated by integrating at the same time as the detection time, and integrating in a narrower area in the spatial direction compared to the light receiving area of the detection element of the sensor 2 that has output the data 3.
  • high-resolution data When generating high-resolution data with higher resolution in the spatial direction, the region where the estimated signal of the real world 1 is integrated is completely independent of the light receiving region of the detection element of the sensor 2 that outputs the data 3.
  • high-resolution data has an integer multiple of resolution in the spatial direction with respect to data 3 as well as a rational multiple of resolution in the spatial direction with respect to data 3, such as 3 ⁇ 5Z. Can be made.
  • high-resolution data with higher resolution in the time direction uses the estimated real world 1 signal in the spatial direction and the light-receiving area of the detection element of sensor 2 that outputs data 3 in the spatial direction. It is generated by integrating in the same area as, and integrating in a shorter time in the time direction as compared with the detection time of the sensor 2 that outputs the data 3.
  • the time for integrating the estimated signal of the real world 1 is set completely independent of the shutter time of the detection element of sensor 2 that outputs data 3. can do.
  • high-resolution data has a resolution that is an integer multiple in the time direction with respect to data 3 as well as a rational multiple of the data 3 in the time direction, such as 7/4 times, as well as data 3. be able to.
  • High-resolution data from which motion blur has been removed is generated by integrating the estimated signal of the real world 1 only in the spatial direction without integrating it in the time direction.
  • high-resolution data with higher resolution in the temporal and spatial directions converts the signal of the estimated real world 1 into the spatial It is generated by integrating in a narrower area than in the light receiving area, and integrating in a shorter time in the time direction compared to the detection time of the sensor 2 that has output the data 3.
  • the region and time in which the estimated signal of the real world 1 is integrated can be set completely independently of the light receiving region of the detection element of the sensor 2 that has output the data 3 and the shutter time.
  • the image generation unit 103 integrates, for example, the estimated signal of the real world 1 in a desired spatio-temporal region, thereby obtaining higher-resolution data in the time direction or the space direction. Generate.
  • 24 to 28 show an example of an input image using the signal processing of the signal processing device 4 and an example of a result of the processing.
  • FIG. 24 is a diagram showing the original image of the input image (corresponding to the optical signal of the real world 1).
  • FIG. 25 is a diagram illustrating an example of an input image.
  • the input image shown in FIG. 25 is an image in which the average value of the pixel values of the pixels belonging to the block composed of 2 ⁇ 2 pixels of the image shown in FIG. 24 is generated as the pixel value of one pixel. is there. That is, the input image is an image obtained by applying the integration in the spatial direction imitating the integration characteristics of the sensor to the image shown in FIG.
  • the original image shown in Fig. 24 includes a thin line image that is inclined approximately 5 degrees clockwise from the vertical direction.
  • the input image shown in FIG. 25 includes an image of a thin line inclined approximately 5 degrees clockwise from the vertical direction.
  • FIG. 26 is a diagram showing an image obtained by applying the conventional classification adaptive processing to the input image shown in FIG.
  • the class classification adaptive processing includes class classification processing and adaptive processing.
  • the class classification processing classifies data into classes based on their properties, and performs adaptive processing for each class.
  • the adaptive processing for example, a low-quality image or a standard-quality image is converted into a high-quality image by mapping using a predetermined tap coefficient.
  • the first data is converted to the second data by being mapped using a predetermined tap coefficient.
  • a mapping method using the tap coefficients for example, a linear first-order combination model is adopted, and as a first data, a high-resolution HD (High Definition) image is obtained by filtering with a low-pass filter.
  • the adaptive processing will be described assuming that a low-resolution or standard-resolution SD (Standard Definition) image is used and the HD image used to obtain the SD image is used as the second data.
  • the HD pixel y constituting the HD image is, for example, a plurality of pixels extracted from the SD pixel constituting the SD image as a prediction tap for predicting the HD pixel. It can be obtained by the following linear linear equation (linear combination) using SD pixels and tap coefficients.
  • x n is to configure the prediction taps for the HD pixel y
  • n th represents the SD pixel (value of the pixel)
  • w n is n Represents the nth tap coefficient to be dyed with the SD pixel of the eye.
  • the prediction tap is assumed to be composed of N SD pixels X l , ⁇ 2 , ⁇ , x N.
  • the pixel value y of the HD pixel can be obtained not by the linear linear expression shown in Expression (2 4) but by a higher-order expression of second or higher order. JP2004 / 008690
  • the true value of (the pixel value of) the k-th HD pixel is represented as y k
  • the predicted value of the true value y k obtained by Expression (24) is represented as y k ′.
  • the prediction error e k is expressed, for example, by the following equation.
  • xn and k represent the nth SD pixel that constitutes the prediction tap for the kth HD pixel.
  • the tap coefficient w n for which the prediction error e k in equation (26) is 0 is optimal for predicting HD pixels, but for all HD pixels, finding such a tap coefficient w n is Generally difficult.
  • optimal tap coefficient w n as statistical errors, for example, by the following formula It can be obtained by minimizing the sum of the squared errors E expressed.
  • Equation (27) K is the HD pixel y k and the SD pixels x 1 k , x 2 , k , which constitute the prediction taps for the HD pixel y k.
  • X N , k represents the number of samples in the set.
  • the tap coefficient w n for minimizing (minimizing) the sum E of the squared errors in Equation (27) is obtained by taking the partial derivative of the sum E with the tap coefficient w n to be 0. Need to meet.
  • Eq. (30) can be represented by the normal equation shown in Eq. (31).
  • Equation (3 1) The normal equation in equation (3 1) can be constructed by preparing a certain number of sets of HD pixels y k and SD pixels x n , k. 1) solves 2004/008690
  • the adaptive processing is to map (convert) SD pixels to HD pixels by using equation (24) using the tap coefficient w n , and learning using the tap coefficient w n .
  • SD pixel X that constitutes a prediction tap for HD pixel y k
  • the class classification adaptive processing, learning and the tap coefficient w n, and the mapping using the tap coefficient w n is performed for each class.
  • classification adaptive processing attention to the class classification processing targeting HD pixel y k are is performed, for each class obtained by the class classification processing, learning and the tap coefficient w n, the tap coefficient w n The used mapping is performed.
  • HD is a pixel y k as classification processing applied to, for example, a plurality of SD pixels as a class tap used for the class classification of the HD pixel y k, extracted from the SD image is composed of the plurality of SD pixels
  • a method S that performs M-bit ADRC (Adaptive Dynamic Range Coding) processing using class taps.
  • ADRC Adaptive Dynamic Range Coding
  • each SD pixel constituting the class tap has 1 bit.
  • a bit string in which a 1-bit pixel value of each SD pixel constituting the class tap obtained in the above manner is arranged in a predetermined order is output as an ADRC code, and this ADRC code is output.
  • the class code represents the class.
  • the classification adaptive processing is different from, for example, simple interpolation processing in that components included in HD pixels, which are not included in SD pixels, are reproduced.
  • the class classification adaptive processing is the same as the interpolation processing using the so-called interpolation filter as far as only the equation (24) is observed, but the tap coefficient w n power S corresponding to the tap coefficient of the interpolation filter is used. Since it is obtained by learning using HD pixels as teacher data and SD pixels as student data, the components contained in HD pixels can be reproduced.
  • FIG. 26 is an image obtained by performing mapping by the class classification adaptive processing as described above on the input image of FIG. 25. In FIG. 26, it can be seen that the thin line image is different from the original image in FIG.
  • FIG. 27 is a diagram illustrating a result of detecting a thin line region from the input image illustrated in the example of FIG. 25 by the data continuity detecting unit 101.
  • the white area Indicates a thin line region, that is, a region where the arc shapes shown in FIG. 10 are arranged.
  • FIG. 28 is a diagram illustrating an example of an output image obtained by performing signal processing in the signal processing device 4 using the image illustrated in FIG. 25 as an input image. As shown in FIG. 28, the signal processing device 4 can obtain an image closer to the thin line image of the original image shown in FIG.
  • FIG. 29 is a flowchart illustrating signal processing by the signal processing device 4. ,.
  • step S101 the data continuity detecting unit 101 executes a process of detecting continuity.
  • the data continuity detection unit 101 detects the continuity of the data included in the input image, which is data 3, and outputs data continuity information indicating the continuity of the detected data to the real-world estimation unit 102. And to the image generation unit 103.
  • the data continuity detecting unit 101 detects continuity of data corresponding to continuity of a signal in the real world.
  • the continuity of the data detected by the data continuity detecting unit 101 is a part of the continuity of the image of the real world 1 included in the data 3, or This is the stationarity that has changed from the stationarity of the signal in the real world 1.
  • the data continuity detecting unit 101 detects data continuity by detecting a region having a certain feature in a direction of a predetermined dimension.
  • the data continuity detecting unit 101 detects data continuity by detecting a spatial direction angle (inclination) indicating a similar arrangement of shapes.
  • step S101 The details of the processing for detecting the stationarity in step S101 will be described later.
  • the data continuity information can be used as a feature quantity indicating the feature of the data 3.
  • step S102 the real world estimating unit 102 executes a process of estimating the real world. That is, the real world estimating unit 102 estimates the signal of the real world 1 based on the input image and the data continuity information supplied from the data continuity detecting unit 101. To do. For example, in the process of step S 102, the real world estimating unit 102 estimates the signal of the real world 1 by predicting a model 161 that approximates (describes) the real world 1. The real world estimation unit 102 supplies real world estimation information indicating the estimated signal of the real world 1 to the image generation unit 103 '.
  • the real world estimating unit 102 estimates the signal of the real world 1 by predicting the width of a linear object. Also, for example, the real world estimation unit 102 estimates the signal of the real world 1 by predicting the level indicating the color of the linear object.
  • step S102 Details of the process of estimating the real world in step S102 will be described later.
  • the real world estimation information can be used as a feature amount indicating the feature of the data 3.
  • step S103 the image generation unit 103 executes a process of generating an image, and the process ends. That is, the image generation unit 103 generates an image based on the real world estimation information, and outputs the generated image. Alternatively, the image generation unit 103 generates an image based on the data continuity information and the real world estimation information, and outputs the generated image.
  • the image generation unit 103 integrates the estimated real-world light in the spatial direction based on the real-world estimation information, thereby obtaining an input image. In comparison, a higher resolution image is generated in the spatial direction, and the generated image is output. For example, the image generation unit 103 integrates the estimated real-world light in the spatio-temporal direction based on the real-world estimation information, so that the light is compared with the input image in the temporal and spatial directions. To generate a high-resolution image and output the generated image. The details of the image generation process in step S103 will be described later. As described above, the signal processing device 4 detects the continuity of the data from the data 3 and estimates the real world 1 based on the continuity of the detected data. Then, the signal processing device 4 generates a signal that is closer to the real world 1 based on the estimated real world 1. As described above, when processing is performed by estimating a real-world signal, an accurate and highly accurate processing result can be obtained. 4 008690
  • a first signal which is a real-world signal having a first dimension
  • a second dimension of a second dimension which is smaller than the first dimension in which a part of the stationarity of the real-world signal is missing.
  • FIG. 30 is a block diagram showing the configuration of the data continuity detecting unit 101. As shown in FIG.
  • the data continuity detecting unit 101 shown in FIG. 30 has a data continuity detection unit 101 which is included in data 3 resulting from continuity that the cross-sectional shape of the object is the same when a thin line object is imaged.
  • the stationarity of the data to be detected That is, the data continuity detection unit 101 shown in FIG. 30 is configured to change the position in the direction orthogonal to the length direction at an arbitrary position in the length direction of the image of the real world 1 which is a thin line.
  • the continuity of the data contained in data 3 resulting from the continuity that the change in the light level with respect to is the same is detected.
  • the data continuity detecting unit 101 shown in FIG. 30 has a configuration in which the thin line image is included in the data 3 obtained by imaging the thin line image with the sensor 2 having a spatial integration effect, A region where a plurality of circular arcs (kamaboko-shaped) of a predetermined length arranged adjacent to each other is detected.
  • the data continuity detection unit 101 is a part of the image data other than the part of the image data (hereinafter, also referred to as a stationary component) where the thin line image having data continuity is projected from the input image which is the data 3. (Hereinafter referred to as a non-stationary component), and from the extracted non-stationary component and the input image, a pixel on which the image of the real world 1 thin line is projected is detected, and the real world 1 thin line in the input image is detected. The region consisting of the pixels on which the image is projected is detected. 8690
  • the non-stationary component extraction unit 201 extracts the non-stationary component from the input image, and outputs the non-stationary component information indicating the extracted non-stationary component together with the input image to the vertex detection unit 202 and the monotone increase / decrease detection. Supply to part 203.
  • the non-stationary The component extraction unit 201 extracts the non-stationary component as the background by approximating the background in the input image as the data 3 with a plane.
  • the solid line indicates the pixel value of data 3
  • the dotted line indicates the approximate value indicated by a plane approximating the background.
  • A indicates the pixel value of the pixel on which the thin line image is projected
  • PL indicates a plane approximating the background.
  • the pixel values of a plurality of pixels in the image data portion having data continuity are discontinuous with respect to the non-stationary components.
  • the non-stationary component extraction unit 201 projects the image that is the optical signal of the real world 1 and a plurality of pixels of the image data that is the data 3 in which a part of the stationarity of the image of the real world 1 is missing. Is detected.
  • the vertex detection unit 202 and the monotone reduction detection unit 203 remove non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201.
  • the vertex detection unit 202 and the monotonous increase / decrease detection unit 203 set the pixel value of the pixel on which only the background image is projected to 0 in each pixel of the input image, thereby To remove unsteady components.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 subtract the value approximated in the plane PL from the pixel value of each pixel of the input image, and Remove components. Since the background can be removed from the input image, the vertex detecting unit 202 to the continuity detecting unit 204 target only the portion of the image data on which the thin line is projected as the processing target.
  • the non-stationary component extraction unit 201 may supply the image data obtained by removing the non-stationary component from the input image to the vertex detection unit 202 and the monotone increase / decrease detection unit 203.
  • image data obtained by removing an unsteady component from an input image that is, image data consisting of only pixels including a steady component is targeted.
  • the thin line image shown in Fig. 31 The cross-sectional shape of the projected image data in the spatial direction Y (change in pixel value with respect to the change in position in the spatial direction) is the image of sensor 2 when there is no optical LPF. From the spatial integration effect of the sensor, a trapezoid shown in Fig. 33 or a triangle shown in Fig. 34 can be considered. However, a normal image sensor is provided with an optical LPF, and the image sensor acquires an image that has passed through the optical LPF and projects the acquired image onto data 3, so that in reality, the spatial direction Y of the thin line image data is The cross-sectional shape is similar to a Gaussian distribution as shown in Fig. 35.
  • the vertex detection unit 202 to the continuity detection unit 204 are pixels on which a fine line image is projected, and have the same cross-sectional shape (change in pixel value with respect to change in position in the spatial direction) in the vertical direction of the screen. It is an area that has data continuity by detecting areas consisting of objects arranged at regular intervals and detecting the connection of areas corresponding to the length direction of the thin line in the real world 1. Then, an area consisting of pixels onto which the fine line image is projected is detected. That is, the vertex detection unit 202 to the continuity detection unit 204 detect and detect a region in the input image where an arc shape (kamaboko shape) is formed on one column of pixels vertically. It is determined whether the areas are arranged side by side in the horizontal direction, T JP2004 / 008690
  • the vertex detection unit 202 to the continuity detection unit 204 detect a region where pixels of the thin line image are projected and where the same cross-sectional shape is arranged at regular intervals in the horizontal direction of the screen. Further, by detecting the connection of the detected areas corresponding to the length direction of the thin line in the real world 1, the area where the data of the thin line is projected, which is an area having data continuity, is detected. Is detected. That is, the vertex detection unit 202 to the continuity detection unit 204 detect a region where an arc shape is formed on one row of pixels horizontally in the input image, and the detected region is in the vertical direction. It is determined whether or not they are adjacent to each other, and the connection of the regions where the arc shape is formed corresponding to the length direction of the thin line image which is the signal of the real world 1 is detected.
  • the vertex detecting unit 202 detects a pixel having a larger pixel value than the surrounding pixels, that is, a vertex, and supplies vertex information indicating the position of the vertex to the monotonous increase / decrease detecting unit 203.
  • the vertex detection unit 202 compares the pixel values of the pixels located on the upper side of the screen and the pixel values of the pixels located on the lower side of the screen. Then, a pixel having a larger pixel value is detected as a vertex.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, an image of one frame.
  • One screen contains frames or fields. The same applies to the following description.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and determines the pixel value of the pixel of interest and the pixel value of the pixel above the pixel of interest. Compare and compare the pixel value of the pixel of interest with the pixel value of the pixel below the pixel of interest and have a pixel value greater than the pixel value of the pixel above and greater than the pixel value of the pixel below Detects a target pixel having a pixel value, and detects the detected target pixel 2004/008690
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotone increase / decrease detection unit 203.
  • the vertex detector 202 may not detect the vertex in some cases. For example, when the pixel values of the pixels of one image are all the same, or when the pixel value decreases in the 1 or 2 direction, no vertex is detected. In this case, the thin line image is not projected on the image data.
  • the monotonous increase / decrease detecting unit 203 detects the vertex detected by the vertex detecting unit 2 It detects the catching of the area composed of the pixels on which the thin line image is projected, and supplies the continuity detecting unit 204 with the vertex information and the area information indicating the detected area.
  • the monotonic increase / decrease detection unit 203 detects an area composed of pixels having a monotonically decreasing pixel value with respect to the pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Detected as a catch for Monotonically decreasing means that the pixel value of a pixel whose distance from the vertex is longer is smaller than the pixel value of a pixel whose distance from the vertex is short.
  • the monotonous increase / decrease detection unit 203 sets a region formed of pixels having a monotonically increasing pixel value based on the pixel value of the vertex as a candidate for a region formed of pixels onto which a thin line image is projected. To detect.
  • Monotonically increasing means that the pixel value of a pixel at a longer distance from the vertex is greater than the pixel value of a pixel at a shorter distance from the vertex.
  • the processing for the region composed of pixels having monotonically increasing pixel values is the same as the processing for the region composed of pixels having monotonically decreasing pixel values, and a description thereof will be omitted.
  • the pixel with the pixel value that increases monotonically Processing for different regions 04 008690 In the process of detecting the area where the thin line image is projected and where the same arc shape is arranged at a constant interval in the horizontal direction of the screen, the pixel with the pixel value that increases monotonically Processing for different regions 04 008690
  • the monotone increase / decrease detection unit 203 calculates the difference between the pixel value of each pixel and the pixel value of the upper pixel, and the pixel value of the lower pixel for each pixel in one column vertically with respect to the vertex. Find the difference between. Then, the monotonous increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonic increase / decrease detection unit 203 detects, from the region where the pixel value is monotonically decreasing, a pixel having a pixel value having the same sign as the pixel value of the vertex with reference to the sign of the pixel value of the vertex. Region is detected as a candidate for a region composed of pixels onto which a thin line image is projected.
  • the monotonous increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the upper pixel and the sign of the pixel value of the lower pixel, and changes the sign of the pixel value. By detecting the pixel having the same value as that of the vertex, a region having a pixel value having the same sign as the vertex is detected from the region where the pixel value monotonously decreases.
  • the monotone increase / decrease detection unit 203 detects an area composed of pixels having the same sign as the vertex, in which the pixel value is monotonically decreasing with respect to the vertex, the pixel value is monotonically decreasing with respect to the vertex.
  • FIG. 36 is a diagram for explaining a process of detecting a vertex and a process of detecting a monotonous reduction region, which detects a pixel region on which a thin line image is projected from a pixel value at a position in the spatial direction Y.
  • P indicates a vertex.
  • P indicates a vertex.
  • the vertex detection unit 202 compares the pixel value of each pixel with the pixel value of the pixel adjacent in the spatial direction Y, and determines a pixel value larger than the pixel value of the two pixels adjacent in the spatial direction Y.
  • the vertex P is detected by detecting the pixel having the vertex P.
  • the region consisting of vertex P and pixels on both sides in the spatial direction Y of vertex P is monotonically decreasing in that the pixel values of pixels on both sides in the spatial direction Y are monotonically reduced with respect to the pixel value of vertex P JP2004 / 008690
  • the arrow indicated by A and the arrow indicated by B indicate monotonically decreasing regions existing on both sides of the vertex P.
  • the monotone increase / decrease detection unit 203 finds a difference between the pixel value of each pixel and the pixel value of a pixel adjacent to the pixel in the spatial direction Y, and detects a pixel whose sign of the difference changes.
  • the monotone increase / decrease detection unit 203 sets the boundary between the detected pixel of which the sign of the difference changes and the pixel on the near side (vertex P side) of the thin line region composed of the pixel onto which the thin line image is projected. Boundary.
  • the monotone increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of a pixel adjacent to the pixel in the spatial direction Y in the monotonically decreasing region, and determines that the sign of the pixel value is A changing pixel is detected.
  • the monotone increase / decrease detection unit 203 sets the boundary between the detected pixel whose sign of the pixel value changes and the pixel on the near side (vertex P side) as the boundary of the thin line area.
  • the boundary of the thin line region that is the boundary between the pixel whose sign of the pixel value changes and the pixel on the near side (vertex! 3 side) is indicated by D.
  • a thin line area F composed of pixels onto which a thin line image is projected is an area sandwiched between a thin line area boundary C and a thin line area boundary D.
  • the monotone increase / decrease detection unit 203 finds a thin line region F longer than a predetermined threshold, that is, a thin line region F including a larger number of pixels than the threshold, from the thin line regions F composed of such a monotone increase / decrease region. .
  • a predetermined threshold that is, a thin line region F including a larger number of pixels than the threshold
  • the monotonous increase / decrease detection unit 203 detects a thin line region F including four or more pixels. 'Further, from the thin line region F detected in this way, the monotonous increase / decrease detection unit 20' 3 outputs the pixel value of the vertex P, the pixel value of the pixel on the right side of the vertex P, and the pixel value on the left side of the vertex P.
  • Pixel value of the vertex P exceeds the threshold value, the pixel value of the pixel on the right side of the vertex P is less than the threshold value, and the pixel value of the pixel on the left side of the vertex P
  • the thin line region F to which the vertex P whose pixel value is equal to or smaller than the threshold value belongs is detected, and the detected thin line region F is set as a candidate for the region including the pixel including the component of the thin line image.
  • the region F is determined not to include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex P with the threshold value, and moves the vertex P in the spatial direction X (the direction indicated by the dotted line AA ').
  • the pixel value of the pixel adjacent to the pixel P is compared with the threshold value, and the pixel value of the pixel at the vertex P exceeds the threshold value and the pixel value of the pixel adjacent to the spatial direction X is equal to or less than the threshold value, and the thin line region F to which the vertex P belongs is detected. I do.
  • FIG. 38 is a diagram illustrating the pixel values of the pixels arranged in the spatial direction X indicated by the dotted line AA ′ in FIG.
  • the pixel value of the vertex P exceeds the threshold value T h s .
  • the pixel value of the pixel adjacent to the vertex P in the spatial direction X is equal to or less than the threshold value T h s.
  • the monotonous decrease detection unit 203 compares the difference between the pixel value of the vertex P and the pixel value of the background with a threshold value based on the pixel value of the background, The difference between the pixel value of the pixel adjacent to X and the pixel value of the background is compared with a threshold value, and the difference between the pixel value of vertex P and the pixel value of the background exceeds the threshold value, and the pixel value of the pixel adjacent to spatial direction X is The thin line region F to which the vertex P belongs, in which the difference between the pixel value and the pixel value of the background is equal to or smaller than the threshold value, may be detected.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels in which the pixel value monotonously decreases with respect to the vertex P and the sign of the pixel value is the same as the vertex P, and the vertex P exceeds the threshold.
  • the monotonic increase / decrease region information indicating that the pixel value of the pixel on the right side of the vertex P is equal to or smaller than the threshold value and the pixel value of the pixel on the left side of the vertex P is equal to or smaller than the threshold value is supplied to the continuity detecting unit 204.
  • the pixels belonging to the area indicated by the monotonous increase / decrease area information are arranged in the vertical direction on the screen.
  • the region indicated by the monotone increase / decrease region information is a pixel arranged in a line in the vertical direction of the screen, and includes a region formed by projecting a thin line image.
  • the vertex detection unit 202 and the monotone increase / decrease detection unit 203 use the property that the change of the pixel value in the spatial direction Y is similar to the Gaussian distribution in the pixel on which the thin line image is projected. Then, a steady area consisting of pixels onto which the thin line image is projected is detected.
  • the continuity detector 204 is a region including pixels that are adjacent in the horizontal direction among the regions that are arranged in the vertical direction and that are indicated by the monotone increase / decrease region information supplied from the monotone increase / decrease detector 203. That is, a region having similar pixel values and overlapping in the vertical direction is detected as a continuous region, and vertex information and data continuity indicating the detected continuous region are detected. Output information.
  • the data continuity information includes monotonically increasing / decreasing area information, information indicating connection of areas, and the like.
  • the arc shapes are arranged at regular intervals so as to be adjacent to each other. Therefore, the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and the arc shapes are arranged at regular intervals so that they are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data constancy information indicating the detected continuous area.
  • the continuity detection unit 204 is adjacent to the arc shape in the data 3 obtained by imaging the thin line, which is generated from the continuity of the image of the thin line in the real world 1 and is continuous in the length direction.
  • FIG. 39 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region. 8690
  • the continuity detector 204 detects two monotones when the thin line region F composed of pixels arranged in one line in the vertical direction of the screen includes pixels that are adjacent in the horizontal direction. It is assumed that there is continuity between the increase / decrease regions, and that no continuity exists between the two thin line regions F when pixels adjacent in the horizontal direction are not included.
  • a thin line area composed of pixels arranged in one column in the vertical direction of the screen is a thin line area F composed of pixels arranged in one column in the vertical direction of the screen.
  • the thin line area F when the pixel includes the pixel adjacent to the pixel in the horizontal direction. It is said that it is continuous.
  • the vertices detecting unit 202 to the continuity detecting unit 204 detect pixels which are arranged in a line in the vertical direction of the screen and which are formed by projecting a thin line image.
  • the vertex detection unit 202 to the continuity detection unit 204 detect pixels which are arranged in a line in the vertical direction of the screen and which are formed by projecting a thin line image, Furthermore, an area consisting of pixels arranged in a line in the horizontal direction of the screen and projected from a thin line image is detected.
  • the order of the processing is not particularly limited, and it goes without saying that the processing may be performed in parallel.
  • the vertex detection unit 202 compares the pixel values of the pixels located on the left side of the screen and the pixel values of the pixels located on the right side of the screen with respect to the pixels arranged in one row in the horizontal direction of the screen. Then, a pixel having a larger pixel value is detected as a vertex, and vertex information indicating the position of the detected vertex is supplied to the monotone increase / decrease detector 203.
  • the vertex detection unit 202 detects one or a plurality of vertices from one image, for example, an image of one frame.
  • the vertex detection unit 202 selects a pixel of interest from pixels that have not yet been set as the pixel of interest from the image of one frame, and calculates the pixel value of the pixel of interest and the left side of the pixel of interest.
  • the pixel value of the pixel of interest is compared with the pixel value of the pixel on the right side of the pixel of interest, and the pixel value of the pixel on the right side is larger than the pixel value of the pixel on the left side.
  • a target pixel having a pixel value larger than the pixel value of the pixel is detected, and the detected target pixel is set as the vertex.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotone increase / decrease detection unit 203.
  • the vertex detector 202 may not detect the vertex in some cases.
  • the monotonous increase / decrease detection unit 203 detects pixels that are arranged in a line in the left-right direction with respect to the vertices detected by the vertex detection unit 202 and that are candidates for an area composed of pixels onto which a thin line image is projected.
  • the detected and vertex information is supplied to the continuity detection unit 204 together with the monotone increase / decrease area information indicating the detected area.
  • the monotonic increase / decrease detection unit 203 detects an area composed of pixels having a monotonically decreasing pixel value with respect to the pixel value of the vertex as an area composed of pixels onto which a thin line image is projected. Is detected as a candidate.
  • the monotone increase / decrease detection unit 203 calculates the difference between the pixel value of each pixel and the pixel value of the pixel on the left side, and the pixel value of the pixel on the right side for each pixel in one row horizontally with respect to the vertex. Find the difference. Then, the monotonous increase / decrease detection unit 203 detects an area where the pixel value monotonously decreases by detecting a pixel whose sign of the difference changes.
  • the monotonic increase / decrease detection unit 203 detects, from the region where the pixel value is monotonically decreasing, a pixel having a pixel value having the same sign as the pixel value of the vertex with reference to the sign of the pixel value of the vertex. Region is detected as a candidate for a region composed of pixels onto which a thin line image is projected.
  • the monotonous increase / decrease detection unit 203 compares the sign of the pixel value of each pixel with the sign of the pixel value of the left pixel or the sign of the pixel value of the right pixel, and the sign of the pixel value changes. By detecting pixels, an area consisting of pixels having the pixel value of the same sign as the vertex is detected from the area where the pixel value monotonously decreases. 2004/008690
  • the monotonous increase / decrease detection unit 203 detects a region composed of pixels having a pixel value of the same sign as the vertex, in which the pixel value is monotonically decreasing with respect to the vertex, parallel to the left and right.
  • the monotone increase / decrease detection unit 203 obtains a thin line region longer than a predetermined threshold, that is, a thin line region including a number of pixels larger than the threshold, from the thin line region composed of such a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 calculates the pixel value of the vertex, the pixel value of the pixel above the vertex, and the pixel value of the pixel below the vertex, The pixel value of the vertex exceeds the threshold value, the pixel value of the pixel above the vertex is below the threshold value, and the pixel value of the pixel below the vertex is below the threshold value. Then, the detected thin line area is set as a candidate for an area including pixels including a component of the thin line image.
  • the thin line region to which the vertex whose pixel value is below the threshold value, the pixel value of the pixel above the vertex exceeds the threshold value, or the pixel value of the pixel below the vertex exceeds the threshold value belongs to the thin line It is determined that the image does not include the component of the image of the thin line, and is removed from the candidate of the region including the pixel including the component of the thin line image.
  • the monotonous increase / decrease detection unit 203 compares the difference between the pixel value of the vertex and the pixel value of the background with a threshold based on the pixel value of the background, and calculates the difference between the pixel vertically adjacent to the vertex.
  • the difference between the pixel value and the background pixel value is compared with a threshold value, and the difference between the vertex pixel value and the background pixel value exceeds the threshold value.
  • the detected thin line region whose difference is equal to or smaller than the threshold value may be set as a candidate for the region including pixels including the components of the thin line image.
  • the monotone increase / decrease detection unit 203 is an area composed of pixels whose pixel values decrease monotonically with the sign of the pixel value being the same as the vertex with respect to the vertex.
  • Monotonic increase / decrease area information indicating that the pixel value of the pixel is equal to or less than the threshold value and the pixel value of the pixel on the left side of the vertex is equal to or less than the threshold value is supplied to the continuity detection unit 204.
  • the continuity detection unit 204 When detecting an area consisting of pixels projected on a thin line image, the pixels belonging to a single line in the left direction of the screen, the pixels belonging to the area indicated by the monotone increasing / decreasing area information are arranged in the horizontal direction. , Contains the pixel on which the thin line image was projected.
  • the area indicated by the monotone increase / decrease area information is a row of pixels arranged in the horizontal direction on the screen, and includes an area formed by projecting a thin line image.
  • the continuity detection unit 204 is a region including pixels that are vertically adjacent to each other in the region composed of pixels arranged in the left-right direction indicated by the monotonous increase / decrease region information supplied from the monotonic increase / decrease detection unit 203. That is, an area having similar pixel value changes and overlapping in the horizontal direction is detected as a continuous area, and vertex information and data continuity information indicating the detected continuous area are detected. Is output.
  • the data continuity information includes information indicating the connection between the areas.
  • the arc shapes are arranged at regular intervals so as to be adjacent to each other. Therefore, the detected continuous region includes the pixels on which the fine lines are projected. Since the detected continuous area includes pixels on which fine lines are projected and the arc shapes are arranged at regular intervals so that they are adjacent to each other, the detected continuous area is regarded as a steady area, and continuity detection is performed.
  • the unit 204 outputs data constancy information indicating the detected continuous area.
  • the continuity detection unit 204 is adjacent to the arc shape in the data 3 obtained by imaging the thin line, which is generated from the continuity of the image of the thin line in the real world 1 and is continuous in the length direction.
  • the data continuity detecting unit 101 can detect continuity included in the data 3 which is an input image. That is, the data continuity detecting unit 101 can detect the continuity of the data included in the data 3 which is generated by projecting the image of the real world 1 as a thin line onto the data 3. Data stationarity test The output unit 101 detects, from the data 3, an area composed of pixels onto which the image of the real world 1 as a thin line is projected.
  • FIG. 40 is a diagram illustrating an example of another process of detecting an area having continuity, on which a fine line image is projected, in the continuity detecting unit 101.
  • the continuity detecting unit 101 calculates, for each pixel, the absolute value of the difference between the pixel value and the adjacent pixel.
  • the continuity detecting unit 101 when the adjacent difference values are the same among the absolute values of the differences arranged corresponding to the pixels, the pixel corresponding to the absolute value of the two differences It is determined that (a pixel sandwiched between the absolute values of the two differences) contains a thin line component. However, when the absolute value of the difference is small, the continuity detection unit 101 does not need to detect the difference as a thin line. For example, when the absolute value of the difference is equal to or larger than the threshold, the continuity detecting unit 101 determines that the pixel includes a thin line component.
  • the continuity detector 101 can also detect a thin line by such a simple method.
  • FIG. 41 is a flowchart for explaining the processing of the stationarity detection.
  • step S201 the non-stationary component extraction unit 201 extracts a non-stationary component from the input image, which is a portion other than the portion where the thin line is projected.
  • the non-stationary component extraction unit 201 extracts the non-stationary component information indicating the extracted non-stationary component along with the input image. 04 008690
  • step S202 the vertex detection unit 202 removes the non-stationary components from the input image based on the non-stationary component information supplied from the non-stationary component extraction unit 201, Only pixels containing components are left. Further, in step S202, the vertex detection unit 202 detects a vertex.
  • the vertex detection unit 202 determines the pixel value of each pixel and the pixel values of the upper and lower pixels for the pixel including the stationary component. In comparison, a vertex is detected by detecting a pixel having a pixel value larger than the pixel value of the upper pixel and the pixel value of the lower pixel. Also, in step S202, the vertex detection unit 202, when executing the processing on the basis of the horizontal direction of the screen, determines the pixel value of each pixel and the right and left pixels A vertex is detected by comparing the pixel values of the right pixel and the pixel value of the right pixel and the pixel value of the left pixel that are larger than the pixel values.
  • the vertex detection unit 202 supplies vertex information indicating the detected vertex to the monotonous increase / decrease detection unit 203.
  • step S203 the monotone increase / decrease detection unit 203 removes the unsteady component from the input image based on the unsteady component information supplied from the unsteady component extraction unit 201, Only pixels containing components are left. Further, in step S203, the monotonic increase / decrease detecting unit 203 detects the monotonic increase / decrease with respect to the vertex based on the vertex information indicating the position of the vertex supplied from the vertex detecting unit 202. Then, an area composed of pixels having data continuity is detected.
  • the monotonous increase / decrease detection unit 203 When executing processing based on the vertical direction of the screen, the monotonous increase / decrease detection unit 203 is arranged vertically based on the pixel values of the vertices and the pixel values of the pixels arranged vertically in one column with respect to the vertices By detecting the monotonous increase / decrease of pixels in one column, on which one fine line image is projected, an area consisting of pixels having data continuity is detected. The That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing based on the vertical direction of the screen, performs The difference between the pixel value and the pixel value of the upper or lower pixel is determined, and the pixel whose sign of the difference changes is detected.
  • the monotone increase / decrease detection unit 203 calculates the sign of the pixel value of each pixel and the sign of the pixel value of the pixel above or below the vertex and the pixels arranged in one column vertically with respect to the vertex. Are compared, and the pixel whose sign of the pixel value changes is detected. Further, the monotone increase / decrease detection unit 203 compares the pixel value of the vertex and the pixel values of the right and left pixels of the vertex with the threshold value, and the pixel value of the vertex exceeds the threshold value, and the pixel value of the right and left pixels An area consisting of pixels whose value is less than or equal to the threshold is detected.
  • the monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • the monotonous increase / decrease detection unit 203 detects the pixel value of the term and the pixel value of the pixel arranged in one row horizontally with respect to the vertex. An area consisting of pixels having data continuity is detected by detecting a monotonous increase / decrease of pixels in a row, which is a row of pixels, onto which one thin line image is projected. That is, in step S203, the monotonous increase / decrease detection unit 203, when executing the processing on the basis of the horizontal direction of the screen, determines each of The difference between the pixel value and the pixel value of the left or right pixel is determined, and the pixel whose sign of the difference changes is detected.
  • the monotonous increase / decrease detection unit 203 calculates the sign of the pixel value of each pixel and the sign of the pixel value of the pixel on the left or right side of the pixel with respect to the vertex and the pixels arranged in one row horizontally with respect to the vertex. Are compared, and the pixel whose sign of the pixel value changes is detected. Further, the monotonous increase / decrease detection unit 203 compares the pixel value of the vertex and the pixel values of the pixels above and below the vertex with a threshold value, and the pixel value of the vertex exceeds the threshold value, and the pixel values above and below the vertex A region consisting of pixels whose pixel value is equal to or less than the threshold is detected. The monotone increase / decrease detection unit 203 supplies the continuity detection unit 204 with monotone increase / decrease region information indicating the monotone increase / decrease region, using the region thus detected as a monotone increase / decrease region.
  • step S204 the monotone increase / decrease detection unit 203 determines whether or not the processing for all pixels has been completed.
  • the non-stationary component extraction unit 201 detects the vertices of all the pixels of one screen (for example, a frame or a field) of the input image, and determines whether or not the monotone reduction region is detected. .
  • step S204 If it is determined in step S204 that the processing of all the pixels has not been completed, that is, if it is determined that there is still a pixel that has not been subjected to the processing of the detection of the apex and the detection of the monotonous increase / decrease area, step S204 Returning to 202, select a pixel to be processed from pixels that are not targeted for vertex detection and monotonous increase / decrease area detection processing, and repeat the vertex detection and monotonous increase / decrease area detection processing .
  • step S204 If it is determined in step S204 that the processing of all the pixels has been completed, that is, it is determined that the vertices and the monotone increasing / decreasing area have been detected for all the pixels, the process proceeds to step S205, and the continuity is determined.
  • the detection unit 204 detects the continuity of the detected area based on the monotone increase / decrease. Area information.
  • the continuity detection unit 204 indicates the monotone increase / decrease area, which is indicated by the monotone increase / decrease area information, and includes pixels adjacent in the horizontal direction. When there is continuity between the two monotone increasing / decreasing regions, and when there is no horizontally adjacent pixel, it is assumed that there is no continuity between the two monotonic increasing / decreasing regions.
  • the continuity detecting unit 204 includes a vertically adjacent pixel in a monotone increasing / decreasing area indicated by the monotonous increasing / decreasing area information and which is composed of pixels arranged in one row in the horizontal direction of the screen. It is assumed that there is continuity between the two monotone increase / decrease regions, and that there is no continuity between the two monotone increase / decrease regions when no vertically adjacent pixels are included.
  • the continuity detecting unit 204 sets the detected continuous area as a steady area having data continuity, and outputs data continuity information indicating the position of the vertex and the steady area.
  • the data continuity information includes information indicating the connection between the areas. Continuity check
  • the data continuity information output from the output unit 204 indicates a thin line region that is a steady region and includes pixels onto which a thin line image of the real world 1 is projected.
  • step S206 the continuity direction detection unit 205 determines whether or not processing of all pixels has been completed. That is, the continuity direction detection unit 205 determines whether or not the continuity of the area has been detected for all pixels of a predetermined frame of the input image. If it is determined in step S206 that the processing of all the pixels has not been completed, that is, it is determined that there are still pixels that have not been subjected to the processing for detecting the continuity of the area, step S205 Returning to, the pixel to be processed is selected from the pixels not to be subjected to the processing for detecting the continuity of the area, and the processing for detecting the continuity of the area is repeated.
  • step S206 If it is determined in step S206 that the processing of all the pixels has been completed, that is, it is determined that the continuity of the area has been detected for all the pixels, the processing ends. In this way, the continuity contained in the input image data 3 is detected. That is, the continuity of the data included in the data 3 caused by projecting the thin line real world 1 image to the data 3 is detected, and the thin line real world 1 image is projected from the data 3. An area having the data continuity, which is composed of the selected pixels, is detected.
  • the data continuity detection unit 101 shown in FIG. 30 detects the continuity of the data in the time direction based on the region having the continuity of the data detected from the frame of the data 3. be able to.
  • the continuity detection unit 204 detects the continuity of the detected data in the region having the continuity of the detected data in the frame #n and the continuity of the detected data in the frame #nl.
  • the continuity of the data in the time direction is detected by connecting the ends of the regions based on the region having the continuity and the continuity of the detected data in frame # n + 1.
  • Frame to-1 is a frame temporally before frame #n
  • frame # n + l is a frame temporally subsequent to frame #n. That is, Frame # n-1, frame, and frame # n + l are displayed in the order of frame #n_l, frame #n, and frame # n + l.
  • G is an area having the stationarity of the detected data in frame #n
  • an area having a stationarity of the detected data in frame #nl indicates the motion vector obtained by connecting one end of each of the detected data continuity regions
  • G represents the other of each of the detected data continuity regions.
  • the motion vector obtained by tying one end is shown.
  • the motion vector G and the motion vector G are examples of the continuity of data in the time direction.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 30 can output information indicating the length of the region having data continuity as data continuity information.
  • Figure 43 is a block diagram showing the configuration of the non-stationary component extraction unit 201, which extracts the non-stationary component by approximating the non-stationary component, which is the part of the image data that does not have stationarity, with a plane. It is.
  • the non-stationary component extraction unit 201 shown in FIG. 43 extracts a block consisting of a predetermined number of pixels from the input image, and the error between the block and the value indicated by the plane becomes smaller than a predetermined threshold value. Extract the non-stationary component by approximating the block with a plane so that The input image is supplied to the block extraction unit 221 and output as it is.
  • the block extracting unit 222 extracts a block including a predetermined number of pixels from the input image.
  • the block extracting unit 221 extracts a block composed of 7 ⁇ 7 pixels and supplies the extracted block to the plane approximating unit 222.
  • the block extracting unit 221 moves pixels at the center of a block to be extracted in raster scan order, and sequentially extracts blocks from the input image.
  • the plane approximating unit 222 approximates the pixel values of the pixels included in the block with a predetermined plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels included in the block on the plane represented by Expression (32).
  • Equation (32) In equation (3 2), X indicates the position of the pixel in one direction (spatial direction X) on the screen, and y indicates the position of the pixel in the other direction (spatial direction X) on the screen. Indicates the position in direction Y).
  • z indicates an approximate value indicated by a plane.
  • a indicates the inclination of the plane in the spatial direction X
  • b indicates the inclination of the plane in the spatial direction Y.
  • c indicates the offset (intercept) of the plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels included in the block on the plane represented by Expression (32) by obtaining the slope a, the slope b, and the offset c by regression processing.
  • the plane approximation unit 222 obtains the slope a, the slope b, and the offset c by performing regression processing with rejection, and
  • the plane approximation unit 222 obtains the plane represented by the equation (32) that minimizes the error with respect to the pixel value of the pixel of the block by the least square method, Approximate pixel values.
  • the plane approximating unit 222 has been described as approximating the block by the plane represented by the equation (32), it is not limited to the plane represented by the equation (3 2) but has a higher degree of freedom.
  • the block may be approximated by a function, for example, a surface represented by a polynomial of degree n (n is an arbitrary integer).
  • the repetition determination unit 223 calculates an error between an approximate value indicated by a plane approximating the pixel value of the block and the pixel value of the corresponding pixel of the block.
  • Equation (3 3) is an expression showing the approximate value represented by the plane approximating the pixel values of the proc, the error e t is the difference between the pixel value Zi of the corresponding picture elements of the block.
  • Equation (33) Is the pixel value of the block. Indicates the approximate value of the plane that approximates the pixel value of the block, a knot indicates the slope in the spatial direction X of the plane that approximates the pixel value of the block, and b hat indicates the slope of the plane that approximates the pixel value of the block. Indicates the inclination in the spatial direction Y.
  • Equation (33) c indicates an offset (intercept) of a plane approximating the pixel value of the block.
  • the repetition determination unit 223 rejects the pixel having the largest error ei power between the approximate value and the pixel value of the pixel corresponding to the block, which is expressed by Expression (33). By doing so, the pixel on which the thin line is projected, that is, the pixel having continuity, is rejected.
  • the repetition determination unit 222 supplies rejection information indicating the rejected pixel to the plane approximation unit 222.
  • the repetition determination unit 2 2 3 calculates a standard error, and when the standard error is equal to or more than a predetermined threshold value for approximation end determination, and more than half of the pixels of the block are not rejected.
  • the repetition determination unit 223 causes the plane approximation unit 222 to repeat the plane approximation process on the pixels included in the block excluding the rejected pixels.
  • the plane approximates the non-stationary component by approximating the plane excluding the rejected pixels.
  • the iterative judgment unit 223 ends the approximation using the plane.
  • the standard error e s is calculated by, for example, equation (34).
  • the repetition determination unit 2 23 calculates not only the standard error but also the sum of the squares of the errors of all the pixels included in the block, and executes the following processing.
  • a block that is shifted by one pixel in the direction is approximated by a plane, as shown in Fig. 44, pixels with stationarity indicated by black circles in the figure, that is, pixels containing fine line components, are rejected multiple times. become.
  • the repetition determination unit 2 2 3 outputs information indicating the plane on which the pixel value of the block is approximated (the slope and intercept of the plane in the equation (32)) as non-stationary component information. I do.
  • the repetition determination unit 223 compares the number of rejections for each pixel with a predetermined threshold, and determines that a pixel whose number of rejections is equal to or greater than the threshold is a pixel including a steady component. May be output as the steady-state component information.
  • the vertex detection unit 202 to the continuity direction detection unit 205 execute the respective processes on the pixels including the stationary component indicated by the stationary component information.
  • FIG. 45 is a flowchart corresponding to step S201 and illustrating the process of extracting a non-stationary component by the non-stationary component extracting unit 201 having the configuration shown in FIG.
  • the block extraction unit 222 extracts a block consisting of a predetermined number of pixels from the input pixels, and supplies the extracted block to the plane approximation unit 222.
  • the block extraction unit 222 selects one pixel from the input pixels that has not been selected yet, and extracts a block composed of 7 X 7 pixels centered on the selected pixel. I do.
  • the block extracting unit 221 can select pixels in a raster scan order.
  • the plane approximating unit 222 approximates the extracted block with a plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels of the block extracted by, for example, the regression processing with a plane.
  • the plane approximating unit 222 approximates the pixel values of the pixels excluding the rejected pixels among the pixels of the extracted blocks by the regression processing using a plane.
  • the repetition determination section 223 performs repetition determination. For example, the standard error is calculated from the pixel value of the block pixel and the approximate value of the approximated plane, and the number of rejected pixels is calculated to repeatedly execute the determination.
  • step S224 the repetition determination unit 223 determines whether or not the standard error is equal to or larger than the threshold. When it is determined that the standard error is equal to or larger than the threshold, the process proceeds to step S225. .
  • step S224 the repetition determination unit 222 determines whether or not more than half of the pixels of the block have been rejected and whether or not the standard error is greater than or equal to a threshold. If it is determined that half or more of the pixels in the block have not been rejected and the standard error is equal to or larger than the threshold, the process may proceed to step S225.
  • step S225 the repetition determination unit 223 calculates, for each pixel of the block, the error between the pixel value of the pixel and the approximate value of the approximated plane, rejects the pixel with the largest error, Notify the approximation unit 22.
  • the procedure returns to step S 222, and the process of approximation with a plane and the process of repetition determination are repeated for the pixels of the block excluding the rejected pixels.
  • step S225 if a block shifted one pixel at a time in the raster scan direction is extracted by the process of step S221, as shown in FIG. 44, a pixel including a thin line component (see FIG. Will be rejected multiple times.
  • step S224 If it is determined in step S224 that the standard error is not equal to or larger than the threshold value, the block is approximated by a plane, and the process proceeds to step S226.
  • step S224 the repetition determination unit 222 determines whether or not more than half of the pixels of the block have been rejected and whether or not the standard error is greater than or equal to a threshold. If it is determined that the force or the standard error for which half or more of the pixels in the block have been rejected is not equal to or greater than the threshold, the process may proceed to step S225.
  • step S226 the repetition determination unit 223 outputs the slope and intercept of the plane approximating the pixel value of the block pixel as non-stationary component information.
  • step S227 the block extraction unit 221 determines whether or not processing has been completed for all pixels of one screen of the input image, and determines that there is a pixel that has not been processed yet. If so, the process returns to step S221 to extract blocks from the pixels that have not yet been processed, and repeat the above processing.
  • step S227 If it is determined in step S227 that the processing has been completed for all pixels of one screen of the input image, the processing ends.
  • the non-stationary component extraction unit 201 shown in FIG. 43 can extract the non-stationary component from the input image. Since the unsteady component extraction unit 201 extracts the unsteady component of the input image, the vertex detection unit 202 and the monotone increase / decrease detection unit 203 extract the input image and the unsteady component extraction unit 201. By calculating the difference from the calculated non-stationary component, the processing can be executed for the difference including the steady component.
  • the standard error for rejection the standard error for non-rejection, the number of rejected pixels, the slope of the spatial direction X of the plane (a hat in equation (3 2)) , The inclination of the plane in the spatial direction Y (b hat in equation (3 2)), and the level when replaced by the plane (in equation (3 2). Hat), and the difference between the pixel value of the input image and the approximate value indicated by the plane can be used as the feature amount.
  • FIG. 46 is a flowchart for explaining a process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 43 instead of the process of extracting the non-stationary component corresponding to step S 201. It is.
  • the processing in steps S224 to S245 is the same as the processing in steps S221 to S225, and a description thereof will be omitted.
  • step S246 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the input image as a stationary component of the input image. That is, the repetition determination unit 222 outputs the difference between the approximate value of the plane and the pixel value that is the true value.
  • the repetition determination unit 223 outputs a pixel value of a pixel whose difference between the approximate value indicated by the plane and the pixel value of the input image is equal to or larger than a predetermined threshold value as a stationary component of the input image. You may.
  • step S 247 Since the processing in step S 247 is the same as the processing in step S 227, a description thereof will be omitted.
  • the non-stationary component extraction unit 201 extracts the approximate value indicated by the plane approximating the pixel value from the pixel value of each pixel of the input image.
  • the vertex detection unit 202 to the continuity detection unit 204 can process only the steady component of the input image, that is, the value on which the image of the thin line is projected. The processing from 2 to the continuity detecting unit 204 becomes easier.
  • FIG. 47 shows another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 43 instead of the process of extracting the non-stationary component corresponding to step S 201. It is a flowchart explaining. The processing of steps S261 to S265 is the same as the processing of steps S221 to S225, and a description thereof will be omitted. T / JP2004 / 008690
  • step S266 the repetition determination unit 223 stores the number of rejections for each pixel, returns to step S266, and repeats the processing.
  • step S264 If it is determined in step S264 that the standard error is not greater than or equal to the threshold, the block is approximated by a plane, and the process proceeds to step S2667. It is determined whether or not the processing has been completed for all the pixels of . If it is determined that there is a pixel that has not been processed yet, the process returns to step S2661, and the pixel that has not been processed yet is determined. A block is extracted for, and the above processing is repeated.
  • step S267 If it is determined in step S267 that the processing has been completed for all the pixels of one screen of the input image, the process proceeds to step S2688, where the repetition determination unit 223 determines the pixels not yet selected. One pixel is selected from, and for the selected pixel, it is determined whether the number of rejections is equal to or greater than a threshold. For example, in step S268, the repetition determination unit 222 determines whether the number of rejections for the selected pixel is equal to or greater than a threshold value stored in advance.
  • step S268 If it is determined in step S268 that the number of rejections for the selected pixel is equal to or greater than the threshold, the process proceeds to step S269 since the selected pixel includes a stationary component, and the determination is repeated.
  • the unit 223 outputs the pixel value of the selected pixel (the pixel value in the input image) as a steady component of the input image, and proceeds to step S270.
  • step S268 If it is determined in step S268 that the number of rejections for the selected pixel is not greater than or equal to the threshold value, the processing in step S266 is skipped because the selected pixel does not include a stationary component. Then, the procedure proceeds to step S270. That is, no pixel value is output for a pixel for which it is determined that the number of rejections is not greater than or equal to the threshold value.
  • the repetition determination unit 223 may output a pixel value in which 0 is set for a pixel for which it is determined that the number of rejections is not greater than or equal to the threshold value.
  • step S270 the repetition determination unit 222 determines whether or not the process of determining whether the number of rejections is equal to or greater than a threshold has been completed for all pixels of one screen of the input image However, if it is determined that the processing has not been completed for all the pixels, there is a pixel that has not been processed yet, so the process returns to step S 268, and one of the pixels that have not been processed yet is selected. Select a pixel and repeat the process described above.
  • step S270 If it is determined in step S270 that the processing has been completed for all pixels of one screen of the input image, the processing ends.
  • the non-stationary component extracting unit 201 can output, as the steady component information, the pixel value of the pixel including the steady component among the pixels of the input image. That is, the non-stationary component extracting unit 201 can output the pixel value of the pixel including the component of the thin line image among the pixels of the input image.
  • FIG. 48 shows another process of extracting a stationary component by the non-stationary component extraction unit 201 shown in FIG. 43 instead of the process of extracting the non-stationary component corresponding to step S 201. It is a flowchart explaining.
  • the processing in steps S281 to S288 is the same as the processing in steps S261 to S268, and a description thereof will be omitted.
  • step S289 the repetition determination unit 223 outputs the difference between the approximate value indicated by the plane and the pixel value of the selected pixel as a stationary component of the input image. That is, the repetition determination unit 223 outputs an image obtained by removing the non-stationary component from the input image as the continuity information.
  • step S290 Since the processing in step S290 is the same as the processing in step S270, a description thereof will be omitted.
  • the non-stationary component extraction unit 201 can output an image obtained by removing the non-stationary component from the input image as the stationarity information.
  • a real-world optical signal is projected, a part of the continuity of the real-world optical signal is missing, and a discontinuity of pixel values of a plurality of pixels of the first image data is detected.
  • a model (function) that approximates the optical signal by detecting the stationarity of the data from the detected discontinuities and estimating the stationarity of the optical signal in the real world based on the stationarity of the detected data.
  • FIG. 49 is a block diagram showing another configuration of the data continuity detecting unit 101.
  • the change in pixel value of the pixel of interest which is the pixel of interest
  • the spatial direction of the input image that is, the spatial direction of the input image Of the pixels consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction at each angle with respect to the pixel of interest and the reference axis, according to the detected activities.
  • a plurality of pairs are extracted, a correlation of the extracted pixel pairs is detected, and an angle of data continuity with respect to a reference axis in the input image is detected based on the correlation.
  • the data continuity angle refers to the angle formed by the reference axis and the direction of a predetermined dimension of data 3 in which certain features repeatedly appear. Repetitive appearance of a certain feature means, for example, a change in the value with respect to a change in the position in data 3, that is, a case where the cross-sectional shape is the same.
  • the reference axis may be, for example, an axis indicating the spatial direction X (horizontal direction of the screen) or an axis indicating the spatial direction Y (vertical direction of the screen).
  • the input image is supplied to the activity detection unit 401 and the data selection unit 402.
  • the activity detection unit 401 detects a change in pixel value in the spatial direction of the input image, that is, an activity in the spatial direction, and outputs activity information indicating the detection result to the data selection unit 402 and the normal direction derivation. Supply to part 404.
  • the activity detecting unit 401 detects a change in the pixel value in the horizontal direction of the screen and a change in the pixel value in the vertical direction of the screen, and detects the detected change in the pixel value in the horizontal direction and the detected pixel value in the vertical direction.
  • the activity detection unit 401 indicates that the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, which is the result of the detection, or compares the change in the pixel value in the horizontal direction. Then, the activity information indicating that the change of the pixel value in the vertical direction is large is supplied to the data selection unit 402 and the stationary direction derivation unit 404.
  • the change in pixel value in the horizontal direction is greater than the change in pixel value in the vertical direction, for example, as shown in Figure 50, one row of pixels in the vertical direction has an arc shape (kamaboko shape) or A claw shape is formed, and the arc shape or the claw shape is repeatedly formed in a direction closer to the vertical. That is, when the change in pixel value in the horizontal direction is larger than the change in pixel value in the vertical direction, the reference axis is set to the axis indicating the spatial direction X, and the reference axis in the input image is set to the reference axis.
  • the data continuity angle is any value between 45 degrees and 90 degrees.
  • the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction, for example, an arc shape or a nail shape is formed in one row of pixels in the horizontal direction, and the arc shape or the nail shape is horizontal. It is formed repeatedly in a direction closer to the direction. That is, if the change in pixel value in the vertical direction is larger than the change in pixel value in the horizontal direction, the standard axis is assumed to be the axis indicating the spatial direction X.
  • the sex angle is any value between 0 and 45 degrees.
  • the activity detection unit 401 extracts, from the input image, a block composed of nine 3 ⁇ 3 pixels centered on the pixel of interest, as shown in FIG.
  • the activity detector 401 calculates the sum of the differences between the pixel values of vertically adjacent pixels and the sum of the differences of the pixel values of horizontally adjacent pixels.
  • the sum of the differences between the pixel values of horizontally adjacent pixels, h diff is obtained by equation ( 35 ).
  • h diff ⁇ ( P i + 1, j _P i, j).
  • Equation (36) P indicates the pixel value, i indicates the horizontal position of the pixel, and j indicates the vertical position of the pixel.
  • Akutibiti detector 40 1 compares the sum v di ff of differences between pixel values of pixels adjacent to the sum h dif f and vertical difference image pixel value for a pixel adjacent to the calculated lateral,
  • the range of the continuity angle of the data with respect to the reference axis in the input image may be determined. That is, in this case, the activity detection unit 401 determines whether the shape indicated by the change in the pixel value with respect to the position in the spatial direction is formed repeatedly in the horizontal direction or the vertical direction. .
  • the change in the pixel value in the horizontal direction for an arc formed on one horizontal row of pixels is larger than the change in the vertical pixel value, and the change in the horizontal pixel value is formed on one horizontal row of pixels.
  • the change in the pixel value in the vertical direction for the arc is larger than the change in the pixel value in the horizontal direction, and the direction of data continuity, that is, certain characteristics of the input image that is data 3 It can be said that the change in the direction of the predetermined dimension is smaller than the change in the direction orthogonal to the data continuity.
  • the difference in the direction orthogonal to the direction of data continuity (hereinafter also referred to as the non-stationary direction) is larger than the difference in the direction of data continuity.
  • the activity detection unit 401 calculates the sum of the calculated pixel value differences h d iff for horizontally adjacent pixels and the difference h d ff for the vertically adjacent pixels.
  • the sum v di ff is compared, and if the sum h di ff of the pixel values of the horizontally adjacent pixels is large, the data is determined with respect to the reference axis. Judgment is made that the normality angle is any value between 45 degrees and 135 degrees, and when the sum v diff of pixel values of vertically adjacent pixels is large, the reference axis is used as a reference. It is determined that the angle of data continuity is any value between 0 degree and 45 degrees or any value between 135 degrees and 180 degrees.
  • the activity detecting unit 401 supplies activity information indicating the result of the determination to the data selecting unit 402 and the steady direction deriving unit 404.
  • the activity detection unit 401 extracts a block of an arbitrary size, such as a block consisting of 5 ⁇ 5 25 pixels or a block consisting of 7 ⁇ 7 49 pixels, and extracts the activity. Can be detected.
  • the data selection unit 402 sequentially selects a pixel of interest from the pixels of the input image, and, based on the activity information supplied from the activity detection unit 401, selects each pixel based on the pixel of interest and the reference axis. Then, a plurality of pixel sets consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted.
  • the angle of data continuity is 45 to 135 degrees.
  • the data selection unit 402 selects one row in the vertical direction for each predetermined angle in the range of 45 degrees to 135 degrees with respect to the pixel of interest and the reference axis. A plurality of pixel sets consisting of a number of pixels are extracted.
  • the data selection unit 402 sets a predetermined value in the range of 0 to 45 degrees or 135 to 180 degrees based on the target pixel and the reference axis. For each angle of, a plurality of pixel sets consisting of a predetermined number of pixels in one row in the horizontal direction are extracted.
  • the data selection unit 402 For each predetermined angle in the range of 45 degrees to 135 degrees with respect to the target pixel and the reference axis, a plurality of pixel sets each consisting of a predetermined number of pixels in one column in the vertical direction are extracted.
  • the data selection unit 402 The pixel of interest consists of a predetermined number of pixels in a row in the horizontal direction at each predetermined angle in the range of 0 to 45 degrees or 135 to 180 degrees with respect to the reference axis. Extract multiple sets of pixels.
  • the data selection unit 402 supplies a plurality of sets of the extracted pixels to the error estimation unit 400.
  • the error estimator 403 detects the correlation of the pixel set for each angle for a plurality of sets of extracted pixels.
  • the error estimating unit 4003 calculates, for a plurality of sets of pixels composed of a predetermined number of pixels in one column in the vertical direction corresponding to one angle, a pixel of a pixel at a corresponding position in the pixel set. Detect value correlation.
  • the error estimator 403 detects the correlation between the pixel values of the pixels at the corresponding positions in the set, for a plurality of sets of pixels consisting of a predetermined number of pixels in one row in the horizontal direction corresponding to one angle. .
  • the error estimator 403 supplies correlation information indicating the detected correlation to the stationary direction deriver 404.
  • the error estimating unit 4003 calculates, as a value indicating the correlation, the pixel value of the pixel of the set including the target pixel supplied from the data selecting unit 402 and the pixel value of the pixel at the corresponding position in the other set.
  • the sum of the absolute values of the differences is calculated, and the sum of the absolute values of the differences is supplied to the stationary direction deriving unit 404 as correlation information.
  • the stationary direction deriving unit 404 uses the reference axis in the input image corresponding to the continuity of the missing optical signal of the real world 1 as a reference. Detects the continuity angle of the obtained data and outputs data continuity information indicating the angle. For example, based on the correlation information supplied from the error estimator 4 ⁇ 3, the stationary direction deriving unit 404 determines the angle of data continuity as the angle of the pixel having the strongest correlation An angle with respect to the set is detected, and data continuity information indicating an angle with respect to the detected set of pixels having the highest correlation is output.
  • FIG. 53 is a block diagram showing a more detailed configuration of data continuity detecting section 101 shown in FIG.
  • the data selection section 402 includes a pixel selection section 4111 to 1 to a pixel selection section 4111L.
  • the error estimating section 4003 includes an estimation error calculating section 4122-1 to an estimation error calculating section 412-L.
  • the stationary direction deriving unit 4 04 includes a minimum error angle selecting unit 4 13.
  • Each of the pixel selection units 4 1 1 1 1 to 4 1 1 1 to L sets a straight line having a different predetermined angle and passing through the pixel of interest, with the axis indicating the spatial direction X as a reference axis.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs, and a predetermined number of pixels above the pixel of interest. Then, a predetermined number of pixels below the target pixel and the target pixel are selected as a set of pixels. ⁇
  • the pixel selection units 411 1 1 to 4 11 1 ⁇ deselect the pixel of interest from the pixels belonging to one vertical pixel column to which the pixel of interest belongs.
  • Nine pixels are selected as a set of pixels as the center.
  • one square-shaped square indicates one pixel.
  • a circle shown at the center indicates a target pixel.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs and one vertical column of pixels to the left. The pixel closest to the set straight line is selected. In FIG. 54, the lower left circle of the target pixel indicates an example of the selected pixel. And the pixel selection section 4 1 1 T / JP2004 / 008690
  • L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs and one column of vertical pixels to the left, and is located above the selected pixel.
  • the selected number of pixels, the predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selectors 4 1 1 1 1 to 4 1 1-1 are composed of one vertical column of pixels to which the pixel of interest belongs and one vertical column of the left side. From the pixels belonging to the pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs and a second vertical column of pixels to the left. Then, the pixel closest to the set straight line is selected.
  • the leftmost circle shows an example of the selected pixel.
  • the pixel selectors 4 1 1-1 to 4 11 _L belong to one vertical column of pixels to which the pixel of interest belongs, and a second vertical column of pixels to the left. A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4111-1-1 through the pixel selection unit 4111-L are arranged in a vertical column of pixels to which the pixel of interest belongs, and a second vertical column on the left side. Then, from the pixels belonging to one pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L are pixels belonging to one vertical column of pixels to which the target pixel belongs, and one vertical column of pixels to the right. The pixel closest to the straight line set for each is selected. In FIG. 54, the circle on the upper right side of the target pixel indicates an example of the selected pixel.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs and one vertical pixel column to the right. The top of the selected pixel A fixed number of pixels, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 41 1 1 to 1 pixel selection unit 411-L are configured to display one pixel row in the vertical column to which the pixel of interest belongs and one pixel column in the right column. From the pixels belonging to the column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • the pixel selection unit 41 1 1 1 to pixel selection unit 41 1-L are pixels belonging to the vertical one column of pixels to which the pixel of interest belongs and the second vertical one column of pixels to the right. The pixel at the position closest to the set straight line is selected. In FIG. 54, the rightmost circle shows an example of the pixel thus selected.
  • the pixel selection units 41 1-1 to 41 1 -L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs and the second vertical column of pixels to the right. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selectors 41 1 1 1 to 4 1 1 1 L are arranged on the right side of the column of one pixel to which the pixel of interest belongs and the second column on the right.
  • Nine pixels are selected as a set of pixels from the pixels belonging to the column of pixels, centering on the pixel closest to the straight line.
  • each of the pixel selection units 411-1 to 4111-L selects five sets of pixels.
  • the pixel selection units 41 1 _ 1 to 41 1 -L select a set of pixels at different angles (straight lines set at different angles). For example, the pixel selection unit 41'1-1 selects a set of pixels for 45 degrees, the pixel selection unit 411-2 selects a set of pixels for 47.5 degrees, and a pixel selection unit. 41 One-three selects a set of pixels about 50 degrees.
  • the pixel selection unit 411-1 through the pixel selection unit 411-1L select a set of pixels at an angle of 2.5 degrees from 52.5 degrees to 135 degrees every 2.5 degrees. JP2004 / 008690
  • the number of pixel sets can be any number, for example, three or seven.
  • the number of pixels selected as one set can be an arbitrary number such as, for example, 5 or 13.
  • the pixel selection units 4111 to 1-11 to L can select a set of pixels from a predetermined range of pixels in the vertical direction.
  • the pixel selection unit 4 11 1 1 to pixel selection unit 4 1 1 1 L includes 12 1 pixels in the vertical direction (60 pixels in the upper direction and 60 Pixel), select a set of pixels.
  • the data continuity detecting unit 101 can detect the data continuity angle up to 88.09 degrees with respect to the axis indicating the spatial direction X.
  • the pixel selection unit 4 1 1—1 supplies the selected pixel pair to the estimation error calculation unit 4 1 2—1, and the pixel selection unit 4 1 1 — 2 converts the selected pixel pair to the estimation error calculation unit 4 1 2 1 2 to be supplied.
  • each of the pixel selection units 4 1 1 _ 3 to 4 1 1 1-1 converts the selected set of pixels to the estimated error calculation unit 4 1 2-3 to the estimated error calculation unit 4 1 2 _ L, respectively.
  • the estimation error calculation unit 4 1 2—1 to the estimation error calculation unit 4 1 2—L are divided into a plurality of sets supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position in the position is detected.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L are used as values indicating the correlation from any of the pixel selection units 4 1 1 1 1 to 4 1 1 L Calculate the sum of the supplied pixel values of the set including the target pixel and the pixel value of the pixel at the corresponding position in the other set.
  • the estimation error calculation units 4 1 2 _ 1 to 4 12 -L are supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 1 -L.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L include the pixel of interest supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 1 L Based on the pixel values of the set of pixels and the pixel values of the set of pixels that belong to the second vertical column of pixels to the left of the pixel of interest, the pixel value difference Calculate the absolute value and calculate the sum of the absolute values of the calculated differences. 'Then, the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2 _L are supplied from any of the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L.
  • Difference between the pixel value of the highest pixel based on the pixel value of the set of pixels including the pixel and the pixel value of the set of pixels belonging to one vertical column of pixels to the right of the target pixel Is calculated, and the absolute value of the pixel value difference is calculated in order from the upper pixel so that the pixel value difference of the second pixel from the top is calculated, and the sum of the calculated absolute values of the differences is further calculated. Is calculated.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L include the pixel of interest supplied from any of the pixel selection sections 4 1 1 1 1 to 4 1 1 1 L Based on the pixel value of the set of pixels and the pixel value of the set of pixels belonging to the second vertical column of pixels to the right of the pixel of interest, the difference in pixel value Calculate the absolute value and calculate the sum of the absolute values of the calculated differences.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L add up the sums of the absolute values of the pixel value differences calculated in this way, and calculate the absolute values of the pixel value differences. Calculate the sum of
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the estimated error calculators 4 1 2-1 to 4 1 2-L supply the sum of absolute values of the calculated pixel value differences to the minimum error angle selector 4 13.
  • the estimation error calculators 4 1 2-1 to 4 1 2-L are not limited to the sum of the absolute values of the pixel value differences but also the sum of the squares of the pixel value differences or the pixel values. Other values such as the calculated correlation coefficient can be calculated as the correlation value.
  • the minimum error angle selection unit 4 13 is configured to calculate the missing real world 1 based on the correlation detected by the estimation error calculation units 4 1 2-1 to 4 1 2-L for different angles. Detects the continuity angle of the data with respect to the reference axis in the input image corresponding to the continuity of the image as the optical signal. In other words, the minimum error angle selection unit 413 determines the strongest phase based on the correlation detected by the estimation error calculation units 41-2-1 to 41-2-L for different angles. By selecting the correlation and using the angle at which the selected correlation is detected as the continuity angle of the data with respect to the reference axis, the continuity of the data with respect to the reference axis in the input image is determined. Detect the angle.
  • the minimum error angle selection unit 4 13 is the smallest of the sums of the absolute values of the pixel value differences supplied from the estimation error calculation units 4 1 2-1 to 4 1 2-L. Select the sum.
  • the minimum error angle selection unit 4 13 is a pixel belonging to the second vertical column of pixels on the left side with respect to the pixel of interest, for the selected set of pixels for which the sum has been calculated. Refers to the position of the pixel closest to, and the position of the pixel that belongs to the second vertical column of pixels on the right side of the pixel of interest and that is closest to the line .
  • the minimum error angle selection unit 413 obtains the vertical distance S between the position of the reference pixel and the position of the pixel of interest. As shown in FIG. 55, the minimum error angle selection unit 413 calculates the reference axis in the input image, which is image data, corresponding to the stationarity of the missing real-world 1 optical signal from Equation (37). Then, the angle ⁇ ⁇ of the stationarity of the data with respect to the axis indicating the space direction X is detected.
  • the processing of the pixel selection unit 4 11 1 L will be described. T / JP2004 / 008690
  • the pixel selection unit 4 1 1 1 1 to 4 1 1 1 L sets a straight line at a predetermined angle passing through the pixel of interest with the axis indicating the spatial direction X as a reference axis, and the horizontal to which the pixel of interest belongs And a predetermined number of pixels on the left side of the pixel of interest, a predetermined number of pixels on the right side of the pixel of interest, and a pixel of interest belonging to one pixel column.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs, and one row of upper horizontal pixels, The pixel closest to the set straight line is selected.
  • the pixel selection units 4111 to 1 to 4111 L are pixels belonging to one horizontal row of pixels to which the target pixel belongs and one horizontal row of pixels to the upper side. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L are pixels belonging to the row of one row of pixels to which the pixel of interest belongs and the second row of pixels to the top of the second row of pixels. Then, the pixel closest to the set straight line is selected.
  • the pixel selectors 4 1 1-1 to 4 1 1-L are connected to the first row of pixels to which the pixel of interest belongs and the second row of pixels to the upper side. And a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
  • Each of the pixel selection units 4 1 1 1 1 to 4 1 1 L is a pixel belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the lower side. The pixel closest to the straight line set for each is selected. Then, the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to a row of one row of pixels on the lower side of ⁇ of a row of pixels to which the pixel of interest belongs. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels. 4 008690
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L are pixels belonging to the second horizontal row of pixels of the first horizontal row of pixels to which the pixel of interest belongs. Then, the pixel closest to the set straight line is selected. Then, the pixel selection unit 4111-1-1 through the pixel selection unit 4111-L are connected to the first row of pixels to which the pixel of interest belongs and the second row of pixels of the second row below. A predetermined number of pixels to the left of the selected pixel, a predetermined number of pixels to the right of the selected pixel, and the selected pixels belonging to the column are selected as a set of pixels.
  • each of the pixel selection units 4111-1-1 through 4111-L selects five sets of pixels.
  • the pixel selectors 4111 to 1 to 4111L select a set of pixels at different angles. For example, the pixel selectors 4 1 1 1 1 1 select a set of pixels for 0 degrees, the pixel selectors 4 1 1 1 1 2 select a set of pixels for 2.5 degrees, The pixel selection unit 4 1 1 1 3 selects a set of pixels for 5 degrees.
  • the pixel selection section 4 1 1 1 1 to the pixel selection section 4 1 1 L is from 7.5 degrees to 45 degrees, from 135 degrees to 180 degrees, every 2.5 degrees. Select a set of pixels. '
  • the pixel selection unit 4 1 1 1 1 1 supplies the selected pixel set to the estimation error calculation unit 4 1 2 1, and the pixel selection unit 4 1 1 1 2 Supply to 1 2 _ 2 Similarly, each of the pixel selectors 4 1 1 1 1 1 to 3 1 to 3 1 1 1-1 outputs the selected set of pixels to each of the estimated error calculators 4 1 2-3 to 4 1 2-L. To supply.
  • the estimation error calculation section 4 1 2 1 to the estimation error calculation section 4 1 2—L are divided into a plurality of sets supplied from any of the pixel selection sections 4 1 1 1 1 to 4 1 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L supply the information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the minimum error angle selection unit 413 based on the correlations detected by the estimation error calculation units 41-2-1 to 412-L, calculates the missing optical signal of the real world 1 based on the correlation. Detects the continuity angle of the data with respect to the reference axis in the input image corresponding to the continuity.
  • step S101 detects the data continuity detection. The processing will be described.
  • step S401 the activity detection unit 401 and the data selection unit 402 select a pixel of interest, which is a pixel of interest, from the input image.
  • the activity detector 401 and the data selector 402 select the same target pixel.
  • the activity detecting unit 401 and the data selecting unit 402 select a pixel of interest from the input image in raster scan order.
  • the activity detection unit 401 detects an activity for the target pixel. For example, the activity detecting unit 401 detects the difference between the pixel values of pixels arranged in the vertical direction and the difference between the pixel values of pixels arranged in the horizontal direction in a block composed of a predetermined number of pixels around the pixel of interest. Then, detect the activity.
  • the activity detection unit 410 detects the activity in the spatial direction with respect to the target pixel, and supplies activity information indicating the detection result to the data selection unit 402 and the stationary direction derivation unit 404.
  • the data selection unit 402 selects a predetermined number of pixels centered on the target pixel as a set of pixels from the column of pixels including the target pixel.
  • the data selection unit 402 is a pixel that belongs to one vertical or horizontal pixel column to which the target pixel belongs, and includes a predetermined number of pixels above or to the left of the target pixel, and ⁇ A predetermined number of pixels on the lower or right side and a target pixel are selected as a set of pixels.
  • the data selection unit 402 selects a column of a predetermined number of pixels for each of a predetermined range of angles based on the activity detected in the processing of step S402. Each predetermined number of pixels is selected as a set of pixels.
  • the data selection unit 402 sets a straight line passing through the pixel of interest with an angle in a predetermined range and an axis indicating the spatial direction X as a reference axis. Select pixels that are one or two columns apart in the vertical direction and that are closest to the straight line, and a certain number of pixels above or to the left of the selected pixel, and below or to the right of the selected pixel. A predetermined number of pixels, as well as selected pixels closest to the line, are selected as a set of pixels. The data selection unit 402 selects a set of pixels for each angle. The data selection unit 402 supplies the selected pixel set to the error estimation unit 403.
  • step S405 the error estimator 403 calculates a correlation between a set of pixels centered on the target pixel and a set of pixels selected for each angle. For example, the error estimator 403 calculates, for each angle, the sum of the absolute value of the difference between the pixel value of the pixel of the set including the target pixel and the pixel value of the pixel at the corresponding position in the other set.
  • the continuity angle of the data may be detected based on the mutual correlation of the set of pixels selected for each angle.
  • the error estimating unit 403 supplies information indicating the calculated correlation to the stationary direction deriving unit 404. '
  • step S ⁇ b> 406 the stationary direction deriving unit 404, based on the correlation calculated in the processing of step S ⁇ b> 405, starts from the position of the pixel set having the strongest Detects the continuity angle of the data with respect to the reference axis in the input image, which is image data, corresponding to the continuity of the signal. For example, the stationary direction deriving unit 404 selects the minimum sum of the absolute values of the pixel value differences, and determines the data continuity from the position of the set of pixels for which the selected sum was calculated. Detect angle ⁇ .
  • Stationary direction deriving section 404 outputs data stationarity information indicating an angle of stationarity of the detected data.
  • the data selection unit 402 determines whether or not processing of all pixels has been completed. If it is determined that processing of all pixels has not been completed, Returning to 01, the target pixel is selected from the pixels not yet selected as the target pixel, and the above-described processing is repeated.
  • step S407 If it is determined in step S407 that the processing of all pixels has been completed, the processing ends.
  • the data continuity detection unit 101 detects the continuity angle of the data with respect to the reference axis in the image data corresponding to the continuity of the missing optical signal of the real world 1. Can be.
  • the data detection unit 101 shown in FIG. 49 has a spatial activity of the input image for the target pixel, which is the target pixel of the target frame, which is the target frame. , And according to the detected activity, the target pixel and the angle with respect to the reference axis in the spatial direction, and for each motion vector, the target frame and the frame temporally before or after the target frame. From each of them, a plurality of pixel sets each consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted, a correlation between the extracted pixel sets is detected, and based on the correlation, Alternatively, the continuity angle of the data in the time direction and the space direction in the input image may be detected.
  • the data selection unit 402 determines, based on the detected activity, an angle with respect to the pixel of interest and the reference axis in the spatial direction, and a motion vector. From each of a certain frame #n, frame # n-1 and frame # n + l, a plurality of pixel sets each including a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted.
  • Frame-1 is a frame temporally before the frame #n
  • frame ⁇ # ⁇ + 1 is a frame temporally after the frame # ⁇ . That is, the frame # .eta. 1, frame # eta, and frame # eta + 1, the frame # n-1, frame #n, and are displayed in the order of frame # n + l ⁇
  • the error estimator 403 detects the correlation of the pixel set for each of one angle and one motion vector for a plurality of sets of extracted pixels.
  • the stationary direction deriving unit 404 calculates, based on the correlation of the set of pixels, the continuity angle of the data in the time direction and the spatial direction in the input image corresponding to the continuity of the missing optical signal of the real world 1. And outputs data continuity information indicating the angle.
  • FIG. 3 Another example of the embodiment of the real world estimating unit 102 (FIG. 3) will be described with reference to FIGS.
  • FIG. 58 is a view for explaining the principle of the embodiment of this example.
  • a signal (distribution of light intensity) of the real world 1 which is an image incident on the sensor 2 is represented by a predetermined function F.
  • a signal of the real world 1 which is an image is particularly referred to as an optical signal
  • the function F is particularly referred to as an optical signal function F.
  • the real world estimating unit 102 when the optical signal of the real world 1 represented by the optical signal function F has a predetermined continuity, the real world estimating unit 102 outputs the input image from the sensor 2 (the stationary image). Image data including the stationarity of the data corresponding to the data) and data stationarity information from the data stationarity detector 101 (data stationarity information corresponding to the stationarity of the input image data) Then, the optical signal function F is estimated by approximating the optical signal function F with a predetermined function f.
  • the function f is particularly referred to as an approximate function f.
  • the real-world estimating unit 102 uses the model 16 1 (FIG. 4) represented by the approximate function f to generate the image represented by the optical signal function F (FIG. 4). Approximate (describe) the real world optical signal 1). Therefore, the embodiment of this example is hereinafter referred to as a function approximation method.
  • FIG. 59 is a view for explaining the integration effect when the sensor 2 is a CCD. PC leak
  • a plurality of detection elements 2-1 are arranged on the plane of the sensor 2.
  • the direction parallel to a predetermined side of the detection element 2-1 is set as the X direction, which is one direction in the spatial direction, and the direction perpendicular to the X direction is set in the other direction in the spatial direction.
  • the direction perpendicular to the XY plane is the t direction, which is the time direction.
  • the spatial shape of each of the detection elements 2-1 of the sensor 2 is a square with one side length of one.
  • the shutter time (exposure time) of the sensor 2 is set to 1.
  • Y 0
  • the pixel value P output from the detection element 2-1 having the center at the origin in the spatial direction is expressed by the following equation (38).
  • FIG. 60 is a view for explaining a specific example of the integration effect of the sensor 2.
  • the X direction and the Y direction represent the X direction and the ⁇ direction of the sensor 2 (FIG. 59).
  • One part (hereinafter, such a part is referred to as a region) of the optical signal of the real world 1 2301 represents an example of a region having a predetermined stationarity.
  • the area 2301 is actually a part (continuous area) of a continuous optical signal.
  • the area 2301 is shown as being divided into 20 small areas (square areas). This means that the size of the area 2301 is equivalent to the size of four sensing elements (pixels) of the sensor 2 in the X direction and five in the ⁇ direction. It is to represent. That is, each of the 20 small regions (virtual regions) in the region 2301 corresponds to one pixel.
  • the white portion in the figure of the region 2301 represents an optical signal corresponding to a thin line. Therefore, the region 2301 has stationarity in the direction in which the thin line continues. Therefore, hereinafter, the region 2301 is referred to as a fine-line-containing real world region 2301.
  • the sensor 2 when the real world region 2301 (a part of the optical signal of the real world 1) containing fine lines is detected by the sensor 2, the sensor 2 outputs the input image (pixel value) by the integration effect.
  • An area 2302 (hereinafter, referred to as a thin line containing data area 2302) is output. '
  • Each pixel in the fine line containing data area 2302 is shown as an image in the figure, but is actually data representing one predetermined value. That is, due to the integration effect of the sensor 2, the fine-line-containing real world region 2301 has 20 pixels each having one predetermined pixel value (4 pixels in the X direction and 5 pixels in the ⁇ direction). (Total of 20 pixels) is changed to a thin line containing data area 2302 (distorted).
  • FIG. 61 is a diagram illustrating another specific example of the integration effect of the sensor 2 (an example different from FIG. 60). 2004/008690
  • the X and Y directions represent the X and Y directions of the sensor 2 (FIG. 59).
  • One part (region) 2303 of the optical signal of the real world 1 represents another example of the region having a predetermined stationarity (an example different from the real world region 2301 containing the thin line in FIG. 60). ing.
  • the region 2303 is a region having the same size as the fine-line-containing real world region 2301. That is, like the thin-wire-containing real-world region 2301, the region 2303 is actually a part (continuous region) of the continuous real-world 1 optical signal, but in FIG. It is shown as being divided into 20 small areas (square areas) corresponding to one pixel of the sensor 2.
  • the region 2303 includes a first portion having a predetermined first light intensity (value) and an edge of a second portion having a predetermined second light intensity (value). I have. Therefore, the area 2303 has stationarity in the direction in which the edge continues. Therefore, hereinafter, the region 2303 is referred to as a binary edge-containing real world region 2303.
  • the real world region 2303 (a part of the optical signal of the real world 1) containing the binary edge is detected by the sensor 2
  • the input image (pixel value) is obtained from the sensor 2 by the integration effect.
  • a binary edge-containing data area 2304 is output.
  • Each of the pixel values in the binary edge-containing data area 2304 is represented as an image in the figure, similarly to the fine line-containing data area 2302, but in practice, a predetermined This is data representing a value. That is, due to the integration effect of the sensor 2, the binary edge-containing real world region 2303 has 20 pixels each having a predetermined one pixel value (4 pixels in the X direction and 5 pixels in the ⁇ direction). (The total of 20 pixels per minute) is changed to a binary edge-containing data area 2304 (distorted 5).
  • Conventional image processing apparatuses use the image data output from the sensor 2 such as the thin line containing data area 2302 and the binary edge containing data area 2304 as the origin (reference), Image data to be processed and subsequent image processing I was going. That is, although the image data output from the sensor 2 is different (distorted) from the optical signal of the real world 1 due to the integration effect, the conventional image processing apparatus has The image processing was performed with the data different from that of the optical signal being positive.
  • the real world estimator 102 force S and the fine line content data area 2302 Signal function F (the optical signal of the real world 1) from the image data (input image) output from the sensor 2 such as the Estimate the optical signal function F.
  • image data in which the integration effect is considered that is, an image that can be expressed by the approximate function f With the data as the origin, it is possible to execute that processing.
  • FIG. 62 is a diagram again showing the fine-line-containing real world region 2301 shown in FIG. 60 described above.
  • the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 59).
  • the first function approximation method is, for example, as follows: the optical signal function F (x, y-, t) corresponding to the fine-line-containing real world region 2301, as shown in FIG. 2 3 1 1
  • a one-dimensional waveform (hereinafter, such a waveform is referred to as an X-sectional waveform F (x)) projected to an n-th order (where n is an arbitrary integer) an approximate function f ( x) '. Therefore, hereinafter, the first function approximation method is particularly referred to as a one-dimensional approximation method.
  • the X-section waveform F (x) to be approximated is not limited to the one corresponding to the fine-line-containing real world region 2301 in FIG. That is, as will be described later, in the one-dimensional approximation method, it is possible to approximate any one of the X-sectional waveforms F (x) corresponding to the optical signal of the real world 1 having a stationarity. .
  • the direction of projection of the optical signal function F (x, y, t) is not limited to the X direction, but may be the Y direction or the t direction. That is, in the one-dimensional approximation method, the optical signal function
  • the function F (y), which is a projection of F (x, y, t) in the Y direction, can be approximated by a predetermined approximation function f (y), and the optical signal function F (x, y, t) It is also possible to approximate the function F (t), which is projected in the t direction, with the specified approximation function f (t).
  • the one-dimensional approximation method uses, for example, the X-section waveform F (x) as
  • the real-world estimator 102 calculates the coefficient (feature amount) ⁇ of X 1 in equation (39) to obtain the X-sectional waveform F (x ).
  • the method of calculating the feature value ⁇ is not particularly limited.
  • the following first to third methods can be used.
  • the first method is a method conventionally used.
  • the second method is a method newly invented by the applicant of the present invention, and is a method in which spatial continuity is further taken into consideration with respect to the first method.
  • the integration effect of the sensor 2 is not considered. Therefore, the approximation function f (x) obtained by substituting the feature calculated by the first method or the second method into the above equation (39) is an approximation function of the input image, Is not an approximate function of the X-section waveform F (x).
  • the present applicant has invented a third method of calculating the feature value ⁇ further considering the integration effect of the sensor 2 with respect to the second method.
  • the approximation function f (x) obtained by substituting the feature value Wi calculated by the third method into the above-described equation (39) is given by the point that the integration effect of the sensor 2 is considered. It can be said that it is an approximate function of the waveform F (x).
  • the first method and the second method cannot be said to be one-dimensional approximation techniques, but only the third method is a one-dimensional approximation technique.
  • FIG. 63 is a view for explaining the principle of the embodiment corresponding to the second method.
  • the real world estimating unit 1 02 is the input image from sensor 2 (image data including the stationarity of the data corresponding to the stationarity) and the data stationarity information from the data stationarity detector 101 (the stationarity of the data of the input image is Instead of using the corresponding data continuity information) to approximate the X-section waveform F (x), the input image from the sensor 2 is approximated by a predetermined approximation function (X).
  • the second method does not consider the integration effect of the sensor 2 and remains similar to the input image, and thus cannot be said to be the same method as the third method.
  • the second method is superior to the conventional first method in that the stationarity in the spatial direction is considered.
  • each of the approximation functions f (x) generated by the first method, the second method, and the third method is distinguished from those of the other methods, in particular, the approximation function ⁇ ( x), the approximate function f 2 (x), and the approximate function f 3 ).
  • the following prediction equation (40) is defined assuming that the approximation function ⁇ (X) expressed by the above-mentioned equation (39) is established within the thin-line-containing real world region 230 1 in FIG. . .
  • X represents the pixel position relative to the X direction from the pixel of interest.
  • y represents the pixel position relative to the Y direction from the pixel of interest.
  • e represents the error.
  • the pixel of interest is now output by detecting the thin line containing data area 2302 (the thin line containing real world area 2301 (FIG. 62) by the sensor 2).
  • the pixel is the second pixel in the X direction from the left and the third pixel in the Y direction from the bottom.
  • the center of the pixel of interest is defined as the origin (0,0), and the coordinate system with the X and Y axes parallel to the X and Y directions (Fig. 59) of sensor 2 (hereafter, the pixel coordinate system of interest) ) Is set.
  • the coordinate value (x, y) of the target pixel coordinate system indicates the relative pixel position.
  • P (x, y) represents the pixel value at the relative pixel position (x, y). Specifically, in this case, in the fine line content data area 2302
  • FIG. 65 shows a graph of the pixel value P (x, y).
  • each graph represents a pixel value
  • the horizontal axis represents a relative position X in the X direction from the pixel of interest.
  • the dotted line in the second graph represents the input pixel value P (x, -2)
  • the three-dot chain line in the second graph from the top represents the input pixel value P (x, -1)
  • the solid line in the third graph from the top Is the input pixel value
  • equation (41) Since equation (41) is composed of 20 equations, if the number of features in the approximate function f ⁇ (x) is less than 20, that is, the approximate function (X) is less than the 19th order
  • the feature amount can be calculated using, for example, the least squares method. The specific method of the least squares method will be described later.
  • the approximation function ⁇ (x) is assumed to be 5th order
  • the approximation function calculated by the least squares method using Equation (4 1)) (generated by the calculated feature Wi
  • the approximate function (X)) obtained is as shown in the curve in Fig. 66.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the pixel of interest.
  • each of the 20 pixel values P (x, y) constituting the thin line containing data area 2302 in FIG. 64 input pixel values P (x, -2), P (x, -1) shown in FIG. 65) ,?, 0),?, 1),?, 2 )
  • P (x, -2), P (x, -1) shown in FIG. 65) are added directly along the X axis (assuming the relative position y in the Y direction is constant, and
  • multiple lines are distributed as shown in Fig. 66.
  • the dotted line indicates the input pixel value P (x, -2)
  • the three-dot chain line indicates the input pixel value P (x, -1)
  • the solid line indicates the input pixel value P (x, 0)
  • the dashed line is the input pixel value
  • the approximation function (x) is defined as the pixel value in the Y direction (the pixel value having the same relative position in the X direction from the target pixel) P (x, -2), P (X, -1), P ( It simply represents the curve connecting the average values of x, 0), P (x, 1), and P (x, 2) in the X direction. That is, the approximation function ⁇ (X) is generated without considering the spatial continuity of the optical signal.
  • the approximation target is the fine-line-containing real world region 2301 (Fig. 62).
  • the thin wire containing actual world region 2 3 0 1, sea urchin I shown in Figure 6 7, has a spatial direction of continuity represented with the gradient G F.
  • the X and Y directions represent the X and Y directions of the sensor 2 (FIG. 59).
  • the data continuity detecting unit 1 0 1 (Fig. 5 8) as data continuity information corresponding to the gradient G F spatial direction of continuity,-out angle 0 (inclination as shown in FIG. 6 7 G F It can output the direction of the stationarity of the data represented by the slope G f corresponding to the angle and the angle 0) between the X direction.
  • the data continuity information output from the data continuity detecting unit 101 is not used at all.
  • the direction of the spatial continuity of the thin-line-containing real world region 2301 is substantially the angle ⁇ .
  • the first method assumes that the direction of stationarity in the spatial direction of the wire-containing real world region 2301 is the Y direction (that is, assuming that the angle 0 is 90 degrees). ), A method of calculating the feature quantity ⁇ of the approximate function (X).
  • the approximation function becomes a function whose waveform becomes dull and the detail is reduced from the original pixel value.
  • the approximate function f i (x) generated by the first method is a waveform that is significantly different from the actual X-section waveform F (X).
  • the present applicant has invented a second method of calculating the feature amount ⁇ (using the angle 0) by further considering the continuity in the spatial direction with respect to the first method.
  • the second method, thin wire contains actual world region 2 3 0 1 stationarity direction as a substantially angular 0 direction, a method of calculating the feature quantity ⁇ approximate functions f 2 (x).
  • a gradient G f representing the stationarity of data corresponding to the stationarity in the spatial direction is expressed by the following equation (42).
  • dx represents a small movement amount in the X direction as shown in FIG. 67
  • dy is a Y direction with respect to dx as shown in FIG. Represents the small amount of movement.
  • Equation (44) the equation corresponding to the equation (40) used in the first method in the second method is Equation (44) is obtained.
  • equation (40) used in the first method is that the position X in the X direction of the pixel center position (x, y) is the pixel of the pixel located at the same position.
  • the values P (x, y) are the same.
  • equation (40) indicates that pixels having the same pixel value continue in the Y direction (there is a continuity in the Y direction).
  • equation (44) used in the second method expresses the pixel value of the pixel whose center position is represented by, 7). (7) does not match the pixel value f 2 (x) of the pixel located X away from the pixel of interest (the pixel whose center's position is the origin (0, 0)) in the X direction. Pixel that is further away from the pixel by the shift amount C x (y) in the X direction (the pixel that is located x + C x (y) in the X direction from the pixel of interest) ( ⁇ F 2 (x + C x (y))) In other words, equation (44) shows that the pixel of the same pixel value is calculated as the shift amount C x (y). Correspondence 2004/008690
  • Equation (44) is obtained by correcting Equation (40) with the shift amount C x (y).
  • Equation (45) is composed of 20 equations, similar to equation (41) described above. Accordingly, in the second method as in the first method, if the number of feature quantity Wi approximate functions f 2 (x) is less than 20, i.e., the approximation function f 2 (x) is from 1 9 next In the case of a small-order polynomial, the feature Wi can be calculated using, for example, the least squares method. The specific method of the least squares method will be described later.
  • the feature value is calculated as follows in the second method.
  • FIG. 68 shows a graph of the pixel value P (x, y) shown on the left side of Expression (45).
  • Each of the five graphs shown in FIG. 68 is basically the same as that shown in FIG.
  • the maximum pixel value (pixel values corresponding to fine lines) is followed in the direction of continuity of data represented with the gradient G f.
  • add them as they are as in the first method assuming y to be constant and superimposing five graphs in the state shown in Fig. 68). Instead, change to the state shown in Fig. 69 and then add.
  • FIG. 69 shows the input pixel values P (x, -2), P (x, -1), ⁇ ( ⁇ , 0), ⁇ ( ⁇ , l), P (x, 2) shown in FIG. Are shifted by the shift amount C x (y) represented by the above equation (43).
  • FIG. 69 five graphs shown in FIG. 68, the gradient G F representing the actual direction of continuity of data, though in (FIG. As an inclination G, the dotted straight solid line linear , Etc.).
  • each of the input pixel values P (x, -2), P (x, -1), P (x, 0), P (x, 1), and P (x, 2) is For example, if you add up along the x-axis (five graphs are superimposed as shown in Figure 69), multiple lines (dotted lines, three points) parallel to the X-axis as shown in Figure 70 Chain line, solid line, one-dot chain line, and two-dot chain line) are distributed.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the target pixel.
  • the dotted line indicates the input pixel value P (x, -2)
  • the three-dot chain line indicates the input pixel value P (x, -1)
  • the solid line indicates the input pixel value ⁇ ( ⁇ , ⁇ )
  • the one-dot chain line indicates The input pixel value ⁇ ( ⁇ , 1) and the two-dot chain line represent the input pixel value ⁇ ( ⁇ , 2).
  • each line is drawn so that they do not overlap, so that the lines can be distinguished. Have been. '
  • each of the 20 input pixel values P (x, y) distributed in this manner (where X is an integer value of any of 1 to 2; y is 1 to 2 of 2)
  • the regression curve that minimizes the error between any one of these integer values) and the value f 2 (x + C x (y)) (the feature value ⁇ calculated by the least squares method) is calculated using the above equation (3 8
  • the approximate function f 2 (X)) obtained by substituting into) is a curve f 2 (X) shown by the solid line in FIG.
  • the approximation function f 2 ) generated by the second method is based on the angle ⁇ direction (ie, the substantially spatial direction stationary state) output from the data continuity detector 101 (FIG. 58). It represents a curve connecting the average of the input pixel values P (x, y) in the X direction in the X direction.
  • the approximation function generated by the first method is based on the average of the input pixel values P (x, y) in the Y direction (ie, a direction different from the spatial continuity). It simply represents a curve connecting the values in the X direction.
  • the approximate function f 2 (x) generated by the second method has a waveform that is less sharp than the approximate function ⁇ (x) generated by the first method.
  • the function is such that the degree decreases and the degree of reduction of the detail with respect to the original pixel value also decreases.
  • the approximation function f 2 (x) generated by the second method is more based on the actual X-section waveform F (X) than the approximation function ⁇ ) generated by the first method. It has a close waveform.
  • the approximation function f 2 (x) is generated with the input image (input pixel value) as the origin (reference), although the stationarity in the spatial direction is considered.
  • the approximation function f 2 (x) only approximates an input image different from the X-section waveform F (x), and the X-section waveform F (x) It is hard to say that it was approximate.
  • the second method uses the above equation
  • the present applicant has invented a third method of calculating the feature value ⁇ of the approximate function f 3 (x) by further considering the integration effect of the sensor 2 with respect to the second method. That is, the third method introduces the concept of spatial mixing or temporal mixing. Note that if both spatial mixing and temporal mixing are taken into account, the description will be complicated. Therefore, in this case, spatial mixing and temporal mixing, for example, spatial mixing will be considered and time mixing will be ignored.
  • one part 2 32 1 of the optical signal of the real world 1 (hereinafter referred to as a region 2 32 1) represents a region having the same area as one detecting element (pixel) of the sensor 2. ing.
  • pixel value 232 is represented as an image in the figure, it is actually data representing a predetermined value.
  • the area 2 3 2 1 of the real world 1 is clearly divided into an optical signal (white area in the figure) corresponding to the foreground (for example, the thin line described above) and an optical signal corresponding to the background (black area in the figure). .
  • the pixel value 2 3 2 2 is a value obtained by integrating the optical signal of the real world 1 corresponding to the foreground and the optical signal of the real world 1 corresponding to the background. In other words, pixel value 2
  • 3 2 2 is a value corresponding to a level obtained by spatially mixing the light level corresponding to the foreground and the light level corresponding to the background.
  • the part corresponding to one pixel (detection element of sensor 2) of the optical signal of the real world 1 is not the part where the optical signal of the same level is spatially uniformly distributed, but the foreground and the background.
  • the different light levels are mixed spatially due to the integration effect of the sensor 2.
  • the image for the foreground (light signal of real world 1) and the image for the background (light signal of real world 1) are spatially integrated and mixed, so to speak. Is a spatial mixture, and a region including such pixels is referred to as a spatial mixture region herein.
  • the real-world estimator 102 (FIG. 58) 1S original area of the real-world 1 2 3 2 1 (one pixel of the sensor 2 of the optical signal of the real world 1)
  • an approximation function f 3 (X) such as a first-order polynomial as shown in FIG.
  • FIG. 72 shows an approximate function f 3 (x) corresponding to the pixel value 2 3 2 2 (FIG. 71) which is a spatial mixed area, that is, a solid line in the real world 1 area 2 3 3 1 (FIG.
  • An example of an approximation function f 3 (X) that approximates the X-sectional waveform F (x) corresponding to 7 1) is shown.
  • the horizontal axis in the figure represents the axis parallel to the side (FIG. 71) to the lower left corner x s-right lower x e of a pixel corresponding to the pixel value 2 3 2 2
  • the X axis The axis in the vertical direction in the figure is an axis representing a pixel value.
  • each pixel value in the thin line containing data area 2302 shown in FIG. 67 that is, the input pixel value P (x, -2), P (x,- 1), ⁇ ( ⁇ , 0), ⁇ ( ⁇ , l), and P (x, 2) (where X is an integer value of one of 1 to 2), 46) (The integral range is substituted into the above equation (4 7)) to generate 20 equations shown in the following equation (48).
  • Equation (48) Equation (48)., Similarly to the equation (4 5) described above, and is composed of 20 equations. Therefore-in the third method as well as in the second method, the approximation function If the number of feature values ⁇ of is less than 20, that is, if the approximation function f 3 (x) is a polynomial of degree less than 19, for example, the feature value can be calculated using the least squares method It is. The specific method of the least squares method will be described later.
  • the approximation function f 3 (X) (the calculated feature amount ⁇
  • the generated approximation function f 3 (X)) is like the curve shown by the solid line in FIG.
  • the vertical axis represents the pixel value
  • the horizontal axis represents the relative position X from the target pixel.
  • the approximation function (X) generated by the third method is approximated by the approximation function f 2 (X) generated by the second method.
  • FIG. 74 shows a configuration example of the real world estimating unit 102 using such a first-order approximation method.
  • the real-world estimating unit 102 calculates, for example, the feature value ⁇ by the above-described third method (least square method), and uses the calculated feature value Wi to obtain the above-described equation (3 9) Estimate the X-section waveform F (x) by generating the approximate function f (x).
  • the real world estimating unit 102 has a condition setting unit 2 3 3 1, an input image storage unit 2 3 3 2, an input pixel value acquisition unit 2 3 3 3, and an integral component calculation unit 2 3 3 4, a normal equation generator 2 3 3 5, and an approximate function generator 2 3 3 6 are provided.
  • the condition setting unit 2331 includes a pixel range (hereinafter referred to as a tap range) used for estimating the X-sectional waveform F (x) corresponding to the target pixel, and an order of the approximate function f (x). Set n.
  • the input image storage unit 2332 temporarily stores the input image (pixel value) from the sensor 2.
  • the input pixel value acquisition section 233 3 acquires an area of the input image corresponding to the tap range set by the condition setting section 223 1 among the input images stored in the input image storage section 2332, and It supplies the normal equation generating unit 2 3 35 as an input pixel value table. That is, the input pixel value table is a table in which each pixel value of each pixel included in the area of the input image is described. A specific example of the input pixel value table will be described later.
  • Equation (46) can be expressed as the following equation (49).
  • Si (x s , x e ) represents the integral component of the i-th term. That is, the integral component Si ( xs , xe ) is expressed by the following equation (50).
  • the integral component calculation unit 2334 calculates the integral component Si (x s , x e ).
  • the integral component Si (x s , x e ) represented by the equation (5.0) (however, the value x s and the value are the values represented by the above equation (46)) is a relative pixel
  • the position (x, y), shift amount C x (y), and i of the i-th order term are known, calculation is possible.
  • the relative pixel position (x, y) is determined by the target pixel and the tap range
  • the shift amount C x (y) is determined by the angle ⁇ (from the above-described equations (4 1) and (4 3)).
  • i are determined by the order n.
  • the integral component calculation section 2 3 3 4 calculates the tap range and order set by the condition setting section 2 3 3 1 and the angle of the data continuity information output from the data continuity detection section 101.
  • the integral component Si (x s , x e ) is calculated based on 0, and the operation result is supplied to the normal equation generating section 233 35 as an integral component table.
  • the normal equation generation unit 2 3 3 5 uses the input pixel value table supplied from the input pixel value acquisition unit 2 3 3 3 and the integral component table supplied from the integral component calculation unit 2 3 3 4.
  • the approximation function generator 2 3 3 6 solves the normal equation included in the normal equation table supplied from the normal equation generator 2 3 3 5 by a matrix solution, thereby obtaining the feature Wi ( That is, each coefficient of the approximation function f (X), which is a one-dimensional polynomial, is calculated and output to the image generator 103.
  • the real world estimating unit 102 (FIG. 74) using the one-dimensional approximation method estimates the real world (step S102 of FIG. 29). The processing will be described.
  • the input image of one frame output from the sensor 2 and including the thin line containing data area 2302 in FIG. 60 described above is already stored in the input image storage unit 233 It is assumed that it is stored.
  • the data continuity detection unit 101 force step S101 (Fig. It is assumed that the process is performed on the area 2302 and the angle 0 has already been output as data continuity information.
  • step S2301 in FIG. 75 the condition setting unit 2331 sets the condition (tap range and order).
  • the tap range 2351 shown in FIG. 76 is set and the fifth order is set.
  • FIG. 76 is a diagram illustrating an example of the tap range.
  • the X and Y directions represent the X and Y directions of the sensor 2 (FIG. 59).
  • the tap range 2351 represents a pixel group consisting of a total of 20 pixels (20 squares in the figure) for 4 pixels in the X direction and 5 pixels in the Y direction.
  • the target pixel is the second pixel from the left in the figure and the third pixel from the bottom in the tap range 2351.
  • the relative pixel position (x, y) from the target pixel is shown in FIG. It is assumed that a number 1 (1 is an integer of any one of 0 to 19) as shown in FIG.
  • step S2302 the condition setting unit 2331 sets the pixel of interest.
  • step S2303 the input pixel value acquisition unit 2333 acquires an input pixel value based on the condition (tap range) set by the condition setting unit 2331, and generates an input pixel value table. That is, in this case, the input pixel value acquisition unit 233 3 acquires the thin line containing data area 2302 (FIG. 64) and generates a table including 20 input pixel values P (l) as the input pixel value table. I do.
  • Equation (51) the left side represents the input pixel value P (1), and the right side represents the input pixel value P (x, y). JP2004 / 008690
  • the integral component calculation section 2334 is supplied from the condition (tap range and order) set by the condition setting section 2331 and the data continuity detection section 101.
  • the integral component is calculated based on the data continuity information (angle 0), and an integral component table is generated.
  • the input pixel value is obtained as the value of the pixel number 1 such as P (l) instead of P (x, y).
  • the integral component Si (x s , x e ) of the above equation (50) is calculated as a function of 1 such as the integral component Si (1) shown on the left side of the following equation (52).
  • the left side represents the integral components Si (1)
  • the right side is integrated Ingredient Si (x s, x e) it represents. That is, in this case, i is 0 to 5, so 20 Ss. (1), 20 Si (1), 20 S 2 (1), 20 S 3 (1), 20 S 4 (1), 20 S 5 (1) total 1 20 Si (1) will be calculated. More specifically, first, the integral component calculation unit 2334 uses the angle 0 supplied from the data continuity detection unit 101 to calculate the shift amounts C x ( ⁇ 2), C x ( ⁇ 1), Calculate each of C X (1) and C X (2).
  • the integral component calculation unit 2334 uses the calculated shift amounts C x ( ⁇ 2), C X ( ⁇ 1), C X (1), and C X (2) to calculate the right-hand side of equation (52).
  • Each of the 2 ° integral components Si (x s , x e ) shown in (1) is calculated for each of i 2 0 to 5. That is, 1 20 integral component Si (x s,.
  • a Contact Xe> is calculated in the calculation of the integral components Si (x s, x e), the above Expression (50) is used.
  • the integral component calculation unit 2334 converts each of the 120 integrated components Si (x s , x e ) calculated according to Expression (53) into a corresponding integral component Si (1), and Generate an integral component table containing 20 integral components Si (1).
  • step S 2303 and the processing of step S 2304 is not limited to the example of FIG. 75, and the processing of step S 2304 may be performed first, or the processing of step S 2303 and the processing of step S 2304 may be performed first. 2 The processing of 304 may be performed simultaneously.
  • the normal equation generation unit 2335 includes the input pixel value table generated by the input pixel value acquisition unit 2333 in the process of step S2303, and the integral component calculation unit in the process of step S2304. 23 A normal equation table is generated based on the integral component table generated by step 34.
  • the feature Wi of the following equation (54) corresponding to the above equation (49) is calculated by the least square method.
  • the corresponding normal equation is represented by the following equation (55).
  • Equation (55) L represents the maximum value of the pixel numbers 1 in the tap range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)

Abstract

本発明は、現実世界の信号により近似した画像等を得ることができるようにした信号処理装置および信号処理方法、並びにプログラムおよび記録媒体に関する。実世界の光信号が射影され、その実世界の光信号の定常性の一部が欠落した実世界の光信号の次元よりも少ない次元の入力画像について、実世界信号推定部10003において、処理領域設定部10001で設定された処理領域内の入力画像から、定常性設定部10002で設定された定常性に応じて、実世界の信号が推定される。一方、ユーザの操作に応じて、処理領域、定常性、または実世界の信号のうちの少なくとも1つに関連する情報が、ユーザI/F10006から処理領域設定部10001、定常性設定部10002、または実世界推定部10003に供給される。本発明は、例えば、画像から動きボケを除去する場合などに適用することができる。

Description

明細書
信号処理装置および信号処理方法、 並びにプログラムおよび記録媒体 技術分野
本発明は、 信号処理装置および信号処理方法、 並びにプログラムおよび記録媒 体に関し、 特に、 現実世界の信号により近似した画像等を得ることができるよう にする信号処理装置および信号処理方法、 並びにプログラムおよび記録媒体に関 する。 背景技術
実世界 (現実世界) における事象をセンサで検出し、 センサが出力するサン プリングデータを処理する技術が広く利用されている。 例えば、 実世界をィメ ージセンサで撮像し、 画像データであるサンプリングデータを処理する画像処 理技術が広く利用されている。
また、 第 1の次元を有する現実世界の信号である第 1の信号をセンサによつ て検出することにより得た、 第 1の次元に比較し次元が少ない第 2の次元を有 し、 第 1の信号に対する歪を含む第 2の信号を取得し、 第 2の信号に基づく信 号処理を行うことにより、 第 2の信号に比して歪の軽減された第 3の信号を生 成するようにしているものもある (例えば; 特開 2 0 0 1 - 2 5 0 1 1 9号公 報参照) 。 . .
しかしながら、 従来においては、 現実世界の信号の定常性を考慮した信号処 理が行われていなかつたため、 現実世界の信号により近似した画像等を得るこ とが困難であることがあった。 ' 発明の開示
本発明は、 このような状況に鑑みてなされたものであり、 現実世界の信号に より近似した画像等を得ることができるようにするものである。 本発明の信号処理装置は、 第 1の次元を有する現実世界の信号である第 1の 信号が射影され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも 少ない第 2の次元の第 2の信号について、 処理の対象とする処理領域を設定す る処理領域設定手段と、 第 2の信号において欠落した現実世界の信号の定常性 を設定する定常性設定手段と、 定常性設定手段により設定された定常性に応じ て、 処理領域設定手段により設定された処理領域内の第 2の信号に対応する現 実世界の信号を推定する実世界推定手段と、 ユーザの操作に応じて、 処理領域、 定常性、 または現実世界の信号のうちの少なくとも 1つに関連する情報を、 処 理領域設定手段、 定常性設定手段、 または実世界推定手段に供給する情報供給 手段とを備えることを特徴とする。
本発明の信号処理方法は、 第 1の次元を有する現実世界の信号である第 1の 信号が射影され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも 少ない第 2の次元の第 2の信号について、 処理の対象とする処理領域を設定す る処理領域設定手段において、 処理領域を設定する処理領域設定ステツプと、 第 2の信号において欠落した現実世界の信号の定常性 ¾設定する定常性設定手 段において、 定常性を設定する定常性設定ステップと、 定常性設定ステップに より設定された定常性に応じて、 処理領域設定ステップにより設定された処理 領域内の第 2の信号に対応する現実世界の信号を推定する世界信号推定手段に おいて、 現実世界の信号を推定する実世界推定ステップと、 ユーザの操作に応 じて、 処理領域、 定常性、 または現実世界の信号のうちの少なくとも 1つに関 連する情報を、 処理領域設定手段、 定常性設定手段、 または実世界推定.手段に 供給する情報供給ステップとを備えることを特徴とする。
本発明のプログラムは、 第 1の次元を有する現実世界の信号である第 1の信 号が射影され、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少 ない第 2の次元の第 2の信号について、 処理の対象-とする処理領域を設定する 処理領域設定手段において、 処理領域を設定する処理領域設定ステップと、 第 2の信号において欠落した現実世界の信号の定常性を設定する定常性設定手段 において、 定常性を設定する定常性設定ステップと、 定常性設定ステップによ り設定された定常性に応じて、 処理領域設定ステップにより設定された処理領 域内の第 2の信号に対応する現実世界の信号を推定する世界信号推定手段にお いて、 現実世界の信号を推定する実世界推定ステップと、 ユーザの操作に応じ て、 処理領域、 定常性、 または現実世界の信号のうちの少なくとも 1つに関連 する情報を、 処理領域設定手段、 定常性設定手段、 または実世界推定手段に供 給する情報供給ステップとを備えることを特徴とする。
本発明の記録媒体は、 第 1の次元を有する現実世界の信号である第 1の信号 が射影きれ、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少な い第 2の次元の第 2の信号について、 処理の対象とする処理領域を設定する処 理領域設定手段において、 処理領域を設定する処理領域設定ステップと、 第 2 の信号において欠落した現実世界の信号の定常性を設定する定常性設定手段に おいて、 定常性を設定する定常性設定ステップと、 定常性設定ステップにより 設定された定常性に応じて、 処理領域設定ステツプにより設定された処理領域 内の第 2の信号に対応する現実世界の信号を推定する世界信号推定手段におい て、 現実世界の信号を推定する実世界推定ステップと、 ユーザの操作に応じて、 処理領域、 定常性、 または現実世界の信号のうちの少なくとも 1つに関連する 情報を、 処理領域設定手段、 定常性設定手段、 または実世界推定手段に供給す る情報供給ステップとを備えるプログラムが記録されていることを特徴とする。 本発明の信号処理装置および信号処理方法、 並びにプログラムおよび記録媒 体においては、 第 1の次元を有する現実世界の信号である第 1の信号が射影さ れ、 現実世界の信号の定常性の一部が欠落した第 1の次元よりも少ない第 2の 次元の第 2の信号について、 処理の対象とする処理領域を設定する処理領域設 定手段において、 処理領域が設定されるとともに、 第 2の信号において欠落し た現実世界の信号の定常性を設定する定常性設定手段において、 定常性が設定' され、 定常性に応じて、 処理領域内の第 2の信号に対応する現実世界の信号を 推定する世界信号推定手段において、 現実世界の信号が推定される。 一方、 ュ 一ザの操作に応じて、 処理領域、 定常性、 または現実世界の信号のうちの少な くとも 1つに関連する情報が、 処理領域設定手段、 定常性設定手段、 または実 世界推定手段に供給される。 図面の簡単な説明
図 1は、 本発明の原理を示す図である。
図 2は、 信号処理装置 4のハードウエア構成の例を示すプロック図である。 図 3は、 図 1の信号処理装置 4の一実施の形態の構成例を示すプロック図であ る。
図 4は、 信号処理装置 4の信号処理の原理をより具体的に説明する図である。 図 5は、 イメージセンサ上の画素の配置の例を説明する図である。
6は、 CCDである検出素子の動作を説明する図である。
図 7は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値との 関係を説明する図である。
図 8は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画 素値との関係を説明する図である。
図 9は、 実世界 1の線状の物の画像の例を示す図である。
図 1 0は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 1は、 背景とは異なる色であって、単色の、 直線状の縁を有する物の実世 界 1の画像の例を示す図である。
図 1 2は、 実際の撮像により得られた画像データの画素値の例を示す図である c 図 1 3は、 画像データの模式図である。
図 1 4は、 M個のデータ 1 6 2によるモデル 1 6 1の推定を説明する図である。 図 1 5は、 実世界 1の信号とデータ 3との関係を説明する図である。
図 1 6は、 式を立てるときに注目するデータ 3の例を示す図である。
図 1 7は、 式を立てる場合における、 実世界 1における 2つの物体に対する信 号および混合領域に属する値を説明する図である。 図 1 8は、 式 (1 8 ) 、 式 (1 9 ) 、 および式 (2 2 ) で表される定常性を説 明する図である。
図 1 9は、 データ 3から抽出される、 M個のデータ 1 6 2の例を示す図である。 図 2 0は、 データ 3における、 時間方向および 2次元の空間方向の実世界 1の 信号の積分を説明する図である。
図 2 1は、 空間方向により解像度の高い高解像度データを生成するときの、 積 分の領域を説明する図である。
図 2 2は、 時間方向により解像度の高い高解像度データを生成するときの、 積 分の領域を説明する図である。
図 2 3は、 時間空間方向により解像度の高い高解像度データを生成するときの、 積分の領域を説明する図である。
図 2 4は、 入力画像の元の画像を示す図である。
図 2 5は、 入力画像の例を示す図である。 - 図 2 6は、 従来のクラス分類適応処理を適用して得られた画像を示す図である。 図 2 7は、 細線の領域を検出した結果を示す図である。
図 2 8は、 信号処理装置 4から出力された出力画像の例を示す図である。
図 2 9は、 信号処理装置 4による、 信号の処寧を説明するフローチャートであ る。
図 3 0は、 データ定常性検出部 1 0 1の構成を示すブロック図である。
図 3 1は、 背景の前に細線がある実世界 1の画像を示す図である。
図 3 2は、 平面による背景の近似を説明する図である。
図 3 3は、 細線の画像が射影された画像データの断面形状を示す図である。 図 3 4は、 細線の画像が射影された画像データの断面形状を示す図である。 図 3 5は、 細線の画像が射影された画像データの断面形状を示す図である。 図 3 6は、 頂点の検出および単調増減領域の検出の処理を説明する図である。 図 3 7は、 頂点の画素値が閾値を超え、 隣接する画素の画素値が閾値以下であ る細線領域を検出する処理を説明する図である。 ' 図 3 8は、 図 3 7の点線 AA'で示す方向に並ぶ画素の画素値を表す図である。 図 3 9は、 単調増減領域の連続性の検出の処理を説明する図である。
図 4 0は、 細線の画像が射影された領域の検出の他の処理の例を示す図である。 図 4 1は、 定常性検出の処理を説明するフローチヤ一トである。
図 4 2は、 時間方向のデータの定常性を検出の処理を説明する図である。
図 4 3は、 非定常成分抽出部 2 0 1の構成を示すブロック図である。
図 4 4は、 棄却される回数を説明する図である。
図 4 5は、 非定常成分の抽出の処理を説明するフローチャートである。
図 4 6は、 定常成分の抽出の処理を説明するフローチャートである。
図 4 7は、 定常成分の抽出の他の処理を説明するフローチャートである。
図 4 8は、 定常成分の抽出のさらに他の処理を説明するフローチャートである。 図 4 9は、 データ定常性検出部 1 0 1の他の構成を示すブロック図である。 図 5 0は、 データの定常性を有する入力画像におけるァクティビティを説明す る図である。.
' 図 5 1は、 アクティビティを検出するためのブロックを説明する図である。 図 5 2は、 ァクティビティに対するデータの定常性の角度を説明する図である。 図 5 3は、 データ定常性検出部 1◦ 1のより詳細な構成を示すプロック図であ る。 .
図 5 4は、 画素の組を説明する図である。
図 5 5は、 画素の組の位置とデータの定常性の角度との関係を説明する図であ る。
図 5 6は、 データの定常性の検出の処理を説明するフローチャートである。 図 5 7は、 時間方向および空間方向のデータの定常性の角度を検出するとき、 抽出される画素の組を示す図である。
図 5 8は、 図 3の実世界推定部の実施の形態の 1例である、 関数近似手法の 原理を説明する図である。
図 5 9は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 6 0は、 図 5 9のセンサの積分効果の具体的な例を説明する図である。 図 6 1は、 図 5 9のセンサの積分効果の具体的な他の例を説明する図である。 図 6 2は、 図 6 0で示される細線含有実世界領域を表した図である。
図 6 3は、 図 3の実世界推定部の ¾施の形態の 1例の原理を、 図 5 8の例と対 比させて説明する図である。
図 6 4は、 図 6 0で示される細線含有データ領域を表した図である。
図 6 5は、 図 6 4の細線含有データ領域に含まれる各画素値のそれぞれをダラ フ化した図である。
図 6 6は、 図 6 5の細線含有データ領域に含まれる各画素値を近似した近似関 数をグラフ化した図である。
図 6 7は、 図 6 0で示される細線含有実世界領域が有する空間方向の定常性を 説明する図である。
図 6 8は、 図 6 4の細線含有データ領域に含まれる各画素値のそれぞれをダラ フ化した図である。
図 6 9は、 図 6 8で示される入力画素値のそれぞれを、 所定のシフト量だけシ フトさせた状態を説明する図である。 ' 図 7 0は、 空間方向の定常性を考慮して、 図 6 5の細線含有データ領域に含ま れる各画素値を近似した近似関数をグラフ化した図である。 - 図 7 1は、 空間混合領域を説明する図である。
図 7 2は、 空間混合領域における、 実世界の信号を近似した近似関数を説明す る図である。
図 7 3は、 センサの積分特性と空間方向の定常性の両方を考慮して、 図 6 5の 細線含有データ領域に対応する実世界の信号を近似した近似関数をグラフ化し た図である。
図 7 4は、 図 5 8で示される原理を有する関数近似手法のうちの、 1次多項式 近似手法を利用する実世界推定部の構成例を説明するプロック図である。 図 7 5は、 図 7 4の構成の実世界推定部が実行する実世界の推定処理を説明す るフローチャートである。
図 7 6は、 タップ範囲を説明する図である。
図 7 7は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 7 8は、 センサが C C Dとされる場合の積分効果を説明する図である。 図 7 9は、 断面方向距離を説明する図である。
図 8 0は、 図 5 8で示される原理を有する関数近似手法のうちの、 2次多項式 近似手法を利用する実世界推定部の構成例を説明するブロック図である。 図 8 1は、 図 8 0の構成の実世界推定部が実行する実世界の推定処理を説明す るフローチャートである。
図 8 2は、 タップ範囲を説明する図である。
図 8 3は、 時空間方向の定常性の方向を説明する図である。
図 8 4は、 センサが C C Dとされる場合の積分効果を説明する図である。 '図 8 5は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 8 6は、 時空間方向の定常性を有する実世界の信号を説明する図である。 図 8 7は、 図 5 8で示される原理を有する関数近似手法のうちの、 3次元近似 手法を利用する実世界推定部の構成例を説明するブロック図である。
図 8 8は、 図 8 7の構成の実世界推定部が実行する実世界の推定処理を説明す るフローチヤ一トである。
図 8 9は、 図 3の画像生成部の実施の形態の 1例である、 再積分手法の原理 を説明する図である。
図 9 0は、 入力画素と、 その入力画素に対応する、 実世界の信号を近似する近 似関数の例を説明する図である。
図 9 1は、 図 9 0で示される近似関数から、 図 9 0で示される 1つの入力画素 における、 高解像度の 4つの画素を創造する例を説明する図である。
図 9 2は、 図 8 9で示される原理を有する再積分手法のうちの、 1次元再積分 手法を利用する画像生成部の構成例を説明するブロック図である。 図 9 3は、 図 9 2の構成の画像生成部が実行する画像の生成処理を説明するフ ローチャートである。
図 9 4は、 力画像の元の画像の例を表す図である。
図 9 5は、 図 9 4の画像に対応する画像データの例を表す図である。
図 9 6は、 入力画像の例を表す図である。
図 9 7は、 図 9 6の画像に対応する画像データの例を表す図である。
図 9 8は、 入力画像に対して従来のクラス分類適応処理を施して得られる画像 の例を表す図である。
図 9 9は、 図 9 8の画像に対応する画像データの例を表す図である。
図 1 0 0は、 入力画像に対して 1次元再積分手法の処理を施して得られる画像 の例を表す図である。
図 1 0 1は、 図 1 0 0の画像に対応する画像データの例を表す図である。 図 1 0 2は、 空間方向の定常性を有する実世界の信号を説明する図である。 図 1 0 3は、 図 8 9で示される原理を有する再積分手法のうちの、 2次元再積 分手法を利用する画像生成部の構成例を説明するプロック図である。
図 1 0 4は、 断面方向距離を説明する図である。
図 1 0 5は、 図 1 0 3の構成の画像生成部が実行する画像の生成処理を説明す るフローチャートである。 . . ' .
図 1 0 6は、 入力画素の 1例を説明する図である。
図 1 0 7は、 2次元再積分手法により、 図 1 0 6で示される 1つの入力画素に おける、 高解像度の 4つの画素を創造する例を説明する図である。
図 1 0 8は、 時空間方向の定常性の方向を説明する図である。
図 1 0 9は、 図 8 9で示される原理を有する再積分手法のうちの、 3次元再積 分手法を利用する画像生成部の構成例を説明するブロック図である。
図 1 1 0は、 図 1 0 9の構成の画像生成部が実行する画像の生成処理を説明す るフローチャートである。 4 008690
10
図 1 1 1は、 図 1の信号処理装置 4の他の一実施の形態の構成例を示すブロッ ク図である。 - 図 1 1 2は、 図 1 1 1の信号処理装置 4の処理を説明するフローチャートであ る。
図 1 1 3は、 図 1 1 1の信号処理装置 4の応用例の一実施の形態の構成例を示 すプロック図である。
図 1 1 4は、 図 1 1 3の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 1 5は、 処理領域設定部 11001の構成例を示すブロック図である。
図 1 1 6は、 処理領域設定部 11001 の処理を説明するフローチャートである。 図 1 1 7は、 動きボケが生じている入力画像を示す図である。
図 1 1 8は、 処理領域設定部 11001において設定された M通りの処理領域を 表す枠の表示例を示す図である。
図 1 1 9は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すプロック図である。
図 1 2 O Aは、 動きベク トルを説明する図である。
図 1 2 0 Bは、 動きベク トルを説明する図である。
図 1 2 0 Cは、 動きベク トルを説明する図である。
図 1 2 0 Dは、 動きベク トルを説明する図である。
図 1 2 1は、 図 1 1 .9の信号処理装置 4の処理を説明するフローチャートであ る。
図 1 2 2は、 定常性設定部 11042の構成例を示すプロック図である。
図 1 2 3は、 定常性設定部 11042の処理を説明するフローチャートである。 ' 図 1 2 4は、 定常性設定部 11042の処理を説明するフローチャートである。 図 1 2 5は、 定常性設定部 11042の処理を説明する図である。
図 1 2 6 Aは、 3通りの動き量それぞれについて得られる出力画像を示す図で ある。 4 008690
11
図 1 2 6 Bは、 3通りの動き量それぞれについて得られる出力画像を示す図で ある。
図 1 2 6 Cは、 3通りの動き量それぞれについて得られる出力画像を示す図で ある。 ·
図 1 2 6 Dは、 3通 の動き量それぞれについて得られる出力画像を示す図で める
図 1 2 6 Eは、. 3通りの動き量それぞれについて得られる出力画像を示す図で ある。
図 1 2 7は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すブロック図である。 '
図 1 2 8は、 図 1 2 7の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 2 9は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すブロック図である。
図 1 3 0は、 図 1 2 9の信号処理装置 4の処理を説明するフローチャートであ る。 _ 図 1 3 1は、 図 1 2 9の信号処理装置 4の処理を説明するフローチヤ一トであ る。 ' '
図 1 3 2は、 図 1 2 9の信号処理装置 4の処理を説明する図である。
図 1 3 3は、 信号処理装置 4による本処理を説明するフローチヤ一トである。 図 1 3 4は、 入力画像における処理領域と,定常性の方向を示す図である。 図 1 3 5 A'は、 実世界 1の光信号と、 その光信号についてセンサ 2から得られ る入力画像を示す図である。
図 1 3 5 Bは、 実世界 1の光信号と、 その光信号についてセンサ 2から得られ る入力画像を示す図である。
図 1 3 6 Aは、 信号処理装置 4による本処理を説明する図である。
図 1 3 6 Bは、 信号処理装置 4による本処理を説明する図である。 P T/JP2004/008690
12
図 1 3 6 Cは、 信号処理装置 4による本処理を説明する図である。
図 1 3 6 Dは、 信号処理装置 4による本処理を説明する図である。
図 1 3 6 Eは、 信号処理装置 4による本処理を説明する図である。
図 1 3 7は、 動き検出部 11062の構成例を示すブロック図である。
図 1 3 8は、 動き量を説明する図である。
図 1 3 9は、 背景オブジェク トの前を移動する前景オブジェクトをカメラで撮 像したときに、 カメラから出力される画像の画素値を示す図である。
図 1 4 0は、 図 1 3 9で示される画像の画素の画素値の差分値を示す図である。 図 1 4 1は、 動き量の検出の処理を説明するフローチャートである。
図 1 4 2は、 相関の検出の処理を説明するフローチャートである。
図 1 4 3は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すプロック図である。
図 1 4 4は、 図 1 4 3の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 4 5は、 センサ 2が C C Dとされる場合の積分効果を説明する図である。 . 図 1 4 6は、 動き量を説明する図である。
図 1 4 7 Aは、 センサ 2の積分効果により発生する動きボケを説明する図であ る。 .
図 1 4 7 Bは、 センサ 2の積分効果により発生する動きボケを説明する図であ る。
図 1 4 7 Cは、 センサ 2の積分効果により発生する動きボケを説明する図であ る。
図 1 4 8 Aは、 センサ 2の積分効果により発生する動きボケを説明する図であ る。
図 1 4 8 Bは、 センサ 2の積分効果により発生する動きボケを説明する図であ る。 690
13
図 148 Cは、 センサ 2の積分効果により発生する動きボケを説明する図であ る。
図 149は、 実世界推定部 12003の実世界の推定処理を説明するフローチヤ ートである。
図 1 50は、 方程式生成部 12012の構成例を示すブロック図である。
図 1 5 1は、 図 14 9のステップ S12032の方程式生成処理を説明するフロー チヤ一トである。
図 1 5 2Aは、 拘束条件を説明する図である。
図 1 5 2Bは、 拘束条件を説明する図である。
図 1 5 2 Cは、 拘束条件を説明する図である。
図 1 5 3は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すブロック図である。
図 1 54は、 図 1 5 3の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 5 5は、 実世界推定部 12073の実世界の推定処理を説明するフローチヤ ートである。
図 1 56は、 方程式生成部 12082の構成例を示すプロック図である。' - . 図 1 5 7は、 図 1 5 5のステップ312102の方程式生成処理を説明するフロー チャートである。 - ' ' 図 1 5 8は、 図 1 5 3の信号処理装置 4の処理の概要を説明する図である。 図 1 5 9は、 図 1 5 3の信号処理装置 4の処理の概要を説明する図である。 図 16 OAは、 拘束条件を説明する図である。
図 16 O Bは、 拘束条件を説明する図である。
図 160 Cは、 拘束条件を説明する図である。 '
図 1 6 1は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すプロック図である。 0
14
図 1 6 2は、 図 1 6 1の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 6 3は、 実世界推定部 12163の実世界推定処理を説明するフローチヤ一 トである。
図 1 6 4は、 方程式生成部 12172の構成例を示す図である。
図 1 6 5は、 図 1 6 3のステップ 12172の方程式生成処理を説明するフロー チャートである。
図 1 6 6は、 図 1 6 1の信号処理装置 4の処理の概要を説明する図である。 図 1 6 7は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すブロック図である。
図 1 6 8は、 図 1 6 7め信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 6 9は、 実世界推定部 12243の実世界推定処理を説明するフローチヤ一 トである。
図 1 7 0は、 方程式生成部 12252の構成例を示す図である。
図 1 7 1は、 図 1 6 9のステップ 12232の方程式生成処理を説明するフロー チャートである。
図 1 7 2 Aは、 図 1 6 7の信号処理装置 4の処理の概要を説明する図である。 図 1 7 2 Bは、 図 1 6 7の信号処理装置 4の処理の概要を説明する図である。 図 1 7 3は、 図 1 1 1の信号処理装置 4の応用例の他の一実施の形態の構成例 を示すブロック図である。
図 1 7 4は、 図 1 7 3の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 7 5は、 実世界推定部 12293の実世界推定処理を説明するフローチヤ一 トである。
図 1 7 6は、 方程式生成部 12302の構成例を示す図である。 図 1 77は、 図 1 75のステップ S12292の方程式生成処理を説明するフロー チヤ一トである。
図 1 78は、 図 1 73の信号処理装置 4の処理の概要を説明する図である。 図 1 79 Aは、 図 1 7 3の信号処理装置 4の処理の概要を説明する図である。 図 1 79 Bは、 図 1 73の信号処理装置 4の処理の概要を説明する図である。 図 1 80は、 図 1 5 3、 図 1 6 1、 図 16 7、 図 1 7 3の信号処理装置 4と等 価な信号処理装置 4の構成例を示すブロック図である。
図 1 8 1は、 図 1 80の信号処理装置 4の処理を説明するフローチヤ一トであ る。 '
図 1 8 2は、 図 1 80の信号処理装置 4の処理を説明するフローチャートであ る。
図 1 83は、 図 180の信号処理装置 4の処理を説明するフローチヤ一トであ る。
図 1 84は、 図 1 80の信号処理装置 4の処理を説明するフローチャートであ る。 - 図 1 8 5は、 入力画像を示す図である。
図 1 86は、 図 1 8 5の入力画像に対する平坦領域の指示を説明する図である c 図 1 8 7は、 図 18 5の入力画像の処理結果である出力画像を示す図である。 図 1 88は、 図 18 5の入力画像の処理結果である出力画像を示す図である。 図 1 8 9は、 図 1 8 8の出力画像に対する不満領域の指示を説明する図である c 図 1 9 OAは、 図 1 88の出力画像の再処理結果である出力画像を示す図であ る。
図 1 90 Bは、 図 1 88の出力画像の再処理結果である出力画像を示す図であ る。
図 1 9 1 Aは、 図 1 90 Aと図 1 90 Bで選択された出力画像の再処理結果で ある出力画像を示す図である。 図 1 9 1 Bは、 図 1 90Aと図 1 90 Bで選択された出力画像の再処理結果で ある出力画像を示す図である。
図 1 9 1 Cは、 図 1 90Aと図 1 90 Bで選択された出力画像の再処理結果で ある出力画像を示す図である。
図 1 9 1Dは、 図 1 90Aと図 1 90 Bで選択された出力画像の再処理結果で ある出力画像を示す図である。
図 1 9 2は、 図 18 5の入力画像を拡大した図である。
図 1 9 3は、 図 1 9 2の入力画像の処理結果である出力画像を示す図である。 図 1 94は、 図 1 9 2の入力画像の処理結果である出力画像を示す図である。 発明を実施するための最良の形態
図 1は、 本発明の原理を表している。 同図で示されるように、 空間、 時間、 および質量の次元を有する実世界 1の事象 (現象) は、 センサ 2により取得さ れ、 データ化される。 実世界 1の事舞とは、 光 (画像) 、 音声、 圧力、 温度、 質量、 濃度、 明るさ 暗さ、 またはにおいなどをいう。 実世界 1の事象は、 時 空間方向 分布している。 例えば、 実世界 1の画像は、 実世界 1の光の強度の 時空間方向の分布である。
センサ 2に注目すると、 空間、 時間、 および質量の次元を有する実世界 1の 事象のうち、 センサ 2が取得可能な、,実世界 1の事象が、 センサ 2により、 デ ータ 3に変換される。 センサ 2によって、 実世界 1の事象を示す情報が取得さ れるとも言える。 '
すなわち、 センサ 2は、 実世界 1の事象を示す情報を、 データ 3に変換する。 空間、 時間、 および質量の次元を有する実世界 1の事象 (現象 λを示す情報で ある信号がセンサ 2により取得され、 データ化されるとも言える。
以下、 実世界 1における、 画像、 音声、 圧力、 温度、 質量、 濃度、 明るさ 暗さ、 またはにおいなどの事象の分布を、 実世界 1の事象を示す情報である信 号とも称する。 また、 実世界 1の事象を示す情報である信号を、 単に、 実世界 JP2004/008690
17
Γの信号とも称する。 本明細書において、 信号は、 現象および事象を含み、 送 信側に意思がないものも含むものとする。
センサ 2から出力されるデータ 3 (検出信号) は、 実世界 1の事象を示す情 報を、 実世界 1に比較して、 より低い次元の時空間に射影して得られた情報で ある。 例えば、 動画像の画像データであるデータ 3は、 実世界 1の 3次元の空 間方向および時間方向の画像が、 2次元の空間方向、 および時間方向からなる 時空間に射影されて得られた情報である。 また、 例えば、 データ 3がデジタル データであるとき、 データ 3は、 サンプリングの単位に応じて、 丸められてい る。 データ 3がアナログデータであるとき、 データ 3において、 ダイナミック レンジに応じて、 情報が圧縮されているか、 またはリミッタなどにより、 情報 の一部が削除されている。
このように、 所定の次元を有する実世界 1の事象を示す情報である信号をデ ータ 3 (検出信号) に射影することにより、 実世界 1の事象を示す情報の一部 が欠落する。 すなわち、 センサ 2が出力するデータ 3において、 実世界 1の事 象を示す情報の一部が欠落している。
しかしながら、 射影により実世界 1の事象を示す情報の一部が欠落している ものの、 データ 3は、 実世界 1の事象 (現象) を示す情報である信号を推定す るための有意情報を含んでいる。
本発明においては、 実世界 1の情報である信号を推定するための有意情報と して、 実世界 1またはデータ 3に含まれる定常性を有する情報を利用する。 定 常性は、 新たに定義する概念である。
ここで、 実世界 1に注目すると、 実世界 1の事象は、 所定の次元の方向に一 定の特徴を含む。 例えば、 実世界 1の物体 (有体物) において、 空間方向また は時間方向に、 形状、 模様、 若しくは色彩などが連続するか、 または形状、 模 様、 若しくは色彩などのパターンが繰り返す。
従って、 実世界 1の事象を示す情報には、 所定の次元の方向に一定の特徴が 含まれることになる。 より具体的な例を挙げれば、 糸、 紐、 またはロープなどの線状の物体は、 長 さ方向の任意の位置において、 断面形状が同じであるという長さ方向、 すなわ ち空間方向に一定の特徴を有する。 長さ方向の任意の位置において、 断面形状 が同じであるという空間方向に一定の特徴は、 線状の物体が長いという特徴か ら生じる。
従って、 線状の物体の画像は、 長さ方向の任意の位置において、 断面形状が 同じであるという長さ方向、 すなわち空間方向に一定の特徴を有している。 また、 空間方向に広がりを有する有体物である、 単色の物体は、 部位にかか わらず、 同一の色を有するという空間方向に一定の特徴を有していると言える c 同様に、 空間方向に広がりを有する有体物である、 単色の物体の画像は、 部 位にかかわらず、 同一の色を有するという空間方向に一定の特徴を有している c このように、 実世界 1 (現実世界) の事象は、 所定の次元の方向に一定の特 徴を有しているので、 実世界 1の信号は、 所定の次元の方向に一定の特徴を有 する。
本明細書において、 このような所定の次元の方向に一定の特徴を定常性と称 する。 実世界 1 (現実世界) の信号の定常性とは、 実世界 1 (現実世界) の事 象を示す信号が有している、 所定の次元の方向に一定の特徴をいう。 ' 実世界 1 (現実世界) には、 このような定常性が無数に存在する。
次に、 データ 3に注目すると、 データ 3は、 センサ 2により、 所定の次元を 有する実世界 1の事象を示す情報である信号が射影されたものであるので、 実 世界の信号の定常性に対応する定常性を含んでいる。 データ 3は、 実世界の信 号の定常性が射影された定常性を含んでいるとも言える。
しかしながら、 上述したように、 センサ 2が出力するデータ 3において、 実 世界 1の情報の一部が欠落しているので、 データ 3から、 実世界 1 (現実世 界) の信号に含まれる定常性の一部が欠落し得る。 4 008690
19
換言すれば、 データ 3は、 データの定常性として、 実世界 1 (現実世界) の 信号の定常性の中の、 少なくとも一部の定常性を含む。 データの定常性とは、 データ 3が有している、 所定の次元の方向に一定の特徴である。
本発明においては、 実世界 1の事象を示す情報である信号を推定するための 有意情報として、 実世界 1の信号の定常性、 またはデータ 3が有する、 データ の定常性が利用される。
例えば、 信号処理装置 4においては、 データの定常性を利用して、 データ 3 を信号処理することで、 欠落した、 実世界 1の事象を示す情報が生成される。 なお、 信号処理装置 4においては、 実世界 1の事象を示す情報である信号の 次元の、 長さ (空間) 、 時間、 および質量のうち、 空間方向または時間方向の 定常性が利用される。
図 1において、 センサ 2は、 例えば、 デジタルスチルカメラ、 またはビデオ カメラなどで構成され、 実世界 1の画像を撮像し、 得られたデータ 3である画 像データを信号処理装置 4に出力する。 センサ 2は、 例えば、 サーモグラフィ 装置、 または光弾性を利用した圧力センサなどとすることができる。
信号処理装置 4は、 例えば、 パーソナルコンピュータなどで構成され、 デー タ 3を対象とした信号処理を行う。
. 信号処理装置 4は、 例えば、 図 2で示されるように構成される。 CPU
(Central Processing Unit) 2 1は、 ROM (Read Only Memory) 2 2、 また は記憶部 2 8に記憶されているプログラムに従って各種の処理を実行する。
RAM (Random Access . Memory). 2 3には、 CPU 2 1が実行するプログラムゃデ ータなどが適宜記憶される。 これらの CPU 2 1、 ROM 2 2、 および RAM 2 3は、 バス 2 4により相互に接続されている。
CPU 2 1にはまた、 バス 2 4を介して入出力インタフェース 2 5が接続され. ている。 入出力インタフェース 2 5には、 キーボード、 マウス、 マイクロホン などよりなる入力部 2 6、 ディスプレイ、 スピー力などよりなる出力部 2 7が ' 接続されている。 CPU 2 1は、 入力部 2 6から入力される指令に対応して各種 PC蘭 004/00画
20
の処理を実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音声等を 出力部 2 7に出力する。
入出力ィンタフェース 2 5に接続されている記憶部 2 8は、 例えばハードデ イスクなどで構成され、 CPU 2 1が実行するプログラムや各種のデータを記憶 する。 通信部 2 9は、 インターネット、 その他のネットワークを介して外部の 装置と通信する。 この例の場合、 通信部 2 9はセンサ 2の出力するデータ 3を 取り込む取得部として働く。
, また、 通信部 2 9を介してプログラムを取得し、 記憶部 2 8に記憶してもよ い。
入出力インタフェース 2 5に接続されているドライブ 3 0は、 磁気ディスク 5 1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが 装着されたとき、 それらを駆動し、 そこに記録されているプログラムやデータ などを取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 2 8 に転送され、 記憶される。
図 3は、 信号処理装置 4を示すブロック図である。
なお、 信号処理装置 4の各機能をハードウェアで実現するか、 ソフトウェア, で実現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェア のプロック図と考えても、 ソフトウエアによる機能ブロック図と考えても良い。 図 3に構成を示す信号処理装置 4においては、 データ 3の一例である画像デ ータが入力され、 入力された画像データ (入力画像) からデータの定常性が検 出される。 次に、 検出されたデータの宾常性から、 セ /サ 2により取得された 実世界 1の信号が推定される。 そして、 推定された実世界 1の信号を基に、 画 像が生成され、 生成された画像 (出力画像) が出力される。 すなわち、 図 3は、 画像処理装置である信号処理装置 4の構成を示す図である。
信号処理装置 4に入力された入力画像 (データ 3の一例である画像データ) は、 データ定常性検出部 1 0 1および実世界推定部 1 0 2に供給される。 データ定常性検出部 1 0 1は、 入力画像からデータの定常性を検出して、 検 出した定常性を示すデータ定常性情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。 データ定常性情報は、 例えば、 入力画像における、 データ の定常性を有する画素の領域の位置、 データの定常性を有する画素の領域の方 向 (時間方向および空間方向の角度または傾き) 、 またはデータの定常性を有 する画素の領域の長さなどを含む。 データ定常性検出部 1 0 1の構成の詳細は、 後述する。 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性検出部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号を推定する。 す なわち、 実世界推定部 1 0 2は、 入力画像が取得されたときセンサ 2に入射さ れた、 実世界の信号である画像を推定する。 実世界推定部 1 0 2は、 実世界 1 の信号の推定の結果を示す実世界推定情報を画像生成部 1 0 3に供給する。 実 世界推定部 1 0 2の構成の詳細は、 後述する。
画像生成部 1 0 3は、 実世界推定部 1 0 2から供給された、 推定された実世 界 1の信号を示す実世界推定情報を基に、 実世界 1の信号により近似した信号 を生成して、 生成した信号を出力する。 または、 画像生成部 1 0 3は、 データ 定常性検出部 1 0 1から供給されたデータ定常性情報、 および実世界推定部 1 0 2から供給された.、 推定された実世界 1の信号を示す実世界推定情報を基に、 実世界 1の信号により近似した信号を生成して、 生成した信号を出力する。 すなわち、 画像生成部 1 0 3は、 実世界推定情報を基に、 実世界 1の画像に より近似した画像を生成して、 生成した画像を出力画像として出力する。 また は、 画像生成部 1 0 3は、 データ定常性情報および実世界推定情報を基に、 実 世界 1の画像により近似した画像を生成して、 生成した画像を出力画像として 出力する。
例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 推定された実世界 1 の画像を所望の空間方向または時間方向の範囲で積分することにより、 入力画 像に比較して、 空間方向または時間方向により高解像度の画像を生成して、 生 成した画像を出力画像として出力する。 例えば、 画像生成部 1 0 3は、 外揷補 間により、 画像を生成して、 生成した画像を出力画像として出力する。
画像生成部 1 0 3の構成の詳細は、 後述する。
次に、 図 4を参照して、 本発明の原理を説明する。
例えば、 画像である、 実世界 1の信号は、 センサ 2の一例である CCD
(Charge Coupl ed Device) の受光面に結像される。 センサ 2の一例である CCDは、 積分特性を有しているので、 CCDから出力されるデータ 3には、 実世 界 1の画像との差が生じることになる。 .センサ 2の積分特性の詳細については、 後述する。
信号処理装置 4による信号処理においては、 C0Dにより取得された実世界 1 の画像と、 CCDにより撮像され、 出力されたデータ 3との関係が明確に考慮さ れる。 すなわち、 データ 3と、 センサ 2で取得された実世界の情報である信号 との関係が明確に考慮される。
より具体的には、 図 4で示されるように、 信号処理装置 4は、 モデル 1 6 1 を用いて、 実世界 1を近似 (記述) する。 モデル 1 6 1は、 例えば、 N個の変 数で表現される。 より正確には、 モデル 1 6 1は、 実世界 1の信号を近似 (記 述) する。
モデル 1 6 1を予測するために、 信号処理装置 4は、 データ 3から、 M個の データ 1 6 2を抽出する。 データ 3から、 M個のデータ 1 6 2を抽出するとき、 信号処理装置 4は、 例えば、 データ 3に含まれるデータの定常性を利用する。 換言すれば、 信号処理装置 4は、 データ 3に含まれるデータの定常性を基に、 モデル 1 6 1を予測するためのデータ 1 6 2を抽出する。 この場合、 結果的に、 モデル 1 6 1は、 データの定常性に拘束されることになる。
すなわち、 モデル 1 6 1は、 センサ 2で取得されたとき、 データ 3において データの定常性を生じさせる、 定常性 (所定の次元の方向に一定の特徴) を有 する実世界 1の事象 (を示す情報 (信号) ) を近似する。 4 008690
23
ここで、 データ 1 6 2の数 Mが、 モデルの変数の数 N以上であれば、 M個の データ 1 6 2から、 N個の変数で表現されるモデル 1 6 1を予測することがで きる。
このように、 実世界 1 (の信号) を近似 (記述) するモデル 1 6 1を予測す ることにより、 ΐ言号処理装置 4は、 実世界 1の情報である信号を考慮すること ができる。
次に、 センサ 2の積分効果について説明する。
画像を撮像するセンサ 2である、 CCDまたは CMOS (Complementary Metal- Oxide Semiconductor) センサなどのイメージセンサは、 現実世界を撮像する とき、 現実世界の情報である信号を 2次元のデータに投影する。 イメージセン サの各画素は、 いわゆる受光面 (受光領域) として、 それぞれ所定の面積を有 する。 所定の面積を有する受光面に入射した光は、 画素毎に、 空間方向おょぴ 時間方向に積分され、 各画素に対して 1つの画素値に 換される。
図 5乃至図 8を参照して、 画像の空間的時間的な積分について説明する。 イメージセンサは、 現実世界の対象物 (オブジェクト) を撮像し、 撮像の結 果得られた画像データを 1フレーム単位で出力する。 すなわち、 イメージセン サは、 実世界 1の対象物で反射された光である、 実世界 1の信号を取得し、 デ ータ 3を出力する。 '
例えば、 イメージセンサは、 1秒間に 3 0フレームからなる画像データを出 力する。 この場合、 イメージセンサの露光時間は、 1 / 3 0秒とすることがで きる。 露光時間は、 イメージセンサが入射された光の電荷への変換を開始して から、 入射された光の電荷への変換を終了するまでの期間である。 以下、 露光 時間をシャツタ時間とも称する。
図 5は、 イメージセンサ上の画素の配置の例を説明する図である。 図 5中に おいて、 A乃至 Iは、 個々の画素を示す。 画素は、 画像データにより表示され る画像に対応する平面上に配置されている。 1つの画素に対応する 1つの検出 素子は、 イメージセンサ上に配置されている。 イメージセンサが実世界 1の画 8690
. 24
像を撮像するとき、 1つの検出素子は、 画像データを構成する 1つの画素に対 応する 1つの画素値を出力する。 例えば、 検出素子の空間方向 Xの位置 (X座 標) は、 画像データにより表示される画像上の横方向の位置に対応し、 検出素 子の空間方向 Yの位置 (Y座標) は、 画像データにより表示される画像上の縦 方向の位置に対応する。
実世界 1の光の強度の分布は、 3次元の空間方向おょぴ時間方向に広がりを 有するが、 イメージセンサは、 2次元の空間方向および時間方向で、 実世界 1 の光を取得し、 2次元の空間方向および時間方向の光の強度の分布を表現する データ 3を生成する。
図 6で示されるように、 例えば、 CCDである検出素子は、 シャツタ時間に対 応する期間、 受光面 (受光領域) (検出領域) に入力された光を電荷に変換し て、 変換された電荷を蓄積する。 光は、 3次元の空間上の位置、 および時刻に より、 強度が決定される実世 1の情報 (信号) である,。 実世界 1の光の強度 の分布は、 3次元の空間上の位置 X, y、 およぴ2、 並びに時刻 tを変数とする 関数 F (x,y, z,t)で表すことができる。
CCDである検出素子に蓄積される電荷の量は、 2次元の空間上の広がりを有 する受光面の全体に入射された光の強さと、 光が入射されている時間にほぼ比 例する。 検出素子は、 シャツタ時間に対応する期間において、 受光面の全体に 入射された光から変換された電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対応する期間、 2次元の空間上の広が りを有する受光面の全体に入射される光を積分して、 積分された光に対応する 量の電荷を蓄積する。 検出素子は、 空間 (受光面) および時間 (シャツタ時 間) に対して、 積分効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電 圧値はさらにデジタルデータなどの画素値に変換されて、 データ 3として出力 される。 従って、 ィメ ジセンサから出力される個々の画素値は、 実世界 1の 情報 (信号) の時間的空間的に広がりを有するある部分を、 シャツタ時間の時 間方向および検出素子の受光面の空間方向について積分した結果である、 1次 元の空間に射影した値を有する。
すなわち、 1つの画素の画素値は、 F (x, y, t)の積分で表される。 F (x,y, t) は、 検出素子の受光面における、 光の強度の分布を表す関数である。 例えば、 画素値 Pは、 式 (1 ) で表される。
P = F Cx, y, t) dxdydt
Figure imgf000027_0001
• · · ( l )
式 (1 ) において、 Xl は、 検出素子の受光面の左側の境界の空間座標 (X 座標) である。 x2は、 検出素子の受光面の右側の境界の空間座標 (X座標) である。 式 (1 ) において、 yiは、 検出素子の受光面の上側の境界の空間座 標 (Y座標) である。 y2 は、 検出素子の受光面の下側の境界の空間座標 (Y 座標) である。 また、 は、 入射された光の電荷への変換を開始した時刻で ある。 t2は、 入射された光の電荷への変換を終了した時刻である。
なお、 実際には、 イメージセンサから出力される画像データの画素値は、 例 えばフレーム全体として、 そのゲインが補正されている。
画像データの各画素値は、 ィメージセンサの各検出素子の受光面に入射した 光の積分値であり、 イメージセンサに入射された光のうち、 検出素子の受光面 よりも微小な実世界 1の光の波形は、 積分値としての画素値に隠されてしまう 以下、 本明細書において、 所定の次元を基準として表現される信号の波形を 単に波形とも称する。
このように、 実世界 1の画像 (光信号) は、 画素を単位として、 空間方向お よび時間方向に積分されてしまうので、 画像データにおいては、 実世界 1の画 像の定常性の一部が欠落し、 実世界 1の画像の定常性の他の一部が画像データ に含まれることになる。 または、 画像データには、 実世界 1の画像の定常性か ら変化してしまった定常性が含まれることがある。 積分効果を有するイメージセンサにより撮像された画像の、 空間方向の積分 効果についてさらに説明する。
図 7は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値と の関係を説明する図である。 図 7の F (x)は、 空間上 (検出素子上) の空間方 向 Xの座標 Xを変数とする、 実世界 1の光め強度の分布を表す関数の例であ る。 言い換えれば、 F (x)は、 空間方向 Yおよび時間方向に一定である場合の、 実世界 1の光の強度の分布を表す関数の例である。 図 7において、 Lは、 画素 D乃至画素 Fに対応する検出素子の受光面の空間方向 Xの長さを示す。
1つの画素の画素値は、 F (x)の積分で表される。 例えば、 画素 Eの画素値 P は、 式 (2 ) で表される。
>X2
P = /x X2 F (x) dx
. · ■ · ( 2 )
式 (2 ) において、 Xl は、 画素 Eに対応する検出素子の受光面の左側の境 界の空間方向 Xの空間座標である。 x2 は、 画素 Eに対応する検出素子の受光 面の右側の境界の空間方向 Xの空間座標である。
同様に、 積分効果を有するイメージセンサにより撮像された画像の、 時間方 向の積分効果についてさらに説明する。
図 8は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。 図 8の F (t)は、 時刻 tを変数とする、 実世界 1の光の強度の分布を表す関数である。 言い換えれば、 F (t)は、 空間 方向 Yおよび空間方向 Xに一定である場合の、 実世界 1の光の強度の分布を表 す関数の例である。 tsは、 シャツタ時間を示す。
フレーム #n- 1は、 フレーム #nに対して時間的に前のフレームであり、 フレ ーム #n+lは、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレーム #n- 1、 フレーム 、 およびフレーム は、 フレーム #n- 1、 フレー ム #n、 およびフレーム ίίη+lの順で表示される。 2004/008690
27
なお、 図 8で示される例において、 シャツタ時間 ts とフレーム間隔とが同 一である。
1つの画素の画素値は、 F (t)の積分で表される。 例えば、 フレーム #nの画 素の画素値 Pは、 式 (3 ) で表される。
Figure imgf000029_0001
• · · ( 3 )
式 (3 ) において、 は、 入射された光の電荷への変換を開始した時刻で ある。 は、 入射された光の電荷への変換を終了した時刻である。
以下、 センサ 2による空間方向の積分効果を単に空間積分効果と称し、 セン サ 2による時間方向の積分効果を単に時間積分効果と称する。 また、 空間積分 効果または時間積分効果を単に積分効果とも称する。
次に、 積分効果を有するイメージセンサにより取得されたデータ 3に含まれ るデータの定常性の例について説明する。
図 9は、 実世界 1の線状の物 (例えば、.細線) の画像、 すなわち光の強度の 分布の例を示す図である。 図 9において、 図中の上側の位置は、 光の強度 (レ ベル) を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方 向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空 間方向 Yの位置を示す。
実世界 1の線状の物の画像には、 所定の定常性が含まれる。 すなわち、 図 9 で示される画像は、 長さ方向の任意の位置において、 断面形状 (長さ方向に直 交する方向の位置の変化に対するレベルの変化) が同じであるという定常性を 有する。
図 1 0は、 図 9で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。
即ち、 図 1 0は、 イメージセンサの画素の並ぴ (画素の縦または横の並び) とずれた方向に延びる、 各画素の受光面の長さしょりも短い径の線状の物の 2004/008690
28
画像を、 イメージセンサで撮像して得られた画像データの模式図である。 図 1 0で示される画像データが取得された'ときにイメージセンサに入射された画像 は、 図 9の実世界 1の線状の物の画像である。
図 1 0において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置 は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位 置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 0にお ける画素値を示す方向は、 図 9におけるレベルの方向に対応し、 図 1 0におけ る空間方向 X、 および空間方向 Yは、 図 9における方向と同じである。
各画素の受光面の長さしょりも短い径の線状の物の画像を、 イメージセン サで撮像した場合、 撮像の結果得られる画像データにおいて、 線状の物は、 模 式的に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さの円弧形状 (かまぼこ 型) で表される。 各円弧形状は、 ほぼ同じ形状である。 1つの円弧形状は、 縦 に 1列の画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 0 における 1つの円弧形状は、 縦に 1列の画素の 「こ形成される。 ,
このように、 例えば、 イメージセンサで撮像されて取得された画像データに おいては、 実世界 1の線状の物の画像が有していた、 長さ方向の任意の位置に おいて、 空間方向 Yにおける断面形状が同じであるという定常性が失われてい る。 また、 実世界 1の線状の物の画像が有していた定常性は、 縦に 1列の画素 の上、 または横に 1列の画素の上に形成された、 同じ形状である円弧形状が一 定の間隔で並ぶという定常性に変化していると言える。
図 1 1は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実 世界 1の画像、 すなわち光の強度の分布の例を示す図である。 図 1 1において、 図中の上側の位置は、 光の強度 (レベル) を示し、 図中の右上側の位置は、 画 像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。
背景とは異なる色の、 直線状の縁を有する物の実世界 1の画像には、 所定の 定常性が含まれる。 すなわち、 図 1 1で示される画像は、 縁の長さ方向の任意 T JP2004/008690
29
の位置において、 断面形状 (縁に直交する方向の位置の変化に対するレベルの 変化) が同じであるという定常性を有する。
図 1 2は、 図 1 1で示される画像に対応する、 実際の撮像により得られた画 像データの画素値の例を示す図である。 図 1 2で示されるように、 画像データ は、 画素を単位とした画素値からなるので、 階段状になる。
図 1 3は、 図 1 2に示す画像データの模式図である。
図 1 3で示される模式図は、 イメージセンサの画素の並び (画素の縦または 横の並び) とずれた方向に縁が延びる、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像を、 イメージセンサで撮像して得られ た画像データの模式図である。 図 1 3で示される画像データが取得されたとき にイメージセンサに入射された画像は、 図 1 1で示される、 背景とは異なる色 であって、 単色の、 直線状の縁を有する物の実世界 1の画像である。 '
図 1 3において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置 は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位 置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 3にお ける画素値を示す方向は、 図 1 1におけるレベルの方向に対応し、 図 1 3にお ける空間方向 X、 および空間方向 Yは、 図 1 1における方向と同じである。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画 像を、 イメージセンサで撮像した場合、 撮像の結果得られる画像データにおい · て、 直線状の縁は、 模式的に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さ のつめ (pawl) 形状で表される。 各つめ形状は、 ほぼ同じ形状である。 1つ のつめ形状は、 縦に 1列の画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 3において、 1つのつめ形状は、 縦に 1列の画素の上に^成され る。
このように、 例えば、 イメージセンサで撮像されて取得された画像データに おいては、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界 1の画像が有していた、 縁の長さ方向の任意の位置において、 断面形状が同 T JP2004/008690
30
じであるという定常性が失われている。 また、.背景とは異なる色であって、 単 色の、 直線状の縁を有する物の実世界 1の画像が有していた定常性は、 縦に 1 列の画素の上、 または横に 1列の画素の上に形成された、 同じ形状であるつめ 形状が一定の間隔で並ぶという定常性に変化していると言える。
データ定常性検出部 1 0 1は、 このような、 例えば、 入力画像であるデータ 3が有するデータの定常性を検出する。 例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特徴を有する領域を検出することにより、 データの 定常性を検出する。 例えば、 データ定常性検出部 1 0 1は、 図 1 0で示される、 同じ円弧形状が一定の間隔で並ぶ領域を検出する。 また、 例えば、 データ定常 性検出部 1 0 1は、 図 1 3で示される、 同じつめ形状が一定の間隔で並ぶ領域 を検出する。
また、 データ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向 の角度 (傾き) を検出することにより、 データの定常性を検出する。
また、 例えば、 データ定常性検出部 1 0 1は、 空間方向および時間方向の同 様の形状の並び方を示す、 空間方向および時間方向の角度 (動き) を検出する ことにより、 データの定常性を検出する。
さらに、 例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の 特徴を有する領域の長さを検出することにより、 データの定常性を検出する。 以下、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画像がセンサ 2により射影されたデータ 3の部分を 2値エッジとも称する。 ここで、 従来の信号処理においては、 データ 3から、 例えば、 所望の高解像 度データが生成される。
これに対して、 信号処理装置 4による信号処理においては、 データ 3から、 実世界 1が推定され、 推定の結果に基づいて、 高解像度データが生成される。 すなわち、 実世界 1が、 データ 3から推定され、 高解像度データが、 データ 3 を考慮して、 推定された実世界 1から高解像度データが生成される。 4 008690
31
実世界 1から高解像度データを生成するためには、 実世界 1とデータ 3との 関係を考慮する必要がある。 例えば、 実世界 1が、 CCD であるセンサ 2により、 データ 3に射影されるとどうなるかが考慮される。
CCDであるセンサ 2は、 上述したように、 積分特性を有する。 すなわち、 デ ータ 3の 1つの単位 (例えば、 画素値) は、 実世界 1の信号をセンサ 2の検出 素子 (例えば、 CCD) の検出領域 (例えば、 受光面) で積分することにより算 出することができる。
これを高解像度データについて当てはめると、 仮想的な高解像度のセンサが 実世界 1の信号をデータ 3に射影する処理を、 推定された実世界 1に適用する ことにより、 高解像度データを得ることができる。
換言すれば、 データ 3から実世界 1の信号を推定できれば、 実世界 1の信号 を、 仮想的な高解像度のセンサの検出素子の検出領域毎に (時空間方向に) 積 分することにより、 高解像度データに含まれる 1つの値を得ることができる。 例えば、 センサ 2の検出素子の検出領域の大きさに比較して、 実世界 1の信 号の変化が、 より小さいとき、 データ 3は、 実世界 1の信号の小さい変化を表 すことができない。 そこで、 データ 3から推定された実世界 1の信号を、 実世 界 1の信号の変化に比較して、 より小さい領域毎に (時空間方向に) 積分する ことにより、 実世界 1の信号の小さい変化を示す高解像度データを得ることが できる。
すなわち、 仮想的な高解像度のセンサの各検出素子について、 推定された実 世界 1の信号を検出領域で積分することにより、 高解像度データを得ることが できる。
信号処理装置 4において、 画像生成部 1 0 3は、 例えば、 仮想的な高解像度 のセンサの各検出素子の時空間方向の領域で、 推定された実世界 1の信号を積 分することにより、 高解像度データを生成する。 次に、 データ 3から、 実世界 1を推定するために、 信号処理装置 4において は、 データ 3と実世界 1との関係、 定常性、 およびデータ 3における空間的ま たは時間的な混合 (空間混合または時間混合) が利用される。
ここで、 混合とは、 データ 3において、 実世界 1における 2つの物体に対す る信号が混合されて 1つの値となることをいう。
空間混合とは、 センサ 2の空間積分効果による、 2つの物体に対する信号の 空間方向の混合をいう。 時間混合については、 後述する。
実世界 1そのものは、 無限の数の事象からなり、 従って、 実世界 1そのもの を、 例えば、 数式で表現するためには、 無限の数の変数が必要になる。 データ 3から、 実世界 1の全ての事象を予測することはできない。
同様に、 データ 3から、 実世界 1の信号の全てを予測することはできない。 そこで、 信号処理装置 4においては、 実世界 1の信号のうち、 定常性を有し、 関数 f (x, y, z, t)で表すことができる部分に注目し、 関数 f (x, y, z, t)で表すこ とができる、 定常性を有する実世界 1の信号の部分が、 N個の変数で表現され るモデル 1 6 1で近似される。 そして、 図 1 4で示されるように、 モデル 1 6 1力 データ 3の中の、 M個のデータ 1 6 2から予測される。
M個のデータ 1 6 2からモデル 1 6 1の予測を可能にするには、 第 1に、 モ デル 1 6 1を、 定常性に基づいて、 N個の変数で表し、 第 2に、 センサ.2の積 分特性に基づいて、 N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式を立てることが必要である。 モデ. ル 1 6 1が、 定常性に基づいて、 N個の変数で表されているので、 N個の変数 で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数 を使用した式は、 定常性を有する実世界 1の信号の部分と、 データの定常性を 有するデータ 3の部分との関係を記述しているとも言える。
換言すれば、 N個の変数で表現されるモデル 1 6 1で近似される、 定常性を 有する実世界 1の信号の部分は、 データ 3において、 データの定常性を生じさ せる。 8690
33
データ定常性検出部 1 0 1は、 定常性を有する実世界 1の信号の部分によつ て、 データの定常性が生じたデータ 3の部分、 およびデータの定常性が生じた 部分の特徴を検出する。
例えば、 図 1 5で示されるように、 背景とは異なる色であって、 単色の、 直 線状の縁を有する物の実世界 1の画像において、 図 1 5中 Aで示す、 注目する 位置における縁は、 傾きを有している。 図 1 5の Bの矢印は、 縁の傾きを示す。 所定の縁の傾きは、 基準となる軸に対する角度または基準となる位置に対する 方向で表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの座標軸と、 縁との角度で表すことができる。 例えば、 所定の縁の傾きは、 空間方向 Xの長 さおよぴ空間方向 Yの長さで示される方向で表すことができる。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界 1の画 像が、 センサ 2で取得されて、 データ 3が出力されたとき、 データ 3において、 実世界 1の画像における、 縁の注目する位置 (A) に対する、 図 1 5中 A ' で 示す位置に、 縁に対応するつめ形状が並び、 実世界 1の画像の縁の傾きに対応 する、 図 1 5中 B ' で示す傾きの方向に、 縁に対応するつめ形状が並ぶ。
N個の変数で表現されるモデル 1 6 1は、 このような、 データ 3において、 データの定常性を生じさせる、 実世界の 1の信号の部分を近似する。
N個の変数で表現されるモデル 1 6 1と M個のデータ 1 6 2との関係を示す、 N個の変数を使用した式を立てるとき、 データ 3において、 データの定常性が 生じている部分の値を利用する。
この場合において、 図 1 6で示される、 データ 3において、 データの定常性 が生じ、 混合領域に'属する値に注目して、 実世界 1の信号を積分した値が、 セ ンサ 2の検出素子が出力する値に等しいとして、 式が立てられる。-例えば、 ータの定常性が生じている、 データ 3における複数の値について、 複数の式を 立てることができる。
図 1 6において、 Aは、 縁の注目する位置を示し、 A ' は、 実世界 1の画像 における、 縁の注目する位置 (A) に対する、 画素 (の位置) を示す。 ここで、 混合領域とは、 データ 3において、 実世界 1における 2つの物体に 対する信号が混合されて 1つの値となっているデータの領域をいう。 例えば、 背景とは異なる色であって、 単色の、 直線状の緣を有する物の実世界 1の画像 に対するデータ 3において、 直線状の縁を有する物に対する画像、 および背景 に対する画像が積分されている画素値は、 混合領域に属する。
図 1 7は、 式を立てる場合における、 実世界 1における 2つの物体に対する 信号および混合領域に属する値を説明する図である。
図 1 7中の左側は、 センサ 2の 1つの検出素子の検出領域で取得される、 空 間方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2つの 物体に対する実世界 1の信号を示す。 図 1 7中の右側は、 図 1 7中の左側に示 す実世界 1の信号がセンサ 2の 1つの検出素子によって射影された、 データ 3 の 1つの画素の画素値 Pを示す。 すなわち、 センサ 2の 1つの検出素子によつ て取得された、 空間方向 Xおよび空間方向 Yに所定の広がりを有する、 実世界 1における 2つの物体に対する実世界 1の信号が射影された、 データ 3の 1つ の画素の画素値 Pを示す。
図 1 7の Lは、 実世界 1における 1つの物体に対する、 図 1 7の白い部分の 実世界 1の信号のレベルを示す。 図 1 7の Rは、 実世界 1における他の 1つの 物体に対する、 図 1 7の斜線で表される部分の実世界 1の信号のレベルを示す。 ここで、 混合比 は、 センサ 2の 1つの検出素子の、 空間方向 Xおよび空間 方向 Yに所定の広がりを有する検出領域に入射された、 2つの物体に対する信 号 (の面積) の割合を示す。 例えば、 混合比 αは、 センサ 2の 1つの検出素子 の検出領域の面積に対する、 空間方向 Xおよび空間方向 Υに所定の広がりを有 する、 センサ 2の 1つの検出素子の検出領域に入射された、 レベル Lの信号の 面積の割合を示す。
この場合において、 レベル L、 レベル R、 および画素値 Pの関係は、 式 ( 4 ) で表すことができる。
x L+f (1 - α ) x R = P • · ■ ( 4 )
なお、 レベル Rは、 注目している画素の右側に位置している、 データ 3の画 素の画素値とすることができる場合があり、 レベル Lは、 注目している画素の 左側に位置している、 データ 3の画素値とすることができる場合がある。 また、 混合比 αおよび混合領域は、 空間方向と同様に、 時間方向を考慮する ことができる。 例えば、 センサ 2に対して撮像の対象となる実世界 1の物体が 移動しているとき、 時間方向に、 センサ 2の 1つの検出素子の検出領域に入射 される、 2つの物体に対する信号の割合は変化する。 センサ 2の 1つの検出素 子の検出領域に入射された、 時間方向に割合が変化する、 2つの物体に対する 信号は、 センサ 2の検出素子によって、 データ 3の 1つの値に射影される。 センサ 2の時間積分効果による、 2つの物体に対する信号の時間方向の混合 を時間混合と称する。
データ定常性検出部 1 0 1は、 例えば、 実世界 1における 2つの物体に対す る実世界 1の信号が射影された、 データ 3における画素の領域を検出する。 デ ータ定常性検出部 1 0 1は、 例えば、 実世界 1の画像の縁の傾きに対応する、 データ 3における傾きを検出する。
そして、 実世界推定部 1 0 2は、 例えば、 データ定常性検出部 1 0 1で検出 された、 所定の混合比 αを有する画素の領域、 および領域の傾きを基に、 Ν個 の変数で表現されるモデル 1 6 1と Μ個のデータ 1 6 2との関係を示す、 Ν個 の変数を使用した式を立てて、 立てた式を解くことにより、 実世界 1の信号を 推定する。
さらに、 具体的な実世界 1の推定について説明する。
関数 F (x, y, z, t)で表される実世界の信号のうち、 空間方向 Zの断面 (セン サ 2の位置) における関数 F (x, y, 1:)で表される実世界の信号を、 空間方向 X における位置 x、 空間方向 Yにおける位置 y、 および時刻 tで決まる近似関数 f (x, y, t) で近似することを考える。 ここで、 センサ 2の検出領域は、 空間方向 Xおよび空間方向 Yに広がりを有 する。 換言すれば、 近似関数 f (x, y, t) は、 センサ 2で取得される、 空間方 向および時間方向に広がりを有する実世界 1の信号を近似する関数である。 センサ 2による実世界 1の信号の射影によって、 データ 3の値 P(x,y,t)が 得られるものとする。 データ 3の値 P(x,y, t)は、 例えば、 イメージセンサで あるセンサ 2が出力する、 画素値である。
ここで、 センサ 2による射影を定式化できる場合、 近似関数 f (x, y, t) を 射影して得られた値を射影関数 S (x,y,t) と表すことができる。
射影関数 S (x,y,t) を求める上で、 以下に示す問題がある。
第 1に、 一般的に、 実世界 1の信号を表す関数 F(x,y, z,t)は、 無限の次数 の関数となりうる。 .
第 2に、 たとえ、 実世界の信号を関数として記述できたとしても、 センサ 2 の射影を介した、 射影関数 S (x,y,t) を定めることは、 一般的にはできない c すなわち、 センサ 2による射影の動作、 言い換えればセンサ 2の入力信号と出 力信号との関係を知らないので、 射影関数 S (x, y,,t) を定めることはできな い。
第 1の問題点に対して、 実世界 1の信号を近似する関数 f , y, t)を記述可 能な関数 (例えば、 有限次数の関数) である関数 (x,y,t) および変数 の積和で表現することを考える。
また、 第 2の問題点に対して、 センサ 2による射影を定式化することで、 関 数 fi (x, y,t) の記述から、 関数 Si (x, y, t) を記述することができる。
すなわち、 実世界 1の信号を近似する関数: f(x,y,t)を関数 (x,y,t) お よび変数 の積和で表現すると、 式 (5〉 が得られる。
N
f (x, y, t) = ∑ Wjf j (x, y, t) ■ ■ · (5) 例えば、 式 (6) で示されるように、 センサ 2の射影を定式化することによ り、 式 (5) から、 データ 3と実世界の信号の関係を式 (7) のように定式化 することができる。
(x, y, t) = OJ fj (x, y. t)dxdydt
· · · (6)
N
Ρ;(χ;, y;, ti) = ∑ WjS; (x:, yi( t;)
i=1 .
• · · (7)
式 (7) において、 jは、 データのインデックスである。
式 (7) の N個の変数^ (i=l乃至 N) が共通である M個のデータ群 (j=l 乃至 M) が存在すれば、 式 (8) を満たすので、 データ 3から実世界のモデル 1 6 1を求めることができる。
N ≤
• · · (8).
Nは、 実世界 1を近似するモデル 1 6 1を表現する変数の数である。 Mは、 データ 3に含まれるデータ 1 62の数である。
実世界 1の信号を近似する関数 f(x,y,t)を式 (5) で表すことにより、 として変数の部分を独立させることができる。 このとき、 iは、 そのまま変数 の数を示すことになる。 また、 で示される関数の形を独立させることがで き、 として所望の関数を利用することができるようになる。 ·
つて、 関数 の形に依存せず、 変数 Wi の数 Nを定義でき、 変数 Wi の数 Nとデータの数 Mとの関係で変数 ^ を求めることができる。
すなわち、 以下の 3つを用いることで、 データ 3から実世界 1を推定するこ とができるようになる。
第 1に、 N個の変数を定める、 すなわち、 式 (5) を定める。 これは、 定常 性を用いて実世界 1を記述することにより可能になる。 例えば、 断面が多項式 で表され、 同じ断面形状が一定方向に続く、 というモデル 1 6 1で実世界 1の 信号を記述することができる。
第 2に、 例えば、 センサ 2による射影を定式化して、 式 (7) を記述する。 例えば、 実世界 2の信号の積分を行った結果がデータ 3であると定式化する。 第 3に、 M個のデータ 1 6 2を集めて、 式 (8) を満足させる。 例えば、 デ ータ定常性検出部 1 0 1で検出された、 デ タの定常性を有する領域から、 デ ータ 1 62が集められる。 例えば、 定常性の一例である、 一定の断面が続く領 域のデータ 1 6 2が集められる。
このように、 式 (5) によって、 データ 3と実世界 1との関係を記述し、 M 個のデータ 1 6 2を集めることで、 式 (8) を満たすことにより、 実世界 1を 推定することができる。
より具体的には、 N=Mのとき、 変数の数 Nと式の数 Mが等しいので、 連立 方程式を立てることにより、 変数 ^ を求めることができる。
また、 N<Mのとき、 様々な解法を適用できる。 例えば、 最小自乗法により、 変数 を求めることができる。 ―
ここで、 最小自乗法による解法について、 詳細に記ー載する。
まず、 式 (7) に従って、 実世界 1からデータ 3を予測する式 (9) を示す。
N
PjCXj.Yj, tj) = ∑ WjSjCxj, yj, tj)
… (9)
式 (9) において、 P'j (Xj , Yj , t j ) は、 予測値である。
予測値 P'と実測値 Pとの差分自乗和 Eは、 式 (10) で表される。
M
E = ∑ (Pj(Xj,yj,tj)-P'j(Xj,yj,tj)) 2
j=1
(1 o) 差分自乗和 Eが最小になるように、 変数 が求められる。 従って、 各変数 wkによる式 (1 0) の偏微分値は 0とされる。 すなわち、 式 (1 1) が成り 立つ。 (xj( yj, tj)) = 0
Figure imgf000041_0001
(1 1)
式 (1 1) から式 (1 2) が導かれる。
∑ (SkiXj.yj.tj) ! jSi j.yj.tj)) - ∑ Sk(Xj,yj,tj)Pj(Xj,yj,tj) j=1 i=1 」=1
• · · (1 2)
式 (12) 力 S K=l 乃至 N で成り立つとき、 最小自乗法による解が得られる, このときの正規方程式は、 式 (1 3) で示される。
Figure imgf000041_0002
(1 3)
ただし、 式 (1 3) において、 Si (Xj , Yj , t j ) は、 Si (j)と記述した
S1(j)SN(j) S2(j)SN(j)
SN(j)SN(j)
Figure imgf000041_0003
• (14) ( 1 5)
Figure imgf000042_0001
/
• · · (1 6)
' 式 (14) 乃至式 (1 6) から、 式 (1 3) は、 SMATWMAT=PMAT と表すこ とができる。
式 (1 3) において、 Si は、 実世界 1の射影を表す。 式 (1 3) において、 Ρ』 は、 データ 3を表す。 式 (1 3) において、 Wi は、 実世界 1の信号の特徴 を記述し、 求めようとする変数である。
従って、 式 (1 3) にデータ 3を入力し、 行列解法などにより WMAT を求め ることで、 実世界 1を推定することが可能になる。 すなわち、 式 (1 7) を演 算することにより、 実世界 1を推定することができるようになる。
%T = SMATP AT
• · · (1 7)
なお、 SMATが正則でない場合、 SMATの転置行列を利用して、 WMAT を求める ことができる。 実世界推定部 10 2は、 例えば、 式 (1 3) にデータ 3を入力し、 行列解法 などにより WMAT を求めることで、 実世界 1を推定する。
ここで、 さらにより具体的な例を説明する。 例えば、 実世界 1の信号の断面 形状、 すなわち位置の変化に対するレベルの変化を、 多項式で記述する。 実世 界 1の信号の断面形状が一定で、 実世界 1の信号の断面が等速で移動すると仮 定する。 そして、 センサ 2による実世界 1の信号からデータ 3への射影を、 実 世界 1の信号の時空間方向の 3次元で積分で定式化する。
実世界 1の信号の断面形状が、 等速で移動するとの仮定から、 式 (1 8) お よび式 (1 9) が得られる。
dx _
dt — Vx
• · · (1 8)
..... j ... \l
dt —
• ■ · (1 9)
ここで、 VXおよび Vyは、 一定である。
実世界 1の信号の断面形状は、 式 (1 8) および式 (1 9) を用いることで、 式 (20) と表される。
f (χ', y,) = f (x+vxt, y+Vyt)
• · · (20)
センサ 2による実世界 1の.信号からデータ 3への射影を、 実世界 1の信号の 時空間方肉の 3次元で積分で定式化すれば、 式 (2 1) が得られる。
S(x, y,t) = Jx Xerye/t tef(x',y')dxdydt
o ·* S S
= fv Xefef, ef(^+vxt, y+vyt)dxdydt
• • • (21) 式 (2 1) において、 S(x, y,t)は、 空間方向 Xについて、 位置 xs から位置 xeまで、 空間方向 Yについて、 位置 ysから位置 ye まで、 時間方向 tについ て、 時刻 tsから時刻 teまでの領域、 すなわち時空間の直方体で表される領域 の積分値を示す。
式 (2 1) を定めることができる所望の関数 f(x',y')を用いて、 式 (1 3) を解けば、 実世界 1の信号を推定することができる。
以下では、 関数 f (x',y')の一例として、 式 (22) に示す関数を用いるこ ととする。
f (X, y,) = w1x'+w2y'+W3
= w1 (x+v„t) +w2(y+vyt) +w
■ · · (22)
すなわち、 実世界 1の信号が、 式 (1 8) 、 式 (1 9) 、 および式 (22) で表される定常性を含むと仮定している。 これは、 図 1 8で示されるように、 一定の形状の断面が、 時空間方向に移動していることを示す。
式 (2 1) に、 式 (22) を代入することにより、 式 (23) が得られる。
S(x, y, t) = JXs eJys eJts f (x+vxt,y+vyt)dxdydt = Vo I ume ( -y- ( xe+xs+ vx ( te+ts ) )
^ +~^(ye+ys+vy(te+ts))+w2) = w0S0 (x, y, t) +w1 S1 (x, y, t) + 2S2 (x, y' t)
• · · (23)
ただし、
Volurae=(xe-xs) (ye-ys) (te - ts)
S0 (x, y, t) =Volume/2 X (xe +xs +vx (te +ts ) )
SL (x, y, t) =Volume/2 X (ye +ys +vy (te +ts ) )
S2 (x, y, t)=l である。
図 1 9は、 データ 3から抽出される、 M個のデータ 1 6 2の例を示す図であ る。 例えば、 27個の画素値が、 データ 1 62として抽出され、 抽出された画 素値が、 Pj (x,y, t)とされる。 この場合、 jは、 0乃至 26であ-る。
図 1 9に示す例において、 nである時刻 tの注目する位置に対応する画素の 画素値が Pi 3 (x,y,t)であり、 データの定常性を有する画素の画素値の並ぶ方 向 (例えば、 データ定常性検出部 10 1で検出された、 同じ形状であるつめ形 状が並ぶ方向〉 力 P4 (x,y, t)、 P13 (x,y,t)、 および P22 (x, y, t)を結ぶ方向 であるとき、 nである時刻 tにおける、 画素値 P9 (x,y, t)乃至 P17 (x,y,t)、 n より時間的に前である、 n-1である時刻 tにおける、 画素値 P。(x,y, t)乃至 P8 (x,y,t)、 および nより時間的に後である、 n+1である時刻 tにおける、 画 素値 8 (x, y,t)乃至 P26 (x,y,t)が抽出される。
ここで、 センサ 2であるイメージセンサから出力された、 データ 3である画 素値が取得された領域は、 時間方向および 2次元の空間方向に広がりを有する c そこで、 例えば、 画素に対応する直方体 (画素値が取得された領域) の重心を、 画素の時空間方向の位置として使用することができる。
27個の画素値 P。(X, y, t)乃至 P26 (x,y,t)、 および式 (23) から、 式 (1 3) を生成し、 W を求めることで、 実世界 1を推定することが可能になる c このように、 実世界推定部 102は、 例えば、 27個の画素値 P。(X, y,t)乃 至 P26 (x,y,t)、 および式 (23) から、 式 (1 3) を生成し、 Wを求めるこ とで、 実世界 1の信号を推定する。
なお、 関数 (x, y, t) として、 ガウス関数、 またはシグモイド関数などを 利用することができる。
図 20乃至図 23を参照して、 推定された実世界 1の信号から、 データ 3に 対応する、 より高解像度の高解像度データを生成する処理の例について説明す る。 図 2 0で示されるように、 データ 3は、 時間方向および 2次元の空間方向に 実世界 1の信号が積分された値を有する。 例えば、センサ 2であるイメージセ ンサから出力された、 データ 3である画素値は、 検出素子に入射された光であ る、 実世界 1の信号が、 時間方向に、 検出時間であるシャツタ時間で積分され、 空間方向に、 検出素子の受光領域で積分された値を有する。
これに対して、 図 2 1で示されるように、 空間方向により解像度の高い高解 像度データは、 推定された実世界 1の信号を、 時間方向に、 データ 3を出力し たセンサ 2の検出時間と同じ時間で積分するとともに、 空間方向に、 データ 3 を出力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分す ることにより、 生成される。
なお、 空間方向により解像度の高い高解像度データを生成する場合において、 '推定された実世界 1の信号が積分される領域は、 データ 3を出力したセンサ 2 の検出素子の受光領域と全く無関係に設定することができる。 例えば、 高解像 度データに、 データ 3に対して、 空間方向に整数倍の解像度を持たせることは 勿論、 5 Z 3倍など、 データ 3に対して、 空間方向に有理数倍の解像度を持た せることができる。
また、 図 2 2で示されるように、 時間方向により解像度の高い高解像度デー タは、 推定された実世界 1の信号を、 空間方向に、 データ 3を出力したセンサ 2の検出素子の受光領域と同じ領域で積分するとともに、 時間方向に、 データ 3を出力したセンサ 2の検出時間に比較して、 より短い時間で積分することに より、 生成される。
なお、 時間方向により解像度の高い高解像度データを生成する場合において、 推定された実世界 1の信号が積分される時間は、 データ 3を出力したセンサ 2 の検出素子のシャツタ時間と全く無関係に設定することができる。 例えば、 高 解像度データに、 データ 3に対して、 時間方向に整数倍の解像度を持たせるこ とは勿論、 7 / 4倍など、 データ 3に対して、 時間方向に有理数倍の解像度を 持たせることができる。 動きボケを除去した高解像度データは、 推定された実世界 1の信号を、 時間 方向に積分しないで、 空間方向にのみ積分することにより、 生成される。
さらに、 図 2 3で示されるように、 時間方向および空間方向により解像度の 高い高解像度データは、 推定された実世界 1の信号を、 空間方向に、 データ 3 を出力したセンサ 2の検出素子の受光領域に比較して、 より狭い領域で積分す るとともに、 時間方向に、 データ 3を出力したセンサ 2の検出時間に比較して、 より短い時間で積分することにより、 生成される。
この場合において、 推定された実世界 1の信号が積分される領域および時間 は、 データ 3を出力したセンサ 2の検出素子の受光領域およびシャツタ時間と 全く無関係に設定することができる。
このように、 画像生成部 1 0 3は、 例えば、 推定された実世界 1の信号を所 望の時空間の領域で積分することにより、 時間方向、 または空間方向に、 より 高解像度のデータを生成する。
以上のように、 実世界 1の信号を推定することにより、 実世界 1の信号に対 してより正確で、 時間方向、 または空間方向に、 より高解像度のデータを生成 することができる。
図 2 4乃至図 2 8は、 信号処理装置 4の信号処理を用いた入力画像の例と、 処理の結果の例を示している。
図 2 4は、 入力画像の元の画像 (実世界 1の光信号に相当) を示す図である。 図 2 5は、 入力画像の例を示す図である。 図 2 5で示される入力画像は、 図 2 4で示される画像の 2 X 2の画素からなるプロックに属する画素の画素値の平 均値を、 1つの画素の画素値として生成された画像である。 すなわち、 入力画 像は、 図 2 4で示される画像に、 センサの積分特性を模した、 空間方向の積分 を適用することにより得られた画像である。
図 2 4で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾 いた細線の画像が含まれている。 同様に、 図 2 5で示される入力画像において、 上下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。 8690
46 図 2 6は、 図 2 5で示される入力画像に、 従来のクラス分類適応処理を適用 して得られた画像を示す図である。 ここで、 クラス分類適応処理は、 クラス分 類処理と適応処理とからなり、 クラス分類処理によって、 データを、 その性質 に基づいてクラス分けし、 各クラスごとに適応処理を施すものである。 適応処 理では、 例えば、 低画質または標準画質の画像が、 所定のタップ係数を用いて マッピング (写像) されることにより、 高画質の画像に変換される。
即ち、 適応処理では、 第 1のデータが、 所定のタップ係数を用いてマツピン グ (写像) されることにより、 第 2のデータに変換される。
いま、 このタップ係数を用いてのマッピング方法として、 例えば、 線形 1次 結合モデルを採用するとともに、 第 1のデータとして、 高解像度の HD (High Definition)画像をローパスフィルタでフィルタリングすること等により得ら れる低解像度または標準解像度の SD (Standard Definition)画像を採用し、 第 2のデータとして、 その SD画像を得るのに用いた HD画像を採用すること として、 適応処理について説明する。
上述の条件下において、 HD画像を構成する画素である HD画素 yは、 例えば、 SD画像を構成する画素である SD画素から、 HD画素を予測するための予測タ ップとして抽出される複数の SD画素と、 タップ係数とを用いて、 次の線形 1 次式 (線形結合) によって求めることができる。
N
y=∑wnxn
n=1
· ■ · ( 2 4 ) 但し、 式 (2 4 ) において、 x nは、 HD画素 yについての予測タップを構 成する、 n番目の SD画素 (の画素値) を表し、 wnは、 n 目の SD画素と染 算される n番目のタップ係数を表す。 なお、 式 (2 4 ) では、 予測タップが、 N個の SD画素 X l, χ 2 , · ■ ·, x Nで構成されるものとしてある。
ここで、 HD画素の画素値 yは、 式 (2 4 ) に示した線形 1次式ではなく、 2次以上の高次の式によって求めるようにすることも可能である。 JP2004/008690
47
いま、 HD画像において、 k番目の HD画素 (の画素値) の真値を yk と表す とともに、 式 (24) によって得られるその真値 ykの予測値を yk' と表す と、 その予測誤差 ekは、 例えば、 次式で表される。
ek yk— yk · · · (25) 式 (25) の予測値 yk' は、 式 (24) にしたがって求められるため、 式 (25) の yk, を、 式 (24) にしたがって置き換えると、 次式が得 れる。
Figure imgf000049_0001
• · · (26) 但し、 式 (26) において、 xn,kは、 k番目の HD画素についての予測タ ップを構成する n番目の SD画素を表す。
式 (26) の予測誤差 ekを 0とするタップ係数 wn力 HD画素を予測する のに最適なものとなるが、 すべての HD画素について、 そのようなタップ係数 wnを求めることは、 一般には困難である。
そこで、 タップ係数 wn が最適なものであることを表す規範として、 例えば、 最小自乗法を採用することとすると、 最適なタップ係数 wnは、 統計的な誤差 としての、 例えば、 次式で表される自乗誤差の総和 Eを最小にすることで求め ることができる。
K
に = >
k=1
■ · · (27) 但し、 式 (27) において、 Kは、 HD画素 yk と、 その HD画素 ykについ ての予測タップを構成する SD画素 x1 k, x2, k, · · ·, xN,k とのセット のサンプル数を表す。 式 (27) の自乗誤差の総和 Eを最小 (極小) にするタップ係数 wnは、 そ の総和 Eをタップ係数 wnで偏微分したものを 0とするものであり、 従って、 次式を満たす必要がある。
鼍 =e1 ^+e2¾ + ...+ek =0 (η=1, 2, ··.,Ν)
• · · (28) そこで、 上述の式 (26) をタップ係数 wnで偏微分すると、 次式が得られ る。'
Figure imgf000050_0001
• · · (29) 式 (28) と (29) から、 次式が得られる。
Figure imgf000050_0002
• - · (30) 式 (30) の ekに、 式 (26) を代入することにより、 式 (30) は、 式 (3 1) に示す正規方程式で表すことができる。
Figure imgf000050_0003
Figure imgf000050_0004
• ■ · (3 1) 式 (3 1) の正規方程式は、 HD画素 yk と SD画素 xn, k のセットを、 ある 程度の数だけ用意することでたてることができ、 式 (3 1) を解くことで、 最 2004/008690
' 49
適なタップ係数 wn を求めることができる。 なお、 式 (3 1) を解くにあたつ ては、 例えば、 掃き出し法 (Gauss- Jordanの消去法) などを採用することが 可能である。
以上のように、 多数の HD画素 yi, y2 , · · ·, yKを、 タップ係数の学 習の教師となる教師データとするとともに、 各 HD画素 yk についての予測タ ップを構成する SD画素 Xl,k, x2k, · · ·, xNk を、 タップ係数の学習 の生徒となる生徒データとして、 式 (3 1) を解くことにより、 最適なタップ 係数 wn を求める学習を行っておき、 さらに、 そのタップ係数 wnを用い、 式 (24) により、 SD画素を、 HD画素にマッピング (変換) するのが適応処理 である。
ここで、 HD画素 ykについての予測タップを構成する SD画素 X
2,k, · ■ ·, xN, k としては、 その HD画素 yk に対応する SD画像上の位置 から空間的または時間的に近い位置にある SD画素を採用することができる。 また、 クラス分類適応処理では、 タップ係数 wnの学習と、 そのタップ係数 wnを用いたマッピングとは、 クラスごとに行われる。 クラス分類適応処理で は、 注目している HD画素 ykを対象にクラス分類処理が行われ、 そのクラス 分類処理により得られるクラスごとに、 タップ係数 wnの学習と、 そのタップ 係数 wn を用いたマッピングが行われる。
HD画素 ykを対象としたクラス分類処理としては、 例えば、 その HD画素 y kのクラス分類に用いるクラスタップとしての複数の SD画素を、 SD画像から 抽出し、 その複数の SD画素で構成されるクラスタップを用いて Mビット ADRC (Adaptive Dynamic Range Coding)処理を施す方法力 Sある。
Mビット ADRC処理においては、 クラスタップを構成する SD画素の最大値 MAXと最小値 MINが検出され、 DR=MAX - MINを、 局所的なダイナミックレンジ とし、 このダイナミックレンジ DRに基づいて、 クラスタップを構成する SD 画素が Kビットに再量子化される。 即ち、 クラスタップを構成する各 SD画素 から、 最小値 MIN が減算され、 その減算値が DR/2K で除算 (量子化) される。 2004/008690
50
従って、 グラスタップが、 例えば、 1ビット ADRC処理される場合には、 その クラスタップを構成する各 SD画素は 1ビットとされることになる。 そして、 この場合、 以上のようにして得られる、 クラスタップを構成する各 SD画素に ついての 1ビットの画素値を、 所定の順番で並べたビット列が、 ADRCコード として出力され、 この ADRCコードが、 クラスを表すクラスコードとされる。 なお、 クラス分類適応処理は、 SD画素には含まれていないが、 HD画素に含 まれる成分が再現される点で、 例えば、 単なる補間処理等とは異なる。 即ち、 クラス分類適応処理では、 式 (2 4 ) だけを見る限りは、 いわゆる補間フィル タを用いての補間処理と同一であるが、 その補間フィルタのタップ係数に相当 するタップ係数 wn力 S、 教師データとしての HD画素と生徒データとしての SD 画素とを用いての学習により求められるため、 HD画素に含まれる成分を再現 することができる。
ここで、 タップ係数 wn の学習では、 教師データ yと生徒データ Xとの組み 合わせとして、 どのようなものを採用するかによって、 各種の変換を行うタツ プ係数 wnを求めることができる。
即ち、 例えば、 上述のように、 教師データ yとして、 高解像度の HD画像を 採用するとともに、 生徒データ Xとして、 その HD画像の解像度を低下させた SD画像を採用した場合には、 画像の解像度を向上させるマッピングを行うタ ップ係数 wn を得ることができる。 また、 例えば、 教師データ yとして、 HD 画像を採用するとともに、 生徒データ Xとして、 その HD画像の画素数を少な くした SD画像を採用した場合には、 画像を構成する画素数を増加させるマツ ビングを行うタップ係数 wnを得ることができる。
図 2 6は、 図 2 5の入力画像に対して、 上¾のようなクラス分類適応処理に よるマッピングを施すことにより得られる画像である。 図 2 6では、 細線の画 像が、 図 2 4の元の画像とは異なるものになっていることがわかる。
図 2 7は、 データ定常性検出部 1 0 1による、 図 2 5の例で示される入力画 像から細線の領域を検出した結果を示す図である。 図 2 7において、 白い領域 は、 細線の領域、 すなわち、 図 1 0で示される円弧形状が並んでいる領域を示 す。
図 2 8は、 図 2 5で示される画像を入力画像として、 信号処理装置 4で信号 処理を行うことにより得られる出力画像の例を示す図である。 図 2 8で示され るように、 信号処理装置 4によれば、 図 2 4で示される元の画像の細線の画像 により近い画像を得ることができる。
図 2 9は、 信号処理装置 4による、 信号処理を説明するフローチャートであ る。 , .
ステップ S 1 0 1において、 データ定常性検出部 1 0 1は、 定常性の検出の 処理を実行する。 データ定常性検出部 1 0 1は、 データ 3である入力画像に含 まれているデータの定常性を検出して、 検出したデータの定常性を示すデータ 定常性情報を実世界推定部 1 0 2および画像生成部 1 0 3に供給する。
データ定常性検出部 1 0 1は、 現実世界の信号の定常性に対応するデータの 定常性を検出する。 ステップ S 1 0 1の処理において、 データ定常性検出部 1 0 1により検出されるデータの定常性は、 データ 3に含まれる、 実世界 1の画 像の定常性の一部であるか、 または、 実世界 1の信号の定常性から変化してし まった定常性である。
例えば、 データ定常性検出部 1 0 1は、 所定の次元の方向に一定の特徴を有 する領域を検出することにより、 データの定常性を検出する。 また、 例えば、 データ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向の角度 (傾き) を検出することにより、 データの定常性を検出する。
ステップ S 1 0 1における、 定常性の検出の処理の詳細は、 後述する。 なお、 データ定常性情報は、 データ 3の特徴を示す特徴量として利用するこ とができる。 '
ステップ S 1 0 2において、 実世界推定部 1 0 2は、 実世界の推定の処理を 実行する。 すなわち、 実世界推定部 1 0 2は、 入力画像、 およびデータ定常性 検出部 1 0 1から供給されたデータ定常性情報を基に、 実世界 1の信号を推定 する。 例えば、 ステップ S 1 0 2の処理において、 実世界推定部 1 0 2は、 実 世界 1を近似 (記述) するモデル 1 6 1を予測することにより、 実世界 1の信 号を推定する。 実世界推定部 1 0 2は、 推定された実世界 1の信号を示す実世 界推定情報を画像生成部 1 0 3 'に供給する。
例えば、 実世界推定部 1 0 2は、 線状の物の幅を予測することにより、 実世 界 1の信号を推定する。 また、 例えば、 実世界推定部 1 0 2は、 線状の物の色 を示すレベルを予測することにより、 実世界 1の信号を推定する。
ステップ S 1 0 2における、 実世界の推定の処理の詳細は、 後述する。
なお、 実世界推定情報は、 データ 3の特徴を示す特徴量として利用すること ができる。
ステップ S 1 0 3において、 画像生成部 1 0 3は、 画像の生成の処理を実行 して、 処理は終了する。 すなわち、 画像生成部 1 0 3は、 実世界推定情報を基 に、 画像を生成して、 生成した画像を出力する。 または、 画像生成部 1 0 3は、 データ定常性情報および実世界推定情報を基に、 画像を生成して、 生成した画 像を出力する。
例えば、 ステップ S 1 0 3の処理において、 画像生成部 1 0 3は、 実世界推 定情報を基に、 推定された現実世界の光を空間方向に積分す.ることにより、 入 力画像に比較して、 空間方向により高解像度の画像を生成して、 生^した画像 を出力する。 例えば、 画像生成部 1 0 3は、 実世界推定情報を基に、 推定され た現実世界の光を時空間方向に積分することにより、 入力画像に比較して、 時 間方向およぴ空間方向により高解像度の画像を生成して、 生成した画像を出力 する。 ステップ S 1 0 3における、 画像の生成の処理の詳細は、 後述する。 このように、 信号処理装置 4は、 データ 3からデータの定常性を検出し、 検 出したデータの定常性を基に、 実世界 1を推定する。 そして、 信号処理装置 4 は、 推定された実世界 1を基に、 より実世界 1に近似した信号を生成する。 以上のように、 現実世界の信号を推定して処理を実行するようにした場合に は、 正確で、 精度の高い処理結果を得ることができるようになる。 4 008690
53
また、 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現 実世界の信号の定常性の一部が欠落した第 1の次元よりも少ない第 2の次元の 第 2の信号の、 欠落した現実世界の信号の定常性に対応するデータの定常性を 検出し、 検出されたデータの定常性に基づいて、 欠落した現実世界の信号の定 常性を推定することにより第 1の信号を推定するようにした場合には、 現実世 界の事象に対して、 より正確で、 より精度の高い処理結果を得ることができる ようになる。
次に、 データ定常性検出部 1 0 1の構成の詳細について説明する。
図 3 0は、 データ定常性検出部 1 0 1の構成を示すプロック図である。
図 3 0に構成を示すデータ定常性検出部 1 0 1は、 細線である対象物を撮像 したとき、 対象物の有する断面形状が同じであるという定常性から生じた、 デ ータ 3に含まれるデータの定常性を検出する。 すなわち、 図 3 0に構成を示す データ定常性検出部 1 0 1は、 細線である実世界 1の画像の有する、 長さ方向 の任意の位置において、 長さ方向に直交する方向の位置の変化に対する光のレ ベルの変化が同じであるという定常性から生じた、 データ 3に含まれるデータ の定常性を検出する。
より具体的には、 図 3 0に構成を示すデータ定常性検出部 1 0 1は、 細線の 画像を空間積分効果を有するセンサ 2で撮像して得られたデータ 3に含まれる、 斜めにずれて隣接して並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) が配 置される領域を検出する。
データ定常性検出部 1 0 1は、 データ 3である入力画像から、 データの定常 性を有する細線の画像が射影された画像データの部分 (以下、 定常成分とも称 する) 以外の画像データの部分 (以下、 非定常成分と称する) を抽出し、 抽出 された非定常成分と入力画像とから、 実世界 1の細線の画像が射影された画素 を検出し、 入力画像における、 実世界 1の細線の画像が射影された画素からな る領域を検出する。 8690
54 '
非定常成分抽出部 2 0 1は、 入力画像から非定常成分を抽出して、 入力画像 と共に、 抽出された非定常成分を示す非定常成分情報を頂点検出部 2 0 2およ ぴ単調増減検出部 2 0 3に供給する。
例えば、 図 3 1で示されるように、 ほぼ一定の光のレベルの背景の前に細線 がある実世界 1の画像がデータ 3に射影されたとき、 図 3 2で示されるように、 非定常成分抽出部 2 0 1は、 データ 3である入力画像における背景を平面で近 似することにより、 背景である非定常成分を抽出する。 図 3 2において、 実線 は、 データ 3の画素値を示し、 点線は、 背景を近似する平面で示される近似値 を示す。 図 3 2において、 Aは、 細線の画像が射影された画素の画素値を示し、 P Lは、 背景を近似する平面を示す。
このように、 データの定常性を有する画像データの部分における、 複数の画 素の画素値は、 非定常成分に対して不連続となる。
非定常成分抽出部 2 0 1は、 実世界 1の光信号である画像が射影され、 実世 界 1の画像の定常性の一部が欠落した、 データ 3である画像データの複数の画 素の画素値の不連続部を検出する。
非定常成分抽出部 2 0 1における非定常成分の抽出の処理の詳細は、 後述す • る。
頂点検出部 2 0 2および単調增減検出部 2 0 3は、 非定常成分抽出部 2 0 1 から供給された非定常成分情報を基に、 入力画像から非定常成分を除去する。 例えば、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画像の各画素 のうち、 背景の画像のみが射影された画素の画素値を 0に設定することによ り、 入力画像から非定常成分を除去する。 また、 例えば、 頂点検出部 2 0 2お よび単調増減検出部 2 0 3は、 入力画像の各画素の画素値から、 平面 P Lで近 似される値を引き算することにより、 入力画像から非定常成分を除去する。 入力画像から背景を除去することができるので、 頂点検出部 2 0 2乃至連続 性検出部 2 0 4は、 細線が射影された画像データの部分のみを処理の対象とす P T/JP2004/008690
55
ることができ、 頂点検出部 2 0 2乃至連続性検出部 2 0 4における処理がより 容易になる。
なお、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去した画像 データを頂点検出部 2 0 2および単調増減検出部 2 0 3に供給するようにして もよい。
以下に説明する処理の例において、 入力画像から非定常成分が除去された画 像データ、 すなわち、 定常成分を含む画素のみからなる画像データが対象とな る。 ,
ここで、 頂点検出部 2 0 2乃至連続性検出部 2 0 4が検出しょうとする、 細 線の画像が射影された画像データについて説明する。
図 3 1で示される細線の画像 射影された画像データの空間方向 Yの断面形 状 (空間方向の位置の変化に対する画素値の変化) は、 光学 LPFがないとし た場合、 センサ 2であるイメージセンサの空間積分効舉から、 図 3 3に示す台 形、 または図 3 4に示す三角形となることが考えられる。 しかしながら、 通常 のイメージセンサは、 光学 LPFを備え、 イメージセンサは、 光学 LPFを通過 した画像を取得し、 取得した画像をデータ 3に射影するので、 現実には、 細線 の画像データの空間方向 Yの断面形状は、 図 3 5に示すようなガウス分布に類 似した形状となる。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影された画素 であって、 同じ断面形状 (空間方向の位置の変化に対する画素値の変化) が画 面の上下方向に一定の間隔で並ぶものからなる領域を検出して、 さらに、 実世 界 1の細線の長さ方向に対応した、 領域の繋がりを検出することにより、 デー タの定常性を有する領域である、 細線の画像が射影された画素からなる領域を 検出する。 すなわち、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像 における、 縦に 1列の画素の上に、 円弧形状 (かまぼこ型) が形成される領域 を検出し、 検出された領域が横方向に隣接して並んでいるか否かを判定して、 T JP2004/008690
56
実世界 1の信号である細線の画像の長さ方向に対応した、 円弧形状が形成され る領域の繋がりを検出する。
また、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 細線の画像が射影され た画素であって、 同じ断面形状が画面の左右方向に一定の間隔で並ぶものから なる領域を検出して、 さらに、 実世界 1の細線の長さ方向に対応した、 検出さ れた領域の繋がりを検出することにより、 データの定常性を有する領域である、 細線の画像が射影された画素からなる領域を検出する。 すなわち、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像における、 横に 1列の画素の上に、 円弧形状が形成される領域を検出し、 検出された領域が縦方向に隣接して並ん でいるか否かを判定して、 実世界 1の信号である細線の画像の長さ方向に対応 した、 円弧形状が形成される領域の繋がりを検出する。
まず、 細線の画像が射影された画素であって、 画面の上下方向に同じ円弧形 状が一定の間隔で並ぶものからなる領域を検出する処理を説明する。
頂点検出部 2 0 2は、 周囲の画素に比較して、 より大きい画素値を有する画 素、 すなわち頂点を検出し、 頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供給する。 画面の上下方向に 1列に並ぶ画素を対象とした場合、 頂点検出 部 2 0 2は、 画面の上側に位置する画素の画素値、 および画面の下側に位置す る画素の画素値に比較して、 より大きい画素値を有する画素を頂点として検出 する。 頂点検出部 2 0 2は、 1つの画像、 例えば、 1つのフレームの画像から、 1または複数の頂点を検出する。
1つの画面には、 フレームまたはフィールドが含まれる。 以下の説明におい て、 同様である。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされ T いない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の上側 の画素の画素値とを比較し、 注目画素の画素値と、 注目画素の下側の画素の画 素値とを比較して、 上側の画素の画素値より大きい画素値を有し、 下側の画素 の画素値より大きい画素値を有する注目画素を検出して、 検出された注目画素 2004/008690
57
を頂点とする。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増 減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。 例えば、 1つの画像の 画素の画素値が全て同じ値であるとき、 または、 1若しくは 2の方向に対して 画素値が減少しているとき、 頂点は検出されない。 この場合、 細線の画像は、 画像データに射影されていない。 - 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置を 示す頂点情報を基に、 頂点検出部 2◦ 2で検出された頂点に対して上下方向に 1列に並ぶ画素であって、 細線の画像が射影された画素からなる領域の候捕を 検出し、 頂点情報と共に、 検出した領域を示す領域情報を連続性検出部 2 0 4 に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単 調減少している画素値を有する画素からなる領域を、 細線の画像が射影された 画素からなる領域の候捕として検出する。 単調減少とは、 頂点からの距離がよ り長い画素の画素値が、 頂点からの距離が短い画素の画素値に比較して、 より 小さいことをいう。
また、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単調増加して いる画素値を有する画素からなる領域を、.細線の画像が射影された画素からな る領域の候補として検出する。 単調増加とは、 頂点からの距離がより長い画素 の画素値が、 頂点からの距離が短い画素の画素値に比較して、 より大きいこと をいう。
以下、 単調増加している画素値を有する画素からなる領域についての処理は、 単調減少している画素値を有する画素からなる領域についての処理と同様なの で、 その説明は省略する。 細線の画像が射影された画素であって、 画面の横方 向に同じ円弧形状が一定の間隔で並ぶものからなる領域を検出する処理におけ る、 単調増加している画素値を有する画素からなる領域についての処理も、 単 04 008690
58
調減少している画素値を有する画素からなる領域についての処理と同様なので、 その説明は省略する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して縦に 1列に各画素について、 各画素の画素値と、 上側の画素の画素値との差分、 および下側の画素の画素値 との差分を求める。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する 画素を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂 点の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有 する画素からなる領域を、 細線の画像が射影された画素からなる領域の候補と して検出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 上側の画素の 画素値の符号および下側の画素の画素値の符号とを比較し、 画素値の符号が変 化する画素を検出することにより、 画素値が単調減少している領域から、 頂点 と同じ符号の画素値を有する画素からなる領域を検出する。
このように、 単調増減検出部 2 0 3は、 上下方向に並ぴ、 頂点に対して画素 値が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出す る。
図 3 6は、 空間方向 Yの位置に対する画素値から、 細線の画像が射影された 画素の領域を検出する、 頂点の検出および単調增減領域の検出の処理を説明す る図である。
図 3 6乃至図 3 8において、 Pは、 頂点を示す。 図 3 0で構成が示されるデ ータ定常性検出部 1 0 1の説明において、 Pは、 頂点を示す。
頂点検出部 2 0 2は、 各画素の画素値と、 これに空間方向 Yに隣接する画素 の画素値とを比較して、 空間方向 Yに隣接する 2つの画素の画素値より大きい 画素値を有する画素を検出することにより、 頂点 Pを検出する。
頂点 Pと、 頂点 Pの空間方向 Yの両側の画素とからなる領域は、 頂点 Pの 画素値に対して、 空間方向 Yの両側の画素の画素値が単調に減少する単調減少 JP2004/008690
59
領域である。 図 3 6において、 Aで示す矢印、 および Bで示す矢印は、 頂点 P の両側に存在する単調減少領域を示す。
単調増減検出部 2 0 3は、 各画素の画素値と、 その画素に空間方向 Yに隣接 する画素の画素値との差分を求めて、 差分の符号が変化する画素を検出する。 単調増減検出部 2 0 3は、 検出された、 差分の符号が変化する画素と、 その手 前側 (頂点 P側) の画素との境界を、 細線の画像が射影された画素からなる 細線領域の境界とする。
図 3 6において、 差分の符号が変化する画素と、 その手前側 (頂点 P側) の画素との境界である細線領域の境界は Cで示される。
さらに、 単調増減検出部 2 0 3は、 単調減少領域において、 各画素の画素値 の符号と、 その画素に空間方向 Yに隣接する画素の画素値の符号とを比較し、 画素値の符号が変化する画素を検出する。 単調増減検出部 2 0 3は、 検出され た、 画素値の符号が変化する画素と、 その手前側 (頂点 P側) の画素との境 界を細線領域の境界とする。
図 3 6において、 画素値の符号が変化する画素と、 その手前側 (頂点!3 側) の画素との境界である細線領域の境界は Dで示される。
図 3 6で示されるように、 細線の画像が射影された画素からなる細線領域 F は、 細線領域の境界 Cと、 細線領域の境界 Dとに挟まれる領域とされる。
単調増減検出部 2 0 3は、 このような単調増減領域からなる細線領域 Fの 中から、 予め定めた閾値より長い細線領域 F、 すなわち、 閾値より多い数の画 素を含む細線領域 Fを求める。 例えば、 閾値が 3であるとき、 単調増減検出 部 2 0 3は、 4つ以上の画素を含む細線領域 Fを検出する。 ' さらに、 このように検出された細線領域 Fの中から、 単調増減検出部 2 0 ' 3は、 頂点 Pの画素値、 および頂点 Pの右側の画素の画素値、 および頂点 P の左側の画素の画素値を、 それぞれ閾値と比較し、 頂点 Pの画素値が閾値を 超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側の画素 の画素値が閾値以下である頂点 Pが属する細線領域 Fを検出し、 検出された 細線領域 Fを細線の画像の成分を含む画素からなる領域の候補とする。
言い換えれば、 頂点 Pの画素値が閾値以下であるか、 頂点 Pの右側の画素 の画素値が閾値を超えるか、 または頂点 Pの左側の画素の画素値が閾値を超 える頂点 P が属する細線領域 F は、 細線の画像の成分を含まないと判定され、 細線の画像の成分を含む画素からなる領域の候補から除去される。
すなわち、 囪 3 7で示されるように、 単調増減検出部 2 0 3は、 頂点 Pの 画素値を閾値と比較すると共に、 頂点 Pに対して、 空間方向 X (点線 AA'で示 す方向) に隣接する画素の画素値を、 閾値と比較し、 頂点 Pの画素値が閾値 を超え、 空間方向 Xに隣接する画素の画素値が閾値以下である、 頂点 Pが属 する細線領域 Fを検出する。
図 3 8は、 図 3 7の点線 AA'で示す空間方向 Xに並ぶ画素の画素値を表す図 である。 頂点 Pの画素値が閾値 T h s .を超え、 頂点 Pの空間方向 Xに隣接する 画素の画素値が、 閾値 T h s以下である、 頂点 Pが属する細線領域 Fは、 細線 の成分を含む。
なお、 単調增減検出部 2 0 3は、 背景の画素値を基準として、 頂点 Pの画 素値と背景の画素値との差分を閾値と比較すると共に、 頂点 Pに対して、 空 間方向 Xに隣接する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点 Pの画素値と背景の画素値との差分が閾値を超え、 空間方向 Xに隣接す る画素の画素値と背景の画素値との差分が閾値以下である、 頂点 Pが属する 細線領域 Fを検出するようにしてもよい。
単調増減検出部 2 0 3は、 頂点 Pを基準として、 画素値が単調減少し、 画 · 素値の符号が頂点 Pと同じである画素からなる領域であって、 その頂点 Pが 閾値を超え、 頂点 Pの右側の画素の画素値が閾値以下であり、 頂点 Pの左側 の画素の画素値が閾値以下であるものを示す単調増減領域情報を連続性検出部 2 0 4に供給する。 画面の上下方向に 1列に並ぶ画素であって、 細線の画像が射影されたものか らなる領域を検出する場合において、 単調増減領域情報により示される領域に 属する画素は、 上下方向に並ぴ、 細線の画像が射影された画素を含む。 すなわ ち、 単調増減領域情報により示される領域は、 画面の上下方向に 1列に並ぶ画 素であって、 細線の画像が射影されたものからなる領域を含む。
このように、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 細線の画像 が射影された画素において、 空間方向 Yの画素値の変化が、 ガウス分布に類似 するという性質を利用して、 細線の画像が射影された画素からなる定常領域を 検出する。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域 情報で示される、 上下方向に並ぶ画素からなる領域のうち、 横方向に隣接して いる画素を含む領域、 すなわち、 相似した画素値の^化を有し、 縦方向に重複 している領域を、 連続している領域として検出し、 頂点情報、 および検出され た連続している領域を示すデータ定常性情報を出力する。 データ定常性情報は、 単調増減領域情報、 および領域の繋がりを示す情報などを含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並 ぶので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよ うに一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領 域とし、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定 常性情報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の 細線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2および単調増減検出部 2 0 3において検出された領域の候捕をさらに絞り 込む。
図 3 9は、 単調増減領域の連続性を検出の処理を説明する図である。 8690
62
図 3 9に示すように、 連続性検出部 2 0 4は、 画面の縦方向に 1列に並ぶ画 素からなる細線領域 Fについて、 横方向に隣接する画素を含んでいるとき、 2つの単調増減領域の間に連続性があるとし、 横方向に隣接する画素を含んで いないとき、 2つの細線領域 Fの間に連続性がないとする。 例えば、 画面の 縦方向に 1列に並ぶ画素からなる細線領域 は、 画面の縦方向に 1列に並 ぶ画素からなる細線領域 F。 の画素と横方向に隣接する画素を含んでいるとき、 細線領域 F。 と連続しているとされる。 画面の縦方向に 1列に並ぶ画素からな る細線領域 F。 は、 画面の縦方向に 1列に並ぶ画素からなる細線領域 の画素 と横方向に隣接する画素を含んでいるとき、 細線領域 と連続しているとさ れる。
このように、 頂点検出部 2 0 2乃至連続性検出部 2 0 4により、 画面の上下 方向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域が 検出される。
頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 上述したように、 画面の上下 方向に 1列に並ぶ画素であって、 細線の画像が射影されたものからなる領域を 検出し、 さらに、 画面の左右方向に 1列に並ぶ画素であって、 細線の画像が射 影されたものからなる領域を検出する。
なお、 処理の順序は、 特に限定されるものではなく、 並列に実行するように しても良いことは当然である。
すなわち、 頂点検出部 2 0 2は、 画面の左右方向に 1列に並ぶ画素を対象と して、 画面の左側に位置する画素の画素値、 および画面の右側に位置する画素 の画素値に比較して、 より大きい画素値を有する画素を頂点として検出し、 検 出した頂点の位置を示す頂点情報を単調増減検出部 2 0 3に供給する。 頂点検 出部 2 0 2は、 1つの画像、 例えば、 1フレームの画像から、 1または複数の 頂点を検出する。
例えば、 頂点検出部 2 0 2は、 1フレームの画像からまだ注目画素とされて いない画素の中から注目画素を選択し、 注目画素の画素値と、 注目画素の左側 の画素の画素値とを比較し、 注目画素の画素値と、 注目画素の右側の画素の画 素値とを比較して、 左側の画素の画素値より大きレ、画素値を有し、 右側の画素 の画素値より大きい画素値を有する注目画素を検出して、 検出された注目画素 を頂点とする。 頂点検出部 2 0 2は、 検出された頂点を示す頂点情報を単調増 減検出部 2 0 3に供給する。
頂点検出部 2 0 2が、 頂点を検出しない場合もある。
単調増減検出部 2 0 3は、 頂点検出部 2 0 2で検出された頂点に対して左右 方向に 1列に並ぶ画素であって、 細線の画像が射影された画素からなる領域の 候補を検出検出し、 頂点情報と共に、 検出した領域を示す単調増減領域情報を 連続性検出部 2 0 4に供給する。
より具体的には、 単調増減検出部 2 0 3は、 頂点の画素値を基準として、 単 調減少している画素値を有する画素からなる領域を、 細線の画像が射影された 画素からなる領域の候補として検出する。
例えば、 単調増減検出部 2 0 3は、 頂点に対して横に 1列の各画素について、 各画素の画素値と、 左側の画素の画素値との差分、 および右側の画素の画素値 との差分を求め 。 そして、 単調増減検出部 2 0 3は、 差分の符号が変化する 画素を検出することにより、 画素値が単調減少している領域を検出する。
さらに、 単調増減検出部 2 0 3は、 画素値が単調減少している領域から、 頂 点の画素値の符号を基準として、 頂点の画素値の符号と同じ符号の画素値を有 する画素からなる領域を、 細線の画像が射影された画素からなる領域の候補と して検出する。
例えば、 単調増減検出部 2 0 3は、 各画素の画素値の符号と、 左側の画素の 画素値の符号または右側の画素の画素値の符号とを比較し、 画素値の符号が変 化する画素を検出することにより、 画素値が単調減少している領域から、 頂点 と同じ符号の画素値を有する画素からなる領域を検出する。 2004/008690
64
このように、 単調増減検出部 2 0 3は、 左右方向に並ぴ、 頂点に対して画素 値が単調減少し、 頂点と同じ符号の画素値を有する画素からなる領域を検出す る。
単調増減検出部 2 0 3は、 このような単調増減領域からなる細線領域の中か ら、 予め定めた閾値より長い細線領域、 すなわち、 閾値より多い数の画素を含 む細線領域を求める。
さらに、 このように検出された細線領域の中から、 単調増減検出部 2 0 3は、 頂点の画素値、 および頂点の上側の画素の画素値、 および頂点の下側の画素の 画素値を、 それぞれ閾値と比較し、 頂点の画素値が閾値を超え、 頂点の上側の 画素の画素値が閾値以下であり、 頂点の下側の画素の画素値が閾値以下である 頂点が属する細線領域を検出し、 検出された細線領域を細線の画像の成分を含 む画素からなる領域の候補とする。
言い換えれば、 頂点の画素値が閾値以下であるか、 頂点の上側の画素の画素 値が閾値を超えるか、 または頂点の下側の画素の画素値が閾値を超える頂点が 属する細線領域は、 細線の画像の成分を含まないと判定され、 細線の画像の成 分を含む画素からなる領域の候補から除去される。
なお、 単調増減検出部 2 0 3は、 背景の画素値を基準として、 頂点の画素値 と背景の画素値との差分を閾値と比較すると共に、 頂点に対して、 上下方向に 隣接する画素の画素値と背景の画素値との差分を、 閾値と比較し、 頂点の画素 値と背景の画素値との差分が閾値を超え、 上下方向に隣接する画素の画素値と 背景の画素値との差分が閾値以下である、 検出された細線領域を細線の画像の 成分を含む画素からなる領域の候補とするようにしてもよい。
単調増減検出部 2 0 3は、 頂点を基準として、 画素値が単調減少し、 画素値 の符号が頂点と同じである画素からなる領域であって、 その頂点が閾値を超え、 頂点の右側の画素の画素値が閾値以下であり、 頂点の左側の画素の画素値が閾 値以下であるものを示す単調増減領域情報を連続性検出部 2 0 4に供給する。 画面の左お方向に 1列に並ぶ画素であって、 細線の画像が射影されたものか らなる領域を検出する場合において、 単調増減領域情報により示される領域に 属する画素は、 左右方向に並び、 細線の画像が射影された画素を含む。 すなわ ち、 単調増減領域情報により示される領域は、 画面の左右方向に並ぶ 1列の画 素であって、 細線の画像が射影されたものからなる領域を含む。
連続性検出部 2 0 4は、 単調増減検出部 2 0 3から供給された単調増減領域 情報で示される、 左右方向に並ぶ画素からなる領域のうち、 縦方向に隣接して いる画素を含む領域、 すなわち、 相似した画素値の変化を有し、 横方向に重複 している領域を、 連続している領域として検出し、 頂点情報、 および検出され た連続している領域を示すデータ定常性情報を出力する。 データ定常性情報は、 領域の繋がりを示す情報を含んでいる。
細線が射影された画素において、 円弧形状が隣接するように一定の間隔で並 ぶので、 検出された連続している領域は、 細線が射影された画素を含んでいる。 検出された連続している領域が、 細線が射影された、 円弧形状が隣接するよ うに一定の間隔で並ぶ画素を含むので、 検出された連続している領域を定常領 域とし、 連続性検出部 2 0 4は、 検出された連続している領域を示すデータ定 常性情報を出力する。
すなわち、 連続性検出部 2 0 4は、 長さ方向に連続するという、 実世界 1の 細線の画像の定常性から生じた、 細線を撮像して得られたデータ 3における、 円弧形状が隣接するように一定の間隔で並ぶ定常性を利用して、 頂点検出部 2 0 2および単調増減検出部 2 0 3において検出された領域の候捕をさらに絞り 込む。
このように、 データ定常性検出部 1 0 1は、 入力画像であるデータ 3に含ま れている定常性を検出することができる。 すなわち、 データ定常性検出部 1 0 1は、 細線である実世界 1の画像がデータ 3に射影されることにより生じた、 データ 3に含まれるデータの定常性を検出することができる。 データ定常性検 出部 1 0 1は、 データ 3から、 細線である実世界 1の画像が射影された画素か らなる領域を検出する。
図 4 0は、 定常性検出部 1 0 1における、 細線の画像が射影された、 定常性 を有する領域の検出の他の処理の例を示す図である。
定常性検出部 1 0 1は、 図 4 0に示すように、 各画素について、 隣接する画 素との画素値の差分の絶対値を計算する。 計算された差分の絶対値は、 画素に 対応させて、 配置される。 例えば、 図 4 0に示すように、 画素値がそれぞれ P0、 Pl、 P2である画素が並んでいるとき、 定常性検出部 1 0 1は、 差分 dO=PO - P1 および差分 dl=Pl- P2 を計算する。 さらに、 定常性検出部 1 0 1は、 差分 dOおよび差分 dlの絶対値を算出する。
画素値 P0、 Pl、 および P2に含まれている非定常性成分が同一であるとき、 差分 dOおよび差分 dlには、 細線の成分に対応した値のみが設定されること になる。
従って、 定常性検出部 1 0 1は、 画素に対応させて配置されている差分の絶 対値のうち、 隣り合う差分の値が同一であるとき、 その 2つの差分の絶対値に 対応する画素 (2つの差分の絶対値に挟まれた画素) に細線の成分が含まれて いると判定する。 ただし、 定常性検出部 1 0 1は、 その差分の絶対値が小さい 場合は細線として検出しなくてもよい。 たとえば、 その差分の絶対値が閾値以 上であるとき、 定常性検出部 1 0 1は、 その画素に細線の成分が含まれている と判定する。
定常性検出部 1 0 1においては、 このような、 簡便な方法で細線を検出する こともできる。
図 4 1は、 定常性検出の処理を説明するフローチャートである。
ステップ S 2 0 1において、 非定常成分抽出部 2 0 1は、 入力画像から、 細 線が射影された部分以外の部分である非定常成分を抽出する。 非定常成分抽出 部 2 0 1は、.入力画像と共に、 抽出された非定常成分を示す非定常成分情報を 04 008690
67
頂点検出部 2 0 2および単調増減検出部 2 0 3に供給する。 非定常成分の抽出 の処理の詳細は、 後述する。
ステップ S 2 0 2において、 頂点検出部 2 0 2は、 非定常成分抽出部 2 0 1 から供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入 力画像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 2において、 頂点検出部 2 0 2は、 頂点を検出する。
すなわち、 頂点検出部 2 0 2は、 画面の縦方向を基準として、 処理を実行す る場合、 定常成分を含む画素について、 各画素の画素値と、 上側および下側の 画素の画素値とを比較して、 上側の画素の画素値および下側の画素の画素値よ り大きい画素値を有する画素を検出することにより、 頂点を検出する。 また、 ステップ S 2 0 2において、 頂点検出部 2 0 2は、 画面の横方向を基準として、 処理を実行する場合、 定常成分を含む画素について、 各画素の画素値と、 右側 および左側の画素の画素値とを比較して、 右側の画素の画素値および左側の画 素の画素値より大きい画素値を有する画素を検出することにより、 頂点を検出 する。
頂点検出部 2 0 2は、 検出した頂点を示す頂点情報を単調増減検出部 2 0 3 に供給する。
ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 非定常成分抽出部 2 0 1から供給された非定常成分情報を基に、 入力画像から非定常成分を除去し、 入力画像に定常成分を含む画素のみを残す。 さらに、 ステップ S 2 0 3におい て、 単調増減検出部 2 0 3は、 頂点検出部 2 0 2から供給された、 頂点の位置 を示す頂点情報を基に、 頂点に対する単調増減を検出することにより、 データ の定常性を有する画素からなる領域を検出する。
単調増減検出部 2 0 3は、 画面の縦方向を基準として、 処理を実行する場合、 頂点の画素値、 および頂点に対して縦に 1列に並ぶ画素の画素値を基に、 縦に 並ぶ 1列の画素であって、 1つの細線の画像が射影された画素からなる単調増 減を検出することにより、 データの定常性を有する画素からなる領域を検出す る。 すなわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の 縦方向を基準として、 処理を実行する場合、 頂点および頂点に対して縦に 1列 に並ぶ画素について、 各画素の画素値と、 上側または下側の画素の画素値との 差分を求めて、 差分の符号が変化する画素を検出する。 また、 単調増減検出部 2 0 3は、 頂点および頂点に対して縦に 1列に並ぶ画素について、 各画素の画 素値の符号と、 その画素の上側または下側の画素の画素値の符号とを比較し、 画素値の符号が変化する画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並びに頂点の右側および左側の画素の画素値を、 閾値と比較し、 頂点の画素値が閾値を超え、 右側および左側の画素の画素値が閾値以下である 画素からなる領域を検出する。
単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
また、 単調増減検出部 2 0 3は、 画面の横方向を基準として、 処理を実行す る場合、 項点の画素値、 および頂点に対して横に 1列に並ぶ画素の画素値を基 に、 横に並ぶ 1列の画素であって、 1つの細線の画像が射影された画素からな る単調増減を検出することにより、 データの定常性を有する画素からなる領域 を検出する。 すなわち、 ステップ S 2 0 3において、 単調増減検出部 2 0 3は、 画面の横方向を基準として、 処理を実行する場合、 頂点および頂点に対して横 に 1列に並ぶ画素について、 各画素の画素値と、 左側または右側の画素の画素 値との差分を求めて、 差分の符号が変化する画素を検出する。 また、 単調増減 検出部 2 0 3は、 頂点および頂点に対して横に 1列に並ぶ画素について、 各画 素の画素値の符号と、 その画素の左側または右側の画素の画素値の符号とを比 ' 較し、 画素値の符号が変化する画素を検出する。 さらに、 単調増減検出部 2 0 3は、 頂点の画素値、 並びに頂点の上側および下側の画素の画素値を、 閾値と 比較し、 頂点の画素値が閾値を超え、 上側および下側の画素の画素値が閾値以 下である画素からなる領域を検出する。 単調増減検出部 2 0 3は、 このように検出された領域を単調増減領域として、 単調増減領域を示す単調増減領域情報を連続性検出部 2 0 4に供給する。
ステップ S 2 0 4において、 単調増減検出部 2 0 3は、 全画素の処理が終了 したか否かを判定する。 例えば、 非定常成分抽出部 2 0 1は、 入力画像の 1つ の画面 (例えば、 フレームまたはフィールドなど) の全画素について、 頂点を 検出し、 単調增減領域を検出したか否かを判定する。
ステップ S 2 0 4において、 全画素の処理が終了していない、 すなわち、 頂 点の検出および単調増減領域の検出の処理の対象とされていない画素がまだあ ると判定された場合、 ステップ S 2 0 2に戻り、 頂点の検出および単調増減領 域の検出の処理の対象とされていない画素から処理の対象となる画素を選択し て、 頂点の検出および単調増減領域の検出の処理を繰り返す。
ステップ S 2 0 4において、 全画素の処理が終了した、 すなわち、 全ての画 素を対象として頂点および単調増減領域が検出されたと判定された場合、 ステ ップ S 2 0 5に進み、 連続性検出部 2 0 4は、 単調増減.領域情報を基に、 検出 された領域の連続性を検出する。 例えば、 連続性検出部 2 0 4は、 単調増減領 域情報で示され.る、 画面の縦方向に 1列に並ぶ画素からなる単調増減領域につ いて、 横方向に隣接する画素を含んでいるとき、 2つの単調増減領域の間に連 続性があるとし、 横方向に隣接する画素を含んでいないとき、 2つの単調増減 領域の間に連続性がないとする。 例えば、 連続性検出部 2 0 4は、 単調増減領 域情報で示される、 画面の横方向に 1列に並ぶ画素からなる単調増減領域につ いて、 縦方向に隣接する画素を含んでいるとき、 2つの単調増減領域の間に連 続性があるとし、 縦方向に隣接する画素を含んでいないとき、 2つの単調増減 領域の間に連続性がないとする。
連続性検出部 2 0 4は、 検出された連続している領域をデータの定常性を有 する定常領域とし、 頂点の位置および定常領域を示すデータ定常性情報を出力 する。 データ定常性情報は、 領域の繋がりを示す情報を含んでいる。 連続性検 出部 2 0 4から出力されるデータ定常性情報は、 実世界 1の細線の画像が射影 された画素からなる、 定常領域である細線領域を示す。
ステップ S 2 0 6において、 定常性方向検出部 2 0 5は、 全画素の処理が終 了したか否かを判定する。 すなわち、 定常性方向検出部 2 0 5は、 入力画像の 所定のフレームの全画素について、 領域の連続性を検出したか否かを判定する。 ステップ S 2 0 6において、 全画素の処理が終了していない、 すなわち、 領 域の連続性の検出の処理の対象とされていない画素がまだあると判定された場 合、 ステップ S 2 0 5に戻り、 領域の連続性の検出の処理の対象とされていな い画素から処理の対象となる画素を選択して、 領域の連続性の検出の処理を繰 り返す。
ステップ S 2 0 6において、 全画素の処理が終了した、 すなわち、 全ての画 素を対象として領域の連続性が検出されたと判定された場合、 処理は終了する。 このように、 入力画像であるデータ 3に含まれている定常性が検出される。 すなわち、 細線である実世界 1の画像がデータ 3に射影されることにより生じ た、 データ 3に含まれるデータの定常性が検出され、 データ 3から、 細線であ る実世界 1の画像が射影された画素からなる、 データの定常性を有する領域が 検出される。
なお、 図 3 0で構成が示されるデータ定常性検出部 1 0 1は、 データ 3のフ レームから検出されたデータの定常性を有する領域を基に、 時間方向のデータ の定常性を検出することができる。
例えば、 図 4 2に示すように、 連続性検出部 2 0 4は、 フレーム #nにおい て、 検出されたデータの定常性を有する領域、 フレーム #n-lにおいて、 検出 · されたデータの定常性を有する領域、 およびフレーム #n+lにおいて、 検出さ' れたデータの定常性を有する領域を基に、 領域の端部を結ぶことにより、 時間 方向のデータの定常性を検出する。
フレーム to- 1は、 フレーム #nに対して時間的に前のフレームであり、 フレ ーム #n+lは、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレーム #n- 1、 フレーム 、 およびフレーム #n+lは、 フレーム #n_l、 フレー ム #n、 およびフレーム #n+l の順で表示される。
より具体的には、 図 4 2において、 Gは、 フレーム #nにおいて、 検出され たデータの定常性を有する領域、 フレーム #n-lにおいて、 検出されたデータ の定常性を有する領域、 およびフレーム #n+lにおいて、 検出されたデータの 定常性を有する領域のそれぞれの一端を結ぶことにより得られた動きべクトル を示し、 G, は、 検出されたデータの定常性を有する領域のそれぞれの他の一 端を結ぶことにより得られた動きべクトルを示す。 動きべクトル Gおよび動き ベタトル G, は、 時間方向のデータの定常性の一例である。
さらに、 図 3 0で構成が示されるデータ定常性検出部 1 0 1は、 データの定 常性を有する領域の長さを示す情報を、 データ定常性情報として出力すること ができる。
図 4 3は、 データの定常性を有しない画像データの部分である非定常成分を 平面で近似して、 非定常成分を抽出する、 非定常成分抽出部 2 0 1の構成を示 すプロック図である。
図 4 3に構成を示す非定常成分抽出部 2 0 1は、 入力画像から所定の数の画 素でなるプロックを抽出し、 プロックと平面で示される値との誤差が所定の閾 値未満になるように、 ブロックを平面で近似して、 非定常成分を抽出する。 入力画像は、 ブロック抽出部 2 2 1に供給されるとともに、 そのまま出力さ れる。
プロック抽出部 2 2 1は、 入力画像から、 所定の数の画素からなるブロック を抽出する。 例えば、 ブロック抽出部 2 2 1は、 7 X 7の画素からなるプロッ クを抽出し、 平面近似部 2 2 2に供給する。 例えば、 ブロック抽出部 2 2 1は、 抽出されるプロックの中心となる画素をラスタスキャン順に移動させ、 順次、 入力画像からブロックを抽出する。 平面近似部 222は、 ブロックに含まれる画素の画素値を所定の平面で近似 する。 例えば、 平面近似部 222は、 式 (32) で表される平面でブロックに 含まれる画素の画素値を近似する。
z = ax+by+c
· ■ · (32) 式 (3 2) において、 Xは、 画素の画面上の一方の方向 (空間方向 X) の位 置を示し、 y は、 画素の画面上の他の一方の方向 (空間方向 Y) の位置を示す。 zは、 平面で示される近似値を示す。 aは、 平面の空間方向 Xの傾きを示し、 bは、 平面の空間方向 Yの傾きを示す。 式 (32) において、 cは、 平面のォ フセッ ト (切片) を示す。
例えば、 平面近似部 222は、 回帰の処理により、 傾き a、 傾き b、 および オフセッド cを求めることにより、 式 (32) で表される平面で、 ブロック に含まれる画素の画素値を近似する。 平面近似部 222は、 棄却を伴う回帰の 処理により、 傾き a、 傾き b、 およびオフセット cを求めることにより、 式
(32) で表される平面で、 ブロックに含まれる画素の画素値を近似する。 例えば、 平面近似部 222は、 最小自乗法により、 ブロックの画素の画素値 に対して、 誤差が最小となる式 (32) で表される平面を求めることにより、 平面でブロックに含まれる画素の画素値を近似する。
なお、 平面近似部 222は、 式 (3 2) で表される平面でブロックを近似す ると説明したが、 式 (3 2) で表される平面に限らず、 より高い自由度をもつ た関数、 例えば、 n次 (nは、 任意の整数) の多項式で表される面でプロック を近似するようにしてもよい。
繰り返し判定部 2 23は、 ブロックの画素値を近似した平面で示される近似 値と、 プロックの対応する画素の画素値との誤差を計算する。 式 (3 3) は、 プロックの画素値を近似した平面で示される近似値と、 ブロックの対応する画 素の画素値 Zi との差分である誤差 et を示す式である。
6; = Zj-Z = Zj- (aXj+DYj+c) • · · ( 3 3 ) 式 (3 3 ) において、 z ハット (z に"を付した文字を z ハツトと記述する。 以下、 本明細書において、 同様に記載する。 ) は、 プロックの画素値を近似し た平面で示される近似値を示し、 a ノヽットは、 ブロックの画素値を近似した平 面の空間方向 Xの傾きを示し、 bハットは、 ブロックの画素値を近似した平面 の空間方向 Yの傾きを示す。 式 (3 3 ) において、 cハットは、 プロックの画 素値を近似した平面のオフセット (切片) を示す。
繰り返し判定部 2 2 3は、 式 (3 3 ) で示される、 近似値とプロックの対応 する画素の画素値との誤差 ei 力 最も大きい画素を棄却する。 このようにす ることで、 細線が射影された画素、 すなわち定常性を有する画素が棄却される ことになる。 繰り返し判定部 2 2 3は、 棄却した画素を示す棄却情報を平面近 似部 2 2 2に供給する。
さらに、 繰り返し判定部 2 2 3は、 標準誤差を算出して、 標準誤差が、 予め 定めた近似終了判定用の閾値以上であり、 プロックの画素のうち、 半分以上の 画素が棄却されていないとき、 繰り返し判定部 2 2 3は、 平面近似部 2 2 2に、 プロックに含まれる画素のうち、 棄却された画素を除いた画素を対象として、 平面による近似の処理を繰り返させる。
定常性を有する画素が棄却されるので、 棄却された画素を除いた画素を対象 として平面で近似をすることにより、 平面は、 非定常成分を近似することにな る。
繰り返し判定部 2 2 3は、 標準誤差が、 近似終了判定用の閾値未満であると き、 または、 プロックの画素のうち、 半分以上の画素が棄却されたとき、 平面 による近似を終了する。
5 X 5の画素からなるプロックについて、 標準誤差 es は、 例えば、 式 (3 4 ) で算出される。 P T/JP2004/008690
74
Figure imgf000076_0001
=∑ ( (Zi - (aXi -byi +c) ] / (n-3)
• - · ( 3 4 ) ここで、 nは、 画素の数である。
なお、 繰り返し判定部 2 2 3は、 標準誤差に限らず、 プロックに含まれる全 ての画素についての誤差の 2乗の和を算出して、 以下の処理を実行するように ここで、 ラスタスキャン方向に 1画素ずつずれたブロックを平面で近似する とき、 図 4 4に示すように、 図中黒丸で示す、 定常性を有する画素、 すなわち 細線の成分を含む画素は、 複数回棄却されることになる。 . 繰り返し判定部 2 2 3は、 平面による近似を終了したとき、 ブロックの画素 値を近似した平面を示す情報 (式 (3 2 ) の平面の傾きおよび切片) を、 非定 常成分情報として出力する。
なお、 繰り返し判定部 2 2 3は、 画素毎の棄却された回数と予め定めた閾値 とを比較して、 棄却された回数が閾値以上である画素を定常成分を含む画素で あるとして、 定常成分を含む画素を示す情報を定常成分情報として出力するよ うにしてもよい。 この場合、 頂点検出部 2 0 2乃至定常性方向検出部 2 0 5は、 定常成分情報で示される、 定常成分を含む画素を対象として、 それぞれの処理 を実行する。
棄却された回数、 プロックの画素の画素値を近似する平面の空間方向 Xの傾 き、 ブロックの画素の画素値を近似する平面の空間方向 Yの傾き、 ブロックの 画素の画素値を近似する平面で示される近似値、 および誤差 は、 入力画像 の特徴量としても利用することができる。
図 4 5は、 ステップ S 2 0 1に対応する、 図 4 3に構成を示す非定常成分抽 出部 2 0 1による、 非定常成分の抽出の処理を説明するフローチャートである。 ステップ S 2 2 1において、 プロック抽出部 2 2 1は、 入力画素から、 所定 の数の画素からなるプロックを抽出し、 抽出したプロックを平面近似部 2 2 2 に供給する。 例えば、 ブロック抽出部 2 2 1は、 入力画素から、 まだ、 選択さ れていない画素のうち、 1つの画素を選択し、 選択された画素を中心とする 7 X 7の画素からなるブロックを抽出する。 例えば、 プロック抽出部 2 2 1は、 ラスタスキャン順に画素を選択することができる。
ステップ S 2 2 2において、 平面近似部 2 2 2は、 抽出されたブロックを平 面で近似する。 平面近似部 2 2 2は、 例えば、 回帰の処理により、 抽出された プロックの画素の画素値を、 平面で近似する。 例えば、 平面近似部 2 2 2は、 回帰の処理により、 抽出されたブロックの画素のうち、 棄却された画素を除い た画素の画素値を、 平面で近似する。 ステップ S 2 2 3において、 繰り返し判 定部 2 2 3は、 繰り返し判定を実行する。 例えば、 プロックの画素の画素値と 近似した平面の近似値とから標準誤差を算出し、 棄却された画素の数を力ゥン トすることにより、 繰り返し判定を実行する。
ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 標準誤差が閾値以上 であるか否かを判定し、 標準誤差が閾値以上であると判定された場合、 ステツ プ S 2 2 5に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画 素のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上で あるか否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却されてお らず、 標準誤差が閾値以上であると判定された場合、 ステップ S 2 2 5に進む ようにしてもよい。
ステップ S 2 2 5において、 繰り返し判定部 2 2 3は、 プロックの画素毎に、 画素の画素値と近似した平面の近似値との誤差を算出し、 誤差が最も大きい画 素を棄却し、 平面近似部 2 2 2に通知する。 手続きは、 ステップ S 2 2 2に戻 り、 棄却された画素を除いた、 ブロックの画素を対象として、 平面による近似 の処理および繰り返し判定の処理が繰り返される。 ステップ S 2 2 5において、 ラスタスキャン方向に 1画素ずつずれたプロッ クがステップ S 2 2 1の処理で抽出される場合、 図 4 4に示すように、 細線の 成分を含む画素 (図中の黒丸で示す) は、 複数回棄却されることになる。
ステップ S 2 2 4において、 標準誤差が閾値以上でないと判定された場合、 プロックが平面で近似されたので、 ステップ S 2 2 6に進む。
なお、 ステップ S 2 2 4において、 繰り返し判定部 2 2 3は、 ブロックの画 素のうち、 半分以上の画素が棄却されたか否か、 および標準誤差が閾値以上で あるか否かを判定し、 ブロックの画素のうち、 半分以上の画素が棄却された力 または標準誤差が閾値以上でないと判定された場合、 ステップ S 2 2 5に進む ようにしてもよレヽ。
ステップ S 2 2 6において、 繰り返し判定部 2 2 3は、 プロックの画素の画 素値を近似する平面の傾きおよび切片を、 非定常成分情報として出力する。 ステップ S 2 2 7において、 ブロック抽出部 2 2 1は、 入力画像の 1つの画 面の全画素について処理を終了したか否かを判定し、 まだ処理の対象となって ない画素があると判定された場合、 ステップ S 2 2 1に戻り、 まだ処理の対象 となっていない画素からプロックを抽出して、 上述した処理を繰り返す。
ステップ S 2 2 7において、 入力画像の 1つの画面の全画素について、 処理 を終了したと判定された場合、 処理は終了する。
このように、 図 4 3に構成を示す非定常成分抽出部 2 0 1は、 入力画像から 非定常成分を抽出することができる。 非定常成分抽出部 2 0 1が入力画像の非 定常成分を抽出するので、 頂点検出部 2 0 2および単調増減検出部 2 0 3は、 入力画像と、 非定常成分抽出部 2 0 1で抽出された非定常成分との差分を求め' ることにより、 定常成分を含む差分を対象として処理を実行することができる。 なお、 平面による近似の処理において算出される、 棄却した場合の標準誤差、 棄却しない場合の標準誤差、 画素の棄却された回数、 平面の空間方向 Xの傾き (式 (3 2 ) における aハット) 、 平面の空間方向 Yの傾き (式 (3 2 ) に おける bハット) 、 平面で置き換えたときのレベル (式 (3 2 ) における。 ハット) 、 および入力画像の画素値と平面で示される近似値との差分は、 特徴 量として利用することができる。
図 4 6は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 4 3に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の処理を 説明するフローチャートである。 ステップ S 2 4 1乃至ステップ S 2 4 5の処 理は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その説明 は省略する。
ステップ S 2 4 6において、 繰り返し判定部 2 2 3は、 平面で示される近似 値と入力画像の画素値との差分を、 入力画像の定常成分として出力する。 すな わち、 繰り返し判定部 2 2 3は、 平面による近似値と、 真値である画素値との 差分を出力する。
なお、 繰り返し判定部 2 2 3は、 平面で示される近似値と入力画像の画素値 との差分が、 所定の閾値以上である画素の画素値を、 入力画像の定常成分とし て出力するようにしてもよい。
ステップ S 2 4 7の処理は、 ステップ S 2 2 7の処理と同様なので、 その説 明は省略する。
平面が非定常成分を近似しているので、 非定常成分抽出部 2 0 1は、 入力画 像の各画素の画素値から、 画素値を近似する平面で示される近似値を引き箄す ることにより、 入力画像から非定常成分を除去することができる。 この場合、 頂点検出部 2 0 2乃至連続性検出部 2 0 4は、 入力画像の定常成分、 すなわち 細線の画像が射影された値のみを処理の対象とすることができ、 頂点検出部 2 0 2乃至連続性検出部 2 0 4における処理が.より容易になる。
図 4 7は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 4 3に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出の他の処 理を説明するフローチャートである。 ステップ S 2 6 1乃至ステップ S 2 6 5 の処理は、 ステップ S 2 2 1乃至ステップ S 2 2 5の処理と同様なので、 その 説明は省略する。 T/JP2004/008690
78
ステップ S 2 6 6において、 繰り返し判定部 2 2 3は、 画素毎の、 棄却の回 数を記憶し、 ステップ S 2 6 2に戻り、 処理を繰り返す。
ステップ S 2 6 4において、 標準誤差が閾値以上でないと判定された場合、 プロックが平面で近似されたので、 ステップ S 2 6 7に進み、 繰り返し判定部 2 2 3は、 入力画像の 1つの画面の全画素について処理を終了したか否かを判 定し、 まだ処理の対象となってない画素があると判定された場合、 ステップ S 2 6 1に戻り、 まだ処理の対象となっていない画素についてプロックを抽出し て、 上述した処理を繰り返す。
ステップ S 2 6 7において、 入力画像の 1つの画面の全画素について、 処理 を終了したと判定された場合、 ステップ S 2 6 8に進み、 繰り返し判定部 2 2 3は、 まだ選択されていない画素から 1つの画素を選択し、 選択された画素に ついて、 棄却の回数が、 閾値以上であるか否かを判定する。 例えば、 繰り返し 判定部 2 2 3は、 ステップ S 2 6 8において、 選択された画素について、 棄却 の回数が、 予め記憶している閾値以上であるか否かを判定する。
ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値 以上であると判定された場合、 選択された画素が定常成分を含むので、 ステツ プ S 2 6 9に進み、 繰り返し判定部 2 2 3は、 選択された画素の画素値 (入力 画像における画素値) を入力画像の定常成分として出力し、 ステップ S 2 7 0 に進む。
ステップ S 2 6 8において、 選択された画素について、 棄却の回数が、 閾値 以上でないと判定された場合、 選択された画素が定常成分を含まないので、 ス テツプ S 2 6 9の処理をスキップして、 手続きは、 ステップ S 2 7 0に進む。 すなわち、 棄却の回数が、 閾値以上でないと判定された画素は、 画素値が出力 されない。
なお、 棄却の回数が、 閾値以上でないと判定された画素について、 繰り返し 判定部 2 2 3は、 0を設定した画素値を出力するようにしてもよい。 P T/JP2004/008690
79
ステップ S 2 7 0において、 繰り返し判定部 2 2 3は、 入力画像の 1つの画 面の全画素について、 棄却の回数が閾値以上であるか否かの判定の処理を終了 したか否かを判定し、 全画素について処理を終了していないと判定された場合、 まだ処理の対象となってない画素があるので、 ステップ S 2 6 8に戻り、 まだ 処理の対象となっていない画素から 1つの画素を選択して、 上述した処理を操 り返す。
ステップ S 2 7 0において、 入力画像の 1つの画面の全画素について処理を 終了したと判定された場合、 処理は終了する。
このように、 非定常成分抽出部 2 0 1は、 定常成分情報として、 入力画像の 画素のうち、 定常成分を含む画素の画素値を出力することができる。 すなわち、 非定常成分抽出部 2 0 1は、 入力画像の画素のうち、 細線の画像の成分を含む 画素の画素値を出力することができる。
図 4 8は、 ステップ S 2 0 1に対応する非定常成分の抽出の処理に代わる、 図 4 3に構成を示す非定常成分抽出部 2 0 1による、 定常成分の抽出のさらに 他の処理を説明するフローチャートである。 ステップ S 2 8 1乃至ステップ S 2 8 8の処理は、 ステップ S 2 6 1乃至ステップ S 2 6 8の処理と同様なので、 その説明は省略する。
ステップ S 2 8 9において、 繰り返し判定部 2 2 3は、 平面で示される近似 値と、 選択された画素の画素値との差分を入力画像の定常成分として出力する。 すなわち、 繰り返し判定部 2 2 3は、 入力画像から非定常成分を除去した画像 を定常性情報として出力する。
ステップ S 2 9 0の処理は、 ステップ S 2 7 0の処理と同様なので、 その説' 明は省略する。
このように、 非定常成分抽出部 2 0 1は、 入力画像から非定常成分を除去し た画像を定常性情報として出力することができる。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の 一部が欠落した、 第 1の画像データの複数の画素の画素値の不連続部を検出し、 検出された不連続部からデータの定常性を検出し、 検出されたデータの定常性 を基に、 現実世界の光信号の定常性を推定することにより光信号を近似するモ デル (関数) を生成し、 生成された関数に基づき第 2の画像データを生成する ようにした場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理 結果を得ることができるようになる。
図 4 9は、 データ定常性検出部 1 0 1の他の構成を示すブロック図である。 図 4 9に構成を示すデータ定常性検出部 1 0 1においては、 注目している画 素である注目画素について、 入力画像の空間方向に対する画素値の変化、 すな わち入力画像の空間方向のァクティビティが検出され、 検出されたァクティビ ティに応じて、 注目画素および基準軸を基準とした角度毎に、 垂直方向に 1列 または水平方向に 1列の所定の数の画素からなる画素の組が、 複数抽出され、 抽出された画素の組の相関が検出され、 相関に基づいて、 入力画像における、 基準軸を基準としたデータの定常性の角度が検出される。
データの定常性の角度とは、 基準軸と、 データ 3が有している、 一定の特徴 が繰り返し現れる所定の次元の方向とがなす角度 いう。 一定の特徴が繰り返 し現れるとは、 例えば、 データ 3における位置の変化に対する値の変化、 すな わち断面形状が同じである場合などをいう。
基準軸は、 例えば、 空間方向 Xを示す軸 (画面の水平方向) 、 または空間方 向 Yを示す軸 (画面の垂直方向) などとすることができる。
入力画像は、 アクティビティ検出部 4 0 1およびデータ選択部 4 0 2に供給 される。
アクティビティ検出部 4 0 1は、 入力画像の空間方向に対する画素値の変化、 すなわち空間方向のァクテ f ビティを検出して、 検出した結果を示すァクティ ビティ情報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。 例えば、 アクティビティ検出部 4 0 1は、 画面の水平方向に対する画素値の 変化、 および画面の垂直方向に対する画素値の変化を検出し、 検出された水平 方向に対する画素値の変化および垂直方向に対する画素値の変化を比較するこ とにより、 垂直方向に対する画素値の変化に比較して、 水平方向に対する画素 値の変化が大きいか、 または水平方向に対する画素値の変化に比較して、 垂直 方向に対する画素値の変化が大きいかを検出する。
アクティビティ検出部 4 0 1は、 検出の結果である、 垂直方向に対する画素 値の変化に比較して、 水平方向に対する画素値の変化が大きいことを示すか、 または水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の 変化が大きいことを示すァクティビティ情報をデータ選択部 4 0 2および定常 方向導出部 4 0 4に供給する。
垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化 が大きい場合、 例えば、 図 5 0で示されるように、 垂直方向に 1列の画素に円 弧形状 (かまぼこ型) またはつめ形状が形成され、 円弧形状またはつめ形状が 垂直により近い方向に繰り返して形成されている。 すなわち、 垂直方向に対す る画素値の変化に比較して、 水平方向に対する画素値の変化が大きい場合、 基 準軸を空間方向 Xを示す軸とすると、 入力画像における、 基準軸を基準とした データの定常性の角度は、 4 5度乃至 9 0度のいずれかの値である。
水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化 が大きい場合、 例えば、 水平方向に 1列の画素に円弧形状またはつめ形状が形 成され、 円弧形状またはつめ形状が水平方向により近い方向に繰り返して形成 されている。 すなわち、 水平方向に対する画素値の変化に比較して、 垂直方向 に対する画素値の変化が大きい場合、 基準軸を空間方向 Xを示す軸とすると、 入力画像における、 基準軸を基準としたデータの定常性の角度は、 0度乃至 4 5度のいずれかの値である。
例えば、 アクティビティ検出部 4 0 1は、 図 5 1で示される、 注目画素を中 心とした 3 X 3の 9つの画素からなるプロックを入力画像から抽出する。 ァク テイビティ検出部 4 0 1は、 縦に隣接する画素についての画素値の差分の和、 および横に隣接する画素についての画素値の差分の和を算出する。 横に隣接す る画素についての画素値の差分の和 hd i f f は、 式 (3 5 ) で求められる。 hdiff =∑ (Pi+1, j_Pi, j).
• · · (3 5) 同様に、 縦に隣接する画素についての画素値の差分の和 vdi f f は、 式 (3 6) で求められる。
vdiff = (Pu+1-Pu)
• · · (3 6) 式 (35) および式 (36) において、 Pは、 画素値を示し、 iは、 画素の 横方向の位置を示し、 jは、 画素の縦方向の位置を示す。
ァクティビティ検出部 40 1は、 算出された横に隣接する画素についての画 素値の差分の和 hdif f および縦に隣接する画素についての画素値の差分の和 vdi f f を比較して、 入力画像における、 基準軸を基準としたデータの定常性の 角度の範囲を判定するようにしてもよい。 すなわち、 この場合、 ァクティビテ ィ検出部 401は、 空間方向の位置に対する画素値の変化で示される形状が水 平方向に繰り返して形成されているか、 垂直方向に繰り返して形成されている かを判定する。
例えば、 横に 1列の画素上に形成された円弧についての横方向の画素値の変 化は、 縦方向の画素値の変化に比較して大きく、 横に 1列の画素上に形成され た円弧についての縦方向の画素値の変化は、 横方向の画素値の変化に比較して 大きく、 データの定常性の方向、 すなわち、 データ 3である入力画像が有して いる、 一定の特徴の所定の次元の方向の変化は、 データの定常性に直交する方 向の変化に比較して小さいと言える。 言い換えれば、 データの定常性の方向の 差分に比較して、 データの定常性の方向に直交する方向 (以下、 非定常方向と も称する) の差分は大きい。
例えば、 図 5 2に示すように、 アクティビティ検出部 40 1は、 算出された 横に隣接する画素についての画素値の差分の和 hdi ff および縦に隣接する画 素についての画素値の差分の和 vdi f f を比較して、 横に隣接する画素につい ての画素値の差分の和 hdi ff が大きい場合、 基準軸を基準としたデータの定 常性の角度が、 4 5度乃至 1 3 5度のいずれかの値であると判定し、 縦に隣接 する画素についての画素値の差分の和 vd i f f が大きい場合、 基準軸を基準と したデータの定常性の角度が、 0度乃至 4 5度のいずれかの値、 または 1 3 5 度乃至 1 8 0度のいずれかの値であると判定する。
例えば、 アクティビティ検出部 4 0 1は、 判定の結果を示すァタティビティ 情報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
なお、 アクティビティ検出部 4 0 1は、 5 X 5の 2 5の画素からなるブロッ ク、 または 7 X 7の 4 9の画素からなるプロックなど、 任意の大きさのプロッ クを抽出して、 アクティビティを検出することができる。
データ選択部 4 0 2は、 入力画像の画素から注目画素を順に選択し、 ァクテ イビティ検出部 4 0 1から供給されたアクティビティ情報を基に、 注目画素お ょぴ基準軸を基準とした角度毎に、 垂直方向に 1列または水平方向に 1列の所 定の数の画素からなる画素の組を、 複数抽出する。
例えば、 ァクティビティ情報が垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化が大きいことを示しているとき、 データの定常 性の角度が、 4 5度乃至 1 3 5度のいずれかの値なので、 データ選択部 4 0 2 は、 注目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角 度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。 ァクティビティ情報が水平方向に対する画素値の変化に比較して、 垂直方向 に対する画素値の変化が大きいことを示しているとき、 データの定常性の角度 ヽ 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれかの値なので、 デー タ選択部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の 画素からなる画素の組を、 複数抽出する。
また、 例えば、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値 であることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎 に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。 データの定常性の角度が 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいず れかの値であることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注目画素おょぴ基準軸を基準とした 0度乃至 4 5度または 1 3 5度 乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素から なる画素の組を、 複数抽出する。
データ選択部 4 0 2は、 抽出した画素からなる複数の組を誤差推定部 4 0 3 に供給する。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 角度毎に、 画素の組の相関を検出する。
例えば、 誤差推定部 4 0 3は、 1つの角度に対応する、 垂直方向に 1列の所 定の数の画素からなる画素の複数の組について、 画素の組における対応する位 置の画素の画素値の相関を検出する。 誤差推定部 4 0 3は、 1つの角度に対応 する、 水平方向に 1列の所定の数の画素からなる画素の複数の組について、 組 における対応する位置の画素の画素値の相関を検出する。
誤差推定部 4 0 3は、 検出した相関を示す相関情報を定常方向導出部 4 0 4 に供給する。 誤差推定部 4 0 3は、 相関を示す値として、 データ選択部 4 0 2 から供給された、 注目画素を含む組の画素の画素値と、 他の組における対応す る位置の画素の画素値の差分の絶対値の和を算出し、 差分の絶対値の和を相関 情報として定常方向導出部 4 0 4に供給する。
定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関情報に基い て、 欠落した実世界 1の光信号の定常性に対応する、 入力画像における、 基準 軸を基準としたデータの定常性の角度を検出し、 角度を示すデータ定常性情報 を出力する。 例えば、 定常方向導出部 4 0 4は、 誤差推定部 4◦ 3から供給さ れた相関情報に基いて、 データの定常性の角度として、 最も相関の強い画素の 組に対する角度を検出し、 検出された最も相関の強い画素の組に対する角度を 示すデータ定常性情報を出力する。
以下の説明において、 適宜、 0度乃至 9 0度の範囲 (いわゆる第 1象限) の データの定常性の角度を検出するものとして説明する。
図 5 3は、 図 4 9に示すデータ定常性検出部 1 0 1のより詳細な構成を示す ブロック図である。
データ選択部 4 0 2は、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lを 含む。 誤差推定部 4 0 3は、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2 - Lを含む。 定常方向導出部 4 0 4は、 最小誤差角度選択部 4 1 3を含む。 まず、 アクティビティ情報で示される、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を 基準軸として、 注目画素を通る、 それぞれ異なる所定の角度の直線を設定する。 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列に属する画素であって、 注目画素の上側の所定の数の画素、 およ び注目画素の下側の所定の数の画素、 並びに注目画素を画素の組として選択す る。 ·
例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1ー は、 注目画素が属する縦に 1列の画素の列に属する画素から、 注目画 素を中心として 9つの画素を画素の組として選択する。
図 5 4において、 マス目状の 1つの四角 (1つのマス目) は、 1つの画素を' 示す。 図 5 4において、 中央に示す丸は、 注目画素を示す。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 それぞ れに設定された直線に最も近い位置の画素を選択する。 図 5 4において、 注目 画素の左下側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1 T/JP2004/008690
86
一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所 定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択さ れた画素を画素の組として選択する。
例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1ー は、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素 の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を 画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つめの縦に 1列の画素の列に属する画素であって、 それぞれに設定された直線に最も近い位置の画素を選択する。 図 5 4において、 最も左側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1 - 1 乃至画素選択部 4 1 1 _ Lは、 注目画素が属する縦に 1列の画素の列の、 左側 に 2つめの縦に 1列の画素の列に属する画素であって、 選択された画素の上側 の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選 択された画素を画素の組として選択する。
例えば、 図 5 4で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つめの縦に 1 列の画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つ の画素を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 それぞ' れに設定された直線に最も近い位置の画素を選択する。 図 5 4において、 注目 画素の右上側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1 一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所 定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択さ れた画素を画素の組として選択する。
例えば、 図 54で示されるように、 画素選択部 41 1一 1乃至画素選択部 4 11—Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素 の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を 画素の組として選択する。
画素選択部 41 1一 1乃至画素選択部 41 1— Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 それぞれに設定された直線に最も近い位置の画素を選択する。 図 54において、 最も右側の丸は、 このように選択された画素の例を示す。 そして、 画素選択部 41 1 - 1乃至画素選択部 41 1一 Lは、 注目画素が属する縦に 1列の画素の 列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 選択された 画素の上側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の組として選択する。
例えば、 図 54で示されるように、 画素選択部 41 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1 列の画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つ の画素を画素の組として選択する。
このように、 画素選択部 41 1— 1乃至画素選択部 41 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 41 1 _ 1乃至画素選択部 41 1一 Lは、 互いに異なる角度 (に 設定された直線) についての、 画素の組を選択する。 例えば、 画素選択部 41 ' 1一 1は、 45度についての、 画素の組を選択し、 画素選択部 41 1— 2は、 47. 5度についての、 画素の組を選択し、 画素選択部 41 1一 3は、 50度 についての、 画素の組を選択する。 画素選択部 41 1 - 1乃至画素選択部 41 1一 Lは、 52. 5度から 1 35度までの、 2. 5度毎の角度についての、 画 素の組を選択する。 JP2004/008690
88
なお、 画素の組の数は、 例えば、 3つ、 または 7つなど、 任意の数とするこ とができる。 また、 1つの組として選択された画素の数は、 例えば、 5つ、 ま たは 1 3など、 任意の数とすることができる。
なお、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 縦方向に所定の 範囲の画素から、 画素の組を選択するようにすることができる。 例えば、 画素 選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 縦方向に 1 2 1個の画素 (注 目画素に対して、 上方向に 6 0画素、 下方向に 6 0画素) から、 画素の組を選 択する。 この場合、 データ定常性検出部 1 0 1は、 空間方向 Xを示す軸に対し て、 8 8 . 0 9度まで、 データの定常性の角度を検出することができる。 画素選択部 4 1 1— 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に 供給し、 画素選択部 4 1 1 _ 2は、 選択した画素の組を推定誤差算出部 4 1 2 一 2に供給する。 同様に、 画素選択部 4 1 1 _ 3乃至画素選択部 4 1 1一 の それぞれは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出 部 4 1 2 _ Lのそれぞれに供給する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 複数の組にお ける対応する位置の画素の画素値の相関を検出する。 例えば、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 相関を示す値として、 画素選択 部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素 を含む組の画素の画素値と、 他の組における対応する位置の画素の画素値の差 分の絶対値の和を算出する。
より具体的には、 推定誤差算出部 4 1 2 _ 1乃至推定誤差算出部 4 1 2 - L は、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給され た、 注目画素を含む組の画素の画素値と、 注目画素の左側の縦に 1列の画素の 列に属する画素からなる組の画素の画素値とを基に、 最も上の画素の画素値の 差分を算出し、 上から 2番目の画素の画素値の差分を算出するように、 上の画 素から順に画素値の差分の絶対値を算出して、 さらに、 算出された差分の絶対 値の和を算出する。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2 - L は、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給され た、 注目画素を含む組の画素の画素値と、 注目画素の左に 2つめの縦に 1列の 画素の列に属する画素からなる組の画素の画素値とを基に、 上の画素から順に 画素値の差分の絶対値を算出して、 算出された差分の絶対値の和を算出する。 ' そして、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2 _ Lは、 画素 選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目 画素を含む組の画素の画素値と、 注目画素の右側の縦に 1列の画素の列に属す る画素からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算 出し、 上から 2番目の画素の画素値の差分を算出するように、 上の画素から順 に画素値の差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を 算出する。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素 選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目 画素を含む組の画素の画素値と、 注目画素の右に 2つめの縦に 1列の画素の列 に属する画素からなる組の画素の画素値とを基に、 上の画素から順に画素値の 差分の絶対値を算出して、 算出された差分の絶対値の和を算出する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 このように算 出された画素値の差分の絶対値の和を全て加算して、 画素値の差分の絶対値の 総和を算出する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 検出された相 関を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 例えば、 推定誤差算 出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 算出された画素値の差分の 絶対値の総和を最小誤差角度選択部 4 1 3に供給する。
なお、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素値 の差分の絶対値の和に限らず、 画素値の差分の自乗の和、 または画素値を基に した相関係数など他の値を相関値として算出するようにすることができる。 最小誤差角度選択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出 部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 欠落した実世界 1の光信号である画像の定常性に対応する、 入力画像における、 基準軸を基準としたデータの定常性の角度を検出する。 すなわち、 最小誤差角 度選択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2 - 1 乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基いて、 最も強い相 関を選択し、 選択された相関が検出された角度を、 基準軸を基準としたデータ の定常性の角度とすることにより、 入力画像における、 基準軸を基準としたデ ータの定常性の角度を検出する。
例えば、 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2— 1乃至推定 誤差算出部 4 1 2— Lから供給された、 画素値の差分の絶対値の総和のうち、 最小の総和を選択する。 最小誤差角度選択部 4 1 3は、 選択された総和が算出 された画素の組について、 注目画素に対して、 左側に 2つめの縦に 1列の画素 の列に属する画素であって、 直線に最も近い位置の画素の位置、 および、 注目 画素に対して、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 直 線に最も近い位置の画素の位置を参照する。
図 5 4で示されるように、 最小誤差角度選択部 4 1 3は、 注目画素の位置に 対する、 参照する画素の位置の縦方向の距離 Sを求める。 最小誤差角度選択 部 4 1 3は、 図 5 5で示すように、 式 (3 7 ) から、 欠落した実世界 1の光信 号の定常性に対応する、 画像データである入力画像における、 基準軸である空 間方向 Xを示す軸を基準としたデータの定常性の角度 Θを検出する。
-1 S
Θ = tan 2
• · · ( 3 7 )
次に、 アクティビティ情報で示される、 データの定常性の角度が 0度乃至 4 5度および 1 3 5度乃至 1 8 0度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lの処理を説明する。 T/JP2004/008690
. 91
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を 基準軸として、 注目画素を通る、 所定の角度の直線を設定し、 注目画素が属す る横に 1列の画素の列に属する画素であって、 注目画素の左側の所定の数の画 素、 および注目画素の右側の所定の数の画素、 並びに注目画素を画素の組とし て選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 上側の横に 1列の画素の列に属する画素であって、 それぞ れに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列 の、 上側の横に 1列の画素の列に属する画素であって、 選択された画素の左側 の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並びに選 択された画素を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 それぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選 択部 4 1 1— 1乃至画素選択部 4 1 1— Lは、 注目画素が属する横に 1列の画 素の列の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 選択さ れた画素の左側の所定の数の画素、 および選択された画素の右側の所定の数の 画素、 並びに選択された画素を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 下側の横に 1列の画素の列に属する画素であって、 それぞ れに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の^ の、 下側の横に 1列の画素の列に属する画素であって、 選択された画素の左側 の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並びに選 択された画素を画素の組として選択する。 4 008690
92
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 それぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選 択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画 素の列の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 選択さ れた画素の左側の所定の数の画素、 および選択された画素の右側の所定の数の 画素、 並びに選択された画素を画素の組として選択する。
このように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 互いに異なる角度につ いての、 画素の組を選択する。 例えば、 画素選択部 4 1 1一 1は、 0度につい ての、 画素の組を選択し、 画素選択部 4 1 1一 2は、 2 . 5度についての、 画 素の組を選択し、 画素選択部 4 1 1一 3は、 5度についての、 画素の組を選択 する。 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 7 . 5度から 4 5 度おょぴ 1 3 5度から 1 8 0度までの、 2 . 5度毎の角度についての、 画素の 組を選択する。 '
画素選択部 4 1 1一 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に 供給し、 画素選択部 4 1 1一 2は、 選択した画素の組を推定誤差算出部 4 1 2 _ 2に供給する。 同様に、 画素選択部 4 1 1一 3乃至画素選択部 4 1 1一 の それぞれは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出 部 4 1 2— Lのそれぞれに供給する。
推定誤差算出部 4 1 2 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 複数の組にお ける対応する位置の画素の画素値の相関を検出する。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 検出された相関を示す情報を、 最小誤差 角度選択部 4 1 3に供給する。 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2 - 1乃至推定誤差算出 部 4 1 2— Lにおいて検出された相関に基いて、 欠落した実世界 1の光信号で ある画像の定常性に対応する、 入力画像における、 基準軸を基準としたデータ の定常性の角度を検出する。
次に、 図 5 6のフローチャートを参照して、 ステップ S 1 0 1の処理に対応 する、 図 4 9で構成が示されるデータ定常性検出部 1 0 1による、 データの定 常性の検出の処理を説明する。
ステップ S 4 0 1において、 アクティビティ検出部 4 0 1およびデータ選択 部 4 0 2は、 入力画像から、 注目している画素である注目画素を選択する。 ァ クテイビティ検出部 4 0 1およびデータ選択部 4 0 2は、 同一の注目画素を選 択する。 例えば、 ァクティビティ検出部 4 0 1およびデータ選択部 4 0 2は、 入力画像から、 ラスタスキャン順に、 注目画素を選択する。
ステップ S 4 0 2において、 アクティビティ検出部 4 0 1は、 注目画素に対 するアクティビティを検出する。 例えば、 アクティビティ検出部 4 0 1は、 注 目画素を中心とした所定の数の画素からなるブロックの縦方向に並ぶ画素の画 素値の差分および横方向に並ぶ画素の画素値の差分を基に、 ァクティビティを 検出する。
ァクティビティ検出部 4 0 1は、 注目画素に対する空間方向のァクティビテ ィを検出して、 検出した結果を示すアクティビティ情報をデータ選択部 4 0 2 および定常方向導出部 4 0 4に供給する。
ステップ S 4 0 3において、 データ選択部 4 0 2は、 注目画素を含む画素の 列から、 注目画素を中心とした所定の数の画素を、 画素の組として選択する。 例えば、 データ選択部 4 0 2は、 注目画素が属する縦または横に 1列の画素の 列に属する画素であって、 注目画素の上側または左側の所定の数の画素、 およ ぴ注目画素の下側または右側の所定の数の画素、 並びに注目画素を画素の組と して選択する。 ステップ S 4 0 4において、 データ選択部 4 0 2は、 ステップ S 4 0 2の処 理で検出されたアクティビティを基にした、 所定の範囲の角度毎に、 所定の数 の画素の列から、 それぞれ所定の数の画素を、 画素の組として選択する。 例え ば、 データ選択部 4 0 2は、 所定の範囲の角度を有し、 空間方向 Xを示す軸を 基準軸として、 注目画素を通る直線を設定し、 注目画素に対して、 横方向また は縦方向に 1列または 2列離れた画素であって、 直線に最も近い画素を選択し、 選択された画素の上側または左側の所定の数の画素、 および選択された画素の 下側または右側の所定の数の画素、 並びに線に最も近い選択された画素を画素 の組として選択する。 データ選択部 4 0 2は、 角度毎に、 画素の組を選択する。 データ選択部 4 0 2は、 選択した画素の組を誤差推定部 4 0 3に供給する。 ステップ S 4 0 5において、 誤差推定部 4 0 3は、 注目画素を中心とした画 素の組と、 角度毎に選択した画素の組との相関を計算する。 例えば、 誤差推定 部 4 0 3は、 角度毎に、 注目画素を含む組の画素の画素値と、 他の組における 対応する位置の画素の画素値の差分の絶対値の和を算出する。
角度毎に選択された、 画素の組の相互の相関を基に、 データの定常性の角度 を検出するようにしてもよい。
誤差推定部 4 0 3は、 算出された相関を示す情報を、 定常方向導出部 4 0 4 に供給する。 '
ステップ S 4 0 6において、 定常方向導出部 4 0 4は、 ステップ S 4 0 5の 処理で算出された相関を基に、 相関が最も強い画素の組の位置から、 欠落した 実世界 1の光信号の定常性に対応する、 画像データである入力画像における、 基準軸を基準としたデータの定常性の角度を検出する。 例えば、 定常方向導出 部 4 0 4は、 画素値の差分の絶対値の総和のうち、 最小の総和を選択し、 選択 された総和が算出された画素の組の位置から、 データの定常性の角度 Θを検出 する。
定常方向導出部 4 0 4は、 検出したデータの定常性の角度を示すデータ定常 性情報を出力する。 ステップ S 4 0 7において、 データ選択部 4 0 2は、 全ての画素の処理を終 了したか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ステップ S 4 0 1に戻り、 まだ注目画素として選択されていない画素から注目 画素を選択して、 上述した処理を繰り返す。
ステップ S 4 0 7において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 データ定常性検出部 1 0 1は、 欠落した実世界 1の光信号の定 常性に対応する、 画像データにおける、 基準軸を基準としたデータの定常性の 角度を検出することができる。
なお、 図 4 9で構成が示されるデータ検出部 1 0 1は、 注目しているフレー ムである注目フレームの、 注目している画素である注目画素について、 入力画 像の空間方向のァクティビティを検出し、 検出されたァクティビティに応じて、 注目画素おょぴ空間方向の基準軸を基準とした角度、 並びに動きべクトル毎に、 注目フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞ れから、 垂直方向に 1列または水平方向に 1列の所定の数の画素からなる画素 の組を、 複数抽出し、 抽出された画素の組の相関を検出し、 相関に基づいて、 入力画像における、 時間方向および空間方向のデータの定常性の角度を検出す るようにしてもよい。
例えば、 図 5 7に示すように、 データ選択部 4 0 2は、 検出されたァクティ ビティに応じて、 注目画素および空間方向の基準軸を基準とした角度、 並びに 動きベクトル毎に、 注目フレームであるフレーム #n、 フレーム #n- 1、 および フレーム #n+lのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定 ' の数の画素からなる画素の組を、 複数抽出する。
フレーム - 1は、 フレーム #nに対して時間的に前のフレームであり、 フレ 一 Λ#η+1は、 フレーム #ηに対して時間的に後のフレームである。 すなわち、 フレーム #η- 1、 フレーム #η、 およびフレーム #η+1は、 フレーム #n- 1、 フレー ム #n、 およびフレーム #n+lの順で表示される π 誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 1つの角度 および 1つの動きベクトル毎に、 画素の組の相関を検出する。 定常方向導出部 4 0 4は、 画素の組の相関に基づいて、 欠落した実世界 1の光信号の定常性に 対応する、 入力画像における、 時間方向および空間方向のデータの定常性の角 度を検出し、 角度を示すデータ定常性情報を出力する。
次に、 図 5 8乃至図 8 8を参照して、 実世界推定部 1 0 2 (図 3 ) の実施の 形態の他の例について説明する。
図 5 8は、 この例の実施の形態の原理を説明する図である。
図 5 8で示されるように、 センサ 2に入射される画像である、 実世界 1の信 号 (光の強度の分布) は、 所定の関数 Fで表される。 なお、 以下、 この例の実 施の形態の説明においては、 画像である、 実世界 1の信号を、 特に光信号と称 し、 関数 Fを、 特に光信号関数 Fと称する。
この例の実施の形態においては、 光信号関数 Fで表される実世界 1の光信号 が所定の定常性を有する場合、 実世界推定部 1 0 2が、 センサ 2からの入力画 像 (定常性に対応するデータの定常性を含む画像データ) と、 データ定常性検 出部 1 0 1からのデータ定常性情報 (入力画像のデータの定常性に対応するデ ータ定常性情報) を使用して、 光信号関数 Fを所定の関数 f で近似することに よって、 光信号関数 Fを推定する。 なお、 以下、 この例の実施の形態の説明に おいては、 関数 f を、 特に近似関数 f と称する。
換言すると、 この例の実施の形態においては、 実世界推定部 1 0 2が、 近似 関数 f で表されるモデル 1 6 1 (図 4 ) を用いて、 光信号関数 Fで表される 画像 (実世界 1の光信号) を近似 (記述) する。 従って、 以下、 この例の実施 ' の形態を、 関数近似手法と称する。
ここで、 関数近似手法の具体的な説明に入る前に、 本願出願人が関数近似手 法を発明するに至った背景について説明する。
図 5 9は、 センサ 2が C C Dとされる場合の積分効果を説明する図である。 PC漏賺 08690
97
図 5 9で示されるように、 センサ 2の平面上には、 複数の検出素子 2— 1が 配置されている。
図 5 9の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向 である Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向で ある t方向とされている。
また、 図 59の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ 時間 (露光時間) が 1とされている。
さらに、 図 5 9の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位 置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原点 (1方向の位置セ =0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素 子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 および t方向に- 0.5乃至 0.5の範囲で光信号関数 F(x,y,t)を積分し、 その積 分値を画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される 画素値 Pは、 次の式 (38) で表される。
r+ .B p+0.5 r+O.B 、
P = J•'- n0.5R J «'- n0.5. — n 0.5R F(x, y,t)dxdydt
• · · (38) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空阛 方向の原点とすることで、 式 (38) で示される画素値 Ρを出力することにな る。
図 60は、 センサ 2の積分効果の具体的な例を説明する図である。 P T/JP2004/008690
98
図 6 0において、 X方向と Y方向は、 センサ 2の X方向と Υ方向 (図 5 9 ) を表している。
実世界 1の光信号のうちの 1部分 (以下、 このような部分を、 領域と称す る) 2 3 0 1は、 所定の定常性を有する領域の 1例を表している。
なお、 実際には、 領域 2 3 0 1は連続した光信号の 1部分 (連続した領域) である。 これに対して、 図 6 0においては、 領域 2 3 0 1は、 2 0個の小領域 (正方形の領域) に区分されているように示されている。 これは、 領域 2 3 0 1の大きさが、 X方向に対して 4個分、 かつ Υ方向に対して 5個分のセンサ 2 の検出素子 (画素) が並んだ大きさに相当することを表すためである。 即ち、 領域 2 3 0 1内の 2 0個の小領域 (仮想領域) のそれぞれは 1つの画素に相当 する。
また、 領域 2 3 0 1のうちの図中白い部分は細線に対応する光信号を表して いる。 従って、 領域 2 3 0 1は、 細線が続く方向に定常性を有していることに なる。 そこで、 以下、 領域 2 3 0 1を、 細線含有実世界領域 2 3 0 1と称する。 この場合、 細線含有実世界領域 2 3 0 1 (実世界 1の光信号の 1部分) がセ ンサ 2により検出されると、 センサ 2からは、 積分効果により、 入力画像 (画 素値) の領域 2 3 0 2 (以下、 細線含有データ領域 2 3 0 2と称する) が出力 される。 . '
なお、 細線含有データ領域 2 3 0 2の各画素のそれぞれは、 図中、 画像とし て示されているが、 実際には、 所定の 1つの値を表すデータである。 即ち、 細 線含有実世界領域 2 3 0 1は、 センサ 2の積分効果により、 所定の 1つの画素 値をそれぞれ有する 2 0個の画素 (X方向に 4画素分、 かつ Υ方向に 5画素分 の総計 2 0個の画素) に区分された細線含有データ領域 2 3 0 2に変化してし まう (歪んでしまう) 。
図 6 1は、 センサ 2の積分効果の具体的な他の例 (図 6 0とは異なる例) を 説明する図である。 2004/008690
99
図 6 1において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を表している。
実世界 1の光信号の 1部分 (領域) 2 3 0 3は、 所定の定常性を有する領域 の他の例 (図 6 0の細線含有実世界領域 2 3 0 1とは異なる例) を表している。 なお、 領域 2 3 0 3は、 細線含有実世界領域 2 3 0 1と同じ大きさを有する 領域である。 即ち、 細線含有実世界領域 2 3 0 1と同様に、 領域 2 3 0 3も、 実際には連続した実世界 1の光信号の 1部分 (連続した領域) であるが、 図 6 1においては、 センサ 2の 1画素に相当する 2 0個の小領域 (正方形の領域) に区分されているように示されている。
また、 領域 2 3 0 3は、 所定の第 1の光の強度 (値) を有する第 1の部分と、 所定の第 2の光の強度 (値) を有する第 2の部分のエッジを含んでいる。 従つ て、 領域 2 3 0 3は、 エッジが続く方向に定常性を有していることになる。 そ こで、 以下、 領域 2 3 0 3を、 2値エッジ含有実世界領域 2 3 0 3と称する。 この場合、 2値エッジ含有実世界領域 2 3 0 3 (実世界 1の光信号の 1部 分) がセンサ 2により検出されると、 センサ 2からは、 積分効果により、 入力 画像 (画素値) の領域 2 3 0 4 (以下、 2値エッジ含有データ領域 2 3 0 4と 称する) が出力される。
なお、 2値エッジ含有データ領域 2 3 0 4の各画素値のそれぞれは、 細線含 有データ領域 2 3 0 2と同様に、 図中、 画像として表現されているが、 実際に は、 所定の値を表すデータである。 即ち、 2値エッジ含有実世界領域 2 3 0 3 は、 センサ 2の積分効果により、 所定の 1つの画素値をそれぞれ有する 2 0個 の画素 (X方向に 4画素分、 かつ Υ方向に 5画素分の総計 2 0個の画素) に区 分された 2値エッジ含有データ領域 2 3 0 4に変化してしまう (歪んでしま 5 ) 。
従来の画像処理装置は、 このような細線含有データ領域 2 3 0 2や 2値エツ ジ含有データ領域 2 3 0 4等、 センサ 2から出力された画像データを原点 (基 準) とするとともに、 画像データを処理の対象として、 それ以降の画像処理を 行っていた。 即ち、 センサ 2から出力された画像データは、 積分効果により実 世界 1の光信号とは異なるもの (歪んだもの) となっているにも関わらず、 従 来の画像処理装置は、 その実世界 1の光信号とは異なるデータを正として画像 処理を行っていた。
その結果、 従来の画像処理装置では、 センサ 2から出力された段階で、 実世 界のディテールがつぶれてしまった波形 (画像データ) を基準として、 その波 形から、 元のディテールを復元することは非常に困難であるという課題があつ た。
そこで、 関数近似手法においては、 この課題を解決するために、 上述したよ うに (図 5 8で示されるように) 、 実世界推定部 1 0 2力 S、 細線含有データ領 域 2 3 0 2や 2値エッジ含有データ領域 2 3 0 4のようなセンサ 2から出力さ れた画像データ (入力画像) から、 光信号関数 F (実世界 1の光信号) を近似 関数 f で近似することによって、 光信号関数 Fを推定する。
これにより、 実世界推定部 1 0 2より後段において (いまの場合、 図 3の画 像生成部 1 0 3 ) 、 積分効果が考慮された画像データ、 即ち、 近似関数 f に より表現可能な画像データを原点として、 その処理を実行することが可能にな る。
以下、 図面を参照して、 このような関数近似手法のうちの 3つの具体的な手 法 (第 1乃至第 3の関数近似手法) のそれぞれについて個別に説明していく。 はじめに、 図 6 2乃至図 7 6を参照して、 第 1の関数近似手法について説明 する。
図 6 2は、 上述した図 6 0で示される細線含有実世界領域 2 3 0 1を再度表 した図である。
図 6 2において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を表している。
第 1の関数近似手法は、 例えば、 図 6 2で示されるような細線含有実世界領 域 2 3 0 1に対応する光信号関数 F (x, y-,t)を X方向 (図中矢印 2 3 1 1の方 向) に射影した 1次元の波形 (以下、 このような波形を、 X断面波形 F(x)と 称する) を、 例えば、 n次 (nは、 任意の整数) の多項式などの近似関数 f(x)' で近似する手法である。 従って、 以下、 第 1の関数近似手法を、 特に、 1次元 近似手法と称する。
なお、 1次元近似手法において、 近似の対象となる X断面波形 F(x)は、 勿 論、 図 62の細線含有実世界領域 230 1に対応するものに限定されない。 即 ち、 後述するように、 1次元近似手法においては、 定常性を有する実世界 1の 光信号に対応する X断面波形 F(x)であれば、 いずれのものでも近似すること が可能である。
また、 光信号関数 F(x,y,t)の射影の方向は X方向に限定されず、 Y方向ま たは t方向でもよい。 即ち、 1次元近似手法においては、 光信号関数
F(x, y, t)を Y方向に射影した関数 F(y)を、 所定の近似関数 f (y)で近似するこ とも可能であるし、 光信号関数 F(x,y,t)を t方向に射影した関数 F(t)を、 所 定の近似関数 f(t)で近似することも可能である。
より詳細には、 1次元近似手法は、 例えば、 X断面波形 F(x)を、 次の式
(39) で示されるような、 n次の多項式などの近似関数 f(x)で近似する手 法である。
π
f (X) = W0+W1X+W2X+- * '+WnXn = ∑ jX1
• · · (3 9) 即ち、 1次元近似手法においては、 実世界推定部 1 02が、 式 (39) の X1 の係数 (特徴量) ^ を演算することで、 X断面波形 F(x)を推定する。
この特徴量 ^ の演算方法は、 特に限定されず、 例えば、 次の第 1乃至第 3 ' の方法が使用可能である。
即ち、 第 1の方法は、 従来から利用されている方法である。
これに対して、 第 2の方法は、 本願出願人が新たに発明した方法であって、 第 1の方法に対して、 さらに、 空間方向の定常性を考慮した方法である。 しかしながら、 後述するように、 第 1の方法と第 2の方法においては、 セン サ 2の積分効果が考慮されていない。 従って、 第 1の方法または第 2の方法に より演算された特徴量 を上述した式 (3 9 ) に代入して得られる近似関数 f (x)は、 入力画像の近似関数ではあるが、 厳密には、 X断面波形 F (x)の近似 関数とは言えない。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに 考慮して特徴量 ^ を演算する第 3の方法を発明した。 この第 3の方法により 演算された特徴量 Wi を、 上述した式 (3 9 ) に代入して得られる近似関数 f (x)は、 センサ 2の積分効果を考慮している点で、 X断面波形 F (x)の近似関 数であると言える。
このように、 厳密には、 第 1の方法と第 2の方法は、 1次元近似手法とは言 えず、 第 3の方法のみが 1次元近似手法であると言える。
換言すると、 図 6 3で示されるように、 第 2の方法は、 1次元近似手法とは 異なる。 即ち、 図 6 3は、 第 2の方法に対応する実施の形態の原理を説明する 図である。
図 6 3で示されるように、 第 2の方法に対応する実施の形態においては、 光 信号関数 Fで表される実世界 1の光信号が所定の定常性を有する場合、 実世界 推定部 1 0 2が、 センサ 2からの入力画像 (定常性に対応するデータの定常性 を含む画像データ) と、 データ定常性検出部 1 0 1からのデータ定常性情報 (入力画像のデータの定常性に対応するデータ定常性情報) を使用して、 X断 面波形 F (x)を近似するのではなく、 センサ 2からの入力画像を所定の近似関 数 (X)で近似する。
このように、 第 2の方法は、 センサ 2の積分効果を考慮せず、 入力画像の近 似に留まっている点で、 第 3の方法と同一レベルの手法であるとは言い難い。 しかしながら、 第 2の方法は、 空間方向の定常性を考慮している点で、 従来の 第 1の方法よりも優れた手法である。 TJP2004/008690
103
以下、 第 iの方法、 第 2の方法、 および第 3の方法のそれぞれの詳細につい て、 その順番で個別に説明していく。
なお、 以下、 第 1の方法、 第 2の方法、 および第 3の方法により生成される 近似関数 f(x)のそれぞれを、 他の方法のものと区別する場合、 特に、 近似関 数 ^ (x)、 近似関数 f2 (x)、 および近似関数 f3 )とそれぞれ称する。
はじめに、 第 1の方法の詳細について説明する。
第 1の方法においては、 上述した式 (3 9) で示される近似関数 ^ (X)が、 図 64の細線含有実世界領域 230 1内で成り立つとして、 次の予測方程式 (40) を定義する。 .
P , y) = ) +e
• · · (40) 式 (40) において、 Xは、 注目画素からの X方向に対する相対的な画素位 置を表している。 yは、 注目画素からの Y方向に対する相対的な画素位置を表 している。 eは、 誤差を表している。 具体的には、 例えば、 いま、 図 64で示 されるように、 注目画素が、 細線含有データ領域 2302 (細線含有実世界領 域 2301 (図 62) がセンサ 2により検出されて、 出力されたデータ) のう ちの、 図中、 左から X方向に 2画素目であって、 下から Y方向に 3画素目の画 素であるとする。 また、 注目画素の中心を原点(0,0)とし、 センサ 2の X方向 と Y方向 (図 59) のそれぞれに平行な X 軸と y 軸を軸とする座標系 (以下、 注目画素座標系と称する) が設定されているとする。 この場合、 注目画素座標 系の座標値(x, y)が、 相対画素位置を表すことになる。
また、 式 (40) において、 P(x,y)は、 相対画素位置(x,y)における画素値 を表している。 具体的には、 いまの場合、 細線含有データ領域 2302内の
P(x,y)は、 図 65で示されるようになる。
図 6 5は、 この画素値 P(x,y)をグラフ化したものを表している。
図 6 5において、 各グラフのそれぞれの縦軸は、 画素値を表しており、 横軸 は、 注目画素からの X方向の相対位置 Xを表している。 また、 図中、 上から 1 番目のグラフの点線は入力画素値 P(x,- 2)を、 上から 2番目のグラフの 3点鎖 線は入力画素値 P(x,- 1)を、 上から 3番目のグラフの実線は入力画素値
P(x, 0)を、 o上から 4番目のグラフの 1点鎖線は入力画素値 P(x, 1)を、 上から 5番目 (下から 1番目) のグラフの 2点鎖線は入力画素値 P(x, 2)を、 それぞ れ表している。
上述した式 (40) に対して、 図 6 5で示される 20個の入力画素値 P(x, - 2),P(x, -l),P(x, 0),P(x, l),P(x, 2) (ただし、 xは、 _ 1乃至 2のうちのい ずれかの整数値) のそれぞれを代入すると、 次の式 (41) で示される 20個 の方程式が生成される。 なお、 ek (kは、 1乃至 20のうちのいずれかの整数 値) のそれぞれは、 誤差を表している。
P(-1,-2) = (― 1)+e
P(0,一 2) = (0) +e2
P(1,一 2) = (1)+e3
P(2,一 2) =fi (2)+e4
P(-1,-1) = (一 1)+e5
P(0, -1) = (0)+e6
P(1,-1) = (1)+e7
P(2, -1) = (2)+e8
P(-1,0) = (-1)+e9
= (0)+e10
P(1,0) = (1)+e"
P(2,0) = (2)+e12
P(-1,1) = (-D+e13
P(0,1) = (0)+e14
P(1,1) = (D+e15
P(2,1) = (2)+e16
P(-1,2) =f1 (— 1)+e17
P(0,2) = (0)+e18
P(1,2) =f] (1)+e19
P(2,2) = (2)+e20
(41) 式 (41) は、 20個の方程式より構成されているので、 近似関数 f\ (x)の 特徴量 の個数が 20個より少ない場合、 即ち、 近似関数 (X)が 1 9次よ り少ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 の 算出が可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 いま、 近似関数 ^ (x)の次数が 5次とされた場合、 式 (4 1) を利 用して最小自乗法により演算された近似関数 ) (演算された特徴量 Wi に より生成される近似関数 (X)) は、 図 66で示される曲線のようになる。 なお、 図 66において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。
即ち、 図 64の細線含有データ領域 2302を構成する 20個の画素値 P(x, y) のそれぞれ (図 65で示される入力画素値 P(x,-2),P(x, - 1),? ,0),? ,1),? ,2)のそれぞれ) を、 例えば、 X軸に沿ってそのまま 足しこむ (Y方向の相対位置 yを一定とみなして、 図 6 5で示される 5つの グラフを重ねる) と、 図 66で示されるような、 X軸に平行な複数の線 (点線、 3点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。
ただし、 図 66においては、 点線は入力画素値 P (x, -2)を、 3点鎖線は入力 画素値 P(x,- 1)を、 実線は入力画素値 P(x,0)を、 1点鎖線は入力画素値
P(x,l)を、 2点鎖線は入力画素値 P(x, 2)を、 それぞれ表している。 また、 同 一の画素値の場合、 実際には 2本以上の線が重なることになるが、 図 66にお いては、 各線の区別がつくように、 各線のそれぞれが重ならないように描画さ れている。
そして、 このように分布した 20個の入力画素値 P(x,- 2),P(x, - 1),Ρ(χ,0),Ρ(χ, 1),P(X, 2)のそれぞれと、 値 (X)の誤差が最小となるような 回帰曲線 (最小自乗法により演算された特徴量 ^ を上述した式 (38) に代 入して得られる近似関数 )) 力 図 66で示される曲線 (近似関数
fx ω) となる。 このように、 近似関数 (x)は、 Y方向の画素値 (注目画素からの X方向の 相対位置 が同一の画素値) P (x, -2), P (X, -1), P (x, 0) , P (x, 1), P (x, 2)の平均 値を、 X方向に結んだ曲線を単に表しているに過ぎない。 即ち、 光信号が有す る空間方向の定常性を考慮することなく、 近似関数 ^ (X)が生成されている。 例えば、 いまの場合、 近似の対象は、 細線含有実世界領域 2 3 0 1 (図 6 2 ) とされている。 この細線含有実世界領域 2 3 0 1は、 図 6 7で示されるよ うに、 傾き GFで表される空間方向の定常性を有している。 なお、 図 6 7にお いて、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9 ) を表している。 従って、 データ定常性検出部 1 0 1 (図 5 8 ) は、 空間方向の定常性の傾き GFに対応するデータ定常性情報として、 図 6 7で示されるような角度 0 (傾 き GF に対応する傾き Gf で表されるデータの定常性の方向と、 X方向のなす角 度 0 ) を出力することができる。
しかしながら、 第 1の方法においては、 データ定常性検出部 1 0 1より出力 されるデータ定常性情報は一切用いられていない。
換言すると、 図 6 7で示されるように、 細線含有実世界領域 2 3 0 1の空間 方向の定常性の方向は略角度 Θ方向である。 しかしながら、 第 1の方法は、 細 線含有実世界領域 2 3 0 1の空間方向の定常性の方向は Y方向であると仮定し て (即ち、 角度 0が 9 0度であると仮定して) 、 近似関数 (X)の特徴量 ^ を演算する方法である。
このため、 近似関数 )は、 その波形が鈍り、 元の画素値よりディテール が減少する関数となってしまう。 換言すると、 図示はしないが、 第 1の方法に より生成される近似関数 f i (x)は、 実際の X断面波形 F (X)とは大きく異なる 波形となってしまう。
そこで、 本願出願人は、 第 1の方法に対して、 空間方向の定常性をさらに考 盧して (角度 0を利用して) 特徴量^ を演算する第 2の方法を発明した。
即ち、 第 2の方法は、 細線含有実世界領域 2 3 0 1の定常性の方向は略角度 0方向であるとして、 近似関数 f2 (x) の特徴量 ^ を演算する方法である。 具体的には、 例えば、 空間方向の定常性に対応するデータの定常性を表す傾 き Gf は、 次の式 (42) で表される。
6f = tan θ
T =4 d^x.
• · · (42) なお、 式 (42) において、 dxは、 図 6 7で示されるような X方向の微小 移動量を表しており、 dyは、 図 67で示されるような dxに対する Y方向の微 小移動量を表している。
この場合、 シフト量 Cx (y)を、 次の式 (43) のように定義すると、 第 2の 方法においては、 第 1の方法で利用した式 (40) に相当する式は、 次の式 (44) のようになる。
• · · (43)
P(x, y) = f2(x~Cx(y) ) +e
• - · (44) 即ち、 第 1の方法で利用した式 (40) は、 画素の中心の位置(x、 y)のうち の X方向の位置 Xが、 同一の位置に位置する画素の画素値 P(x,y)はいずれも 同じ値であることを表している。 換言すると、 式 (40) は、 同じ画素値の画 素が Y方向に続いている (Y方向に定常性がある) ことを表している。
これに対して、 第 2の方法で利用する式 (44) は、 画素の中心の位置が ,7)でぁる画素の画素値?( 7)は、 注目画素 (その中心'の位置が原点(0,0) である画素) から X方向に Xだけ離れた場所に位置する画素の画素値 f2 (x) ) とは一致せず、 その画素からさらに X方向にシフト量 Cx (y〉だけ離れ た場所に位置する画素 (注目画素から X方向に x + Cx (y)だけ離れた場所に位 置する画素) の画素値 (^f2 (x + Cx (y)) ) と同じ値であることを表してい る。 換言すると、 式 (44) は、 同じ画素値の画素が、 シフト量 Cx (y)に対応 2004/008690
108
する角度 0方向に続い.ている (略角度 0方向に定常性がある) ことを表してい る。
このように、 シフト量 Cx (y)が、 空間方向の定常性 (いまの場合、 図 67の 傾き GFで表される定常性 (厳密には、 傾き Gf で表されるデータの定常性) ) を考慮した補正量であり、 シフト量 Cx (y)により式 (40) を補正したものが 式 (44) となる。
この場合、 図 64で示される細線含有データ領域 2302の 20個の画素値 P(x, y) (ただし、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 _ 2乃 至 2のうちのいずれかの整数値) のそれぞれを、 上述した式 (44) に代入す ると次の式 (45) で示される 20個の方程式が生成される。
P(-1,-2) = f2( ;-1-Cx(-2))+e1
P(0,一 2) = f2( :0-Cx(-2))+e2
P(1, - 2) = f2( :i-Cx(-2))+e3
P(2,一 2) = f2( :2 - Gx (- 2))+e4
P(— 1,一 1) = f2( :-1-Cx(-1))+e5
P(0, -1) =f2 :0-Cx(-1))+e6
P(1,-1) =f2 :i-Cx(-1))+e7
P(2,一 1) =f2 :2-Cx(-1))+e8
P(-1,0) =f2 -1)+e9
P(0,0) =f2 :0) +e10
P(1,0) =f2
P(2,0) =f2 〔2)+e12
P(-1,1) =f2 [-1-Cx(1))+e13
P(0,1) = 〔0— Gx(1))+e14
P(1,1) =f2 (1-Cx(1))+e15
P(2,1) =f2 (2-Cx(1))+e16
P (- 1,2) =f2 (-1-Cx(2))+e17
P(0,2) =f2 (0-Cx(2))+e18
P(1,2) =f2 (1-Cx(2))+el9
P(2,2) =f2 (2-Cx(2))+e20
(45) 式 (45) は、 上述した式 (4 1) と同様に、 20個の方程式より構成され ている。 従って、 第 1の方法と同様に第 2の方法においても、 近似関数 f2 (x) の特徴量 Wi の個数が 20個より少ない場合、 即ち、 近似関数 f2 (x)が 1 9次 より少ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 Wi の算出が可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 第 1の方法と同様に近似関数 f2 (X)の次数が 5次とされた場合、 第 2の方法においては、 次のようにして特徴量 が演算される。
即ち、 図 68は、 式 (45) の左辺で示される画素値 P(x,y)をグラフ化し たものを表している。 図 68で示される 5つのグラフのそれぞれは、 基本的に 図 65で示されるものと同一である。
図 6 8で示されるように、 最大の画素値 (細線に対応する画素値) は、 傾き Gf で表されるデータの定常性の方向に続いている。
そこで、 第 2の方法においては、 図 68で示される入力画素値 P(x,- 2),P(x,_l),P(x,0),P(x, l),P(x,2)のそれぞれを、 例えば、 x軸に沿って足 しこむ場合、 第 1の方法のようにそのまま足しこむ (yを一定とみなして、 図 68で示される状態のまま 5つのグラフを重ねる) のではなく、 図 69で示さ れる状態に変化させてから足しこむ。
即ち、 図 69は、 図 68で示される入力画素値 P(x,- 2),P(x, - 1),Ρ(χ,0),Ρ(χ, l),P(x, 2)のそれぞれを、 上述した式 (43) .で示されるシ フト量 Cx (y)だけシフトさせた状態を表している。 換言すると、 図 69は、 図 68で示される 5つのグラフを、 データの定常性の実際の方向を表す傾き GF を、 あたかも傾き G とするように (図中、 点線の直線を実線の直線とする ように) 移動させた状態を表している。
図 6 9の状態で、 入力画素値 P (x, -2) , P (x, -1), P (x, 0) , P (x, 1) , P (x, 2)の それぞれを、 例えば、 x軸に沿って足しこむと (図 6 9で示される状態で 5つ のグラフを重ねると) 、 図 70で示されるような、 X軸に平行な複数の線 (点 線、 3点鎖線、 実線、 1点鎖線、 および 2点鎖線) が分布する。 なお、 図 7 0において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。 また、 点線は入力画素値 P (x,-2)を、 3点鎖線は入 力画素値 P (x,- 1)を、 実線は入力画素値 Ρ (χ, Ο)を、 1点鎖線は入力画素値 Ρ (χ, 1)を、 2点鎖線は入力画素値 Ρ (χ, 2)を、 それぞれ表している。 さらに、— 同一の画素値の場合、 実際には 2本以上の線が重なることになるが、 図 7 0に おいては、 各線の区別がつくように、 各線のそれぞれが重ならないように描画 されている。 '
そして、 このように分布した 2 0個の入力画素値 P (x, y)のそれぞれ (ただ し、 Xは、 一 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃至 2のうちの いずれかの整数値) と、 値 f2 (x+Cx (y) )の誤差が最小となるような回帰曲線 (最小自乗法により演算された特徴量 ^ を上述した式 (3 8 ) に代入して得 られる近似関数 f2 (X) ) は、 図 7 0の実線で示される曲線 f2 (X)となる。
このように、 第 2の方法により生成された近似関数 f2 )は、 データ定常性 検出部 1 0 1 (図 5 8 ) より出力される角度 Θ方向 (即ち、 ほぼ空間方向の定 常性の方向) の入力画素値 P (x,y)の平均値を X方向に結んだ曲線を表すこと になる。
これに対して、 上述したように、 第 1の方法により生成された近似関数 )は、 Y方向 (即ち、 空間方向の定常性とは異なる方向) の入力画素値 P (x,y)の平均値を、 X方向に結んだ曲線を単に表しているに過ぎない。
従って、 図 7 0で示されるように、 第 2の方法により生成された近似関数 f2 (x)は、 第 1の方法により生成された近似関数 ^ (x)よりも、 その波形の鈍 り度合いが減少し、 かつ、 元の画素値に対するディテールの減り具合も減少す る関数となる。 換言すると、 図示はしないが、 第 2の方法により生成される近 似関数 f2 (x)は、 第 1の方法により生成される近似関数 ^ )よりも実際の X 断面波形 F (X)により近い波形となる。
しかしながら、 上述したように、 近似関数 f2 (x)は、 空間方向の定常性が考 慮されたものではあるが、 入力画像 (入力画素値) を原点 (基準) として生成 PC蘭 004/00画
111
されたものに他ならない。 即ち、 上述した図 6 3で示されるように、 近似関数 f2 (x)は、 X断面波形 F (x)とは異なる入力画像を近似したに過ぎず、 X断面波 形 F (x)を近似したとは言い難い。 換言すると、 第 2の方法は、 上述した式
( 4 4 ) が成立するとして特徴量 Wi を演算する方法であり、 上述した式 (3 8 ) の関係は考慮していない (センサ 2の積分効果を考慮していない) 。
そこで、 本願出願人は、 第 2の方法に対して、 センサ 2の積分効果をさらに 考慮することで近似関数 f3 (x)の特徴量 ^ を演算する第 3の方法を発明した。 即ち、 第 3の方法は、 空間混合または時間混合の概念を導入した方法である。 なお、 空間混合と時間混合の両方を考慮すると、 説明が複雑になるため、 ここ では、 空間混合と時間混合のうちの、 例えば空間混合を考慮し、 時間混合を無 視するものとする。
そこで、 第 3の方法の説明の前に、 図 7 1を参照して、 空間混合について説 明する。
図 7. 1において、 実世界 1の光信号の 1部分 2 3 2 1 (以下、 領域 2 3 2 1 と称する) は、 センサ 2の 1つの検出素子 (画素) と同じ面積を有する領域を 表している。
領域 2 3 2 1がセンサ 2に検出されると、 センサ 2からは、 領域 2 3 2 1力 S 時空間方向 (X方向,Υ方向,および t方向) に積分された値 (1つの画素値)
2 3 2 2が出力される。 なお、 画素値 2 3 2 2は、 図中、 画像として表現され ているが、 実際には、 所定の値を表すデータである。
実世界 1の領域 2 3 2 1は、 前景 (例えば、 上述した細線) に対応する光信 号 (図中白い領域) と、 背景に対応する光信号 (図中黒い領域) に明確に区分 される。
これに対して、 画素値 2 3 2 2は、 前景に対応する実世界 1の光信号と、 背 景に対応する実世界 1の光信号が積分された値である。 換言すると、 画素値 2
3 2 2は、 前景に対応する光のレベルと背景に対応する光のレベルが空間的に 混合されたレベルに対応する値である。 このように、 実世界 1の光信号のうちの 1画素 (センサ 2の検出素子) に対 応する部分が、 同一レベルの光信号が空間的に一様に分布する部分ではなく、 前景と背景のように異なるレベルの光信号のそれぞれが分布する部分である場 合、 その領域は、 センサ 2により検出されると、 センサ 2の積分効果により、 異なる光のレベルがあたかも空間的に混合されて (空間方向に積分されて) 1 つの画素値となってしまう。 このように、 センサ 2の画素において、 前景に対 する画像 (実世界 1の光信号) と、 背景に対する画像 (実世界 1の光信号) が 空間的に積分されて、 いわば混合されてしまうことが、 空間混合であり、 その ような画素からなる領域を、 ここでは、 空間混合領域と称する。
従って、 第 3の方法においては、 実世界推定部 1 0 2 (図 5 8 ) 1S 実世界 1の元の領域 2 3 2 1 (実世界 1の光信号のうちの、 センサ 2の 1画素に対応 する部分 2 3 2 1 ) を表す X断面波形 F (x)を、 例えば、 図 7 2で示されるよ うな、 1次の多項式などの近似関数 f3 (X)で近似することによって、 X断面波 形 F (x)を推定する。
即ち、 図 7 2は、 空間混合領域である画素値 2 3 2 2 (図 7 1 ) に対応する 近似関数 f3 (x)、 即ち、 実世界 1の領域 2 3 3 1内の実線 (図 7 1 ) に対応す る X断面波形 F ( x ) を近似する近似関数 f3 (X)の例を表している。 図 7 2に おいて、 図中水平方向の軸は、 画素値 2 3 2 2に対応する画素の左下端 xs ら右下端 xe までの辺 (図 7 1 ) に平行な軸を表しており、 X 軸とされている。 図中垂直方向の軸は、 画素値を表す軸とされている。
図 7 2において、 近似関数 f3 (X)を xsから xe の範囲 (画素幅) で積分した ものが、 センサ 2から出力される画素値 P (x, y)とほぼ一致する (誤差 eだけ 存在する) として、 次の式 (4 6 ) を定義する。
Figure imgf000115_0001
= Γ e (w0+w1x+w2x2+- ·■ +wnxn)dx+e
yn _vn n+1_ n+1
= w0(xe—xs) + '.'+wn1~~? ~+wn n+1 +e
• · · (46) いまの場合、 図 6 7で示される細線含有データ領域 2302の 20個の画素 値 P (x, y) (ただし、 Xは、 _ 1乃至 2のうちのいずれかの整数値。 yは、 一 2乃至 2のうちのいずれかの整数値) から、 近似関数 f3 (X)の特徴量 ^が算 出されるので、 式 (46) の画素値 Pは、 画素値 P(x,y)となる。
また、 第 2の方法と同様に、 空間方向の定常性も考慮する必要があるので、 式 (46) の積分範囲の開始位置 xs と終了位置 xeのそれぞれは、 シフト量 Cx (y)にも依存することになる。 即ち、 式 (46) の積分範囲の開始位置 xs と終了位置 xeのそれぞれは、 次の式 (47) のように表される。
xs = x-Cx (y) -0.5
xe = x-Cx (y) +0.5
• · · (47) この場合、 図 67で示される細線含有データ領域 2302の各画素値それぞ れ、 即ち、 図 68で示される入力画素値 P(x,- 2),P(x, - 1),Ρ(χ,0),Ρ(χ, l),P(x, 2)のそれぞれ (ただし、 Xは、 一 1乃至 2のうちの いずれかの整数値) を、 上述した式 (46) (積分範囲は、 上述した式 (4 7) ) に代入すると次の式 (48) で示される 20個の方程式が生成される。 1-CX(-2)+0.5
P(-1,-2) =/_
P(0, -2 一一一一
/o 1-0,(-2)-0.5 2,
1-¾(-2)+0.5
P(1,-2 ¾ (- 2) -0.5 f3(x)dx+e3,
2 - (- 2) +0.5
P(2, -2 2-¾(-2)-0.5 f3(x)dx+e4,
1 - GX (- +0.5
P(-1,一 1 P(0, -1 Γ0- ¾(-1)+0.5― ,、」
P(1, - 1 υ-。.5F3( 7,
2 - ¾(ー1)+0.5 R ,、 ,
P(2, -1 = J H)—。.5F3(X)DX+E8'
P(-1,0 = !!-0.5 F3(X)DX+E9,
Figure imgf000116_0001
R2+0.5 ,、■
P(2,0 = l2-0.5 F3(X)DX+E12'
1-0,(1)+0.5
P(-1, 1 - 1 - (1)-0.5 f3(x)dx+e13,
,0-CX(1)+0.5
P(0, 1 '-— ¾(1;) - 0。;.5 )
R 11-- 0,(1)) ++00..55 - ,、」
P(1,1 = /I -- ¾¾((11)) -- 0O..55 f3(x)dx+e 15
^. 22-- 00,,((11)) ++00..55 , 、 ,
P(2, 1 '2- ¾¾((11))--00..55
1-CX(Z)+0.5
P (- 1,2 - (2)- 0.5 f3(x)dx+e17,
J—;
0- 0,(2) +0.5
P(0,2) 0-¾(2)-0.5 f3(x)dx+e18,
1- ¾(2)+0.5
P(1,2 ト -。.5 F3(X)DX+E19,
P(2,2 R2 - (2)+0.5 .、」
(48) 式 (48). は、 上述した式 (4 5) と同様に、 20個の方程式より構成され ている。 従って- 第 2の方法と同様に第 3の方法においても、 近似関数 ) の特徴量 ^ の個数が 2 0個より少ない場合、 即ち、 近似関数 f3 (x)が 1 9次 より少ない次数の多項式である場合、 例えば、 最小自乗法を用いて特徴量 の算出が可能である。 なお、 最小自乗法の具体的な解法は後述する。
例えば、 近似関数 f 3 (X)の次数が 5次とされた場合、 式 (4 8 ) を利用して 最小自乗法により演算された近似関数 f3 (X) (演算された特徴量 ^ により生 成される近似関数 f3 (X) ) は、 図 7 3の実線で示される曲線のようになる。 なお、 図 7 3において、 縦軸は画素値を表しており、 横軸は注目画素からの 相対位置 Xを表している。
図 7 3で示されるように、 第 3の方法により生成された近似関数 (X) (図 中、 実線で示される曲線) は、 第 2の方法により生成された近似関数 f2 (X)
(図中、 点線で示される曲線) と比較すると、 x = 0における画素値が大きく なり、 また、 曲線の傾斜の度合いも急な波形となる。 これは、 入力画素よりデ ィティルが増加して、 入力画素の解像度とは無関係となっているためである。 即ち、 近似関数 f3 (x) は、 X断面波形 F (x)を近似していると言える。 従って、 図示はしないが、 近似関数: 3 (x)は、 近似関数: f2 (X)よりも X断面波形 F (x) に近い波形となる。
図 7 4は、 このような 1次近似手法を利用する実世界推定部 1 0 2の構成例 を表している。
図 7 4において、 実世界推定部 1 0 2は、 例えば、 特徴量 ^ を上述した第 3の方法 (最小自乗法) により演算し、 演算した特徴量 Wi を利用して上述し た式 (3 9 ) の近似関数 f (x)を生成することで、 X断面波形 F (x)を推定する。 図 7 4で示されるように、 実世界推定部 1 0 2には、 条件設定部 2 3 3 1、 入力画像記憶部 2 3 3 2、 入力画素値取得部 2 3 3 3、 積分成分演算部 2 3 3 4、 正規方程式生成部 2 3 3 5、 および近似関数生成部 2 3 3 6が設けられて いる。 条件設定部 23 3 1は、 注目画素に対応する X断面波形 F(x)を推定するた めに使用する画素の範囲 (以下、 タップ範囲と称する) や、 近似闋数 f(x)の 次数 nを設定する。
入力画像記憶部 233 2は、 センサ 2からの入力画像 (画素値) を一次的に 格納する。
入力画素値取得部 23 3 3は、 入力画像記憶部 23 32に記憶された入力画 像のうちの、 条件設定部 223 1により設定されたタップ範囲に対応する入力 画像の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部2 3 35に供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各 画素のそれぞれの画素値が記述されたテーブルである。 なお、 入力画素値テー ブルの具体例については後述する。
ところで、 ここでは、 実世界推定部 1 02は、 上述した式 (46) と式 (4 7) を利用して最小自乗法により近似関数 f(x)の特徴量 ^ を演算するが、 上 述した式 (46) は、 次の式 (49) のように表現することができる。
P(x,y)
" (x-Cx (y) +0.5),+1 - (x-Cx (y) -0.5) 1+1
= ∑ Wj x ― ^ +e
i=0 +1
Figure imgf000118_0001
• · · (49) 式 (49) において、 Si (xs , xe ) は、 i次項の積分成分を表している。 即 ち、 積分成分 Si (xs,xe)は、 次の式 (50) で示される。
i+1 i+1
, 、 ズ g
ύΐ (xs, xe) - f~j
■ · · (50) 積分成分演算部 2334は、 この積分成分 Si (xs、xe)を演算する。 具体的には、 式 (5 .0 ) で示される積分成分 Si (xs,xe ) (ただし、 値 xs と 値 は、 上述した式 (4 6 ) で示される値) は、 相対画素位置(x, y)、 シフ ト量 Cx (y)、 および、 i次項の iが既知であれば演算可能である。 また、 これ らのうちの、 相対画素位置(x,y)は注目画素とタップ範囲により、 シフト量 Cx (y)は角度 Θにより (上述した式 (4 1 ) と式 (4 3 ) により) 、 iの範囲 は次数 nにより、 それぞれ決定される。
従って、 積分成分演算部 2 3 3 4は、 条件設定部 2 3 3 1により設定された タップ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデー タ定常性情報のうちの角度 0に基づいて積分成分 Si (xs,xe )を演算し、 その演 算結果を積分成分テーブルとして正規方程式生成部 2 3 3 5に供給する。 正規方程式生成部 2 3 3 5は、 入力画素値取得部 2 3 3 3より供給された入 力画素値テーブルと、 積分成分演算部 2 3 3 4より供給された積分成分テープ ルを利用して、 上述した式 (4 6 ) 、 即ち、 式 (4 9 ) の右辺の特徴量 ^ を 最小自乗法で求める場合の正規方程式を生成し、 それを正規方程式テーブルと して近似関数生成部 2 3 3 6に供給する。 なお、 正規方程式の具体例について は後述する。
近似関数生成部 2 3 3 6は、 正規方程式生成部 2 3 3 5より供給された正規 方程式テーブルに含まれる正規方程式を行列解法で解くことにより、 上述した 式 (4 9 ) の特徴量 Wi (即ち、 1次元多項式である近似関数 f (X)の係数 のそれぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 7 5のフローチャートを参照して、 1次元近似手法を利用する実世 界推定部 1 0 2 (図 7 4 ) の実世界の推定処理 (図 2 9のステップ S 1 0 2の 処理) について説明する。
例えば、 いま、 センサ 2から出力された 1フレームの入力画像であって、 上 述した図 6 0の細線含有データ領域 2 3 0 2を含む入力画像が、 既に入力画像 記憶部 2 3 3 2に記憶されているとする。 また、 データ定常性検出部 1 0 1力 ステップ S 1 0 1 (図 2 9 ) の定常性の検出の処理において、 細線含有データ 領域 2 302に対してその処理を施して、 データ定常性情報として角度 0を既 に出力しているとする。
この場合、 図 7 5のステップ S 2301において、 条件設定部 23 3 1は、 条件 (タップ範囲と次数) を設定する。
例えば、 いま、 図 76で示されるタップ範囲 235 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 76は、 タップ範囲の 1例を説明する図である。 図 76において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 5 9) を表している。 また、 タップ範囲 23 5 1は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 20 個の画素 (図中、 20個の正方形) からなる画素群を表している。
さらに、 図 76で示されるように、 注目画素が、 タップ範囲 23 5 1のうち の、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとす る。 また、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x,y) (注目画素の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 76で示されるような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付されるとする。
図 75に戻り、 ステップ S 2302において、 条件設定部 233 1は、 注目 画素を設定する。
ステップ S 2303において、 入力画素値取得部 2 33 3は、 条件設定部 2 3 3 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力画素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 23 3 3は、 細線含有データ領域 2302 (図 64) を取得し、 入力画素値テーブル として、 20個の入力画素値 P(l)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係 は、 次の式 (5 1) で示される関係とされる。 ただし、 式 (5 1) において、 左辺が入力画素値 P ( 1 ) を表し、 右辺が入力画素値 P(x,y)を表している。 JP2004/008690
119 r 、υノ r 、リ, リノ
、 ■ ノ = P Γ 〖、一 11, 厶ノ)
II
p Γ (、 )ノ II II 乙ノ
Γ wノ ■ 、 o 1, ノ
Ρ (Λ)
Γ ノ Γ ,
Γ J / = P ■ ( V— 11, 1匿)ノ 、■
< V ^, 1 ノ
、 /ノ V 1 , 國 ノ
厂 ϋノ = Ρ(2,1)
Γ ノ = Ρ(-1,0)
1 、 隱 ノ = Ρ(1,0)
Γ ■ ■ ノ = Ρ(2,0)
「 ■乙ノ = Ρ(-1, -1)
■ 1 ノ
f 、 1 ノ = Ρ(1, -1)
Figure imgf000121_0001
P(16) = P(-1, -2)
P(17)
P(18) = P(1, -2)
P(19)
… ( 5 1 )
2 3 0 4において、 積分成分演算部 2 3 3 4は、 条件設定部 2 3 3 1により設定された条件 (タップ範囲おょぴ次数) 、 並びにデータ定常性検 出部 1 0 1より供給されたデータ定常性情報 (角度 0 ) に基づいて積分成分を 演算し、 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x,y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2 3 3 4は、 上述 した式 (5 0) の積分成分 Si (xs, xe)を、 次の式 (5 2) の左辺で示される積 分成分 Si (1)といった 1の関数として演算する。
Figure imgf000121_0002
- · · ( 5 2) 具体的には、 いまの場合、 次の式 (5 3) で示される積分成分 Si (1)が演算 される。
Figure imgf000122_0001
), -0.5-Cx (2))
S i(2) =S (一 0,5— Gx (2),0.5-Cx(2))
S i(3) =s (0.5— Gx (2),1.5-CX(2))
S i(4) =s (1.5-CX(2),2.5-Cx(2))
S i(5) =s (-1.5-CX(1), -0.5-Cx(D)
S i(6) =s (-0.5-Cx(1),0.5-Cx(D)
S i(7) =s (0.5-Cx(1), 1.5-CX(D)
S i(8) =s (1.5-CX(1),2.5-CX(D)
S i(9) =s (—1.5,—0,5) -1),—0.5-Cx(-D)
-1),0.5-Cx(-D)
1), 1.5-Cx(-D)
1),2.5-CX(-D)
Figure imgf000122_0002
-2), -0.5-Cx(-2))
Sj (17) =s ,(-0.5-Cx(-2),0.5-Cx(-2))
Sj (18) =s i(0.5-Cx(-2),1.5-Cx(-2))
Sj (19) =s i(1.5-Cx(-2),2.5-Cx(-2))
• · ■ (53) なお、 式 (5 3) において、 左辺が積分成分 Si ( 1 )を表し、 右辺が積分成 分 Si (xs,xe)を表している。 即ち、 いまの場合、 iは 0乃至 5であるので、 2 0個の S。(1), 20個の Si (1), 20個の S2 (1), 20個の S3 (1), 20個の S4 (1), 20個の S5 (1)の総計 1 20個の Si (1)が演算されることになる。 より具体的には、 はじめに、 積分成分演算部 23 34は、 データ定常性検出 部 10 1より供給された角度 0を使用して、 シフト量 Cx (-2) , Cx (- 1),CX (1),CX (2)のそれぞれを演算する。 次に、 積分成分演算部 23 34は、 演算したシフト量 Cx (- 2),CX (- 1),CX (1),CX (2)を使用して式 (52) の右辺 に示される 2◦個の積分成分 Si (xs,xe)のそれぞれを、 i二 0乃至 5のそれぞ れについて演算する。 即ち、 1 20個の積分成分 Si (xsXe〉が演算される。 な お、 この積分成分 Si (xs,xe)の演算においては、 上述した式 (50) が使用さ れる。 そして、 積分成分演算部 2334は、 式 (53) に従って、 演算した 1 20個の積分成分 Si (xs,xe)のそれぞれを、 対応する積分成分 Si (1)に変換し、 変換した 1 20個の積分成分 Si (1)を含む積分成分テーブルを生成する。
. なお、 ステップ S 2303の処理とステップ S 2304の処理の順序は、 図 75の例に限定されず、 ステップ S 2304の処理が先に実行されてもよいし、 ステップ S 2303の処理とステップ S 2 304の処理が同時に実行されても よい。
次に、 ステップ S 2305において、 正規方程式生成部 23 3 5は、 ステツ プ S 2303の処理で入力画素値取得部 2333により生成された入力画素値 テーブルと、 ステップ S 2304の処理で積分成分演算部 23 34により生成 された積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 (49) に対応す る次の式 (54) の特徴量 Wi を演算する。 それに対応する正規方程式は、 次 の式 (55) のように表される。
P(l) = ∑ WjXSjiD+e
(54)
Figure imgf000123_0001
(5 5) なお、 式 (5 5) において、 Lは、 タップ範囲の画素の番号 1のうちの最大 値を表している。 nは、 多項式である近似関数 f(x)の次数を表している。 具 体的には、 いまの場合、 n=5となり、 L=1 9となる。
式 (55) で示される正規方程式の各行列のそれぞれを、 次の式 (56) 乃 至 (5 8) のように定義すると、 正規方程式は、 次の式 (59) のように表さ れる。
6) 7)
Figure imgf000124_0001
(5 8) ¾T¾T = PMAT
. · · · (5 9) 式 (57) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 ^ である。 従って、 式 (5 9) において、 左辺の行列 SMAT と右辺の行列 PMAT が決定されれば、 行列解法によって行列 WMAT (即ち、 特徴量 の算出が可 能である。
具体的には、 式 (56) で示されるように、 行列 SMAT の各成分は、 上述し た積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成 分演算部 2 334より供給された積分成分テーブル 含まれているので、 正規 方程式生成部 23 3 5は、 積分成分テーブルを利用して行列 SMAT の各成分を 演算することができる。
また、 式 (5 8) で示されるように、 行列 PMAT の各成分は、 積分成分 Si (1)と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行列 SMAT の各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素値取得部 233 3より供給された入力画素値テーブルに含 まれているので、 正規方程式生成部 23 3 5は、 積分成分テーブルと入力画素 値テーブルを利用して行列 PMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 2 3 5は、 行列 SMAT と行列 PMATの 各成分を演算し、 その演算結果 (行列 SMAT と行列 PMATの各成分) を正規方 程式テーブルとして近似関数生成部 233 6に出力する。
正規方程式生成部 23 35より正規方程式テーブルが出力されると、 ステツ プ S 2 306において、 近似関数生成部 2336は、 正規方程式テーブルに基 づいて、 上述した式 (5 9) の行列 WMAT の各成分である特徴量 ^ (即ち、 1 次元多項式である近似関数 f(x)の係数 Wi ) を演算する。
具体的には、 上述した式 (5 9) の正規方程式は、 次の式 (60) のように 変形できる。 4008690
124
¾Γ = ¾ΑΤΡΜΑΤ
• · · (60) 式 (60) において、 左辺の行列 WMATの各成分が、 求めたい特徴量 で ある。 また、 行列 SMAT と行列 PMATのそれぞれの各成分は、 正規方程式生成 部 23 35より供給された正規方程式テーブルに含まれている。 従って、 近似 関数生成部 23 36は、 正規方程式テーブルを利用して、 式 (60) の右辺の 行列演算を行うことで行列 WMAT を演算し、 その演算結果 (特徴量 を画像 生成部 103に出力する。
ステップ S 2 30 7において、 近似関数生成部 23 36は、 全画素の処理を 終了したか否かを判定する。
ステップ S 2 307において、 全画素の処理がまだ終了されていないと判定 された場合、 処理はステップ S 2302に戻り、 それ以降の処理が繰り返され る。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2302乃至 S 2307の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 230 7において、 全画素 の処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。 なお、 以上のようにして演算された係数 (特徴量) ^ により生成される近 似関数 f(x)の波形は、 上述した図 73の近似関数 f3 (x)のような波形となる。
このように、 1次元近似手法においては、 1次元の X断面波形 F(x)と同一 形状の波形が定常性の方向に連なっていると仮定して、 例えば、 1次元の多項 式などの近似関数 f(x)の特徴量が演算される。 従って、 1次元近似手法 お いては、 他の関数近似手法に比較して、 少ない演算処理量で近似関数 f(x)の 特徴量の算出が可能となる。
次に、 図 77乃至図 8 3を参照して、 第 2の関数近似手法について説明する。 即ち、 第 2の関数近似手法とは、 例えば、 図 77で示されるような、 傾き GFで表される空間方向の定常性を有する実世界 1の光信号を、 X— Y平面上 4 008690
125
(空間方向の 1方向である X方向と、 X方向に垂直な Y方向に水平な平面上) の波形 F (x,y)とみなし、 2次元の多項式などの近似関数 f (x,y)で波形
F (x, y)を近似することによって、 その波形 F (x,y)を推定する手法である。 従 つて、 以下、 第 2の関数近似手法を、 2次元近似手法と称する。
なお、 図 7 7において、 図中、 水平方向は、 空間方向の 1方向である X方向 を、 右上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベル を、 それぞれ表している。 Gpは、 空間方向の定常性の傾きを表している。
また、 2次元近似手法の説明においても、 センサ 2は、 図 7 8で示されるよ うな、 複数の検出素子 2— 1がその平面上に配置されて構成される C C Dとさ れる。
図 7 8の例では、 検出素子 2 _ 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向 である Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向で ある t方向とされている。
また、 図 7 8の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1め正方形とされている。 そして、 センサ 2のシャツタ 時間 (露光時間) が 1とされている。
さらに、 図 7 8の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位 置 y = 0 ) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原点 (1方向の位置1: = 0 ) とされている。
この場合、 空間方向の原点 (x = 0 , y = 0 ) にその中心が存在する検出素 子 2— 1は、 X方向に- 0. 5乃至 0. 5の範囲、 Y方向に -0. 5乃至 0. 5の範囲、 および t方向に- 0. 5乃至 0. 5の範囲で光信号関数 F (x, y, t)を積分し、 その積 分値を画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される 画素値 Pは、 次の式 (6 1 ) で表される。 X++00..55广广 ++00..55 ++00..55 、
- -o0. H5 J J--o0. fi5 J J--o0.55 F(x,y,t)dxdydt
- · · (6 1) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間 方向の原点とすることで、 式 (.6 1) で示される画素値 Pを出力することにな る。
ところで、 上述したように、 2次元近似手法は、 実世界 1の光信号を、 例え ば、 図 77で示されるような波形 F(x,y)として扱い、 その 2次元の波形
F(x,y)を、 2次元の多項式などの近似関数 f(x,y)に近似する手法である。
そこで、 はじめに、 このような近似関数 f(x,y)を 2次元の多項式で表現す る手法について説明する。
上述したように、 実世界 1の光信号は、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする光信号関数 F(x,y,t)で表される。 この光信号 関数 F(x,y,t)を、 Y方向の任意の位置 yにおいて、 X方向に射影した 1次元 の波形を、 ここでは、 X断面波形 F(x)と称している。
この X断面波形 F ( X ) に注目すると、 実世界 1の信号が、 空間方向の所定 の方向に定常性を有している場合、 X断面波形 F ( X ) と同一形状の波形がそ の定常性の方向に連なっていると考えることができる。 例えば、 図 77の例で は、 X断面波形 F ( X ) と同一形状の波形が、 傾き GF の方向に連なっている。 換言すると、 X断面波形 F ( X ) と同一形状の波形が傾き GFの方向に連なつ て、 波形 F(x,y)が形成されているとも言える。
従って、 波形 F(x,y)を近似する近似関数 f (x,y)の波形は、 X断面波形 F(x)を近似する近似関数 f(x)と同一形状の波形が連なって形成されると考え ることで、 近似関数 f (x, y)を 2次元の多項式で表現することが可能になる。 さらに詳細に、 近似関数 f(x,y)の表現方法について説明する。 JP2004/008690
127 例えば、 いま、 上述した図 7 7で示されるような、 実世界 1の光信号、 即ち、 傾き GFで表される空間方向の定常性を有する光信号が、 センサ 2 (図 7 8 ) により検出されて入力画像 (画素値) として出力されたとする。
さらに、 図 7 9で示されるように、 データ定常性検出部 1 0 1 (図 3 ) 1 この入力画像のうちの、 X方向に 4画素分、 かつ Υ方向に 5画素分の総計 2 0 個の画素 (図中、 点線で表される 2 0個の正方形) から構成される入力画像の 領域 2 4 0 1に対してその処理を実行し、 データ定常性情報の 1つとして角度 Θ (傾き GFに対応する傾き Gf で表されるデータの定常性の方向と、 X方向と のなす角度 0 ) を出力したとする。
なお、 入力画像の領域 2 4 0 1において、 図中水平方向は、 空間方向の 1 方向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y 方向を表している。
また、 図 7 9中、 左から 2画素目であって、 下から 3画素目の画素が注目画 素とされ、 その注目画素の中心を原点(0, 0)とするように(x,y)座標系が設定 されている。 そして、 原点(0,0)を通る角度 0の直線 (データの定常性の方向 を表す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向距離 と称する) が x' と記述されている。
さらに、 図 7 9中、 右側のグラフは、 X断面波形 F (x ' )が近似された関数 であって、 n次 (nは、 任意の整数) の多項式である近似関数 f (x' )を表して いる。 右側のグラフの軸のうち、 図中水平方向の軸は、 断面方向距離を表して おり、 図中垂直方向の軸は、 画素値を表している。
この場合、 図 7 9で示される近似関数 f (x ' )は、 n次の多項式であるので、 次の式 (6 2 ) のように表される。
π
f ( X,) = W0+WiX' +W2X' + · · · +WnX'n = ∑ WjX"
i =0
… (6 2 ) また、 角度 Θが決定されていることから、 原点(0,0)を通る角度 Θの直線は 一意に決まり、 Υ方向の任意の位置 yにおける、 直線の X方向の位置 力 次の式 (6 3) のように表される。 ただし、 式 (63) において、 sは cot Θ (= 1 /tan θ ) を表している。
Xi = sxy
• · · (63)
即ち、 図 79で示されるように、 傾き Gf で表されるデータの定常性に対応 する直線上の点は、 座標値(Xl,y)で表される。
式 (6 3) より、 断面方向距離 x' は、 次の式 (64) のように表される。 x, = X— X| = x-s xy
- ■ . · (64)
従って、 入力画像の領域 2401內の任意の位置(x,y)における近似関数 f (x,y)は、 式 (6 2) と式 (64) より、 次の式 (6 5) のように示される。
n .
f (x, y = ∑ Wj (χ-sxy)'
i=0
• · · (6 5) なお、 式 (6 5) において、 Wi は、 近似関数 f(x, y)の係数を表している。 なお、 近似関数 f(x,y)を含む近似関数 f の係数 を、 近似関数 f の特徴量と 位置づけることもできる。 従って、 以下、 近似関数 f の係数 を、 近似関数 f の特徴量 ^ とも称する。
このようにして、 角度 0が既知であれば、 2次元波形の近似関数 f (x,y)を、 式 (6 5) の多項式として表現することができる。
従って、 実世界推定部 102は、 式 (6 5) の特徴量 を演算することが' できれば、 図 77で示されるような波形 F(x,y)を推定することができる。
そこで、 以下、 式 (65) の特徴量 Wi を演算する手法について説明する。 即ち、 式 (6 5) で表される近似関数 f (x,y)を、 画素 (センサ 2の検出素 子 2— 1 (図 78) ) に対応する積分範囲 (空間方向の積分範囲) で積分すれ ば、 その積分値が、 画素の画素値の推定値となる。 このことを、 式で表現した ものが、 次の式 (6 6) である。 なお、 2次元近似手法においては、 時間方向 tは一定値とみなされるので、 式 (66) は、 空間方向 (X方向と Y方法) の 位置 x,yを変数とする方程式とされている。
J. 'yy++00..55 f«χX++00..55 J πl
'y ν--00..55 J Jxx--00..55 |∑¾ Wi (x»sxy)'+e
• · · (66) 式 (66) において、 P(x, y)は、 センサ 2からの入力画像のうちの、 その 中心位置が位置(x,y) (注目画素からの相対位置(x,y)) に存在する画素の画 素値を表している。 また、 eは、 誤差を表している。
このように、 2次元近似手法においては、 入力画素値 P(x,y)と、 2次元の 多項式などの近似関数 f (x,y)の関係を、 式 (66) で表現することが可能で あるので、 実世界雍定部 102は、 式 (6 6) を利用して、 特徴量 を、 例 えば、 最小自乗法等により演算することで (演算した特徴量 を式 (64) に代入して近似関数 f(x,y)を生成することで) 、 2次元の関数 F(x,y) (傾き GF (図 77) で表される空間方向の定常性を有する実世界 1の光信号を、 空 間方向に着目して表した波形 F(x,y)) を推定することが可能となる。
図 80は、 このような 2次元近似手法を利用する実世界推定部 1 02の構成 例を表している。
図 80で示されるように、 実世界推定部 102には、 条件設定部 2421、 入力画像記憶部 2422、 入力画素値取得部 2423、 積分成分演算部 242 4、 正規方程式生成部 2425、 および近似関数生成部 2426が設けられて いる。 .
条件設定部 242 1は、 注目画素に対応する関数 F(x,y)を推定するために 使用する画素の範囲 (タップ範囲) や、 近似関数 f (x,y)の次数 n を設定する c 入力画像記憶部 2422は、 センサ 2からの入力画像 (画素値) を一次格納 する。 入力画素値取得部 2423は、 入力画像記憶部 24 22に記憶された入力画 像のうちの、 条件設定部 242 1により設定されたタップ範囲に対応する入力 画像の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部24 25に供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各 画素のそれぞれの画素值が記述されたテープルである。 なお、 入力画素値テー ブルの具体例については後述する。
ところで、 上述したように、 2次元近似手法を利用する実世界推定部 102 は、 上述した式 (66) を最小自乗法で解くことにより、 上述した式 (65) で示される近似関数 f (x,y)の特徴量 を演算する。
式 (66) は、 次の式 (67) 乃至式 (6 9) を用いることで得られる次の 式 (70) を使用することで、 次の式 (7 1) のように表現することができる c i+1
x
x'dx =
+1
• · · (67)
Figure imgf000132_0001
• · · (68)
Figure imgf000132_0002
- - - (69)
J'y+ .5 x+o.5 y y-+o.5 i+1 x+0.5
(x-sxy)
^ r (x-s y)'dxdy = I dy y-0 5 Jx-0.5 Jv y--'o.5 x-0.5
i+1
y+o.5 (x+o.5-sxy)i+1 -(x-0.5-sxy)
• v一 I dy
y-0.5 +1
i+2 y+0.5 +2 y+0.5
(x+0.5-sxy) (x-0.5-sxy)
s(i+1) (i+2) J y-0.5 s( i+1) (i+2) 」y- 0.5
(x+Q.5-sxy+Q,5s)'^-(x+Q.5-s)<y-Q,5s)i÷2-(x-0.5-sxy+Q.5s) 、i'^+2+(x-Q.5-sxy-Q. 、 2
(70)
I +2
P(x,y) =∑ {(x+0.5-s y+0.5s)
b s(i+1) (i+2)
+2
(x+0.5-sxy-O.5s)i+2-(x-0.5-sxy+O.5s)'
+ (x-0.5-s x y-0.5s)i+2) +e
= ∑ WjSj (x-0.5, x+0.5, y-0.5, y+0.5) +e
i=0
- … (71) 式 (71) において、 Si (x-0.5, x+0.5, y-0.5, y+0.5) は、 i次項の積分成 分を表している。 即ち、 積分成分 Si (x-0.5,x+0.5, y-0.5;y+0.5) は、 次の 式 (7 2) で示される通りである。
Sj (x-0.5, x+0.5, y-0.5, y+0.5) =
(x+0, 5-sxy+O.5s)i+2-(x+0.5-sxy-O.5s)i+2-(x-0.5-sxy+O.5s)i+2+(x-0.5-sxy-O.5s)i+2
■ · · (72) 積分成分演算部 2424は、 この積分成分 Si (x-0.5, x+0.5, y- 0.5, y+0.5) を演算する。
具体的には、 式 (72) で示される積分成分 Si (x-0.5, x+0.5, y- 0.5, y+0.5) は、 相対画素位置(x,y)、 上述した式 (6 5) における変数 s、 および、 i次項の iが既知であれば、 演算可能である。 これらのうちの、 相対 画素位置(x,y)は注目画素とタップ範囲により、 変数 sは cot Sであるので角 度 Θにより、 iの範囲は次数 nにより、 それぞれ決定される。
従って、 積分成分演算部 2 4 2 4は、 条件設定部 2 4 2 1により設定された タップ範囲および次数、 並びにデータ定常性検出部 1 0 1より出力されたデー タ定常性情報のうちの角度 Θに基づいて積分成分 Si (X- 0. 5, x+0. 5, y- 0. 5, y+0. 5) を演算し、 その演算結果を積分成分テーブルとして正規方程式生 成部 2 4 2 5に供給する。
正規方程式生成部 2 4 2 5は、 入力画素値取得部 2 4 2 3より供給された入 力画素値テーブルと、 積分成分演算部 2 4 2 4より供給された積分成分テープ ルを利用して、 上述した式 (6 6 ) 、 即ち、 式 (7 1 ) を最小自乗法で求める 場合の正規方程式を生成し、 それを正規方程式テーブルとして近似関数生成部 2 4 2 6に出力する。 なお、 正規方程式の具体例については後述する。
近似関数生成部 2 4 2 6は、 正規方程式生成部 2 4 2 5より供給された正規 方程式テーブルに含まれる正規方程式を行列解法で解くことにより、 上述した 式 (6 6 ) の特徴量 (即ち、 2次元多項式である近似関数 f (x,y)の係数 wt ) のそれぞれを演算し、 画像生成部 1 0 3に出力する。
次に、 図 8 1のフローチャートを参照して、 2次元近似手法が適用される実 世界の推定処理 (図 2 9のステップ S 1 0 2の処理) について説明する。 例えば、 いま、 傾き GFで表される空間方向の定常性を有する実世界 1の光 信号が、 センサ 2 (図 7 8 ) により検出されて、 1フレームに対応する入力画 像として、 入力画像記憶部 2 4 2 2に既に記憶されているとする。 また、 デー タ定常性検出部 1 0 1力 ステップ s 1 0 1 (図 2 9 ) の定常性の検出の処 a において、 入力画像のうちの、 上述した図 7 9で示される領域 2 4 0 1に対し て処理を施して、 データ定常性情報として角度 Θを既に出力しているとする。 この場合、 ステップ S 2 4 0 1において、 条件設定部 2 4 2 1は、 条件 (タ ップ範囲と次数) を設定する。 例えば、 いま、 図 8.2で示されるタップ'範囲 244 1が設定されるとともに、 次数として 5次が設定されたとする。
即ち、 図 82は、 タップ範囲の 1例を説明する図である。 図 82において、 X方向と Y方向は、 センサ 2の X方向と Y方向 (図 78) を表している。 また、 タップ範囲 2441は、 X方向に 4画素分、 かつ Y方向に 5画素分の総計 20 個の画素 (図中、 20個の正方形) からなる画素群を表している。
さらに、 図 8 2に示されるように、 注目画素が、 タップ範囲 2441のうち の、 図中、 左から 2画素目であって、 下から 3画素目の画素に設定されるとす る。 また、 各画素のそれぞれに対して、 注目画素からの相対画素位置(x,y) (注目画素の中心(0,0)を原点とする注目画素座標系の座標値) に応じて、 図 8 2で示されるような番号 1 (1は、 0乃至 1 9のうちのいずれかの整数値) が付されるとする。
図 8 1に戻り、 ステップ S 2402において、 条件設定部 242 1は、 注目 画素を設定する。
ステップ S 2403において、 入力画素値取得部 242 3は、 条件設定部 2 421により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力面素値テーブルを生成する。 即ち、 いまの場合、 入力画素値取得部 242 3は、 入力画像の領域 240 1 (図 7 9) を取得し、 入力画素値テーブルとし て、 20個の入力画素値 P(l)からなるテーブルを生成する。
なお、 いまの場合、 入力画素値 P(l)と、 上述した入力画素値 P(x,y)の関係 は、 次の式 (7 3) で示される関係とされる。 ただし、 式 (73) において、 左辺が入力画素値 P (1 ) を表し、 右辺が入力画素値 P(x,y)を表している。 Γ、 /ノ 一 r 、υ, υノ
l J
I I · \ 1, 乙ノ
厂 、 》 一 I a. 、レ, 乙ノ
r、¾ ノ
P(A)
厂 、 》 一 «ゝ 乙ノ
= M C
一 p画 (、— 11, ^圍)ノ
Γ、ϋノ =一 P(C
1 11 )ノ
、 / ノ 1 、 1, り
r、oノ 1 國 ノ
「 ノ 1 し Uノ
Γ 1 U 一 1 、 1, wノ
Ρ「(い11ノ -一P 1 (乙, \>) )
= P(-1, -1)
Γ 1 oノ = P(0, -1)
Γ J = P(1, -1)
P(15) = P(2,一 1)
P(16) =P (— 1, — 2)
P(17)
P(18) = P(1, -2)
P(19) = P(2,一 2)
• · · (73)
2404において、 積分成分演算部 2424は、 条件設定部 24 21により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検 出部 1 01より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を 演算し、 積分成分テーブルを生成する。
いまの場合、 上述したように、 入力画素値は、 P(x, y)でなく P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2424は、 上述 した式 (72) の積分成分 Si (X- 0.5, x+0.5, y- 0. 5, y+0.5)を、 次の式 (7 4) の左辺で示される積分成分 Si (1)といった 1の関数として演算する。
Sj(l) (x-0.5, x+0.5, y-0.5, y+0.5)
- - · (74) 具体的には、 いまの場合、 次の式 (75) で示される積分成分 Si (1)が演算 される。
(0) = S 一 0· 5,0.5,一 0.5, 0.5)
=S -1.5, -0.5,1.5, 2.5)
(2) =S —0.5, 0.5,1.5, 2.5)
(3) =S 0.5,1.5,1.5, 2.5)
(4) =S 1.5, 2.5,1.5, 2.5)
(5) =S -1.5, -0.5,0.5, 1.5)
(6) =S -0.5, 0.5, 0.5,1.5)
(7) =S 0.5,1.5, 0.5,1.5)
(8) =S 1.5, 2.5, 0.5,1.5)
,(9) =S -1.5,一 0· 5,一 5, 0.5)
(10) =S 0.5, 1.5,一 0.5, 0.5)
=S 1.5, 2.5,一 5, 0.5)
(12) =S -1.5,一 0.5, -1.5, -0.5)
(13) =S 一 0.5, 0.5, -1.5, -0.5)
(14) =S 0.5, 1.5, -1.5, -0.5)
(15) =S 1.5, 2.5, -1.5, -0.5)
(16) =S -1.5, -0.5,—2.5, -1.5)
(17) =S 一 0, 5,0.5, -2.5, -1.5)
(18) =S 0.5,1.5,—2.5, -1.5)
(19) =S 1.5, 2.5, -2.5, -1.5)
• · · (75) なお、 式 (7 5) において、 左辺が積分成分 ( 1 )を表し、 右辺が積分成 分 Si (X- 0.5,x+0.5,y- 0.5,y+0.5)を表している。 即ち、 いまの場合、 iは 0 乃至 5であるので、 20個の S。(1), 20個の (1), 20個の S2 (1), 20個 の S3 (1), 20個の S4 (1), 20個の S5 (1)の総計 1 20個の Si (1)が演算され ることになる。
より具体的には、 はじめに、 積分成分演算部 2424は、 データ定常性検出 部 10 1より供給された角度 Θに対する cot0を演算し、 それを変数 sとする。 次に、 積分成分演算部 2424は、 演算した変数 sを使用して式 (74) の右 辺で示される 20個の積分成分 Si (x-0.5,x+0.5,y-0.5,y+0.5) のそれぞれを、
Figure imgf000138_0001
(76) なお、 式 (76) において、 Lは、 タップ範囲の画素の番号 1のうちの最大 値を表し /ている。 nは、 多項式である近似関数 f(x)の次数を表している。 具
∑一一
体的には、 - - ■ -いooまの場合、 n=5となり、 L=1 9となる。
s s s
式 (76) で示される正規方程式の各行列のそれぞれを、 次の式 (77) 乃 至 (79) のように定義すると、 正規方程式は、 次の式 (80) のように表現 される。
Figure imgf000139_0001
(77) w0
W1
(78)
P AT -
(79) S AT½T = PMAT
- · · (80) 式 (78) で示されるように、 行列 ATの各成分は、 求めたい特徴量 ^ である。 従って、 式 (80) において、 左辺の行列 SMAT と右辺の行列 PMAT が決定されれば、 行列解法によって行列 WMATの演算が可能になる。
具体的には、 式 (77) で示されるように、 行列 SMAT の各成分は、 上述し た積分成分 Si (1)で演算可能である。 即ち、 積分成分 Si (1)は、 積分成分演算 部 2424より供給された積分成分テーブルに含まれているので、 正規方程式 生成部 2425は、 積分成分テーブルを利用して行列 SMATの各成分を演算す ることができる。
また、 式 (79) で示されるように、 行列 PMAT の各成分は、 積分成分 Si (1)と入力画素値 P(l)で演算可能である。 即ち、 積分成分 Si (1)は、 行列 S MAT の各成分に含まれるものと同一のものであり、 また、 入力画素値 P(l)は、 入力画素値取得部 2423より供給された入力画素値テーブルに含まれている ので、 正規方程式生成部 2425は、 積分成分テーブルと入力画素値テーブル を利用して行列 PMAT の各成分を演算することができる。
このようにして、 正規方程式生成部 2425は、 行列 SMAT と行列 PMAT の 各成分を演算し、 その演算結果 (行列 SMAT と行列 PMATの各成分) を正規方 程式テーブルとして近似関数生成部 2426に出力する。
正規方程式生成部 2425より正規方程式テーブルが出力されると、 ステツ プ S 2406において、 近似関数生成部 2426は、 正規方程式テーブルに基 づいて、 上述した式 (80) の行列 AT の各成分である特徴量 Wi (即ち、 2 次元多項式である近似関数 f (x,y)の係数 ) を演算する。 . 具体的には、 上述した式 (80) の正規方程式は、 次の式 (8 1) のように 変形できる。
½T = SMATPMAT • · · ( 8 1 ) 式 (8 1 ) において、 左辺の行列 WM A Tの各成分が、 求めたい特徴量 で ある。 また、 行列 SM A T と行列 PM A Tのそれぞれの各成分は、 正規方程式生成 部 2 4 2 5より供給された正規方程式テーブルに含まれている。 従って、 近似 関数生成部 2 4 2 6は、 正規方程式テーブルを利用して、 式 (8 1 ) の右辺の 行列演算を行うことで行列 WM A T を演算し、 その演算結果 (特徴量 ) を画像 生成部 1 0 3に出力する。
ステップ S 2 4 0 7において、 近似関数生成部 2 4 2 6は、 全画素の処理を 終了したか否かを判定する。
ステップ S 2 4 0 7において、 全画素の処理がまだ終了されていないと判定 された場合、 処理はステップ S 2 4 0 2に戻り、 それ以降の処理が繰り返され る。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2 4 0 2乃至 S 2 4 0 7の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 2 4 0 7において、 全画素 の処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。 以上、 2次元近似手法の説明として、 空間方向 (X方向と Y方向) に対する 近似関数 f (x, y)の係数 (特徴量) Wi を演算する例を用いたが、 2次元近似手 法は、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対しても適 用可能である。
即ち、 上述した例は、 実世界 1の光信号が、 例えば、 傾き GF (図 7 7 ) で 表される空間方向の定常性を有する場合の例であったので、 上述した式 (6 6 ) で示されるような、 空間方向 (X方向と Y方向) の二次元積分が含まれる 式が利用された。 しかしながら、 二次元積分の考え方は、 空間方向だけによる ものではなく、 時空間方向 (X方向と t方向、 または、 Y方向と t方向) に対 して適用することも可能である。
換言すると、 2次元近似手法においては、 推定したい光信号関数 F (x,y,t) I 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方向、 ま たは、 Y方向と t方向) の定常性を有している場合であっても、 2次元の近似 関数 f により近似することが可能である。
具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 そ の物体の動きの方向は、 図 8 3で示されるような Χ-ΐ平面においては、 傾き VFのように表される。 換言すると、 傾き VFは、 X_t平面における時空間方向 の定常性の方向を表しているとも言える。 従って、 データ定常性検出部 1 0 1 は、 上述した角度 0 (X- Y平面における、 傾き GFで表される空間方向の定常 性に対応するデータ定常性情報) と同様に、 X - 1平面における時空間方向の定 常性を表す傾き VFに対応するデータ定常性情報として、 図 8 3で示されるよ うな動き Θ (厳密には、 図示はしないが、 傾き VPに対応する傾き Vf で表され. るデータの定常性の方向と、 空間方向の X方向とのなす角度である動き 0 ) を 出力することが可能である。
従って、 2次元近似手法を利用する実世界推定部 1 0 2は、 動き 0を上述し た角度 Θの代わりとして使用すれば、 上述し 方法と同様な方法で、 近似関数 f (x t)の係数 (特徴'量) を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (6 6 ) ではなく、 次の式 (8 2 ) である。
• tt++00.. 55 r r-xx++00.. 55 J π1
P (x, t) = |+ Λ I ∑ Wj x-s t)' dxdt+e
=0
- · · ( 8 2 ) なお、 式 (8 2 ) において、 sは cot 0 (ただし、 0は動きである) である。 また、 空間方向 Xの変わりに、 空間方向 Yに注目した近似関数 f (y t) も、 上述した近似関数 f (X, t)と全く同様に取り扱うことが可能である。
このように、 2次元近似手法は、 1次元ではなく 2次元の積分効果を考慮し ているので、 1次元近似手法に比較して、 より正確に実世界 1の光信号を推定 することが可能になる。
次に、 図 8 4乃至図 8 8を参照して、 第 3の関数近似手法について説明する。 即ち、 第 3の関数近似手法とは、 例えば、 時空間方向のうちの所定の方向の 定常性を有する実世界 1の光信号が、 光信号関数 F (X, y, t)で表されることに 注目して、 近似関数 f (x, y, t)で光信号関数 F (x, y, t)を近似することによって、 光信号関数 F(x,y, t)を推定する手法である。 従って、 以下、 第 3の関数近似 手法を、 3次元近似手法と称する。
また、 3次元近似手法の説明においても、 センサ 2は、 図 8 4で示されるよ うな、 複数の検出素子 2— 1がその平面上に配置されて構成される CCDとさ れる。
図 8 4の例では、 検出素子 2— 1の所定の 1辺に平行な方向が、 空間方向の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方向 である Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向で ある t方向とされている。
また、 図 84の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的な 形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツタ 時間 (露光時間) が とされている。
さらに、 図 8 4の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心が、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x = 0、 および Y方向の位 置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方向) の原点 (1方向の位置1 = 0) とされている。
この場合、 空間方向の原点 (x == 0, y = 0) にその中心が存在する検出素 子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 および t方向に- 0.5乃至 0.5の範囲で光信号関数 F(x,y,t)を積分し、 その積 分値を画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される 画素値 Pは、 次の式 (8 3) で表される。
X +十0 υ..53 r+十0 υ..53 r ρ+十 υ..5 ο 、
-0.51θ 5 /-O B F(X,y,t〉dxdydt 2004/008690
142
- · · (83) その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間 方向の原点とすることで、 式 (8 3) で示される画素値 Pを出力することにな る。
ところで、 上述したように、 3次元近似手法においては、 光信号関数
F(x, y, t)は、 3次元の近似関数 f (x, y, t)に近似される。
具体的には、 例えば、 近似関数 f(x,y,t)を、 N個の変数 (特徴量) を有す る関数とし、 式 (8 3) に対応する入力画素値 P(x,y,t)と近似関数 f (x,y, t) の関係式を定義する。 これにより、 Nより大きい M個の入力画素値 P(x,y,t) が取得されていれば、 定義された関係式から N個の変数 (特徴量) の算出が 可能である。 即ち、 実世界推定部 1 02は、 M個の入力画素値 P(x,y,t)を取 得して N個の変数 (特徴量) を演算することで、 光信号関数 F(x,y,t)を推定 することが可能である。
この場合、 実世界推定部 1 02は、 センサ 2からの入力画像 (入力画素値) に含まれるデータの定常性を縛りとして (即ち、 データ定常性検出部 101よ り出力される入力画像に対するデータ定常性情報を利用して) 、 入力画像全体 のうちの、 M個の入力画像 P(x,y,t)を抽出 (取得) する。 結果的に、 近似関 数 f (x, y, t)は、 データの定常性に拘束されることになる。
例えば、 図 8 5で示されるように、 入力画像に対応する光信号関数
F(x,y,t)が、 傾き GFで表される空間方向の定常性を有している場合、 データ 定常性検出部 1 01は、 入力画像に対するデータ定常性情報として、 角度 0
(傾き GF に対応する傾き Gf (図示せず) で表されるデータの定常性の方向と、 X方向のなす角度 Θ) を出力することになる。
この場合、 光信号関数 F(x,y,t)を X方向に射影した 1次元の波形 (ここで は、 このような波形を、 X断面波形と称している) は、 Y方向のいずれの位置 で射影した場合であっても同一の形状であるとする。 JP2004/008690
143
即ち、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 0方 向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのような 2次元波形が時間方向 tに連なった 3次元波形を、 近似関数 f (x,y,t)で近似 する。
換言すると、 注目画素の中心から Y方向に位置 y だけずれた X断面波形は、 注目画素の中心を通る X断面波形が X方向に所定の量 (角度 0に応じて変化 する量) だけ移動した (シフトした) 波形となる。 なお、 以下、 このような量 を、 シフト量と称する。
このシフト量は、 次のようにして算出が可能である。
即ち、 傾き Vf (例えば、 図 8 5の傾き VFに対応する、 データの定常性の方 向を表す傾き Vf) と角度 0は、 次の式 (84) のように表される。
Gf = tan θ =
T dx
- · · (84) なお、 式 (84) において、 dxは、 X方向の微小移動量を表しており、 dy は、 dxに対する Y方向の微小移動量を表している。
従って、 X方向に対するシフト量を Cx (y)と記述すると、 次の式 (8 5) の ように表される。
Figure imgf000145_0001
• · · (85) このようにして、 シフト量 Cx (y)を定義すると、 式 (83) に対応する入力 画素値 P(x,y,t)と近似関数 f (x,y,t)の関係式は、 次の式 (86) のように表 される。
P(x,y,t) = Γ ν Jノ f (x,y,t)dxdydt+e
• · · (86) 式 (86) において、 eは、 誤差を表している。 ts は、 t方向の積分開始 位置を表しており、 は、 t方向の積分終了位置を表している。 同様に、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表 している。 また、 xs は、 X方向の積分開始位置を表しており、 xe は、 X方向 の積分終了位置を表している。 ただし、 具体的な各積分範囲のそれぞれは、 次 の式 (87) で示される通りになる。 ts = t-0.5
te = t+0.5
ys = y-o.5
Figure imgf000146_0001
xs = x-Cx(y)-0.5
xe = x-Cx(y)+0.5
• · · (87) 式 (87) で示されるように、 注目画素から空間方向に(x,y)だけ離れて位 置する画素に対する X方向の積分範囲を、 シフト量 Cx (y)だけ移動させること で、 同一形状の X断面波形が、 定常性の方向 (X方向に対して角度 0方向) に 連なっていることを表すことが可能になる。
このように、 3次元近似手法においては、 画素値 P(x,y,t)と、 3次元の近 似関数 f (x,y,t)の関係を式 (86) (積分範囲は、 式 (8 7) ) で表すこと ができるので、 式 (86) と式 (87) を利用して、 近似関数 f (x,y,t)の N 個の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t) (例えば、 図 8 5で示されるような傾き VF表される空間方向の定常 性を有する光信号) の推定が可能となる。
なお、 光信号関数 F(x,y,t)で表される光信号が、 例えば、 図 85で示され るような傾き VFで表される空間方向の定常性を有している場合、 次のように して光信号関数 F(x, y, t)を近似してもよい。 08690
145
即ち、 光信号関数 F(x,y,t)を Y方向に射影した 1次元の波形 (以下、 この ような波形を、 Υ断面波形と称する) は、 X方向のいずれの位置で射影した場 合であっても同一の形状であるとする。
換言すると、 同一形状の Υ断面波形が、 定常性の方向 (X方向に対して角度 0方向) に連なっている 2次元の (空間方向の) 波形が存在するとし、 そのよ うな 2次元波形が時間方向 tに連なった 3次元波形を、 近似関数 f (X, y, t)で 近似する。
従って、 注目画素の中心から X方向に Xだけずれた Y断面波形は、 注目画 素の中心を通る Y断面波形が Y方向に所定のシフト量 (角度 0に応じて変化 するシフト量) だけ移動した波形となる。
このシフト量は、 次のようにして算出が可能である。
即ち、 傾き GF力 上述した式 (84) のように表されるので、 Y方向に対 するシフト量を Cy (X)と記述すると、 次の式 (8 8) のように表される。
Cy (X) = 6f χχ
- - - (88) このようにして、 シフト量 Cy (X)を定義すると、 式 (8 3) に対応する入力 画素値 P(x,y,t)と近似関数 f (x,y,t)の関係式は、 シフト量 Cx (y)を定義した ときと同様に、 上述した式 (86) で表される。
ただし、 今度は、 具体的な各積分範囲のそれぞれは、 次の式 (8 9) で示さ れる通りになる。 ts = t-0.5
te = t+0.5
ys = y-Cy(x)-0.5
ye = y-Cy(x)+0.5
xs = x - 0.5
xe = x+0.5
… - (89) 式 (89) (および上述した式 (8 6) ) で示されるように、 注目画素から (x,y)だけ離れて位置する画素に対する Y方向の積分範囲を、 シフト量 Cy (x) だけ移動させることで、 同一形状の Y断面波形が、 定常性の方向 (X方向に対 して角度 0方向) に連なっていることを表すことが可能になる。
このように、 3次元近似手法においては、 上述した式 (86) の右辺の積分 範囲を式 (87) のみならず式 (89) とすることもできるので、 積分範囲と して式 (8 9) が採用された式 (86) を利用して、 近似関数 f(x,y,t)の n 個の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t) (傾き GFで表される空間方向の定常性を有する実世界 1の光信号) の推定が可能となる。
このように、 積分範囲を表す式 (8 7) と式 (89) は、 定常性の方向にあ わせて周辺画素を X方向にシフトさせるか (式 (87) の場合) 、 或いは Y 方向にシフトさせるか (式 (8 9) の場合) の違いがあるだけであり、 本質的 には同じことを表している。
しかしながら、 定常性の方向 (傾き GF) に応じて、 光信号関数 F(x,y,t)を、 X断面波形の集まりと捉える力 \ Y断面波形の集まりと捉えるかが異なる。 即 ち、 定常性の方向が Y方向に近い場合、 光信号関数 F(x,y,t)を、 X断面波形 の集まりと捉えた方が好適である。 これに対して、 定常性の方向が X方向に 近い場合、 光信号関数 F(x,y,t)を、 Y断面波形の集まりと捉えた方が好適で ある。
従って、 実世界推定部 102は、 積分範囲として式 (8 7) と式 (8 9) の 両方を用意しておき、 定常性の方向に応じて、 適宜式 (86) の右辺の積分範 囲として、 式 (87) と式 (8 9) のうちのいずれか一方を選択するとよい。 以上、 光信号関数 F(X,y,t)が空間方向 (X方向と Y方向) の定常性 (例え ば、 図 8 5の傾き GFで表される空間方向の定常性〉 を有する場合についての 3次元近似手法について説明したが、 3次元近似手法は、 図 86で示されるよ うに、 光信号関数 F(x,y,t)が時空間方向 (X方向、 Y方向、 および t方向) の 定常性 (傾き VF で表される定常性) を有する場合についても適用可能である。 即ち、 図 86において、 フレーム番号 #N_1のフレームに対応する光信号関 数が F(x,y, -1)とされ、 フレーム番号 #Nのフレームに対応する光信号関数 が F(x,y,#N)とされ、 かつ、 フレーム番号 #N+1のフレームに対応する光信号 関数が F(x,y, +1)とされている。
なお、 図 86において、 図中、 水平方向は、 空間方向の 1方向である 方 向とされており、 右斜め上方向は、 空間方向の他方向である Y方向とされてお り、 かつ、 垂直方向は、 時間方向である t方向とされている。
また、 フレーム _1 は、 フレーム #N に対して時間的に前のフレームであり、 フレーム #N+1は、 フレーム #Nに対して時間的に後のフレームである。 即ち、 フレーム - 1、 フレーム無、 およびフレーム洒 +1は、 フレーム - 1、 フレー ム請、 およびフレーム +1の順で表示される。
図 86の例では、 傾き VFで示される方向 (図中左下手前から右上奥の方 向) に沿った断面の光のレベルがほぼ一定とされている。 従って、 図 86の例 では、 光信号関数 F(X,y,t)は、 傾き VFで表される時空間方向の定常性を有し ていると言える。
この場合、 時空間方向の定常性を表す関数 C(x,y,t)を定義し、 かつ、 定義 された関数 C(x,y,t)を利用して、 上述した式 (86) の積分範囲を定義すれ ば、 上述した式 (8 7) や式 (8 9) と同様に、 近似関数 f(x,y, t)の N個の 特徴量の算出が可能になる。
関数 C(x,y,t)は、 定常性の方向を表す関数であれば特に限定されない。 た だし、 以下においては、 直線的な定常性であるとして、 それに対応する関数 C(x,y, t)として、 上述した空間方向の定常性を表す関数であるシフト量
Cx (y) (式 (8 5) ) ゃシフト量 Cy (x) (式 (8 7) ) に相当する、 Cx (t)と Cv (t)を次のように定義するとする。 即ち、 上述した空間方向のデータの定常性を表す傾き Gf に対応する、 時空 間方向のデータの定常性の傾きを Vf とすると、 この傾き Vf を X方向の傾き
(以下、 Vfx と記述する) と Y方向の傾き (以下、 Vfy と記述する) に分割す ると、 傾き Vfx は次の式 (90) で、 傾き Vfyは次の式 (9 1) で、 それぞ れ表される。
V 一
• · · (90)
V 一
Vfy一 dt
• · · (9 1) この場合、 関数 Cx (t)は、 式 (90) で示される傾き Vfx を利用して、 次の 式 (9 2) のように表される。
Cx(t) =Vfxxt
• · · (9 2) 同様に、 関数 Cy (t)は、 式 (9 1) で示される傾き Vfy を利用して、 次の式 (93) のように表される。
Cy(t) =VfyXt
• · · (9 3) このようにして、 時空間方向の定常性 25 1 1を表す関数 Cx (t)と関数 Cy (t)を定義すると、 式 (8 6) の積分範囲は、 次の式 (94) のように表さ れる。 PC漏 00傷 8690
149 ts = t-0.5
te = t+0.5
ys = y-Cy(t)-0.5
ye = y-Cy(t)+0.5
xs = x-Cx(t)-0.5
xe = x-Cx(t)+0.5
• · · (94) このように、 3次元近似手法においては、 画素値 P(x, y,t)と、 3次元の近 似関数 f (x,y,t)の関係を式 (86) で表すことができるので、 その式 (8 6) の右辺の積分範囲として式 (94) を利用して、 近似関数 f (x,y,t)の n + 1個の特徴量を、 例えば、 最小自乗法等により演算することで、 光信号関数 F(x,y,t) (時空間方向の所定の方向に定常性を有する実世界 1の光信号) を 推定することが可能となる。
図 87は、 このような 3次元近似手法を利用する実世界推定部 102の構成 例を表している。
なお、 3次元近似手法を利用する実世界推定部 10 2が演算する近似関数 f(x,y,t) (実際には、 その特徴量 (係数) を演算する) は、 特に限定されな いが、 以下の説明においては、 n (n=N-l) 次の多項式とされる。
図 8 7で示されるように、 実世界推定部 102には、 条件設定部 25 2 1、 入力画像記憶部 2522、 入力画素値取得部 25 23、 積分成分演算部 25 2 4、 正規方程式生成部 2525、 および近似関数生成部 25 26が設けられて いる。
条件設定部 25 2 1は、 注目画素に対応する光信号関数 F(x,y,t)を推定す るために使用する画素の範囲 (タップ範囲) や、 近似関数 f (x,y,t)の次数 n を設定する。
入力画像記憶部 25 22は、 センサ 2からの入力画像 (画素値) を一次格納 する。 入力画素値取得部 25 23は、 入力画像記憶部 25 22に記憶された入力画 像のうちの、 条件設定部 25 2 1により設定されたタップ範囲に対応する入力 画像の領域を取得し、 それを入力画素値テーブルとして正規方程式生成部 25 25に供給する。 即ち、 入力画素値テーブルは、 入力画像の領域に含まれる各 画素のそれぞれの画素値が記述されたテーブルである。
ところで、 上述したように、 3次元近似手法を利用する実世界推定部 102 は、 上述した式 (86) (ただし積分範囲は、 式 (8 7) 、 式 (90) 、 また は式 (94) ) を利用して最小自乗法により近似関数 f (x,y,t)の N個の特徴 量 (いまの場合、 各次の係数) を演算する。
式 (86) の右辺は、 その積分を演算することで、 次の式 (95) のように 表現することができる。
P(x, y, t) = 1 WjSj (xs, xe, ys, ye, ts, te) +e
i=0
• · · (9 5) 式 (9 5) において、 は、 i 次項の係数 (特徴量) を表しており、 また、 Si (xs,xe,ys,ye,ts,te) は、 i次項の積分成分を表している。 ただし、 xs は X方向の積分範囲の開始位置を、 xe は X方向の積分範囲の終了位置を、 ys は Y方向の積分範囲の開始位置を、 ye は Y方向の積分範囲の終了位置を、 ts は t方向の積分範囲の開始位置を、 teは t方向の積分範囲の終了位置を、 それ ぞれ表している。
積分成分演算部 2 524は、 この積分成分 Si (xs,xe,y5,ye,ts,te) を演 算する。
即ち、 積分成分演算部 25 24は、 条件設定部 252 1により設定されたタ ップ範囲および次数、 並びにデータ定常性検出部 10 1より出力されたデータ 定常性情報のうちの角度若しくは動き (積分範囲として、 上述した式 (87) 若しくは式 (90) が利用される場合には角度であり、 上述した式 (94) 力 S 利用される場合には動きである) に基づいて積分成分 Si (xs,xe,ys,ye,ts,te) を演算し、 その演算結果を積分成分テーブルとして正 規方程式生成部 25 25に供給する。
正規方程式生成部 25 25は、 入力画素値取得部 2523より供給された入 力画素値テーブルと、 積分成分演算部 25 24より供給された積分成分テープ ルを利用して、 上述した式 (9 5) を最小自乗法で求める場合の正規方程式を 生成し、 それを正規方程式テーブルとして近似関数生成部 25 26に出力する。 正規方程式の例については、 後述する。
近似関数生成部 25 26は、 正規方程式生成部 25 25より供給された正規 方程式テーブルに含まれる正規方程式を行列解法で解くことにより、 特徴量 Wi (いまの場合、 多項式である近似関数 f(x,y, t)の係数 ) のそれぞれを演 算し、 画像生成部 1 03に出力する。
次に、 図 88のフローチャートを参照して、 3次元近似手法が適用される実 世界の推定処理 (図 29のステップ S 10 2の処理) について説明する。
はじめに、 ステップ S 250 1において、 条件設定部 252 1は、 条件 (タ ップ範囲と次数) を設定する。
例えば、 いま、 L個の画素からなるタップ範囲が設定されたとする。 また、 各画素のそれぞれに対して、 所定の番号 1 (1は、 0乃至 L_ lのうちのいず れかの整数値) が付されるとする。
次に、 ステップ S 2502において、 条件設定部 252 1は、 注目画素を設 定する。
ステップ S 2 50 3において、 入力画素値取得部 2523は、 条件設定部 2 52 1により設定された条件 (タップ範囲) に基づいて入力画素値を取得し、 入力画素値テーブルを生成する。 いまの場合、 L個の入力画素値 P(x, y, t)か らなるテーブルが生成されることになる。 ここで、 L個の入力画素値
P(x,y, t)のそれぞれを、 その画素の番号 1の関数として P(l)と記述すること にする。 即ち、 入力画素値テーブルは、 L個の P(l)が含まれるテーブルとな る。 ステップ S 2504において、 積分成分演算部 25 24は、 条件設定部 25 2 1により設定された条件 (タップ範囲および次数) 、 並びにデータ定常性検 出部 101より供給されたデータ定常性情報 (角度若しくは動き) に基づいて 積分成分を演算し、 積分成分テーブルを生成する。
ただし、 いまの場合、 上述したように、 入力画素値は、 P(x,y,t)でなく
P(l)といった、 画素の番号 1の値として取得されるので、 積分成分演算部 2 524は、 上述した式 (95) の積分成分 Si (xs,xe,ys,ye,ts,te) を、 積 分成分 Si (1)といった 1の関数として演算することになる。 即ち、 積分成分テ 一ブルは、 LX i個の Si (1)が含まれる.テーブルとなる。
なお、 ステップ S 2503の処理とステップ S 2504の処理の順序は、 図 88の例に限定されず、 ステップ S 2 504の処理が先に実行されてもよいし、 ステップ S 2503の処理とステップ S 2504の処理が同時に実行されても よい。
次に、 ステップ S 2505において、 正規方程式生成部 25 25は、 ステツ プ S 250 3の処理で入力画素値取得部 2 5 23により生成された入力画素値 テーブルと、 ステップ S 2504の処理で積分成分演算部 2524により生成 された積分成分テーブルに基づいて、 正規方程式テーブルを生成する。
具体的には、 いまの場合、 最小自乗法により、 上述した式 (95) に対応す る次の式 (96) の特徴量 ^ を演算する。 で、 それに対応する正規方程式は、 次の式 (9 7) のように表される。 i=0
• - · (9 6) 2004/008690
153
Figure imgf000155_0001
• · · (97) 式 (.97) で示される正規方程式の各行列のそれぞれを、 次の式 (98) 乃 至 (1 00) のように定義すると、 正規方程式は、 次の式 (1 01) のように 表される。
∑ S0( I )S0( I ) ∑ SQC DS^ I ) … ∑ S0(l)Sn(l)
1=0 1=0 1=0
S AT = 1=0 1=0 1=0
∑ Sn(l)S0 ∑ Sn(l)Sn
1=0 1=0 1=0
(9 8)
Figure imgf000155_0002
(9 9)
Figure imgf000156_0001
• · · (100)
SMAT¾T二 PMAT
■ · · ( 1 0 1) 式 (9 9) で示されるように、 行列 WMAT の各成分は、 求めたい特徴量 Wi である。 従って、 式 (101) において、 左辺の行列 SMAT と右辺の行列 PMATが決定されれば、 行列解法によって行列 WMAT (即ち、 特徴量 ) の算出 が可能である。
具体的には、 式 (9 8) で示されるように、 行列 SMAT の各成分は、 上述し た積分成分 Si (1)が既知であれば演算可能である。 積分成分 Si (1)は、 積分成 分演算部 2 5 24より供給された積分成分テーブルに含まれているので、 正規 方程式生成部 2 5 2 5は、 積分成分テーブルを利用して行列 SMAT の各成分を 演算することができる。
また、 式 (100) で示されるように、 行列 PMAT の各成分は、 積分成分
Si (1)と入力画素値 P(l)が既知であれば演算可能である。 積分成分 Si (1)は、 行列 sMATの各成分に含まれるものと同一のものであり、 また、 入力画素値 ' P(l)は、 入力画素値取得部 2 5 2 3より供給された入力画素値テーブルに含 まれているので、 正規方程式生成部 2 5 2 5は、 積分成分テーブルと入力画素 値テーブルを利用して行列 PMATの各成分を演算することができる。
のようにして、 正規方程式生成部 2 5 2 5は、 行列 SMAT と行列 P MAT の 各成分を演算し、 その演算結果 (行列 sMAT と行列 PMAT の各成分) を正規方 程式テーブルとして近似関数生成部 2 5 2 6に出力する。 正規方程式生成部 2526より正規方程式テーブルが出力されると、 ステツ プ S 2506において、 近似関数生成部 2526は、 正規方程式テーブルに基 づいて、 上述した式 (101) の行列 WMAT の各成分である特徴量 Wi (即ち、 近似関数 f(x,y,t)の係数 Wi) を演算する。
具体的には、 上述した式 (101) の正規方程式は、 次の式 (102) のよ うに変形できる。 ,
¾T = SMATPMAT
• · ■ (102) 式 (102) において、 左辺の行列 WM ATの各成分が、 求めたい特徴量 ^ である。 また、 行列 SMAT と行列 PMATのそれぞれの各成分は、 正規方程式生 成部 2525より供給された正規方程式テーブルに含まれている。 従って、 近 似関数生成部 2526は、 正規方程式テーブルを利用して、 式 (102) の右 辺の行列演算を行うことで行列 WMAT を演算し、 その演算結果 (特徴量 を 画像生成部 103に出力する。
ステップ S 2507において、 近似関数生成部 2526は、 全画素の処理を 終了したか否かを判定する。
ステップ S 2507において、 全画素の処理がまだ終了されていないと判定 された場合、 処理はステップ S 2502に戻り、 それ以降の処理が繰り返され る。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 2502乃至 S 2507の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 5407において、 全画素 の処理が終了されたと判定されると) 、 実世界 1の推定処理は終了となる。 以上、 説明したように、 3次元近似手法は、 1次元や 2次元ではなく、 時空 間方向の 3次元の積分効果を考慮しているので、 1次元近似手法や 2次元近似 手法に比較して、 より正確に実世界 1の光信号を推定することが可能になる。 次に、 図 8 9乃至図 1 1 0を参照して、 画像生成部 1 0 3 (図 3 ) の実施の 形態の 1例について説明する。
図 8 9は、 この例の実施の形態の原理を説明する図である。
図 8 9で示されるように、 この例の実施の形態においては、 実世界推定部 1 0 2が、 関数近似手法を利用することが前提とされている。 即ち、 センサ 2に 入射される画像である、 実世界 1の信号 (光の強度の分布) 力 所定の関数 F で表されるとして、 実世界推定部 1 0 2が、 センサ 2から出力された入力画像 (画素値 P ) と、 データ定常性検出部 1 0 1から出力されたデータ定常性情報 を使用して、 関数 Fを所定の関数 f で近似することによって、 関数 Fを推定す ることが前提とされている。
なお、 以下、 この例の実施の形態の説明においても、 画像である、 実世界 1 の信号を、 特に光信号と称し、 関数 Fを、 特に光信号関数 Fと称する。 また、 関数 f を、 特に近似関数 f と称する。
そこで、 この例の実施の形態においては、 このような前提に基づいて、 画像 生成部 1 0 3が、 データ定常性検出部 1 0 1から出力されたデータ定常性情報 と、 実世界推定部 1 0 2から出力された実世界推定情報 (図 8 9の例では、 近 似関数 f の特徴量、 または特徴量が特定された近似関数 f) を使用して、 近似 関数 f を所定の時空間範囲で積分し、 その積分値を出力画素値 M (出力画 像) として出力する。 なお、 この例の実施の形態においては、 入力画像の画素 と出力画像の画素を区別するために、 入力画素値を Pと記述し、 出力画素値を Mと記述する。
換言すると、 光信号関数 Fが 1度積分されて入力画素値 Pとなり、 その入力 画素値 Pから光信号関数 Fが推測され (近似関数 f で近似され) 、 推測され た光信号関数 F (即ち、 近似関数 f) が再度積分されて、 出力画素値 Mが生成 される。 従って、 以下、 画像生成部 1 0 3が実行する近似関数 f の積分を、 再積分と称する。 また、 この例の実施の形態を、 再積分手法と称する。 なお、 後述するように、 再積分手法において、 出力画素値 Mが生成される場 合の近似関数 f の積分範囲は、 入力画素値 Pが生成される場合の光信号関数 Fの積分範囲 (即ち、 空間方向においては、 センサ 2の検出素子の縦幅と横幅 であり、 時間方向においては、 センサ 2の露光時間である) に限定されず、 任 意の積分範囲とすることが可能である。
例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲のうちの 空間方向の積分範囲を可変することで、 その積分範囲に応じて出力画像の画素 ピッチを可変することが可能になる。 即ち、 空間解像度の創造が可能になる。 同様に、 例えば、 出力画素値 Mが生成される場合、 近似関数 f の積分範囲 のうちの時間方向の積分範囲を可変することで、 時間解像度の創造が可能にな る。
以下、 図面を参照して、 このような再積分手法のうちの 3つの具体的な手法 についてそれぞれ個別に説明していく。
即ち、 3つの具体的な手法とは、 関数近似手法の 3つの具体的な手法 (実世 界推定部 1 0 2の実施の形態の上述した 3つの具体的な例) のそれぞれに対応 する再積分手法である。
具体的には、 1つ目の手法は、 上述した 1次元近似手法 (関数近似手法の 1 手法) に対応する再積分手法である。 従って、 1つ目の手法では 1次元の再積 分を行うことになるので、 以下、 このような再積分手法を、 1次元再積分手法 と称する。
2つ目の手法は、 上述した 2次元近似手法 (関数近似手法の 1手法) に対応 する再積分手法である。 従って、 2つ目の手法では 2次元の再積分を行うこと になるので、 以下、 このような再積分手法を、 2次元再積分手法と称する。
3つ目の手法は、 上述した 3次元近似手法 (関数近似手法の 1手法) に対応 する再積分手法である。 従って、 3つ目の手法では 3次元の再積分を行うこと になるので、 以下、 このような再積分手法を、 3次元再積分手法と称する。 以下、 1次元再積分手法、 2次元再積分手法、 および 3次元再積分手法のそ れぞれの詳細について、 その順番で説明していく。
はじめに、 1次元再積分手法について説明する。
1次元再積分手法においては、 1次元近似手法により近似関数 f )が既に 生成されていることが前提とされる。
即ち、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする光 信号関数 F(x,y,t)を、 空間方向である X方向、 Y方向、 および Z方向、 並ぴ に時間方向である t方向のうちの所定の 1方向 (例えば、 X方向) に射影した 1次元の波形 (再積分手法の説明においても、 このような波形のうちの X方 向に射影した波形を、 X断面波形 F(x)と称することにする) 力 n次 (nは、 任意の整数) の多項式などの近似関数 f(x)で近似されていることが前提とさ れる。
この場合、 1次元再積分手法においては、 出力画素値 Mは、 次の式 (10 3) のように演算される。 = Gex Γχ ef (x)dx
• · · (1 03) なお、 式 (1 03) において、 xs は、 積分開始位置を表しており、 xe は、 積分終了位置を表している。 また、 Geは、 所定のゲインを表している。
具体的には、 例えば、 いま、 実世界推測部 102が、 図 90で示されるよう な画素 3 1 0 1 (センサ 2の所定の 1つの検出素子に対応する画素 3 1 0 1) を注目画素として、 図 90で示されるような近似関数 f(x) (X断面波形 F(x) の近似関数 f(x)) を既に生成しているとする。
なお、 図 90の例では、 画素 3 10 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 1 0 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空間方向のうちの、 画素 3 1 0 1の 1辺に平行な方向 (図中水平方向) が X方 向とされ、 X方向に垂直な方向 (図中垂直方向) が Y方向とされている。 4008690
159
また、 図 90の下側に、 画素 3 10 1の中心が原点とされる空間方向 (X方 向と Y方向) の座標系 (以下、 注目画素座標系と称する) と、 その座標系にお ける画素 3 10 1が示されている。
さらに、 図 90の上方に、 y=0 (yは、 図中下側で示される注目画素座標 系の Y方向の座標値) における近似関数 f(x)をグラフ化したものが示されて いる。 このグラフにおいて、 図中水平方向に平行な軸は、 図中下側で示される 注目画素座標系の X方向の X軸と同一の軸であり (原点も同一であり) 、 ま た、 図中垂直方向に平行な軸は、 画素値を表す軸とされている。
この場合、 近似関数 f(x)と画素 3 1 01の画素値 Pの間には、 次の式 (1 04) の関係が成立する。
Γ ■00..55
P = J- -O0.5f (x) dX+e
. . . (1 04) また、 図 90で示されるように、 画素 3 101は、 傾き Gf で表される空間 方向のデータの定常性を有しているとする。 そして、 データ定常性検出部 1 0 1 (図 8 9) 力 傾き Gf で表されるデータの定常性に対応するデータ定常性 情報として、 図 90で示されるような角度 0を既に出力しているとする。
この場合、 例えば、 1次元再積分方法においては、 図 9 1で示されるように、 X方向に一 0. 5乃至 0. 5の範囲、 かつ Y方向に一 0. 5乃至 0. 5の範囲 (図 90の画素 3 1 01が位置する範囲) に、 4個の画素 3 1 1 1乃至画素 3 1 14を新たに創造することが可能である。
なお、 図 9 1の下側に、 図 90のものと同一の注目画素座標系と、 その注目 画素座標系における画素 31 1 1乃至画素 3 1 1 4が示されている。 また、 図 9 1の上側に、 図 90のものと同一のグラフ (y=0における近似関数 f (X)を グラフ化したもの) が示されている。
具体的には、 図 9 1で示されるように、 1次元再積分方法においては、 次の 式 (1 05) により画素 3 1 1 1の画素値 M (1) の算出が、 次の式 (10 6) により画素 31 1 2の画素値 M (2) の算出が、 次の式 (107) により 画素 3 1 1 3の画素値 M (3) の算出が、 次の式 (1 08) により画素 3 1 1 4の画素値 M (4) の算出が、 それぞれ可能である。 f (x)dx
:s1
(1 05)
Figure imgf000162_0001
(1 06)
Figure imgf000162_0002
(1 07)
Figure imgf000162_0003
• · · (1 08) なお、 式 (1 05) の xs l、 式 (106) の xs2、 式 (1 0 7) の xs3、 お よび式 (1 08) の xs4 のそれぞれは、 対応する式の積分開始位置を表して いる。 また、 式 (1 05) の xeい 式 (1 06) の xeい 式 (107) の xe 3 およぴ式 (108) の xe4のそれぞれは、 対応する式の積分終了位置を表し ている。
式 (105) 乃至式 (108) のそれぞれの右辺の積分範囲は、 画素 3 1 1 1乃至画素 3 1 14のそれぞれの画素幅 (X方向の長さ) となる。 即ち、 xe l— xsい xe 2— xs2,xe3— xS3,x"一 X" のそれぞれは、 0. 5となる。
ただし、 いまの場合、 y=0における近似関数 f(x)と同一形状の 1次元の波 形が、 Y方向ではなく、 傾き Gf で表されるデータの定常性の方向 (即ち、 角 度 0方向) に連なっていると考えられる (実際には、 y=0における X断面波形 F(x)と同一形状の波形が定常性の方向に連なっている) 。 即ち、 図 9 1の注 08690
161
目画素座標系における原点(0,0) (図 90の画素 3 1 0 1の中心) における画 素値 f(0)を画素値 Π とした場合、 画素値 fl が続く方向は、 Y方向ではなく、 傾き Gf で表されるデータの定常性の方向 (角度 Θ方向) である。
換言すると、 Y方向の所定の位置 y (ただし、 yは 0以外の数値) における 近似関数 f(x)の波形を考えた場合、 画素値 Πとなる位置は、 位置 (0,y) で はなく、 位置 (0,y) から X方向に所定の量 (ここでも、 このような量をシフ ト量と称することにする。 また、 シフト量は、 Y方向の位置 yに依存する量で あるので、 このシフト量を Cx (y)と記述することにする) だけ移動した位置 (Cx (y),y) である。 従って、 上述した式 (105) 乃至式 (108) のそ れぞれの右辺の積分範囲として、 求めたい画素値 M (1) (ただし、 1は、 1 乃至 4のうちのいずれかの整数値) の中心が存在する Y方向の位置 yを考慮 した範囲、 即ち、 シフト量 Cx (y)を考慮した積分範囲の設定が必要である。 具体的には、 例えば、 画素 3 1 1 1と画素 3 1 1 2の中心が存在する Y方 向の位置 yは、 y=0ではなく、 y=0.25である。
従って、 y=0.25における近似関数 f (X)の波形は、 y=0における近似関数 f (X)の波形を X方向にシフト量 Cx (0.25)だけ移動させた波形に相当する。
換言すると、 上述した式 (10 5) において、 画素 3 1 1 1に対する画素値 M(l)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xslから終 了位置 xe lまで) で積分したものであるとすると、 その積分範囲は、 開始位 置 xsl =- 0.5から終了位置 xel = 0までの範囲 (画素 3 1 1 1が X方向に占 める範囲そのもの) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs l = -0.5 + Cx (0.25)から終了位置 xel = 0 +CX (0.25) (シフト量 Cx (0.25)だけ 画素 3 1 1 1を仮に移動させた場合における、 画素 3 1 1 1が X方向に占め る範囲) となる。
同様に、 上述した式 (106) において、 画素 3 1 1 2に対する画素値
M(2)は、 y=0における近似関数 f (X)を所定の積分範囲 (開始位置 xs 2から終 '了位置 xe2まで) で積分したものであるとすると、 その積分範囲は、 開始位 JP2004/008690
162
置 xs2 = 0から終了位置 xe2=0.5までの範囲 (画素 3 1 1 2の X方向に占め る範囲そのもの) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs2 = 0 + CX (0.25)から終了位置 xe l=0.5 + Cx (0.25) (シフト量 Cx (0.25)だけ画素 3 1 1 2を仮に移動させた場合における、 画素 3 1 1 2の X方向に占める範 囲) となる。
また、 例えば、 画素 3 1 1 3と画素 3 1 14の中心が存在する Y方向の位 置 yは、 y=0ではなく、 y=- 0,25である。
従って、 y=-0.25における近似関数 f (X)の波形は、 y=0における近似関数 f (X)の波形を X方向にシフト量 Cx (-0.25)だけ移動させた波形に相当する。 換言すると、 上述した式 (10 7) において、 画素 3 1 1 3に対する画素値 M(3)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs3から終 了位置 xe3まで) で積分したものであるとすると、 その積分範囲は、 開始位 置 xs3 =- 0.5から終了位置 xe3 = 0までの範囲 (画素 3 1 1 3の X方向に占 める範囲そのもの) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs 3 =_0.5 + Cx (- 0.25)から終了位置 xe3 = 0 +CX (- 0.25) (シフト量 Cx (- 0.25) だけ画素 3 1 1 3を仮に移動させた場合における、 画素 3 1 1 3の X方向に 占める範囲) となる。
同様に、 上述した式 (1 08) において、 画素 3 1 14に対する画素値 M(4)は、 y=0における近似関数 f(x)を所定の積分範囲 (開始位置 xs4から終 了位置 xe4まで) で積分したものであるとすると、 その積分範囲は、 開始位 置 xs4 = 0から終了位置 χβ4=0.5までの範囲 (画素 3 1 14の X方向の占め る範囲そのもの) ではなく、 図 9 1で示される範囲、 即ち、 開始位置 xs4==0 + CX (-0.25)から終了位置 xel =0.5 + Cx (-0, 25) (シフト量 Cx (- 0.25)だけ画 素 3 1 14を仮に移動させた場合における、 画素 3 1 14の X方向に占める 範囲) となる。
従って、 画像生成部 102 (図 89) は、 上述した式 (105) 乃至式 (1 08) のそれぞれに、 上述した積分範囲のうちの対応するものを代入してそれ ぞれ演算し、 それらの演算結果を出力画素値 M (l)乃至 M ( 4 ) のそれぞれと して出力することになる。
このように、 画像生成部 1 0 2は、 1次元再積分手法を利用することで、 セ ンサ 2 (図 8 9 ) からの出力画素 3 1 0 1 (図 9 0 ) における画素として、 出 力画素 3 1 0 1よりも空間解像度の高い 4つの画素、 即ち、 画素 3 1 1 1乃至 画素 3 1 1 4 (図 9 1 ) を創造することができる。 さらに、 図示はしないが、 上述したように、 画像生成部 1 0 2は、 画素 3 1 1 1乃至画素 3 1 1 4のみな らず、 積分範囲を適宜変えることで、 出力画素 3 1 0 1に対して任意の倍率の 空間解像度の画素を劣化することなく創造することができる。
図 9 2は、 このような 1次元再積分手法を利用する画像生成部 1 0 3の構成 例を表している。
図 9 2で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 1 2 1、 特徴量記憶部 3 1 2 2、 積分成分演算部 3 1 2 3、 および出力画素値演 算部 3 1 2 4が設けられている。
条件設定部 3 1 2 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 9 2の例では、 近似関数 f (X)の特徴量) に基づいて近似関数 f (x)の次数 nを設定する。
条件設定部 3 1 2 1はまた、 近似関数 f (x)を再積分する場合 (出力画素値 を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 1 2 1が設定す る積分範囲は、 画素の幅である必要は無い。 例えば、 近似関数 f (X) は空間 方向 (X方向) に積分されるので、 センサ 2 (図 8 9 ) からの入力画像の各画 素の空間的な大きさに対する、 出力画素 (画像生成部 1 0 3がこれから演算す る画素) の相対的な大きさ (空間解像度の倍率) がわかれば、 具体的な積分範 囲の決定が可能である。 従って、 条件設定部 3 1 2 1は、 積分範囲として、 例 えば、 空間解像度倍率を設定することもできる。
特徴量記憶部 3 1 2 2は、 実世界推定部 1 0 2より順次供給されてくる近似 関数 f (x)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 1 2 2は、 近似関数 f (x) の特徴量の全てを記憶すると、 近似関数 f(x)の特徴量を全 て含む特徴量テーブルを生成し、 出力画素値演算部 3 1 24に供給する。 ところで、 上述したように、 画像生成部 103は、 上述した式 (1 0 3) を 利用して出力画素値 Mを演算するが、 上述した式 (1 03) の右辺に含まれ る近似関数 f(x)は、 具体的には、 次の式 (109) のように表される。
n .
f (χ) = j χχ
i=0
• · · (1 09) なお、 式 (1 09) において、 ^ は、 実世界推定部 102より供給される 近似関数 f(x)の特徴量を表している。
従って、 上述した式 (1 03) の右辺の近似関数 f(x)に、 式 (1 09) の 近似関数 f (X) を代入して、 式 (1 03) の右辺を展開 (演算) すると、 出 力画素値 Mは、 次の式 (1 10) のように表される。
M = Gexl w.x G ..
i.=0 I + I
n
=∑ Wj xk; (xs, xe)
i=0
• · · (1 10) 式 (1 1 0) において、 Ki (xs >xe) は、 i次項の積分成分を表している。 即ち、 積分成分 Ki (xs,xe) は、 次の式 (1 1 1) で示される通りである。
Figure imgf000166_0001
積分成分演算部 3 1 2 3は、 この積分成分 (xs,xe) を演算する。
具体的には、 式 (1 1 1) で示されるように、 積分成分 (xs , xe ) は、 積 分範囲の開始位置 xs、 および終了位置 xe、 ゲイン Ge、 並びに i次項の iが既 知であれば演算可能である。 これらのうちの、 ゲイン Ge は、 条件設定部 3 1 21により設定された空間 解像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 1 21により設定された次数 nにより決定される。 また、 積分範囲の開始位置 xs、 および終了位置 xeのそれぞれは、 これから 生成する出力画素の中心画素位置(x, y)および画素幅、 並びにデータの定常性 の方向を表すシフト量 Cx (y)により決定される。 なお、 (x,y)は、 実世界推定 部 1 02が近似関数 f(x)を生成したときの注目画素の中心位置からの相対位 置を表している。
さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそ れぞれは、 条件設定部 3 1 2 1により設定された空間解像度倍率 (積分範囲) により決定される。
また、 シフト量 Cx (y)と、 データ定常性検出部 10 1より供給された角度 0 は、 次の式 (1 1 2) と式 (1 1 3) のような関係が成り立つので、 シフト量 Cx (y)は角度 0により決定される。
6f = ta 0 =
T dx
• · · (1 1 2)
- · · (1 1 3) なお、 式 (1 1 2) において、 Gf は、 データの定常性の方向を表す傾きを 表しており、 0は、 データ定常性検出部 1 0 1 (図 8 9) より出力されるデー タ定常性情報の 1つである角度 (空間方向の 1方向である X方向と、 傾き Gf で表されるデータの定常性の方向とのなす角度) を表している。 また、 dx は、 X方向の微小移動量を表しており、 d は、 dxに対する Y方向 (X方向と垂直 な空間方向) の微小移動量を表している。 従って、 積分成分演算部 3 1 23は、 条件設定部 3 1 2 1により設定された 次数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 01よ り出力されたデータ定常性情報のうちの角度 0に基づいて積分成分
(xs , xe ) を演算し、 その演算結果を積分成分テーブルとして出力画素値演算 部 3 1 24に供給する。
出力画素値演算部 3 1 24は、 特徴量記憶部 3 1 22より供給された特徴量 テーブルと、 積分成分演算部 3 1 23より供給された積分成分テーブルを利用 して、 上述した式 (1 10) の右辺を演算し、 その演算結果を出力画素値 M として外部に出力する。
次に、 図 93のフローチャートを参照して、 1次元再積分手法を利用する画 像生成部 1 03 (図 9 2) の画像の生成の処理 (図 29のステップ S 1 03の 処理) について説明する。
例えば、 いま、 上述した図 29のステップ S 1 02の処理で、 実世界推測部 102が、 上述した図 90で示されるような画素 3 1 0 1を注目画素として、 図 90で示されるような近似関数 f(x)を既に生成しているとする。
また、 上述した図 29のステップ S 10 1の処理で、 データ定常性検出部 1 0 1力 データ定常性情報として、 図 90で示されるような角度 0を既に出力 しているとする。
この場合、 図 93のステップ S 3 1 01において、 条件設定部 3 1 2 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4 倍密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設 定されたとする。
即ち、 この場合、 図 9 1で示されるように、 X方向に一0. 5乃至 0. 5の 範囲、 かつ Y方向に一 0. 5乃至 0. 5の範囲 (図 90の画素 3 1 0 1の範 囲) に、 4個の画素 3 1 1 1乃至画素 3 1 14を新たに創造することが設定さ れたことになる。 ステップ S 3 1 02において、 特徴量記憶部 3 1 22は、 実世界推定部 1 0 2より供給された近似関数 f(x)の特徴量を取得し、 特徴量テーブルを生成す る。 いまの場合、 5次の多項式である近似関数 f(x)の係数 w。乃至 w5が実世 界推定部 1 02より供給されるので、 特徴量テーブルとして、
{W0 , , w2 , w3 , w4 , w5 力生成される。
ステップ S 3 10 3において、 積分成分演算部 3 1 23は、 条件設定部 3 1 2 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出 部 10 1より供給されたデータ定常性情報 (角度 0) に基づいて積分成分を演 算し、 積分成分テーブルを生成する。
具体的には、 例えば、 これから生成する画素 3 1 1 1乃至画素 3 1 14のそ れぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1乃 至 4のそれぞれが付されているとすると、 積分成分演算部 3 1 23は、 上述し た式 (1 1 1) の積分成分 (x5,xe) を、 次の式 (1 14) の左辺で示され る積分成分 Ki (1)といった 1 (ただし、 1はモード番号を表している) の関数 として演算する。
Figure imgf000169_0001
• · · (1 14)
具体的には、 いまの場合、 次の式 (1 1 5) で示される積分成分 (1)が演 算される。
(1) =k; (一 0.5-CY (一 0, 25) , 0-CY (-0.25))
(2) =k (0-Cx(-0.25),0.5-Cx(-0.25))
(3) =k (-0.5-Cx(0.25),0-Cx(0.25))
(4) =k (0-Cx(0.25),0.5-Cx(0.25))
… (1 1 5) なお、 式 (1 1 5) において、 左辺が積分成分 (1)を表し、 右辺が積分成 分 ^ (xs,xe) を表している。 即ち、 いまの場合、 1は、 1乃至 4のうちのい ずれかであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個の (1), 6個の (2), 6個の (3), 6個の (4)の総計 24個の (1)カ 演算されることになる。
より具体的には、 はじめに、 積分成分演算部 3 1 23は、 データ定常性検出 部 10 1より供給された角度 0を使用して、 上述した式 (1 1 2) と式 (1 1 3) よりシフ ト量 Cx (-0.25)、 および Cx (0.25)のそれぞれを演算する。
次に、 積分成分演算部 3 1 23は、 演算したシフト量 Cx (-0.25), および Cx (0.25)を使用して、 式 (1 1 5) の 4つの式の各右辺の積分成分 Ki
(xs,xe) のそれぞれを、 i=0乃至 5についてそれぞれ演算する。 なお、 こ の積分成分 ^ (xs , xe ) の演算においては、 上述した式 (1 1 1) が使用され る。
そして、 積分成分演算部 3 1 23は、 式 (1 1 5) に従って、 演算した 24 個の積分成分 (xs,xe) のそれぞれを、 対応する積分成分 (1)に変換し、 変換した 24個の積分成分 (1) (即ち、 6個の (1)、 6個の (2)、 6個 の (3)、 および 6個の ^ (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3 1 02の処理とステップ S 3 1 03の処理の順序は、 図 93の例に限定されず、 ステップ S 3 10 3の処理が先に実行されてもよいし、 ステップ S 3 1 02の処理とステップ S 3 103の処理が同時に実行されても よい。
次に、 ステップ S 3 1 04において、 出力画素値演算部 3 1 24は、 ステツ プ S 3 10 2の処理で特徴量記憶部 3 1 2 2により生成された特徴量テーブル と、 ステップ S 3 1 03の処理で積分成分演算部 3 1 23により生成された積 分成分テーブルに基づいて出力画素値 M(l)乃至 M(4)のそれぞれを演算する。 具体的には、 いまの場合、 出力画素値演算部 3 1 24は、 上述した式 (1 1 0) に対応する、 次の式 (1 1 6) 乃至式 (1 1 9) の右辺を演算することで、 画素 3 1 1 1 (モード番号 1の画素) の画素値 M(l)、 画素 3 1 1 2 (モード 番号 2の画素) の画素値 M(2)、 画素 3 1 1 3 (モード番号 3の画素) の画素 値 M(3)、 および画素 3 1 14 (モード番号 4の画素) の画素値 M(4)のそれぞ れを演算する。
Figure imgf000171_0001
6)
Figure imgf000171_0002
• · · (1 1 7)
Figure imgf000171_0003
• ■ · (1 1 8)
Figure imgf000171_0004
· ■ ■ (1 1 9) ステップ S 3 105において、 出力画素値演算部 3 1 24は、 全画素の処理 を終了したか否かを判定する。
ステップ S 3 10 5において、 全画素の処理がまだ終了されていないと判定 された場合、 処理はステップ S 3 10 2に戻.り、 それ以降の処理が繰り返され る。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 1 02乃至 S 3 104の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 1 0 5において、 全画素 の処理が終了されたと判定すると) 、 出力画素値演算部 3 1 24は、 ステップ S 3 1 06において、 画像を出力する。 その後、 画像の生成の処理は終了とな る。
次に、 図 94乃至図 1 0 1を参照して、 所定の入力画像に対して、 1次元再 積分手法を適用して得られた出力画像と、 他の手法 (従来のクラス分類適応処 理) を適用して得られた出力画像の違いについて説明する。 図 9 4は、 入力画像の元の画像を示す図であり、 図 9 5は、 図 9 4の元の画 像に対応する画像データを示している。 図 9 5において、 図中垂直方向の軸は、 画素値を示し、 図中右下方向の軸は、 画像の空間方向の一方向である X方向を 示し、 図中右上方向の軸は、 画像の空間方向の他の方向である Y方向を示す。 なお、 後述する図 9 7、 図 9 9、 および図 1 0 1の軸のそれぞれは、 図 9 5の 軸と対応している。
図 9 6は、 入力画像の例を示す図である。 図 9 6で示される入力画像は、 図 9 4で示される画像の 2 X 2の画素からなるブロックに属する画素の画素値の 平均値を、 1つの画素の画素値として生成された画像である。 即ち、 入力画像 は、 図 9 4で示される画像に、 センサの積分特性を模した、 空間方向の積分を 適用することにより得られた画像である。 また、 図 9 7は、 図 9 6の入力画像 に対応する画像データを示している。
図 9 4で示される元の画像において、 上下方向から、 ほぼ 5度時計方向に傾 いた細線の画像が含まれている。 同様に、 図 9 6で示される入力画像において、 上下方向から、 ほぼ 5度時計方向に傾いた細線の画像が含まれている。
図 9 8は、 図 9 6で示される入力画像に、 従来のクラス分類適応処理を適用 して得られた画像 (以下、 図 9 8で示される画像を、 従来の画像と称する) を 示す図である。 また、 図 9 9は、 従来の画像に対応する画像データを示してい る。
なお、 クラス分類適応処理は、 上述したように、 クラス分類処理と適応処理 とからなり、 クラス分類処理によって、 データを、 その性質に基づいてクラス 分けし、 各クラスごとに適応処理を施すものである。 適応処理では、 例えば、 低画質または標準画質の画像が、 所定のタップ係数を用いてマッピング (写 像) されることにより、 高画質の画像に変換される。
図 1 0 0は、 図 9 6で示される入力画像に、 1次元再積分手法を適用して得 られた画像 (以下、 図 1 0 0で示される画像を、 再積分画像と称する) を示す 図である。 また、 図 1 0 1は、 再積分画像に対応する画像データを示している。 図 9 8の従来の画像と、 図 1 0 0の再積分画像を比較するに、 従来の画像に おいては、 細線の画像が、 図 9 4の元の画像とは異なるものになっているのに 対して、 再積分画像においては、 細線の画像が、 図 9 4の元の画像とほぼ同じ ものになっていることがわかる。
この違いは、 従来のクラス分類適応処理は、 あくまでも図 9 6の入力画像を 基準 (原点) として処理を行う手法であるのに対して、 1次元再積分手法は、 細線の定常性を考慮して、 図 9 4の元の画像を推定し (元の画像に対応する近 似関数 f (x)を生成し) 、 推定した元の画像を基準 (原点) として処理を行う (再積分して画素値を演算する) 手法であるからである。
このように、 1次元再積分手法においては、 1次元近似手法により生成され た 1次元の多項式などの近似関数 f (X) (実世界の X断面波形 F (x)の近似関数 f (x) ) を基準 (原点) として、 近似関数 f (x)を任意の範囲に積分することで 出力画像 (画素値) が生成される。
従って、 1次元再積分手法においては、 従来の他の手法に比較して、 元の画 像 (センサ 2に入射される前の実世界 1の光信号) により近い画像の出力が可 能になる。
また、 1次元再積分手法においては、 上述したように、 積分範囲は任意なの で、 積分範囲を可変することにより、 入力画像の解像度とは異なる解像度 (時 間解像度、 または空間解像度) を創造することも可能になる。 即ち、 入力画像 の解像度に対して、 整数値だけではなく任意の倍率の解像度の画像を生成する ことが可能になる。
さらに、 1次元再積分手法においては、 他の再積分手法に比較して、 より少 ない演算処理量で出力画像 (画素値) の算出が可能となる。
次に、 図 1 0 2乃至図 1 0 8を参照して、 2次元再積分手法について説明す る。
2次元再積分手法においては、 2次元近似手法により近似関数 f (x, y)が既 に生成されていることが前提とされる。 即ち、 例えば、 図 102で示されるような、 傾き GFで表される空間方向の 定常性を有する実世界 1 (図 8 9) の光信号を表す画像関数 F(x,y,t)を、 空 間方向 (X方向と Y方向) に射影した波形、 即ち、 X— Y平面上の波形
F(x,y)が、 n次 (nは、 任意の整数) の多項式などの近似関数 f (x, y)に近似 されていることが前提とされる。
図 102において、 図中、 水平方向は、 空間方向の 1方向である X方向を、 右上方向は、 空間方向の他方向である Y方向を、 垂直方向は、 光のレベルを、 それぞれ表している。 GFは、 空間方向の定常性の傾きを表している。
なお、 図 102の例では、 定常性の方向は、 空間方向 (X方向と Y方向) と されているため、 近似の対象とされる光信号の射影関数は、 関数 F(x,y)とさ れているが、 後述するように、 定常性の方向に応じて、 関数 F(x,t)や関数 F(y,t)が近似の対象とされてもよい。
図 1 02の例の場合、 2次元再積分手法においては、 出力画素値 Mは、 次の 式 (1 20) のように演算される。 '
Figure imgf000174_0001
- - - (1 20) なお、 式 (1 20) において、 ys は、 Y方向の積分開始位置を表しており、 yeは、 Y方向の積分終了位置を表している。 同様に、 xsは、 X方向の積分開 始位置を表しており、 xe は、 X方向の積分終了位置を表している。 また、 Ge は、 所定のゲインを表している。
式 (1 20) において、 積分範囲は任意に設定可能であるので、 2次元再積 分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2
(図 8 9) からの入力画像の画素) に対して任意の倍率の空間解像度の画素を 劣化することなく創造することが可能になる。
図 1 03は、 2次元再積分手法を利用する画像生成部 1 03の構成例を表し ている。 図 1 0 3で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 2 0 1、 特徴量記憶部 3 2 0 2、 積分成分演算部 3 2 0 3、 および出力画素値 演算部 3 2 0 4が設けられている。
条件設定部 3 2◦ 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 1 0 3の例では、 近似関数 f (x,y)の特徴量) に基づいて近似関数 f (x,y) の次数 nを設定する。
条件設定部 3 2 0 1はまた、 近似関数 f (x,y)を再積分する場合 (出力画素 値を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 2 0 1が設定 する積分範囲は、 画素の縦幅や横幅である必要は無い。 例えば、 近似関数 f (x, y) は空間方向 (X方向と Y方向) に積分されるので、 センサ 2からの入 力画像の各画素の空間的な大きさに対する、 出力画素 (画像生成部 1 0 3がこ れから生成する画素) の相対的な大きさ (空間解像度の倍率) がわかれば、 具 体的な積分範囲の決定が可能である。 従って、 条件設定部 3 2 0 1は、 積分範 囲として、 例えば、 空間解像度倍率を設定することもできる。
特徴量記憶部 3 2 0 2は、 実世界推定部 1 0 2より順次供給されてくる近似 関数 f (x, y)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 2 0 2は、 近似関数 f (X, y)の特徴量の全てを記憶すると、 近似関数 f (X, y)の特徴量を全 て含む特徴量テーブルを生成し、 出力画素値演算部 3 2 0 4に供給する。
ここで、 近似関数 f (x, y)の詳細について説明する。
例えば、 いま、 上述した図 1 0 2で示されるような傾き GFで表される空間 方向の定常性を有する実世界 1 (図 8 9 ) の光信号 (波形 F (x,y) で表される 光信号)が、 センサ 2 (図 8 9 ) により検出されて入力画像 (画素値) として 出力されたとする。
さらに、 - 例えば、 図 1 0 4で示されるように、 データ定常性検出部 1 0 1 (図 3 ) 力 この入力画像のうちの、 X方向に 4画素分、 かつ Y方向に 5画素 分の総計 2 0個の画素 (図中、 点線で表される 2 0個の正方形) から構成され る入力画像の領域 3 2 2 1に対してその処理を実行し、 データ定常性情報の 1 つとして角度 Θ (傾き GF に対応する傾き Gf で表されるデータの定常性の方向 と、 X方向とのなす角度 0) を出力したとする。
なお、 実世界推定部 1 02から見ると、 データ定常性検出部 10 1は、 注目 画素における角度 0を単に出力すればよいので、 データ定常性検出部 10 1の 処理範囲は、 上述した入力画像の領域 3221に限定されない。
また、 入力画像の領域 322 1において、 図中水平方向は、 空間方向の 1 方向である X方向を表しており、 図中垂直方向は、 空間方向の他方向である Y 方向を表している。
さらに、 図 1 04中、 左から 2画素目であって、 下から 3画素目の画素が注 目画素とされ、 その注目画素の中心を原点(0,0)とするように(x,y)座標系が 設定されている。 そして、 原点(0,0)を通る角度 0の直線 (データの定常性の 方向を表す傾き Gf の直線) に対する X方向の相対的な距離 (以下、 断面方向 距離と称する) が x' とされている。
さらに、 図 1 04中、 右側のグラフは、 3次元の空間上の位置 x,y、 および z、 並びに時刻 tを変数とする画像関数 F(x,y,t)を、 Y方向の任意の位置 y において、 X方向に射影した 1次元の波形 (以下、 このような波形を、 X断面 波形 F(x' )と称する) が近似された関数であって、 n次 (nは、 任意の整数) の多項式などの近似関数 f(x' )を表している。 右側のグラフの軸のうち、 図 中水平方向の軸は、 断面方向距離を表しており、 図中垂直方向の軸は、 画素値 を表している。
この場合、 図 1 04で示される近似関数 f (χ' )は、 n次の多項式であるの で、 次の式 (1 2 1) のように表される。
n
f(X,) = WQ+V^X'+Wゥ Χ, + · · '+WnX,n = ∑ WjX"
i=0
• · · (1 21) また、 角度 0が決定されていることから、 原点(0,0)を通る角度 Θの直線は 一意に決まり、 Y方向の任意の位置 yにおける、 直線の X方向の位置 力 次の式 (1 22) のように表される。 ただし、 式 (1 22) において、 sは cot Θを表している。
X| = sxy
• · · (1 22) 即ち、 図 104で示されるように、 傾き Gf で表されるデータの定常性に対 応する直線上の点は、 座標値(Xl, y)で表される。
式 (1 22) より、 断面方向距離 x' は、 次の式 (1 23) のように表され る。
一 ― Λ| ― A O Λ y
· · · (1 23) 従って、 入力画像の領域 3 22 1内の任意の位置(x,y)における近似関数 f(x,y)は、 式 (1 21) と式 (1 23) より、 次の式 (1 24) のように示 される。
n
f , y) = ∑ Wj (x— sxy)
i=0
· · · ( 1 24) なお、 式 (1 24) において、 Wi は、 近似関数 f (x,y)の特徴量を表してい る。
図 1 03に戻り、 式 (1 24) に含まれる特徴量 力 実世界推定部 1 0 2より供給され、 特徴量記憶部 3 202に記憶される。 特徴量記憶部 3 202 は、 式 (1 24) で表される特徴量 の全てを記憶すると、 特徴量 を全て 含む特徴量テーブルを生成し、 出力画素値演算部 3 204に供給する。
また、 上述した式 (1 20) の右辺の近似関数 f (x,y)に、 式 (1 24) の • 近似関数 f (x, y) を代入して、 式 (1 20) の右辺を展開 (演算) すると、 出力画素値 Mは、 次の式 (1 25) のように表される。 0
176 n i|+T2 、i+2
e-sxye)'+2 - (xe - sxys) (xs-sxye)|T+(xs-sり 'リ s
M = GPx∑ ; x
=0 s 二∑ Wj ki (xs, xe,ys, ye)
i=0
- · · (1 25) 式 (1 2 5) において、 Ki (xs , xe , ys , ye ) は、 i次項の積分成分を表して いる。 即ち、 積分成分 (xs , xe , ys , ye ) は、 次の式 (1 26) で示される 通りである。 kj (xs, xe, ys, ye)
P 乂 l(xe-sxye)i+2-(xe-sxys)i+2-(xs-sxye)i+2+(xs-sxys)i+2) 一 Ue ί(ϊ+ϊ) (ΐ+2) .
• · - (1 26) 積分成分演算部 3 20 3は、 この積分成分 Ki (x5,xe,ys,ye) を演算する < 具体的には、 式 (1 2 5) と式 (1 26) で示されるように、 積分成分 (xs,x6,ys,ye) は、 積分範囲の X方向の開始位置 xs、 および X方向の終了 位置 xe、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 ye、 変数 s、 ゲイン Ge、 並びに i次項の iが既知であれば演算可能である。
これらのうちの、 ゲイン Ge は、 条件設定部 3 201により設定された空間 解像度倍率 (積分範囲) により決定される。
iの範囲は、 条件設定部 3 201により設定された次数 nにより決定される t 変数 sは、 上述したように、 cot 6であるので、 データ定常性検出部 10 1 より出力される角度 eにより決定される。
また、 積分範囲の X方向の開始位置 xs、 および X方向の終了位置 xe、 並び に、 積分範囲の Y方向の開始位置 ys、 および Y方向の終了位置 yeのそれぞれ は、 これから生成する出力画素の中心画素位置(x,y)および画素幅により決定 される。 なお、 (x,y)は、 実世界推定部 1 02が近似関数 f(x)を生成したとき の注目画素の中心位置からの相対位置を表している。 さらに、 これから生成する出力画素の中心画素位置(x,y)および画素幅のそ れぞれは、 条件設定部 3 2 0 1により設定された空間解像度倍率 (積分範囲) により決定される。
従って、 積分成分演算部 3 2 0 3は、 条件設定部 3 2 0 1により設定された 次数および空間解像度倍率 (積分範囲) 、 並びにデータ定常性検出部 1 0 1よ り出力されたデータ定常性情報のうちの角度 Θに基づいて積分成分
(xs , xe , ys , ye ) を演算し、 その演算結果を積分成分テーブルと.して出力画素 値演算部 3 2 0 4に供給する。
出力画素値演算部 3 2 0 4は、 特徴量記憶部 3 2 0 2より供給された特徴量 テーブルと、 積分成分演算部 3 2 0 3より供給された積分成分テーブルを利用 して、 上述した式 (1 2 5 ) の右辺を演算し、 その演算結果を出力画素値 M として外部に出力する。
次に、 図 1 0 5のフローチャートを参照して、 2次元再積分手法を利用する 画像生成部 1 0 3 (図 1 0 4 ) の画像の生成の処理 (図 2 9のステップ S 1 0 3の処理) について説明する。
例えば、 いま、 図 1 0 2で示される関数 F (x,y)で表される光信号がセンサ 2に入射されて入力画像となり、 上述した図 2 9のステップ S 1 0 2の処理で、 実世界推測部 1 0 2が、 その入力画像のうちの、 図 1 0 6で示されるような 1 つの画素 3 2 3 1を注目画素として、 関数 F (x,y)を近似する近似関数 f (x, y) を既に生成しているとする。
なお、 図 1 0 6において、 画素 3 2 3 1の画素値 (入力画素値) が Pとされ、 かつ、 画素 3 2 3 1の形状が、 1辺の長さが 1の正方形とされている。 また、 空間方向のうちの、 画素 3 2 3 1の 1辺に平行な方向が X方向とされ、 X方向 に垂直な方向が Y方向とされている。 さらに、 画素 3 2 3 1の中心が原点とさ れる空間方向 (X方向と Y方向) の座標系 (以下、 注目画素座標系と称する) が設定されている。 また、 図 1 0 6において、 上述した図 2 9のステップ S 1 0 1の処理で、 デ ータ定常性検出部 1 0 1力 画素 3 2 3 1を注目画素として、 傾き Gf で表さ れるデータの定常性に対応するデータ定常性情報として、 角度 0を既に出力し ているとする。
図 1 0 5に戻り、 この場合、 ステップ S 3 2 0 1において、 条件設定部 3 2 0 1は、 条件 (次数と積分範囲) を設定する。
例えば、 いま、 次数として 5が設定されるとともに、 積分範囲として空間 4 倍密 (画素のピッチ幅が上下左右ともに 1/2倍となる空間解像度倍率) が設 定されたとする。
即ち、 この場合、 図 1 0 7で示されるように、 X方向に一 0 . 5乃至 0 . 5 の範囲、 かつ Y方向に一 0 . 5乃至 0 . 5の範囲 (図 1 0 6の画素 3 2 3 1の 範囲) に、 4個の画素 3 2 4 1乃至画素 3 2 4 4を新たに創造することが設定 されたことになる。 なお、 図 1 0 7においても、 図 1 0 6のものと同一の注目 画素座標系が示されている。
また、 図 1 0 7において、 M (l)は、 これから生成される画素 3 2 4 1の画 素値を、 M (2)は、 これから生成される画素 3 2 4 2の画素値を、 M (3)は、 こ れから生成される画素 3 2 4 3の画素値を、 M (4)は、 これから生成される画 素 3 2 4 1の画素値を、 それぞれ表している。
図 1 0 5に戻り、 ステップ S 3 2 0 2において、 特徴量記憶部 3 2 0 2は、 実世界推定部 1 0 2より供給された近似関数 f (x,y)の特徴量を取得し、 特徴 量テーブルを生成する。 いまの場合、 5次の多項式である近似関数 f (x)の係 数^乃至 w5が実世界推定部 1 0 2より供給されるので、 特徴量テーブルとし て、 (w0 , wx , w2 , w3 , w4 , w5 ) カ生成 れる。
ステップ S 3 2 0 3において、 積分成分演算部 3 2 0 3は、 条件設定部 3 2 0 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出 部 1 0 1より供給されたデータ定常性情報 (角度 Θ ) に基づいて積分成分を演 算し、 積分成分テーブルを生成する。 具体的には、 例えば、 これから生成される画素 324 1乃至画素 3 244の それぞれに対して、 番号 (このような番号を、 以下、 モード番号と称する) 1 乃至 4のそれぞれが付されているとすると、 積分成分演算部 3 20 3は、 上述 した式 (1 25) の積分成分 ^ (xs,xe,y5,ye) を、 次の式 (1 27) の左 辺で示される積分成分 ^ (1)といった 1 (ただし、 1はモード番号を表してい る) の関数として演算する。
kj(l) = kj (xs, xe, ys, ye)
• · (1 27) 具体的には、 いまの場合、 次の式 (1 28) で示される積分成分 Kiひ)が演 算される。
Figure imgf000181_0001
(2) =k (0, 0.5, 0, 0.5)
(3) =k (-0.5, 0, -0.5,0)
(4) =k (0, 0.5, -0.5,0)
• ■ · (1 28) なお、 式 (1 28) において、 左辺が積分成分 (1)を表し、 右辺が積分成 分 Ki (xs , xe , ys , ye ) を表している。 即ち、 いまの場合、 1は、 1乃至 4のう ちのいずれかであり、 かつ、 iは 0乃至 5のうちのいずれかであるので、 6個 の (1), 6個の (2), 6個の (3), 6個の (4)の総計 24個の (1) が演算されることになる。
より具体的には、 はじめに、 積分成分演算部 3 203は、 データ定常性検出 部 10 1より供給された角度 Θを使用して、 上述した式 (1 22) の変数 s ( s =cot θ ) を演算する。
次に、 積分成分演算部 3203は、 演算した変数 sを使用して、 式 ( 1 2 8) の 4つの式の各右辺の積分成分 (xs , xe , ys , ye ) のそれぞれを、 i= 0 乃至 5についてそれぞれ演算する。 なお、 この積分成分 (xs )xe,ys,ye) の演算においては、 上述した式 (1 2 5) が使用される。 そして、 積分成分演算部 3 203は、 式 (1 28) に従って、 演算した 24 個の積分成分 Ki (xs )xe,ys )ye) のそれぞれを、 対応する積分成分 (1)に変 換し、 変換した 24個の積分成分 (1) (即ち、 6個の 1^ (1)、 6個の Ki (2)、 6個の (3)、 および 6個の (4)) を含む積分成分テーブルを生成する。
なお、 ステップ S 3202の処理とステップ S 3203の処理の順序は、 図 1 05の例に限定されず、 ステップ S 3203の処理が先に実行されてもよい し、 ステップ S 3 202の処理とステップ S 3203の処理が同時に実行され てもよい。
次に、 ステップ S 3204において、 出力画素値演算部 3204は、 ステツ プ S 3 20 2の処理で特徴量記憶部 3 20 2により生成された特徴量テーブル と、 ステップ S 3203の処理で積分成分演算部 3 203により生成された積 分成分テーブルに基づいて出力画素値 M(l)乃至 M(4)のそれぞれを演算する。 具体的には、 いまの場合、 出力画素値演算部 3 204は、 上述した式 (1 2 5) に対応する、 次の式 (1 29) 乃至式 (1 3 2) の右辺のそれぞれを演算 することで、 図 107で示される、 画素 3 241 (モード番号 1の画素) の画 素値 M(l)、 画素 3242 (モード番号 2の画素) の画素値 M (2)、 画素 3 24 3 (モード番号 3の画素) の画素値 M (3)、 および画素 3244 (モード番号 4の画素) の画素値 M(4)のそれぞれを演算する。
M(1) = ∑ Wj kj
i=0
(1 29)
Figure imgf000182_0001
(1 30)
Figure imgf000182_0002
(1 3 1) 8690
181
Figure imgf000183_0001
• · · ( 1 3 2 ) ただし、 いまの場合、 式 (1 2 9 ) 乃至式 (1 3 2 ) の n は全て 5となる。 ステップ S 3 2 0 5において、 出力画素値演算部 3 2 0 4は、,全画素の処理 を終了したか否かを判定する。
ステップ S 3 2 0 5において、 全画素の処理がまだ終了されていないと判定 された場合、 処理はステップ S 3 2 0 2に戻り、 それ以降の処理が繰り返され る。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 2 0 2乃至 S 3 2 0 4の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 2 0 5において、 全画素 の処理が終了されたと判定すると) 、 出力画素値演算部 3 2 0 4は、 ステップ S 3 2 0 6において、 画像を出力する。 その後、 画像の生成の処理は終了とな る。
このように、 2次元再積分手法を利用することで、 センサ 2 (図 8 9 ) から の入力画像の画素 3 2 3 1 (図 1 0 6 ) における画素として、 入力画素 3 2 3 1よりも空間解像度の高い 4つの画素、 即ち、 画素 3 2 4 1乃至画素 3 2 4 4 (図 1 0 7 ) を創造することができる。 さらに、 図示はしないが、 上述したよ うに、 画像生成部 1 0 3は、 画素 3 2 4 1乃至画素 3 2 4 4のみならず、 積分 範囲を適宜変えることで、 入力画素 3 2 3 1に対して任意の倍率の空間解像度 の画素を劣化することなく創造することができる。
以上、 2次元再積分手法の説明として、 空間方向 (X方向と Y方向) に対す る近似関数 f (x,y)を 2次元積分する例を用いたが、 2次元再積分手法は、 時 空間方向 (X方向と t方向、 または、 Y方向と t方向) に対しても適用可能で ある。
即ち、 上述した例は、 実世界 1 (図 8 9 ) の光信号が、 例えば、 図 1 0 2で 示されるような傾き GFで表される空間方向の定常性を有する場合の例であつ たので、 上述した式 (1 2 0 ) で示されるような、 空間方向 (X方向と Y方 向) の二次元積分が含まれる式が利用された。 しかしながら、 二次元積分の考 え方は、 空間方向だけによるものではなく、 時空間方向 (X方向と t方向、 ま たは、 Y方向と t方向) に対して適用することも可能である。
換言すると、 2次元再積分手法の前提となる 2次元近似手法においては、 光 信号を表す画像関数 F (x,y,t)が、 空間方向の定常性のみならず、 時空間方向 (ただし、 X方向と t方向、 または、 Y方向と t方向) の定常性を有している 場合であっても、 2次元の近似関数 f により近似することが可能である。 具体的には、 例えば、 X方向に水平に等速で動いている物体がある場合、 そ の物体の動きの方向は、 図 1 0 8で示されるような X_t平面においては、 傾 き VFのように表される。 換言すると、 傾き VFは、 X - 1平面における時空間方 向の定常性の方向を表しているとも言える。 従って、 データ定常性検出部 1 0 1 (図 8 9 ) は、 上述した角度 Θ (X- Y平面における、 空間方向の定常性を表 す傾き GF に対応するデータ定常性情報) と同様に、 X-t平面における時空間 方向の定常性を表す傾き VFに対応するデータ定常性情報として、 図 1 0 8で 示されるような動き 0 (厳密には、 図示はしないが、 傾き VF に対応する傾き Vf で表されるデータの定常性の方向と、 空間方向の X方向とのなす角度であ る動き 0 ) を出力することが可能である。
また、 2次元近似手法を利用する実世界推定部 1 0 2 (図 8 9 ) は、 動き 0 を上述した角度 0の代わりとして使用すれば、 上述した方法と同様な方法で、 近似関数 f (x,t)の係数 (特徴量) Wi を演算することが可能になる。 ただし、 この場合、 使用される式は、 上述した式 (1 2 4 ) ではなく、 次の式 (1 3 3 ) である。
f (x, y) = Wj (x-s x t)
i =0
· · · ( 1 3 3 ) なお、 式 (1 33) において、 sは cot0 (ただし、 0は動きである) であ る。
従って、 2次元再積分手法を利用する画像生成部 1 03 (図 8 9) は、 次の 式 (1 34) の右辺に、 上述した式 (1 3 3) の f (x, t)を代入して、 演算す ることで、 画素値 Mを算出することが可能になる。
M = Ge j, J f (x, t)dxdt
■ · · (1 34) なお、 式 (1 34) において、 ts は、 t方向の積分開始位置を表しており、 teは、 t方向の積分終了位置を表している。 同様に、 xs は、 X方向の積分開 始位置を表しており、 xe は、 X方向の積分終了位置を表している。 Geは、 所 定のゲインを表している。
また、 空間方向 Xの変わりに、 空間方向 Yに注目した近似関数 f (y,t) も、 上述した近似関数 f (x,t)と全く同様に取り扱うことが可能である。
ところで、 式 (1 33) において、 t方向を一定とみなし、 即ち、 t方向の 積分を無視して積分することで、 時間方向には積分されないデータ、 即ち、 動 きボケのないデータを得ることが可能になる。 換言すると、 この手法は、 2次 元の近似関数 f のうちの所定の 1次元を一定として再積分する点で、 2次元 再積分手法の 1つとみなしてもよいし、 実際には、 X方向の 1次元の再積分を することになるという点で、 1次元再積分手法の 1つとみなしてもよい。
また、 式 (1 34) において、 積分範囲は任意に設定可能であるので、 2次 元再積分手法においては、 この積分範囲を適宜変えることで、 元の画素 (セン サ 2 (図 8 9) からの入力画像の画素) に対して任意の倍率の解像度の画素を 劣化することなく創造することが可能になる。
即ち、 2次元再積分手法においては、 時間方向 tの積分範囲を適宜変えるこ とで、 時間解像度の創造が可能になる。 また、 空間方向 X (または、 空間方向 Y) の積分範囲を適宜変えることで、 空間解像度の創造が可能になる。 さらに、 時間方向 tと空間方向 Xの積分範囲のそれぞれを適宜変えることで、 時間解像 度と空間解像度の両方の創造が可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創 造は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再 積分手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて 可能になる。 即ち、 2次元再積分手法と後述する 3次元再積分手法ではじめて、 両方の解像度の創造が可能になる。
また、 2次元再積分手法は、 1次元ではなく 2次元の積分効果を考慮してい るので、 より実世界 1 (図 8 9 ) の光信号に近い画像を生成することも可能に なる。
次に、 図 1 0 9と図 1 1 0を参照して、 3次元再積分手法について説明する。 3次元再積分手法においては、 3次元近似手法により近似関数 f (x, y, ΐ)が 既に生成されていることが前提とされる。
この場合、 3次元再積分手法においては、 出力画素値 Μは、 次の式 (1 3
5 ) のように演算される。
M = Ge x /+ f χ f (x, y, t) dxdydt
• · · ( 1 3 5 ) なお、 式 (1 3 5 ) において、 ts は、 t方向の積分開始位置を表しており、 teは、 t方向の積分終了位置を表している。 同様に、 ys は、 Y方向の積分開 始位置を表しており、 ye は、 Y方向の積分終了位置を表している。 また、 xs は、 X方向の積分開始位置を表しており、 xeは、 X方向の積分終了位置を表 している。 さらに、 Geは、 所定のゲインを表している。
式 (1 3 5 ) において、 積分範囲は任意に設定可能であるので、 3次元再積 分手法においては、 この積分範囲を適宜変えることで、 元の画素 (センサ 2
(図 8 9 ) からの入力画像の画素) に対して任意の倍率の時空間解像度の画素 を劣化することなく創造することが可能になる。 即ち、 空間方向の積分範囲を 小さくすれば、 画素ピッチを自由に細かくできる。 逆に、 空間方向の積分範囲 を大きくすれば、 画素ピッチを自由に大きくすることができる。 また、 時間方 向の積分範囲を小さくすれば、 実世界波形に基づいて時間解像度を創造できる。 図 1 0 9は、 3次元再積分手法を利用する画像生成部 1 0 3の構成例を表し ている。
図 1 0 9で示されるように、 この例の画像生成部 1 0 3には、 条件設定部 3 3 0 1、 特徴量記憶部 3 3 0 2、 積分成分演算部 3 3 0 3、 および出力画素値 演算部 3 3 0 4が設けられている。
条件設定部 3 3 0 1は、 実世界推定部 1 0 2より供給された実世界推定情報 (図 1 0 9の例では、 近似関数 f (x, y, t)の特徴量) に基づいて近似関数 f (x,y,t)の次数 nを設定する。
条件設定部 3 3 0 1はまた、 近似関数 f (x, y, t)を再積分する場合 (出力画 素値を演算する場合) の積分範囲を設定する。 なお、 条件設定部 3 3 0 1が設 定する積分範囲は、 画素の幅 (縦幅と横幅) やシャツタ時間そのものである必 要は無い。 例えば、 センサ 2 (図 8 9 ) からの入力画像の各画素の空間的な大 きさに対する、 出力画素 (画像生成部 1 0 3がこれから生成する画素) の相対 的な大きさ (空間解像度の倍率) がわかれば、 具体的な空間方向の積分範囲の 決定が可能である。 同様に、 センサ 2 (図 8 9 ) のシャツタ時間に対する出力 画素値の相対的な時間 (時間解像度の倍率) がわかれば、 具体的な時間方向の 積分範囲の決定が可能である。 従って、 条件設定部 3 3 0 1は、 積分範囲とし て、 例えば、 空間解像度倍率や時間解像度倍率を設定することもできる。
特徴量記憶部 3 3 0 2は、 実世界推定部 1 0 2より順次供給されてくる近似 関数 f (x,y,t)の特徴量を一次的に記憶する。 そして、 特徴量記憶部 3 3 0 2 は、 近似関数 f (x, y, t)の特徴量の全てを記憶すると、 近似関数 f (x, y, t)の特 徴量を全て含む特徴量テーブルを生成し、 出力画素値演算部 3 3 0 4に供給す る。 ところで、 上述した式 (1 35) の右辺の近似関数 f (x,y)の右辺を展開 (演算) すると、 出力画素値 Mは、 次の式 (1 3 6) のように表される。
Μ=∑ Wj kj iXs, xe, ys, ye, ts, te)
i=0
• · · (1 36) 式 (1 3 6) において、 Ki (xs,xe,ys,ye,ts,te) は、 i次項の積分成分を 表している。 ただし、 xs は X方向の積分範囲の開始位置を、 xe は X方向の積 分範囲の終了位置を、 ys は Y方向の積分範囲の開始位置を、 ye は Y方向の積 分範囲の終了位置を、 ts は t方向の積分範囲の開始位置を、 te は t方向の積 分範囲の終了位置を、 それぞれ表している。
積分成分演算部 3 303は、 この積分成分 ^ (xs,xe,ys,ye,ts,te) を演 算する。
具体的には、 積分成分演算部 3 303は、 条件設定部 3 30 1により設定さ れた次数、 および積分範囲 (空間解像度倍率や時間解像度倍率) 、 並びにデー タ定常性検出部 10 1より出力されたデータ定常性情報のうちの角度 Θまたは 動き 0に基づいて積分成分 ^ (xs,xe,ys,y9,ts,te) を演算し、 その演算結 果を積分成分テーブルとして出力画素値演算部 3 304に供給する。
出力画素値演算部 3304は、 特徴量記憶部 3 30 2より供給された特徴量 テーブルと、 積分成分演算部 3303より供給された積分成分テーブルを利用 して、 上述した式 (1 3 6) の右辺を演算し、 その演算結果を出力画素値 M として外部に出力する。
次に、 図 1 1 0のフローチャートを参照して、 3次元再積分手法を利用する 画像生成部 10 3 (図 1 09) の画像の生成の処理 (図 2 9のステップ S 1 0 3の処理) について説明する。
例えば、 いま、 上述した図 29のステップ S 1 02の処理で、 実世界推測部 102 (図 89) 力 入力画像のうちの、 所定の画素を注目画素として、 実世 界 1 (図 8 9) の光信号を近似する近似関数 f(x,y,t)を既に生成していると する。
また、 上述した図 29のステップ S 10 1の処理で、 データ定常性検出部 1 01 (図 8 9) 力 実世界推定部 102と同じ画素を注目画素として、 データ 定常性情報として、 角度 Θまたは動き Θを既に出力しているとする。
この場合、 図 1 1 0のステップ S 3 30 1において、 条件設定部 3 30 1は、 条件 (次数と積分範囲) を設定する。
ステップ S 3 30 2において、 特徴量記憶部 3 302は、 実世界推定部 10 2より供給された近似関数 f(x,y,t)の特徴量 を取得し、 特徴量テーブルを 生成する。
ステップ S 3 30 3において、 積分成分演算部 3303は、 条件設定部 3 3 0 1により設定された条件 (次数および積分範囲) 、 並びにデータ定常性検出 部 10 1より供給されたデータ定常性情報 (角度.0または動き 0) に基づいて 積分成分を演算し、 積分成分テーブルを生成する。
なお、 ステップ S 3302の処理とステップ S 3303の処理の順序は、 図 1 10の例に限定されず、 ステップ S 3303の処理が先に実行されてもよい し、 ステップ S 3302の処理とステップ S 3303の処理が同時に実行され てもよい。
次に、 ステップ S 3304において、 出力画素値演算部 3304は、 ステツ プ S 3302の処理で特徴量記憶部 3302により生成された特徴量テーブル と、 ステップ S 3303の処理で積分成分演算部 3 303により生成された積 分成分テーブルに基づいて各出力画素値のそれぞれを演算する。
- ステップ S 3 30 5において、 出力画素値演算部 3 304は、 全画素の処理 を終了したか否かを判定する。
ステップ S 3 305において、 全画素の処理がまだ終了されていないと判定 された場合、 処理はステップ S 3 302に戻り、 それ以降の処理が繰り返され る。 即ち、 まだ注目画素とされない画素が、 順次注目画素とされて、 ステップ S 3 3 0 2乃至 S 3 3 0 4の処理が繰り返される。
そして、 全画素の処理が終了すると (ステップ S 3 3 0 5において、 全画素 の処理が終了されたと判定すると) 、 出力画素値演算部 3 3 0 4は、 ステップ S 3 3 0 6において、 画像を出力する。 その後、 画像の生成の処理は終了とな る。
このように、 上述した式 (1 3 5 ) において、 その積分範囲は任意に設定可 能であるので、 3次元再積分手法においては、 この積分範囲を適宜変えること で、 元の画素 (センサ 2 (図 8 9 ) からの入力画像の画素) に対して任意の倍 率の解像度の画素を劣化することなく創造す.ることが可能になる。
即ち、 3次元再積分手法においては、 時間方向の積分範囲を適宜変えること で、 時間解像度の創造が可能になる。 また、 空間方向の積分範囲を適宜変える ことで、 空間解像度の創造が可能になる。 さらに、 時間方向と空間方向の積分 範囲のそれぞれを適宜変えることで、 時間解像度と空間解像度の両方の創造が 可能になる。
具体的には、 3次元再積分手法においては、 2次元や 1次元に落とすときの 近似がないので精度の高い処理が可能になる。 また、 斜め方向の動きも 2次元 に縮退することなく処理することが可能になる。 さらに、 2次元に縮退してい ないので各次元の加工が可能になる。 例えば、 2次元再積分手法において、 空 間方向 (X方向と Y方向) に縮退している場合には時間方向である t方向の加 ェができなくなってしまう。 これに対して、 3次元再積分手法においては、 時 空間方向のいずれの加工も可能になる。
なお、 上述したように、 時間解像度と空間解像度のうちのいずれか一方の創 造は、 1次元再積分手法でも可能であるが、 両方の解像度の創造は、 1次元再 積分手法では原理上不可能であり、 2次元以上の再積分を行うことではじめて 可能になる。 即ち、 上述した 2次元再積分手法と 3次元再積分手法ではじめて、 両方の解像度の創造が可能になる。 また、 3次元再積分手法は、 1次元や 2次元ではなく 3次元の積分効果を考 慮しているので、 より実世界 1 (図 8 9 ) の光信号に近い画像を生成すること も可能になる。
次に、 図 3の信号処理装置 4においては、 データ定常性検出部 1 0 1におい てデータの定常性が検出され、 実世界推定部 1 0 2において、 その定常性に基 づき、 実世界 1の信号の波形の推定、 即ち、 例えば、 X断面波形 F ( x ) を近 似する近似関数が求められる。
このように、 信号処理装置 4では、 定常性に基づいて、 実世界 1の信号の波 形の推定が行われるため、 データ定常性検出部 1 0 1で検出される定常性が誤 つていたり、 あるいは、 その検出精度が悪い場合には、 実世界 1の信号の波形 の推定精度も悪くなる。
また、 信号処理装置 4では、 ここでは、 例えば、 画像である、 実世界 1の信 号が有する定常性に基づいて信号処理を行うため、 実世界 1の信号のうちの定 常性が存在する部分に対しては、 他の信号処理装置の信号処理に比べて、 精度 のよい信号処理を実行することができ、 その結果、 より実世界 1の信号に対応 する画像に近い画像を出力することが可能になる。
しかしながら、 信号処理装置 4は、 定常性に基づいて信号処理を実行する以 上、 実世界 1の信号のうちの明確な定常性が存在しない部分に対しては、 定常 性が存在する部分に対する処理と同等の精度で、 信号処理を実行することがで きず、 その結果、 実世界 1の信号に対応する画像に対して誤差を含む画像を出 力することになる。
従って、 信号処理装置 4において実世界 1の信号に対応する画像より近い画 像を得るためには、 信号処理装置 4による信号処理の対象とする処理領域や、 信号処理装置 4で用いる定常性の精度などが問題となる。
そこで、 図 1 1 1は、 図 1の信号処理装置 4の他の一実施の形態の構成例を 示している。 図 1 1 1では、 信号処理装置 4は、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 および ユーザ I / F (Interface) 10006力 ら構成されて! /、る。
図 1 1 1に構成を示す信号処理装置 4には、 データ 3の一例である画像デー タ (入力画像) ί センサ 2 (図 1 ) から入力され、 その入力画像は、 処理領 域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部
10004、 および画像表示部 10005に供給される。
処理領域設定部 10001は、 入力画像について、 処理領域を設定し、 その処 理領域を特定する処理領域情報を、 定常性設定部 10002、 実世界推定部 10003、 および画像生成部 10004に供給する。
定常性設定部 10002は、 処理領域設定部 10001から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域の画像データにお いて欠落した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報 を、 実世界推定部 10003および画像生成部 10004に供給する。
実世界推定部 10003は、 モデル生成部 10011、 方程式生成部 10012、 および 実世界波形推定部 10013から構成され、 処理領域内の画像データから、 対応 する実世界 1の信号の定常性に応じて、 その実世界 1の信号を推定する。
即ち、 モデル生成部 10011は、 処理領域設定部 10001から供給される処理 領域情報から、 入力画像における処理領域を認識し、 その処理領域を構成する 画素と、 その処理領域の画像データに対応する実世界 1の信号の定常性に応じ て、 処理領域内の各画素の画素値と実世界 1の信号との関係をモデル化したモ デルとしての関数を生成し、 方程式生成部 10012に供給する。
方程式生成部 10012は、 処理領域設定部 10001から供給される処理領域情 報から、 入力画像における処理領域を認識する。 さらに、 方程式生成部 10012 は、 その処理領域を構成する各画素の画素値を、 モデル生成部 10011から供 給されるモデルとしての関数に代入し、 これにより、 方程式を生成して、 実世 界波形推定部 10013に供給する。 実世界波形推定部 10013は、 方程式生成部 10012から供給される方程式を 演算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推 定部 10013 は、 方程式生成部 10012 から供給される方程式を解くことにより、 実世界 1の信号を近似する近似関数を求め、 その近似関数を、 実世界 1の信号 の波形の推定結果として、 画像生成部 10004に供給する。 ここで、 実世界 1 の信号を近似する近似関数には、 引数の値にかかわらず、 関数値が一定の関数 も含まれる。
画像生成部 10004は、 実世界推定部 10003で推定された実世界 1の信号の 波形を表す近似関数と、 定常性設定部 10002から供給される定常性情報とに 基づいて、 実世界 1の信号により近似した信号を生成する。 即ち、 画像生成部 10004は、 処理領域設定部 10001から供給される処理領域情報から、 入力画像 における処理領域を認識し、 その処理領域について、 実世界推定部 10003 (の 実世界波形推定部 10013) から供給される近似関数と、 定常性設定部 10002か ら供給される定常性情報とに基づき、 実世界 1の信号に対応する画像により近 似した画像データを生成する。
さらに、 画像生成部 10004は、 入力画像と、 近似関数に基づいて生成した 画像データ (以下、 適宜、 近似画像ともいう) とを合成し、 入力画像の処理領 域の部分を、 近似画像に置き換えた画像を生成し、 その画像を、 出力画像とし て画像表示部 10005に供給する。
画像表示部 10005は、. CRT (Cathode Ray Tube)や LCD (Liquid Crystal
Display)で構成され、 入力画像や、 画像生成部 10004から供給される出力画 像を表示する。
なお、 画像表示部 10005は、 1または複数の CRTや LCDで構成することが 可能である。 画像表示部 10005を 1つの CRTや LCDで構成する場合には、 そ の 1つの CRTや LCDの画面を複数の画面に分割し、 ある画面に入力画像を表 示するとともに、 他の画面に出力画像を表示するようにすることができる。 さ らに、 画像表示部 10005を複数の CRTや LCDで構成する場合には、 ある 1つ の CRTや LCDに入力画像を表示するとともに、 他の CRTや LCDに出力画像を 表示するようにすることができる。
また、 画像表示部 10005は、 ユーザ I Z F 10006の出力に応じて、 各種の表 示を行う。 即ち、 画像表示部 10005は、 例えば、 カーソルを表示し、 ユーザ がカーソルを移動するようにユーザ I / F 10006を操作した場合、 その操作に 応じて、 カーソルを移動させる。 また、 画像表示部 10005は、 例えば、 ユー ザが所定の範囲を選択するようにユーザ I Z F 10006を操作した場合、 その操 作に応じて、 画面上の選択された範囲を囲む枠を表示する。
ユーザ I / F 10006は、 ユーザによって操作され、 そのユーザの操作に応じ て、 例えば、 処理領域、 定常性、 または現実世界の信号のうちの少なくとも 1 つに関連する情報を、 処理領域設定部 10001、 定常性設定部 10002、 または実 世界推定部 10003に供給する。
即ち、 ユーザは、 画像表示部 10005に表示された入力画像や出力画像を見 て、 その入力画像や出力画像に対する入力を与えるように、 ユーザ I Z F 10006 を操作する。 ユーザ I ZF 10006は、 ユーザの操作に応じて、 処理領域、 定常性、 または現実世界の信号に関連する情報を、 処理領域設定部 10001、 定 常性設定部 10002、 または実世界推定部 10003の処理を捕助する補助情報とし て、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003 に供給する。
処理領域設定部 10001、 定常性設定部 1Q002、 または実世界推定部 10003は、 ユーザ I Z F 10006から補助情報が供給された場合、 その捕助情報に基づき、 処理領域の設定、 定常性の設定、 または実世界 1の信号の推定を、 それぞれ行
5。
但し、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003では、 捕助情報を用いずに、 即ち、 ユーザによって、 ユーザ I Z F
10006が操作されなくても、 処理領域の設定、 定常性の設定、 または実世界 1 の信号の推定を、 それぞれ行うことが可能である。 具体的には、 処理領域設定部 10001では、 図 3 0乃至図 4 8で説明したよ うに、 図 3のデータ定常性検出部 1 0 1における場合と同様にして、 入力画像 から、 定常領域を検出し、 例えば、 その定常領域を囲む矩形 (長方形) の領域 を、 処理領域として設定することができる。
また、 定常性設定部 10002では、 図 4 9乃至図 5 7で説明したように、 図 3のデータ定常性検出部 1 0 1における場合と同様にして、 入力画像から、 デ ータの定常性を検出し、 そのデータの定常性に基づき、 対応する実世界 1の信 号の定常性を設定すること、 即ち、 例えば、 データの定常性を、 そのまま実世 界 1の信号の定常性として設定することができる。
さらに、 実世界推定部 10003では、 図 5 8乃至図 8 8で説明したように、 図 3の実世界推定部 1 0 2における場合と同様にして、 処理領域設定部 10001 で設定された処理領域の画像データから、 定常性設定部 10002で設定された 定常性に応じて、 実世界 1の信号を推定することができる。 なお、 図 3では、 実世界推定部 1 0 2において、 実世界 1の信号の推定に、 データの定常性を用 いたが、 実世界 1の信号の推定には、 データの定常性に代えて、 対応する実世 界 1の信号の定常性を用いることができる。
次に、 図 1 1 2のフローチヤ一トを参照して、 図 1 1 1の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S 10001 において、 信号処理装置 4は、 前処理を行い、 ステップ S 10002に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ ータ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成 部 10004、 および画像表示部 10005に供給する。 さらに、 信号処理部 4は、 画 像表示部 10005に、 入力画像を表示させる。
ステップ S 10002では、 ユーザ I / F 10006は、 ユーザがユーザ I / F
10006を操作することにより、 何らかのユーザ入力があつたかどうかを判定す る。 ステップ S 10002において、 ユーザ入力がなかったと判定された場合、 即 ち、 ユーザが何らの操作も行わなかった場合、 ステップ S10003乃至 S10005 をスキップして、 ステップ S 10006に進む。
また、 ステップ S 10002において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが、 画像表示部 10005に表示された入力画像を見て、 ユーザ I / F 10006を操作し、 これにより、 何らかの指示または情報を表すユーザ入力 があった場合、 ステップ S 10003に進み、 ユーザ I Z F 10006は、 そのユーザ 入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判 定する。
ステップ S 10003 において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
また、 ステップ S10003において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S10004に進み、 ユーザ I ZF 10006は、 ユーザ入力が捕助 情報であるかどうかを判定する。 ステップ S10004において、 ユーザ入力が補 助情報でないと判定された場合、 ステップ S10005をスキップして、 ステップ S10006に進む。
また、 ステップ S10004において、 ユーザ入力が捕助情報であると判定され た場合、 ステップ S10005に進み、 ユーザ I / F 10006は、 その補助情報を、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10006に供 給し、 ステップ S 10006に進む。
ステップ S10006では、 処理領域設定部 10001は、 入力画像について、 処理 領域を設定し、 その処理領域を特定する処理領域情報を、 定常性設定部 10002、 実世界推定部 10003、 および画像生成部 10004に供給し、 ステップ S10007に 進む。 ここで、 処理領域設定部 10001は、 直前に行われたステップ S10005に おいてユーザ I ZF 10006から捕助情報が供給された場合は、 その補助情報を 用いて、 処理領域の設定を行う。
ステップ S10007では、 定常性設定部 10002は、 処理領域設定部 10001から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 10002は、 その処理領域の画像データにおいて欠落した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界推定部 10003に供給して、 ステップ S 10008に進む。 ここで、 定常性設定部 10002は、 直前に行われたステップ S10005においてユーザ I / F 10006から補助情報が 供給された場合は、 その補助情報を用いて、 定常性の設定を'行う。
ステップ S 10008では、 実世界推定部 10003は、 入力画像における処理領域 内の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実 世界 1の信号を推定する。
即ち、 実世界推定部 10003では、 モデル生成部 10011が、 処理領域設定部 10001から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 10002から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の信号の定常性を認識する。 さらに、 モデル 生成部 10011は、 入力画像における処理領域を構成する画素と、 その処理領 域の画像データに対応する実世界 1の信号の定常性に応じて、 処理領域内の各 画素の画素値と実世界 1の信号との関係をモデル化したモデルとしての関数を 生成し、 方程式生成部 10012に供給する。
方程式生成部 10012は、 処理領域設定部 10001から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域を構成する入力画 像の各画素の画素値を、 モデル生成部 10011から供給されるモデルとしての 関数に代入し、 これにより、 実世界 1の信号を近似する近似関数を求める方程 式を生成して、 実世界波形推定部 10013に供給する。
実世界波形推定部 10013は、 方程式生成部 10012から供給される方程式を' 演算することにより、 実世界 1の信号の波形を推定する。 即ち、 実世界波形推 定部 10013 は、 方程式生成部 10012 から供給される方程式を解くことにより、 実世界 1の信号をモデル化したモデルとしての近似関数を求め、 その近似関数 を、 実世界 1の信号の波形の推定結果として、 画像生成部 10004 に供給する。 なお、 実世界推定部 10003においては、 モデル生成部 10011および方程式 生成部 10012は、 直前に行われたステップ S10005においてユーザ I / F 10006から捕助情^ gが供給された場合は、 その補助情報を用いて、 処理を行う。 ステップ S 10008の処理後は、 ステップ S 10009に進み、 画像生成部 10004 は、 実世界推定部 10003 (の実世界波形推定部 10013) から供給された、 実世 界 1の信号の波形を近似する近似関数に基づいて、 実世界 1の信号により近似 した信号を生成する。 即ち、 画像生成部 10004は、 処理領域設定部 10001か ら供給される処理領域情報から、 入力画像における処理領域を認識し、 その処 理領域について、 実世界推定部 10003から供給された近似関数に基づき、 実 世界 1の信号に対応する画像により近似した画像データである近似画像を生成 する。 さらに、 画像生成部 10004は、 入力画像の処理領域の部分を近似画像 に置き換えた画像を、 出力画像として生成し、 画像表示部 10005 に供給して、 ステップ S10009カゝら S10010に進む。
ステップ S 10010では、 画像表示部 10005は、 画像生成部 10004から供給さ れた出力画像を、 ステップ S 10001で表示された入力画像に代えて、 またはそ の入力画像とともに表示し、 ステップ S10011に進む。
ステップ S10011では、 ユーザ I Z F 10006は、 ステップ S10002における 場合と同様に、 ユーザがユーザ I / F 10006を操作することにより、 何らかの ユーザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S10011に戻り、 何 らかのユーザ入力があるまで待つ。
また、 ステップ S 10011において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが、 画像表示部 10005 に表示された入力画像や出力画像を見て、 ユーザ I ZF 10006を操作し、 これにより、 何らかの指示または情報を表すュ ザ入力があった場合、 ステップ S 10012に進み、 ユーザ I Z F 10006は、 そ のユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかど うかを判定する。 ステップ S 10012 において、 ユーザ入力が終了指示であると判定された場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 10012において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S 10013に進み、 ユーザ I / F 10006は、 ユーザ入力が補助 情報であるかどうかを判定する。 ステップ S10013において、 ユーザ入力が補 助情報でないと判定された場合、 ステップ S10011に戻り、 以下、 同様の処理 が繰り返される。
また、 ステップ S 10013において、 ユーザ入力が補助情報であると判定され た場合、 ステップ S 10005に戻り、 上述したように、 ユーザ I Z F 10006は、 その補助情報を、 処理領域設定部 10001、 定常性設定部 10002、 または実世界 推定部 10006に供給する。 そして、 ステップ S10005から S 10006に進み、 以 下、 同様の処理が繰り返される。
以上のように、 図 1 1 1の信号処理装置 4によれば、 ユーザの操作に応じて、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003の処 理を補助する補助情報を、 ユーザ I Z F 10006から処理領域設定部 10001、 定 常性設定部 10002、 または実世界推定部 10003に供給し、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003において、 ユーザ I. Z F 10006からの補助情報に基づき、 処理領域の設定、 定常性の設定、 または 実世界 1の信号の推定を行うので、 処理領域設定部 10001、 定常性設定部 10002、 または実世界推定部 10003の処理精度を向上させ、 例えば、 ユーザの 好みにあった、 高画質の出力画像を得ることが可能となる。
次に、 図 1 1 1に示した信号処理装置 4の各種の応用例について説明する。 図 1 1 3は、 図 1 1 1に示した信号処理装置 4の応用例の一実施の形態の構 成例を示している。
図 1 1 3において、 処理領域設定部 11001、 定常性設定部 11002、 実世界推 定部 11003、 画像生成部 11004、 画像表示部 11005、 ユーザ I Z F 11006は、 図 1 1 1の処理領域設定部 10.001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ Iノ F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ Iノ F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 1 3において、 実世界推定部 11003 は、 モデル生成部 11011、 方程式生成部 11012、 実世界波形推定部 11013で構 成されている。 モデル生成部 11011、 方程式生成部 11012、 実世界波形推定部 11013は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 伹し、 図 1 1 3においては、 ユーザがユーザ I / F 11006を操作することに より、 ユーザ I Z F 11006が出力する補助情報が、 処理領域設定部 11001にの み供給されるようになっている。
即ち、 図 1 1 3では、 ユーザは、 ユーザ I / F 11006 を操作することにより、 画像表示部 11005に表示された画像に対して、 処理領域とする領域を指示す ることができるようになつており、 ユーザ I / F 11006は、 ユーザが処理領域 を指示する操作を行うと、 その操作によって指定された領域としての処理領域 を表す処理領域指示情報を、 補助情報として、 処理領域設定部 11001に供給 する。 さらに、 図 1 1 3では、 画像表示部 11005には、 後述するように、 複 数の出力画像が表示されるが、 ユーザは、 ユーザ I / F 11006を操作すること により、 画像表示部 11005に表示された出力画像を選択することができるよ うになつており、 ユーザ I Z F 11006は、 ユーザが出力画像を選択する操作を 行うと、 その操作によって選択された出力画像を表す選択情報を、 補助情報と して、 処理領域設定部 11001に供給する。
なお、 ユーザ I Z F 11006を操作することにより処理領域を指示する方法と しては、 例えば、 処理領域を囲む矩形によって指示する方法、 処理領域をトリ ム(trim)することによって指示する方法、 処理領域の中の任意の 1点以上を ポインティングすることによって指示する方法などがあるが、 ここでは、 例え ば、 ユーザは、 処理領域の中の任意の 1点を、 ユーザ I / F 11006を操作する ことによりポインティングすることによって、 処理領域を指示するものとする。 この場合、 ユーザ I / F 11006は、 ユーザがポインティングした点を表す情報 としての、 例えば、 その点の、 画像上の座標を、 処理領域指示情報として、 処 理領域設定部 11001に供給する。
次に、 図 1 1 4のフローチヤ一トを参照して、 図 1 1 3の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S11001 において、 信号処理装置 4は、 前処理を行い、 ステップ S11002に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ タ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 11001、 定常性設定部 11002、 実世界推定部 11003、 画像生成 部 11004、 および画像表示部 11005に供給する。 さらに、 信号処理部 4は、 画 像表示部 11005に、 入力画像を表示させる。
ステップ S 11002では、 ユーザ I / F 11006は、 ユーザがユーザ I / F 11006を操作することにより、 処理領域指示情報の入力があつたかどうかを判 定する。 ステップ S 11002において、 処理領域指示情報の入力がなかったと判 定された場合、 ステップ S11003に進み、 ユーザ I Z F 11006は、 ユーザがュ 一ザ I Z F 11006を操作することにより、 信号処理装置 4の処理の終了を指示 する終了指示の入力があつたかどうかを判定する。
ステップ S 11003において、 終了指示の入力があつたと判定された場合、 即 ち、 例えば、 画像表示部 11005に表示された入力画像を見たユーザが、 その 入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良い として、 信号処理装置 4の処理を終了するように、 ユーザ I Z F 11006を操作 した場合、 処理を終了する。
また、 ステップ S 11003において、 終了指示の入力がなかったと判定された 場合、 ステップ S11002に戻り、 以下、 同様の処理を操り返す。 一方、 ステップ≤11002 ;において、 処理領域指示情報の入力があつたと判定 された場合、 即ち、 画像表示部 11005 に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 その不満のある箇所をボインティングする ように、 ユーザ I / F 11006を操作した場合、 ステップ S11004に進み、 ユー ザ I Z F 11006は、 ユーザがユーザ I Z F 11006を操作することによってポィ ンティングした点を表す領域指示情報を、 補助情報として、 処理領域設定部 11001に供給し、 ステップ S11005に進む。
ステップ S 11005では、 処理領域設定部 11001は、 ユーザ I Z F 11006から 供給された捕助情報としての領域指示情報に基づいて、 複数である M通りの処 理領域を設定し、 その M通りの処理領域を表す M通りの処理領域情報を、 定常 性設定部 11002、 実世界推定部 11003、 および画像生成部 11004に供給し、 ス テツプ S11006に進む。 ここで、 処理領域設定部 11001は、 直前に行われたス テツプ S11004 においてユーザ I Z F 11006 から補助情報が供給された場合は、 その捕助情報を用いて、 処理領域の設定を行う。
ステップ S 11006では、 定常性設定部 11002は、 処理領域設定部 11001から 供給された M通りの処理領域情報から、 入力画像における M通りの処理領域を 認識する。 さらに、 定常性設定部 11002は、 その M通りの処理領域の画像デ ータそれぞれにおいて欠落した実世界 1の信号の定常性を設定し、 その M通り の処理領域についての定常性を表す定常性情報を、 実世界推定部 11003に供 給して、 ステップ S 11007に進む。
ステップ S 11007では、 実世界推定部 11003は、 入力画像における処理領域 内の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実 世界 1の信号を推定する。
即ち、 実世界推定部 11003では、 モデル生成部 11011が、 処理領域設定部 11001から供給される M通りの処理領域情報から、 入力画像における M通りの 処理領域を認識するとともに、 定常性設定部 11002から供給される、 M通り の処理領域それぞれの定常性情報から、 M通りの処理領域の画像データそれぞ れに対応する実世界 1の信号の定常性を認識する。 さらに、 モデル生成部 11011は、 入力画像における M通りの処理領域それぞれについて、 各処理領域 を構成する画素と、 その処理領域の画像データに対応する実世界 1の信号の定 常性に応じて、 処理領域内の各画素の画素値と実世界 1の信号と 関係をモデ ル化したモデルとしての関数を生成し、 これにより、 M通りの処理領域それぞ れに対して得られる M通りの関数を、 方程式生成部 11012に供給する。
方程式生成部 11012は、 処理領域設定部 11001から供給される M通りの処 理領域情報から、 入力画像における M通りの処理領域を認識し、 その M通りの 処理領域それぞれについて、 モデル生成部 11011から供給されるモデルとし ての関数に、 入力画像を構成する必要な画素の画素値を代入し、 これにより、 実世界 1の信号を近似する近似関数を求める方程式を生成して、 実世界波形推 定部 11013に供給する。
実世界波形推定部 11013は、 方程式生成部 11012から供給される、 M通り の処理領域それぞれについての方程式を解くことにより、 M通りの処理領域そ れぞれについて、 実世界 1の信号の波形を推定、 即ち、 実世界 1の信号をモデ ル化したモデルとしての近似関数を求め、 その M通りの処理領域それぞれにつ いての近似関数を、 画像生成部 11004に供給する。
ステップ S 11007の処理後は、 ステップ S 11008に進み、 画像生成部 11004 は、 実世界推定部 11003 (の実世界波形推定部 11013) から供給された M通り の処理領域それぞれについての近似関数に基づいて、 実世界 1の信号により近 似した信号を生成する。 即ち、 画像生成部 11004は、 処理領域設定部 11001 から供給される M通りの処理領域情報から、 入力画像における M通りの処理領' 域を認識し、 その M通りの処理領域それぞれについて、 実世界推定部 11003 から供給された、 対応する処理領域についての近似関数に基づき、 実世界 1の 信号により近似した画像データである近似画像を生成する。 さらに、 画像生成 部 11004は、 入力画像の M通りの処理領域の部分それぞれを、 対応する処理 領域について得られた近似画像に置き換えた M通りの画像を、 出力画像として 生成し、 画像表示部 11005に供給して、 ステップ S 11008から S11009に進む。 ステップ S11009では、 画像表示部 11005は、 画像生成部 11004から供給さ れた M通りの出力画像を、 ステップ S11001で表示された入力画像に代えて、 またはその入力画像とともに表示し、 ステップ S11010に進む。
ステップ S11010では、 ユーザ I Z F 11006は、 ユーザがユーザ I , F 11006を操作することにより、 選択情報の入力があつたかどうかを判定する。 即ち、 ステップ S11009では、 画像表示部 11005において、 M通りの出力画像 が表示されるが、 その M通りの出力画像を見たユーザが、 その] VI通りの出力画 像の中から、 所望の画質の画像または所望の画質に近い画像を選択する選択情 報の入力を、 ユーザ I / F 11006を操作することにより行ったかどう力が、 ス テツプ S11010において判定される。
ステップ S11010において、 選択情報の入力がなかったと判定された場合、 ステップ S11013に進み、 ステップ S11003における場合と同様に、 ユーザ I / F 11006は、 終了指示の入力があつたかどうかを判定する。
ステップ S11010において、 終了指示の入力があつたと判定された場合、 信 号処理装置 4は、 処理を終了する。
また、 ステップ S 11013において、 終了指示の入力がなかったと判定された 場合、 ステップ S11010に戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S 11010において、 選択情報の入力があつたと判定された場 合、 即ち、 画像表示部 11005 に表示された M通りの出力画像を見たユーザが、 その M通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画 像を選択した場合、 ステップ S11011に進み、 ユーザ I 11006は、 ユーザ がユーザ I / F 11006を操作することにより、 ユーザが選択した出力画像を、 最終的な出力画像として確定する確定指示の入力があつたかどうかを判定する。 ステップ S 11011において、 確定指示の入力があつたと判定された場合、 ス テツプ S 11012に進み、 画像表示部 11005は、 例えば、 その画面全体に、 ユー ザが選択した出力画像を表示し、 処理を終了する。
また、 ステップ S11011において、 確定指示の入力がなかったと判定された 場合、 即ち、 ユーザが、 選択した出力画像の画質に不満があり、 再度処理を行 うために、 確定指示の入力を行わなかった場合、 ステップ S11004に戻り、 ュ 一ザ I / F 11006は、 ユーザが選択した出力画像を表す選択情報を、 補助情報 として、 処理領域設定部 11001に供給し、 ステップ S 11005に進む。
ステップ S11005では、 処理領域設定部 11001は、 ユーザ I Z F 11006から 供給された補助情報としての選択情報に基づいて、 複数である M通りの処理領 域を新たに設定する。 即ち、 この場合、 ステップ S 11005では、 処理領域設定 部 11001は、 ユーザ I Z F 11006から供給された補助情報としての選択情報が 表す出力画像を得るのに用いられた入力画像の処理領域を基準に、 新たな M通 りの処理領域を設定する。 さらに、 ステップ S 11005では、 処理領域設定部 11001は、 その新たな M通りの処理領域を表す M通りの処理領域情報を、 定常 性設定部 11002、 実世界推定部 11003、 および画像生成部 11004に供給する。 そして、 ステップ S11005から S11006に進み、 以下、 同様の処理が繰り返さ れる。
即ち、 これにより、 ステップ S 11004乃至 S 110013の処理が繰り返され、 最 終的には、 ユーザが所望する画質の出力画像が得られる処理領域が設定され、 その結果、 ユーザが所望する画質の出力画像が得られる。
以上のように、 図 1 1 3の信号処理装置 4では、 入力画像に対する処理結果 としての M通りの出力画像をユーザに提示し、 その]^通りの出力画像の中から ユーザが所望するものを選択してもらい、 その選択結果を踏まえて、 再度処理 を行うようにしたので、 ユーザの好みにあった、 高画質の出力画像を、 容易に 得ることができる。 即ち、 信号処理装置 4は、 入力画像に対する処理結果とし ての M通りの出力画像をユーザに提示する。 一方、 ユーザは、 その M通りの出 力画像それぞれの画質を認識、 判断し、 画質の良い出力画像を、 信号処理装置 4にフィードバックする。 そして、 信号処理装置 4は、 そのユーザからのフィ ードバックを踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返さ れる。 従って、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ること ができる。
なお、 このように、 信号処理装置 4において、 ユーザからのフィードバック を受けて入力画像に対する処理を行うことは、 信号処理装置 4が、 ユーザと協 調しながら処理を行っているということができる。
次に、 図 1 1 5は、 図 1 1 3の処理領域設定部 11001の詳細構成例を示し ている。
画像メモリ 11021には、 入力画像が供給され、 画像メモリ 11021は、 そこ に供給される入力画像を記憶する。 特徴量抽出部 11022は、 画像メモリ 11021 に記憶された入力画像を構成する各画素について、 その特徴量を抽出し、 特徴 量メモリ 11023に供給する。
なお、 特徴量抽出部 11022では、 例えば、 色成分や、 エッジの有無または 画素値の変化の急峻さ (あるいは滑らかさ) を表す空間アクティビティ、 水平 方向と垂直方向の空間ァクティビティの差の絶対値、 複数種類の特徴量の組み 合わせなどを、 画素の特徴量として抽出することができる。
ここで、 入力画像において、 例えば、 あるオブジェクト (物体) 力 水平方 向に動いている場合には、 そのオブジェク トの表示部分には、 水平方向に動き ボケが生じる。 このような水平方向の動きボケが生じている画素では、 水平方 向の空間ァクティビティが、 垂直方向の空間ァクティビティに比較して大にな る。 従って、 この場合、 水平方向と垂直方向の空間アクティビティの差の絶対 値を、 画素の特徴量として採用したときには、 その特徴量の値は、 大になる。 特徴量メモリ 11023は、 特徴量抽出部 11022から供給される入力画像を構 成する各画素の特徴量を記憶する。 指定画素特徴検出部 11024は、 制御部 U027の制御にしたがい、 ユーザ I / F 11006 (図 1 1 3 ) から供給される処理領域指示情報が表す点の画素 (以 下、 適宜、 指定画素という) の特徴量を、 特徴量メモリ 11023に記憶された 特徴量の中から検出し、 指定画素特徴量として、 類似特徴領域検出部 11025 に供給する。
類似特徴領域検出部 11025は、 指定画素特徴検出部 11024から供給される 指定画素特徴量に類似する特徴量を有する画素で構成される入力画像の領域を、 M通りだけ検出し、 処理領域として、 領域情報生成部 11026に供給する。
即ち、 類似特徴領域検出部 11025は、 特徴量メモリ 11023に記憶された入 力画像を構成する各画素の特徴量と、 指定画素特徴検出部 11024から供給さ れる指定画素特徴量との距離を、 所定の識別関数を用いて求める。 さらに、 類 似特徴領域検出部 11025は、 入力画像を構成する画素の中から、 指定画素特 徴検出部 11024から供給される指定画素特徴量との距離を閾値以下にする特 徴量の画素 (以下、 適宜、 類似特徴画素という) を検出し、 例えば、 その類似 特徴画素を囲む最小の矩形の領域を、 類似特徴領域として検出する。
類似特徴領域検出部 11025は、 後述する閾値設定部 11028から供給される M個の閾値それぞれに対して、 類似特徴領域を検出し、 その結果得られる M通 りの類似特徴領域を、 処理領域として、 領域情報生成部 11026に供給する。 領域情報生成部 11026は、 類似特徴領域検出部 11025から供給される M通 りの処理領域を表す M通りの'処理領域情報を生成して出力する。
制御部 11027は、 ユーザ I / F 11006 (図 1 1 3 ) から供給される補助情報 としての処理領域指示情報または選択情報を受信し、 その処理領域指示情報ま たは選択情報に応じて、 指定画素特徴検出部 11024または閾値設定部 11028 を制御する。
閾値設定部 11028は、 制御部 11027の制御にしたがい、 類似特徴領域検出 部 11025において用いられる M個の閾値を設定し、 類似特徴領域検出部 11025 に供給する。 次に、 図 1 1 6のフローチャートを参照して、 図 1 1 5の処理領域設定部 11001が行う処理 (処理領域設定処理) について説明する。
処理領域設定処理は、 例えば、 入力画像が、 処理領域設定部 11001に供給 されると開始される。
即ち、 処理領域設定処理では、 まず最初に、 ステップ S11031において、 画 像メモリ 11021が、 処理領域設定部 11001に供給された入力画像を記憶し、 ステップ S11032に進む。 ステップ S11032では、 特徴量抽出部 11022は、 画 像メモリ 11021に記憶された入力画像を構成する各画素について、 その特徴 量を抽出し、 特徴量メモリ 11023に供給して、 ステップ S11033に進む。 ステ ップ S11033では、 特徴量メモリ 11023は、 特徴量抽出部 11022から供給され る入力画像を構成する各画素の特徴量を記憶し、 ステップ S11034に進む。
ステップ S 11034では、 制御部 11027力 ユーザ I / F 11006から処理領域 指示情報の入力があつたかどうかを判定する。 ステップ S11034において、 処 理領域指示情報の入力がなかったと判定された場合、 ステップ S 11035 に進み、 制御部 11027は、 ユーザがユーザ I Z F 11006を操作することにより、 信号処 理装置 4の処理の終了を指示する終了指示の入力があつたかどうかを判定する。 ステップ S 11035において、 終了指示の入力があつたと判定された場合、 処 理領域設定部 11001は、 処理領域設定処理を終了する。
また、 ステップ S11035において、 終了指示の入力がなかったと判定された 場合、 ステップ S11034に戻り、 以下、 同様の処理を繰り返す。
そして、 ステップ S11034において、 処理領域指示情報の入力があつたと判 定された場合、 制御部 11027は、 その処理領域指示情報を、 指定画素特徴検 出部 11024に供給し、 ステップ S11036に進む。
ステップ S11036では、 指定画素特徴検出部' 11024は、 制御部 11027から供 給された処理領域指示情報が表す点の画素 (指定画素) の特徴量を、 特徴量メ モリ 11023に記憶された特徴量の中から検出し、 指定画素特徴量として、 類 似特徴領域検出部 11025に供給して、 ステップ S11037に進む。 ステップ S 11037では、 閾値設定部 11028は、 M個の閾値を設定し、 類似特 徴領域検出部 11025に供給して、 ステップ S11038に進む。 ここで、 閾値設定 部 11028には、 例えば、 デフォルトの M個の異なる値が記憶されており、 ス テツプ S 11037では、 そのデフォルトの M個の異なる値が、 M個の閾値として 設定される。 その他、 閾値設定部 11028では、 ステップ S11037において、 指 定画素特徴量に基づき、 可変の M個の閾値を設定すること、 即ち、 例えば、 特 徴量メモリ 11023に記憶された特徴量のうち、 指定画素特徴量との差 (の大 きさ) が最大の特徴量と、 指定画素特徴量との差を、 M+ 1等分以上する昇順 で M個の値を、 M値の閾値として設定することが可能である。
ステップ S 11038では、 類似特徴領域検出部 11025は、 閾値設定部 11028か ら供給される M個の閾値それぞれに対して、 指定画素特徴検出部 11024から 供給される指定画素特徴量に類似する特徴量を有する画素を囲む最小の矩形の 領域である類似特徴領域を検出する。
即ち、 類似特徴領域検出部 11025は、 特徴量メモリ 11023に記憶された入 力画像を構成する各画素の特徴量と、 指定画素特徴検出部 11024から供給さ れる指定画素特徴量との距離を、 所定の識別関数を用いて求める。 さらに、 類 似特徴領域検出部 11025は、 閾値設定部 11028から供給される M個の閾値の うちの任意の閾値を注目閾値として、 入力画像を構成する画素の中から、 指定 画素特徴量との距離を注目閾値以下にする特徴量の画素である類似特徴画素を 検出し、 その類似特徴画素を囲む最小の矩形の領域を、 注目閾値に対する類似 特徴領域として検出する。 類似特徴領域検出部 11025は、 閾値設定部 11028 から供給される M個の閾値すベてを注目閾値として、 その M個の閾値それそれ に対する類似特徴領域を検出する。 なお、 類似特徴画素として検出する画素は、 指定画素の位置から所定の範囲内にあるもののみに限定することが可能である。 そして、 類似特徴領域検出部 11025は、 ステップ S11038から S11039に進 み、 M個の閾値それそれに対して検出した類似特徴領域を、 処理領域に設定し、 領域情報生成部 11026に供給する。 さらに、 ステップ S 11039では、 領域情報 生成部 11026は、 類似特徴領域検出部 11025から供給される M通りの処理領 域を表す M通りの処理領域情報を生成して出力し、 ステップ S 11040に進む。 ステップ S 11040では、 制御部 11027は、 ユーザ I / F 11006から選択情報 が供給されたかどうかを判定し、 選択情報が供給されていないと判定した場合、 ステップ S11042に進む。 ステップ S11042では、 制御部 11027は、 ユーザが ユーザ I / F 1 1006を操作することにより、 確定指示または終了指示の入力が あつたかどうかを判定する。
ステップ S11042において、 確定指示または終了指示の入力があつたと判定 された場合、 処理領域設定部 11001は、 処理領域設定処理を終了する。
また、 ステップ S 11042において、 確定指示おょぴ終了指示いずれの入力も なかったと判定された場合、 ステップ S11040に戻り、 以下、 同様の処理が繰 り返される。
そして、 ステップ S11040において、 選択情報がユーザ I Z F 11006から制 御部 11027に供給されたと判定された場合、 制御部 11027は、 新たな M個の 閾値を設定するように、 閾値設定部 11028を制御し、 ステップ S 11041に進む。 ステップ S 11041では、 閾値設定部 11028は、 制御部 11027の制御にしたが レ、、 新たな M個の閾値を設定する。 即ち、 この場合、 閾値設定部 11028は、 前回設定した M個の閾値のうち、 ユーザ I / F 11006から供給された選択情報 により選択された出力画像についての処理領域の設定に用いられた閾値に基づ いて、 新たな M個の閾値を設定する。
具体的には、 閾値設定部 11028は、 ユーザ I / F 11006から供給された選択 情報により選択された出力画像についての処理領域の設定に用いられた閾値を 中心として、 前回設定した M個の閾値における隣接する閾値どうしの間隔より も短い間隔の M個の値を、 新たな M個の閾値として設定する。
そして、 閾値設定部 11028は、 新たな M個の閾値を、 類似特徴領域検出部 11025に供給し、 ステップ S11041カゝら S11038に戻る。 ステップ S11038では、 類似特徴領域検出部 11025が、 閾値設定部 11028か ら供給される新たな M個の閾値それぞれに対して、 指定画素特徴検出部 11024 から供給された指定画素特徴量に類似する特徴量を有する画素を囲む最小の矩 形の領域である類似特徴領域を検出し、 以下、 同様の処理が繰り返される。 以上の処理領域設定処理によれば、 ユーザによる処理領域指示情報に基づき、 複数である M通りの処理領域が設定され、 その M通りの処理領域それぞれにつ いて、 後段の処理が行われる。 さらに、 その処理結果としての M通りの出力画 像を表示し、 その中からユーザが出力画像を選択すると、 その選択結果に基づ き、 新たな M通りの処理領域が設定され、 以下、 同様の処理が繰り返される。 従って、 ユーザは、 M通りの出力画像の中から、 例えば、 所望の画質に近いも のを選択することにより、 適切な処理領域が設定され、 その結果、 ユーザが所 望する画質の出力画像を得ることが可能となる。
なお、 上述の場合には、 まず最初に、 ユーザに、 指定画素を表す処理領域指 示情報を入力してもらい、 処理領域設定部 11001において、 その処理領域指 示情報に基づいて、 指定画素を設定するようにしたが、 指定画素は、 ユーザか らの処理領域指示情報なしで設定することが可能である。 即ち、 処理領域設定 部 11001では、 例えば、 図 3のデータ定常性検出部 1 0 1における場合と同 様にして、 定常領域を検出し、 その定常領域における所定の画素を、 指定画素 として設定することが可能である。 この場合、 ユーザは、 処理領域指示情報を 入力する必要がなくなり、 M通りの出力画像の中から、 所望の画質に近いもの を選択するだけで済む。
また、 上述の場合には、 M通りの処理領域を設定し、 その M通りの処理領域 それぞれについて出力画像を表示し、 その中からユーザが所望する出力画像を 選択してもらうようにしたが、 その他、 例えば、 M通りの処理領域それぞれを 提示する枠などを、 入力画像上に表示し、 ユーザには、 処理領域を直接選択し てもらうようにすることが可能である。 この場合、 例えば、 図 1 1 7に示すような、 自動車などのオブジェク トが、 水平方向に一定速度で移動している 1シーンを、 イメージセンサであるセンサ 2 (図 1 ) において撮像して得られる画像が、 入力画像として、 画像表示部 11005に表示されたときに、 ユーザが、 入力画像において、 オブジェク トが移 動することにより生じている動きボケのある部分を、 ユーザ I / F 11006を操 作することにより指定すると、 処理領域設定部 11001において、 M通りの処 理領域が設定される。 さらに、 画像表示部 11005において、 図 1 1 8に示す ように、 その M通りの処理領域それぞれを提示する枠が、 入力画像上に表示さ れる。 ここで、 図 1 1 8では、 3通りの処理領域それぞれを提示する枠が表示 されている。 そして、 ユーザが、 M通りの処理領域のうちのいずれかを選択す るように、 ユーザ I Z F 11006を操作すると、 実世界推定部 11003および画像 生成部 11004では、 ユーザによって選択された処理領域について処理が行わ れ、 その処理結果としての出力画像が、 画像表示部 11005に表示される。
従って、 この場合、 ユーザは、 実世界推定部 11003および画像生成部 11004 において処理すべき処理領域を、 容易に選択することができる。
次に、 図 1 1 9は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施 の形態の構成例を示している。
図 1 1 9において、 処理領域設定部 11041、 定常性設定部 11042、 実世界推 定部 11043、 画像生成部 11044、 画像表示部 11045、 ユーザ I Z F 11046は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 · 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I , F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 1 9において、 実世界推定部 11043 は、 モデル生成部 11051、 方程式生成部 11052、 実世界波形推定部 11053で構 成されている。 モデル生成部 11051、 方程式生成部 11052、 実世界波形推定部 11053は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 T JP2004/008690
211
推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 但し、 図 1 1 9においては、 ユーザがユーザ I Z F 11046を操作することに より、 ユーザ I ZF 11046が出力する捕助情報が、 定常性設定部 11042にのみ 供給されるようになっている。
即ち、 図 1 1 9では、 ユーザは、 ユーザ I Z F 11046 を操作することにより、 画像表示部 11045に表示された画像について、 実世界 1の定常性に関する情 報を指示することができるようになつており、 ユーザ I / F 11046は、 ユーザ が実世界 1の定常性に関する情報を指示する操作を行うと、 その操作によって 指示された定常性に関する情報を表す定常性指示情報を、 補助情報として、 定 常性設定部 11042に供給する。 さらに、 図 1 1 9では、 画像表示部 11045に は、 後述するように、 複数の出力画像が表示されるが、 ユーザは、 ユーザ I Z F 11046を操作することにより、 画像表示部 11045に表示された出力画像を選 択することができるようになつており、 ユーザ I / F 11046は、 ユーザが出力 画像を選択する操作を行うと、 その操作によって選択された出力画像を表す選 択情報を、 補助情報として、 定常性設定部 11042に供給する。
なお、 ここでは、 定常性指示情報として、 例えば、 動き量を、 ユーザがユー ザ I Z F 11046を操作することにより入力するものとする。
即ち、 例えば、 いま、 実世界 1において、 自動車などのオブジェクトが、 水 平方向に一定速度で移動している 1シーンを、 イメージセンサであるセンサ 2 (図 1 ) において撮像して得られる画像が、 入力画像として、 図 1 1 9の信号 処理装置 4に入力されるものとする。
この場合、 入力画像に対応する実世界 1の画像は、 ある形状のオブジェク ト (ここでは、 自動車) が水平方向に一定速度で移動しているという定常性を有 しており、 ユーザは、 入力画像を見て、 その入力画像に対応する実世界 1の定 常性を指示する定常性指示情報を、 ユーザ I 11046を操作することにより 入力する。 具体的には、 ここでは、 ユーザ I ZF 11046が、 例えば、 回転式ま たはスライ ド式のボリューム (可変抵抗器) などで構成され、 ユーザがユーザ I ZF 11046を操作すると、 ユーザ I Z F 11046は、 その操作に応じて、 動き 量を表す連続的な値を、 定常性指示情報として、 定常性設定部 11042に供給 する。
ここで、 動き量としては、 例えば、 いわゆるブロックマッチングによって動 きべク トルを検出し、 その動きべク トルの大きさを採用することが可能である。 しかしながら、 例えば、 図 1 2 O Aに示すように、 左から右方向に移動してい る自動車が存在する風景を背景とするとともに、 右から左方向に移動している 他の自動車を前景とする画像のように、 前景と背景とで、 異なる動き成分が交 差する画像 (入力画像) については、 特に、 図 1 2 0 Bに長方形で囲んで示す、 前景と背景の動き成分が交差する部分の動きべクトルを、 精度良く求めること が困難なことがある。
即ち、 図 1 2 0 Cは、 図 1 2 0 Bに長方形で囲んで示した部分について、 プ 口ックマッチングにより求められる、 各プロックの動きべクトノレ (図 1 2 0 B に示す、 求められた動きベク トルのうちの、 囪 1 2 0 Bに長方形で囲んで示し た部分の動きベクトル (拡大) ) を示している。 ブロックマッチングでは、 前 景ゃ背景の区別をせずに、 プロックごとにマッチングがとられるため、 ォプジ ェクト (ここでは、 前景になっている自動車と、 背景にある自動車) の境界部 分のプロックについて、 動きベク トルを、 精度良く求めることが困難なことが ある。 ここで、 例えば、 いま、 図 1 2 O Dに示すように、 ブロックの中心点 (重心の位置) の動きべク トノレを、 そのプロックの動きべクトルとした場合、 ブロックマッチングによれば、 図 1 2 0 Dに示す真値の動きベクトルに対し、 図 1 2 0 Cにおいて影を付してある部分のブロックにおいて、 そのプロックの 中心点の動きべクトルとは異なる、 いわば不正確な動きべクトルが求められる ことになる。 そこで、 図 1 1 9の信号処理装置 4では、 ユーザに、 入力画像におけるォブ ジェク トの動き量を、 定常性指示情報として入力してもらい、 定常性設定部 11042において、 その定常性指示情報に基づいて、 定常性を設定する。
次に、 図 1 2 1のフローチヤ一トを参照して、 図 1 1 9の信号処理装置 4の 処理について説明する。
図 1 1 9の信号処理装置 4では、 定常性に基づいて、 実世界が推定され、 こ れにより、 センサ 2の時間積分効果による、 物体の信号の時間方向の混合 (時 間混合) によって生じる動きボケを除去する処理が行われる。
即ち、 実世界 1において、 自動車などのオブジェクトが移動している画像を、 イメージセンサであるセンサ 2で撮像した場合に得られる入力画像においては、 オブジェクトが時間経過とともに移動するため、 センサ 2の時間積分効果によ つて、 そのオブジェクトの光信号と、 そのオブジェクト以外の部分の光信号と が混合 (時間混合) し、 これにより、 オブジェク トの境界部分などにおいて、 いわゆる動きボケが生じる。 図 1 1 9の信号処理装置 4では、 このような時間 混合によって生じた動きボケを入力画像から除去した高画質の出力画像が生成 される。
図 1 1 9の信号処理装置 4は、 まず最初に、 ステップ S11061において、 前 処理を行い、 ステップ S 11062に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデータ 3として供給される、 例えば 1フレームまたは 1フィール ドの入力画像を、 処理領域設定部 11041、 定常性設定部 11042、 実世界推定部 11043、 画像生成部 11044、 および画像表示部 11045に供給する。 さらに、 信 号処理部 4は、 画像表示部 11045に、 入力画像を表示させる。
なお、 ここでは、 自動車などのオブジェクトが水平方向に一定速度で移動し ているシーンを、 センサ 2で撮像することにより得られる、 時間混合による動 きボケが生じた画像が、 入力画像として、 信号処理装置 4に入力されるものと する。 ステップ S 11062では、 ユーザ I / F 11046は、 ユーザがユーザ I , F
11046を操作することにより、 定常性指示情報の入力があつたかどうかを判定 する。 ステップ S11062において、 定常性指示情報の入力がなかったと判定さ れた場合、 ステップ S11063に進み、 ユーザ I 11046は、 ユーザがユーザ I / F 11046を操作することにより、 信号処理装置 4の処理の終了を指示する · 終了指示の入力があつたかどうかを判定する。
ステップ S 11063において、 終了指示の入力があつたと判定された場合、 即 ち、 例えば、 画像表示部 11045に表示された入力画像を見たユーザが、 その 入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良い として、 信号処理装置 4の処理を終了するように、 ユーザ I Z F 11046を操作 した場合、 処理を終了する。
また、 ステップ S11063において、 終了指示の入力がなかったと判定された 場合、 ステップ S11062に戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S11062において、 定常性指示情報の入力があつたと判定さ れた場合、 即ち、 画像表示部 11045に表示された入力画像を見たユーザが、 その入力画像の画質 (ここでは、 動きボケを生じていること) に不満を感じ、 入力画像におけるオブジェク トの動き量を指示するように、 ユーザ I Z F 11046を操作した場合、 ステップ S11064に進み、 ユーザ I Z F 11046は、 ュ 一ザがユーザ Iノ F 11046を操作することによって指示した動き量を表す定常 性指示情報を、 補助情報として、 定常性設定部 11042に供給し、 ステップ S11065に進む。
ステップ S 11065では、 処理領域設定部 11041は、 処理領域を設定し、 その ' 処理領域を表す処理領域情報を、 定常性設定部 11042、 実世界推定部 11043、 および画像生成部 11044に供給し、 ステップ S 11066に進む。
ここで、 ステップ S11065における処理領域の設定は、 ユーザに処理領域指 示情報を入力してもらい、 その処理領域指示情報に基づいて行うことも可能で あるし、 ユーザからの処理領域指示情報なしで行うことも可能である。 ユーザ からの処理領域指示情報なしでの処理領域の設定は、 例えば、 入力画像と、 そ の前または後のフレームの画像とを用い、 プロックマッチングを行うことによ つて、 入力画像から動きべク トルを検出し、 その動きべク トルに基づいて行う ことができる。 即ち、 例えば、 入力画像において、 所定の大きさ以上の動きべ タ トルのブロックを囲む最小の矩形領域を、 処理領域として設定することが可 能である。
ステップ S 11066では、 定常性設定部 11042は、 処理領域設定部 11041から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 11042は、 その処理領域の画像データにおいて欠落した実世界 1の信号の M通りの定常性を設定し、 その M通りの定常性を表す定常性情報を、 実世界推定部 11043に供給して、 ステップ S11067に進む。
ここで、 定常性設定部 11042は、 直前に行われたステップ S 11064において ユーザ I Z F 11046から補助情報としての定常性指示情報が供給された場合は、 その定常性指示情報に基づいて、 M通りの定常性を設定する。 即ち、 定常性設 定部 11042は、 直前に行われたステップ S11064においてユーザ I / F 11076 から供給された定常性指示情報が表す動き量を中心とする M通りの動き量を、 M通りの定常性の情報として設定する。
ステップ S 11067では、 実世界推定部 11043は、 入力画像における処理領域 内の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実 世界 1の信号を推定する。
即ち、 実世界推定部 11043では、 モデル生成部 11051力 S、 処理領域設定部 11041から供給される処理領域情報から、 入力画像における処理領域を認識す' るとともに、 定常性設定部 11042 から供給される、 M通りの定常性情報から、 処理領域の画像データに対応する実世界 1の信号の M通りの定常性を認識する。 さらに、 モデル生成部 11051は、 M通りの定常性それぞれについて、 入力画 像における処理領域を構成する画素と、 その処理領域の画像データに対応する 実世界 1の信号の定常性に応じて、 処理領域内の各画素の画素値と実世界 1の 信号との関係をモデル化したモデルとしての M通りの関数を生成し、 これによ り、 M通りの定常性それぞれに対して得られる M通りの関数を、 方程式生成部 11052に供給する。
方程式生成部 11052は、 処理領域設定部 11041から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域を構成する画素に ついて、 モデル生成部 11051から供給される、 M通りのモデルとしての関数 それぞれに、 入力画像の必要な画素の画素値を代入し、 これにより、 実世界 1 の信号を近似する近似関数を求める M通りの方程式を生成して、 実世界波形推 定部 11053に供給する。
実世界波形推定部 11053は、 方程式生成部 11052から供給される、 M通り の方程式を解くことにより、 M通りの実世界 1の信号の波形を推定、 即ち、 実 世界 1の信号をモデル化したモデルとしての近似関数を求め、 その M通りの近 似関数を、 画像生成部 11044に供給する。
ステップ S 11067の処理後は、 ステップ S 11068に進み、 画像生成部 110 は、 実世界推定部 11043 (の実世界波形推定部 11053) から供給された M通り の近似関数に基づいて、 実世界 1の信号により近似した信号を M通りだけ生成 する。 即ち、 画像生成部 11044は、 処理領域設定部 11041から供給される処 理領域情報から、 入力画像における処理領域を認識し、 その処理領域について、 · 実世界推定部 11043から供給された M通りの近似関数に基づき、 実世界 1の 信号に対応する画像により近似した画像データである近似画像を M通りだけ生 成する。 さらに、 画像生成部 11044は、 入力画像の処理領域の部分を、 M通 りの近似画像にそれぞれ置き換えた M通りの画像を、 出力画像として生成し、 画像表示部 11045に供給して、 ステップ S11068から S11069に進む。
ステップ S 11069では、 画像表示部 11045は、 画像生成部 11044から供給さ れた M通りの出力画像を、 ステップ S 11061で表示された入力画像に代えて、 またはその入力画像とともに表示し、 ステップ S11070に進む。 ステップ S 11070では、 ユーザ I Z F 11046は、 ユーザがユーザ I / F 11046を操作することにより、 選択情報の入力があつたかどうかを判定する。 即ち、 ステップ S11069では、 画像表示部 11045において、 M通りの出力画像 が表示されるが、 その M通りの出力画像を見たユーザが、 その M通りの出力画 像の中から、 所望の画質の画像または所望の画質に近い画像 (ここでは、 動き ボケがより除去された画像) を選択する選択情報の入力を、 ユーザ I Z F 11046を操作することにより行ったかどう力が、 ステップ S11070において判 定される。
ステップ S 11070において、 選択情報の入力がなかったと判定された場合、 ステップ S11073に進み、 ステップ S11063における場合と同様に、 ユーザ I / F 11046は、 終了指示の入力があつたかどうかを判定する。
ステップ S 11073において、 終了指示の入力があつたと判定された場合、 信 号処理装置 4は、 処理を終了する。
また、 ステップ S11073において、 終了指示の入力がなかったと判定された 場合、 ステップ S11070に戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S 11070において、 選択情報の入力があつたと判定された場 合、 即ち、 画像表示部 11045 に表示された M通りの出力画像を見たユーザが、 その M通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画 像を選択した場合、 ステップ S11071に進み、 ユーザ I Z F 11046は、 ユーザ がユーザ I / F 11046を操作することにより、 ユーザが選択した出力画像を、 最終的な出力画像として確定する確定指示の入力があつたかどうかを判定する。 ステップ S 11071において、 確定指示の入力があつたと判定された場合、 ス テツプ S 11072に進み、 画像表示部 11045は、 例えば、 その画面全体に、 ユー ザが選択した出力画像を表示し、 処理を終了する。
また、 ステップ S 11071において、 確定指示の入力がなかったと判定された 場合、 即ち、 ユーザが、 選択した出力画像の画質に不満があり、 再度処理を行 うために、 確定指示の入力を行わなかった場合、 ステップ S11064に戻り、 ュ 一ザ I / F 11046は、 ユーザが選択した出力画像を表す選択情報を、 補助情報 として、 定常性設定部 11042に供給し、 ステップ S 11065に進む。
ステップ S 11065では、 処理領域設定部 11041は、 上述した場合と同様に、 処理領域を設定し、 その処理領域を表す処理領域情報を、 定常性設定部 11042、 実世界推定部 11043、 および画像生成部 11044に供給して、 ステップ S 11066 に進む。 なお、 ここで設定される処理領域は、 例えば、 前回のステップ
S11065の処理で設定される のと同一であり、 従って、 ステップ S 11064乃 至 S11073のループ処理が行われる場合においては、 2回目以降のステップ S11065の処理は、 スキップすることができる。
ステップ S 11066では、 定常性設定部 11042は、 ユーザ I , F 11046から供 給された補助情報としての選択情報に基づいて、 複数である M通りの定常性を 新たに設定する。 即ち、 この場合、 ステップ S 11066では、 定常性設定部 11042は、 ユーザ I Z F 11046から供給された補助情報としての選択情報が表 す出力画像を得るのに用いられた入力画像に対して設定された定常性を基準に、 新たな M通りの定常性を設定する。 さらに、 ステップ S 11066では、 定常性設 定部 11042は、 その新たな M通りの定常性を表す M通りの定常性情報を、 実 世界推定部 11043、 および画像生成部 11044に供給する。 そして、 ステップ S11066から S11067に進み、 以下、 同様の処理が繰り返される。
即ち、 これにより、 ステップ S 11064乃至 S 11073の処理が繰り返され、 最 終的には、 ユーザが所望する画質、 具体的には、 ここでは、 動きボケが (十分 に) 除去された出力画像が得られる定常性が設定され、 その結果、 ユーザが所 望する画質の出力画像が得られる。
以上のように、 図 1 1 9の信号処理装置 4では、 入力画像に対する処理結果 としての M通りの出力画像をユーザに提示し、 その M通りの出力画像の中から ユーザが所望するものを選択してもらい、 その選択結果を踏まえて、 再度処理 を行うようにしたので、 ユーザの好みにあった、 高画質の出力画像を、 容易に 得ることができる。 即ち、 信号処理装置 4は、 入力画像に対する処理結果とし ての M通りの出力画像をユーザに提示する。 一方、 ユーザは、 その M通りの出 力画像それぞれの画質を認識、 判断し、 画質の良い出力画像を、 信号処理装置 4にフィードバックする。 そして、 信号処理装置 4は、 そのユーザからのフィ ードバックを踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返さ れる。 従って、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ること ができる。
なお、 図 1 1 9の信号処理装置 4では、 図 1 1 3の信号処理装置 4における 場合のように、 複数である I ^通りの処理領域を設定し、 その IV^通りの処理 領域の中から、 ユーザが所望するものを選択してもらってから、 そのユーザが 選択した処理領域についてだけ、 複数である M2通りの定常性を設定し、 M2 通りの出力画像を求めるようにすることが可能である。
さらに、 図 1 1 9の信号処理装置では、 図 1 1 3の信号処理装置 4における 場合のように、 処理領域設定部 11041において、 複数である I ^通りの処理領 域を設定するとともに、 定常性設定部 11042において、 その Mi通りの処理領 域それぞれについて、 複数である M2通りの定常性を設定し、 これにより、 M X M2通りの出力画像を生成し、 ユーザに、 その中から所望のものを選択し てもらうようにすることも可能である。
次に、 図 1 2 2は、 図 1 1 9の定常性設定部 11042の詳細構成例を示して いる。
画像メモリ 11061には、 入力画像、 さらには、 必要に応じて、 入力画像の 前または後のフレームの画像が供給されるようになっており、 画像メモリ
11061は、 そこに供給される画像を記憶する。
動き検出部 11062には、 処理領域設定部 11041から処理領域情報が供給さ れるようになっており、 動き検出部 11062は、 その処理領域情報によって特 定される入力画像における処理領域の画像データ等を、 画像メモリ 11061か ら読み出し、 その処理領域におけるデータの定常性を表す動きを検出して、 動 き候補設定部 11063に供給する。 なお、 動き検出部 11062では、 例えば、 ブロックマッチングによって動き を検出することもできるし、 その他の手法によって動きを検出することもでき る。 その他の手法については、 後述する。
ここで、 図 1 2 2では、 画像メモリ 11061および動き検出部 11062を設け て、 定常性設定部 11042を構成するようにしたが、 入力画像 (処理領域) か ら動きを検出せずに、 その入力画像に対応する実世界 1の定常性を設定するの みであれば、 即ち、 例えば、 ユーザから入力される定常性指示情報に基づき、 実世界 1の定常性を設定するのみであれば、 定常性設定部 11042は、 画像メ モリ 11061および動き検出部 11062を設けずに、 後述する動き候補設定部 11063、 定常性情報生成部 11064、 および制御部 11065だけで構成することが 可能である。
動き候補設定部 11063は、 動き検出部 11062から供給される処理領域にお けるデータの定常性を表す動きに基づき、 対応する実世界 1の定常性を表す動 きの M通りの候捕を設定し、 定常性情報生成部 11064 に供給する。 あるいは、 また、 動き候補設定部 11063は、 制御部 11065の制御にしたがい、 入力画像 の処理領域における実世界 1の定常性を表す動きの M通りの候補を設定し、 定 常性情報生成部 11064に供給する。
定常性情報生成部 11064は、 動き候補設定部 11063から供給される M通り の動きの候捕それぞれを表す定常性情報を生成し、 その M通りの定常性情報を、 実世界推定部 11046 (図 1 1 9 ) に出力する。
制御部 11065は、 ユーザ I Z F 11046 (図 1 1 9 ) から供給される補助情報 としての定常性指示情報または選択情報を受信し、 その定常性指示情報または 選択情報に応じて、 動き候補設定部 11063を制御する。
次に、 図 1 2 3のフローチャートを参照して、 図 1 2 2の定常性設定部 11042が行う処理 (定常性設定処理) について説明する。
定常性設定処理は、 例えば、 入力画像が、 図 1 1 9の信号処理装置 4に供給 されると開始される。 即ち、 定常性設定処理では、 まず最初に、 ステップ S 11081において、 制御 部 11065が、 ユーザ I Z F 11046 (図 1 1 9 ) から定常性指示情報の入力があ つたかどうかを判定する。 ステップ S 11081において、 定常性指示情報の入力 がなかったと判定された場合、 ステップ S 11082に進み、 制御部 11065は、 ュ 一ザがユーザ I / F 11046を操作することにより、 信号処理装置 4の処理の終 了を指示する終了指示の入力があつたかどうかを判定する。
ステップ S 11082において、 終了指示の入力があつたと判定された場合、 定 常性設定部 11042は、 定常性設定処理を終了する。
また、 ステップ S 11082において、 終了指示の入力がなかったと判定された 場合、 ステップ S11081に戻り、 以下、 同様の処理を繰り返す。
そして、 ステップ S11082において、 定常性指示情報の入力があつたと判定 された場合、 制御部 11065は、 その定常性指示情報を、 動き候補設定部 i ioe3 に供給し、 ステップ S11083に進む。
ステップ S11083では、 動き候補設定部 11063は、 制御部 11065から供給さ れた定常性指示情報が表す動き量に基づいて、 入力画像の処理領域におけるォ ブジエタ トの動き量の候補 (動き候補) を M通り設定し、 その M通りの動き量 の候補を、 定常性情報生成部 11064に供給して、 ステップ S11084に進む。 こ こで、 ステップ S11083では、 例えば、 定常性指示情報が表す動き量を中心と する、 所定の間隔ごとの M個の値を、 M通りの動き量の候補として設定するこ とができる。 なお、 この場合の所定の間隔は、 一定値であっても良いし、 定常 性指示情報が表す動き量から離れるほど、 大きくまたは小さく しても良レ、。
ステップ S 11084では、 定常性情報生成部 11064は、 動き候補設定部 11063 · から供給される M通りの動き量の候補を表す M通りの定常性情報を生成して出 力し、 ステップ S11085に進む。
ステップ S 11085では、 制御部 11065は、 ユーザ I / F 11046から選択情報 が供給されたかどうかを判定し、 選択情報が供給されていないと判定した場合、 ステップ S11086に進む。 ステップ S11086では、 制御部 11065は、 ユーザが ユーザ I Z F 11046を操作することにより、 確定指示または終了指示の入力が あつたかどうかを判定する。
ステップ S 11086において、 確定指示または終了指示の入力があつたと判定 された場合、 定常性設定部 11042は、 定常性設定処理を終了する。
また、 ステップ S 11086において、 確定指示および終了指示いずれの入力も なかったと判定された場合、 ステップ S11085に戻り、 以下、 同様の処理が繰 り返される。
そして、 ステップ S11085において、 選択情報がユーザ I / F 11046から制 御部 11065に供給されたと判定された場合、 制御部 11065は、 新たな M個の 動き量の候補を設定するように、 動き候補設定部 11063を制御し、 ステップ S11087に進む。
ステップ S 11041では、 動き候捕設定部 11063は、 制御部 11065の制御にし たがい、 新たな M個の動き量の候補を設定する。 即ち、 この場合、 動き候補設 定部 11063は、 前回設定した M個の動き量の候捕のうち、 ユーザ I / F 11046 から供給された選択情報により選択された出力画像を得るのに用いられた定常 性情報としての動き量の候補に基づいて、 新たな M個の動き量の候補を設定す る。
具体的には、 動き候補設定部 11063は、 ユーザ I Z F 11046から供給された 選択情報により選択された出力画像を得るのに用いられた動き量の候補を中心 として、 前回設定した M個の動き量の候補における隣接する動き量の候補どう しの間隔よりも短い間隔の値を、 新たな M個の動き量の候補として設定する。 そじて、 動き候補設定部 11063は、 新たな M個の動き量の候補を、 定常性 情報生成部 11064に供給し、 ステップ S11087から S11084に戻る。
ステップ S 11084では、 定常性情報生成部 11064が、 動き候補設定部 11063 から供給される新たな M個の動き量の候補を表す M通りの定常性情報を生成し て出力して、 ステップ S 11085に進み、 以下、 同様の処理が繰り返される。 以上の定常性設定処理によれば、 ユーザによる定常性指示情報に基づき、 複 数である M通りの定常性が設定され、 その M通りの定常性それぞれについて、 後段の処理が行われる。 さらに、 その処理結果としての M通りの出力画像を表 示し、 その中からユーザが出力画像を選択すると、 その選択結果に基づき、 新 たな M通りの定常性が設定され、 以下、 同様の処理が繰り返される。 従って、 ユーザは、 M通りの出力画像の中から、 例えば、 所望の画質に近いものを選択 することにより、 適切な定常性の設定が行われ、 ユーザが所望する画質に近い 出力画像を得ることが可能となる。
なお、 上述の場合には、 まず最初に、 ユーザに、 入力画像におけるオブジェ タトの動き量を表す定常性指示情報を入力してもらい、 定常性設定部 11042 において、 その定常性指示情報に基づいて、 最初の M通りの動き量の候補を設 定するようにしたが、 最初の M通りの動き量の候補は、 ユーザからの定常性指 示情報なしで設定することが可能である。 即ち、 定常性設定部 11042では、 例えば、 画像メモリ 11061に、 入力画像を記憶させ、 動き検出部 11062にお いて、 画像メモリ 11061に記憶された入力画像の処理領域における動き量を 検出し、 その検出された動き量に基づいて、 最初の M通りの動き量の候補を設 定するようにすることが可能である。
また、 定常性設定部 11042では、 最初の M通りの動き量の候補は、 定常性 指示情報が表す動き量や、 動き検出部 11062で検出される動き量を中心とす る、 ある動き量の範囲、 あるいは、 定常性指示情報が表す動き量や、 動き検出 部 11062で検出される動き量に関係のない、 ある動き量の範囲に基づいて設 定することが可能である。
ここで、 図 1 2 4のフローチャートを参照して、 最初の M通りの動き量の候 補を、 ある動き量の範囲に基づいて設定し、 その後、 ユーザによる出力画像の 選択に応じて、 新たな M通りの動き量を設定する場合の、 定常性設定部 11042 の処理について説明する。 なお、 M通りの動き量の候補を設定するときに用い る動き量の範囲の最小値と最大値それぞれを、 以下、 適宜、 最小動き量 Vm i n と最大動き量 Vm a x という。
この場合、 まず最初に、 ステップ S11091において、 制御部 11065が、 最小 動き量 Vm i nから最大動き量 Vm a x までの範囲を M+ 1等分する M個の点を求 め、 動き候補補設定部 11063に供給して、 ステップ S11092に進む。 ステップ S 11092では、 制御部 11065が、 最小動き量 Vra i πから最大動き量 Vm a xまで の範囲を M+ 1等分する M個の点のうちの隣接するものどうしの距離 Lを求め、 ステップ S11093に進む。
ステップ S11093では、 動き候捕設定部 11063は、 制御部 11065から供給さ れた M個の点の値を、 M通りの動き量の候補に設定し、 その M通りの動き量の 候補を、 定常性情報生成部 11064に供給して、 ステップ S11094に進む。
ステップ S 11094では、 定常性情報生成部 11064は、 動き候補設定部 11063 から供給される M通りの動き量の候補を表す M通りの定常性情報を生成して出 力し、 ステップ S11095に進む。
ステップ S 11095では、 制御部 11065は、 ユーザ I Z F 11046から選択情報 が供給されたかどうかを判定し、 選択情報が供給されていないと判定した場合、 ステップ S11096に進む。 ステップ S11096では、 制御部 11065は、 ユーザが ユーザ I / F 11046を操作することにより、 確定指示または終了指示の入力が あつたかどうかを判定する。
ステップ S 11096において、 確定指示または終了指示の入力があつたと判定 された場合、 定常性設定部 11042は、 定常性設定処理を終了する。
また、 ステップ S11096において、 確定指示おょぴ終了指示いずれの入力も なかったと判定された場合、 ステップ S11095に戻り、 以下、 同様の処理が繰 り返される。
そして、 ステップ S11095において、 選択情報がユーザ I Z F 11046から制 御部 11065に供給されたと判定された場合、 ステップ S 11097に進み、 制御部 11065は、 前回設定された M通りの動き量の候補のうち、 ユーザ I / F 11046 力 ら供給された選択情報により選択された出力画像を得るのに用いられた定常 性情報としての動き量の候補 Va に対して、 直前のステップ S11092で求めら れた距離 Lを加算または減算し、 その加算値または減算値を、 それぞれ、 最大 動き量 Vmaxまたは最小動き量 Vmin に、 新たに設定する。
その後は、 ステップ S11097から S11091に戻り、 以下、 同様の処理が繰り 返される。
従って、 例えば、 Mを 3とすると、 定常性設定部 11042では、 図 1 25に 示すように、 まず最初に、 最小動き量 Vminから最大動き量 Vmaxまでの範囲 を 4等分する 3個の点 Vい v2, v3が求められ、 その 3個の点の値が、 3通 りの動き量の候補 Vl, v2 ) v3 に設定されるとともに、 3通りの動き量の候 補 Vi, v2, v3の隣接するもの と v2、 または v2 と v3) どうしの距 離 Lが求められる。
さらに、 いま、 その 3通りの動き量の候補 Vl, v2, v3について得られた 出力画像の中から、 ユーザが、 例えば、 動き量の候補 v2について得られた出 力画像を選択したとすると、 定常性設定部 11042では、 図 1 25に示すよう に、 その選択された出力画像を得るのに用いられた動き量の候補 va (ここで は、 v2) に対して距離 Lを加算または減算した値を、 それぞれ、 新たに最大 動き量 Vmax' または最小動き量 Vmi n' として、 その最小動き量 Vrai n' から 最大動き量 Vmax' までの範囲を 4等分する 3個の点 Vl ' , ν2 ' , ν3 ' 求められ、 その 3個の点の値が、 3通りの動き量の侯補 Vl, , v2, , ν3·' に設定されるとともに、 3通りの動き量の候補 V , ν2' , ν3' の隣接す るもの (ν と ν2' 、 または ν2' と ν3' ) どうしの距離 L' が求められ ' る。
その後、 その 3通りの動き量の候補 Vl ' , ν2' , ν3' について得られた 出力画像の中から、 ユーザが、 例えば、 動き量の候補 Vl' について得られた 出力画像を選択したとすると、 定常性設定部 11042では、 図 1 25に示すよ うに、 その選択された出力画像を得るのに用いられた動き量の候補 va' (こ こでは、 Vl' ) に対して距離 L' を加算または減算した値を、 それぞれ、 新 たに最大動き量 Vmax, ' または最小動き量 Vmin, , として、 その最小動き 量 Vrain, ' から最大動き量 Vmaノ ' までの範囲を4等分する 3個の点 V
, , v2, , , v3, ' が求められ、 その 3個の点の値が、 3通りの動き量 の候捕 V , , ν2' ' , ν3 ' ' に設定されるとともに、 3通りの動き量の 候補 , , ν2 ' , , ν3, , の隣接するもの (Vl, , と v2, , 、 または ν2' , と v3, ' ) どうしの距離 L, , が求められる。
以下、 同様にして、 動き量の候補の範囲が狭められていき、 最終的には、 真 値 (または真値に極めて近い) 動き量を定常性情報として、 出力画像が得られ ることになる。
即ち、 例えば、 いま、 Mを 3とするとともに、 最小動き量 Vmin と最大動き 量 Vmax を、 それぞれ 0と 50とする。 さらに、 入力画像として、 例えば、 図 1 26Aに示すように、 自動車などのオブジェクトが、 水平方向に一定速度で 移動している様子を撮像することによって得られる、 動きボケが生じている画 像を採用し、 オブジェク トが移動している速度、 つまり真値の動き量が 20で あるとする。
この場合、 定常性設定部 11042では、 最小動き量 0から最大動き量 50ま での範囲を 4等分する 3個の点が求められ、 その 3個の点の値が、 3通りの動 き量の候補に設定される。 従って、 1 3 (= 1 X 50/4) , 25 (= 2 X 5 0/4) , 37 (= 3 X 50/4) ί 3通りの動き量の候補に設定される。 なお、 ここでは、 動き量の候補の値については、 その小数点以下の値を、 適宜、 切り下げまたは切り上げることによって、 整数値を採用するものとする。
その後、 実世界推定部 11043および画像生成部 11044において、 3通りの 動き量の候捕 1 3, 25, 3 7それぞれについて、 入力画像が処理され、 これ により、 画像表示部 11045では、 図 1 26 Βに示すように、 3通りの動き量 の候補 1 3, 2 5, 3 7それぞれについての入力画像の処理結果としての 3通 りの出力画像が表示される。 ユーザには、 この 3通りの出力画像の中から、 オブジェクトの輪郭が最もく つきりしたもの、 即ち、 入力画像に生じている動きボケが最も低減されている ものを選択してもらう。 いまの場合、 真値の動き量が 2 0であるから、 3通り の動き量の候補 1 3, 2 5, 3 7それぞれについて得られた出力画像の中では、 例えば、 真値の動き量 2 0に最も近い動き量の候補 2 5について得られた出力 画像が、 動きボケが最も低減されたものとなる。 従って、 ユーザは、 動き量の 候補 2 5について得られた出力画像を選択する。
一方、 最小動き量 0から最大動き量 5 0までの範囲を 4等分する 3個の点の 隣接するものどうしの距離 Lは、 5 0/4であり、 定常性設定部 11042は、 ユーザが出力画像を選択すると、 その選択された出力画像を得るのに用いられ た動き量の候補 2 5に対して距離 5 0/4を加算または減算した値を、 それぞ れ、 新たに最大動き量または最小動き量として、 その最小動き量から最大動き 量までの範囲を 4等分する 3個の点を、 新たに 3通りの動き量の候補として設 定する。
従って、 いまの場合、 1 9 (= ( 1 X 5 0/4 + 2 5) ) / 2 , 2 5 (= 2
X 5 0/4 ) , 3 1 ( ( 3 X 5 0/ 4 - 2 5 ) / 2) が、 3通りの動き量の 候補に設定される。
その後、 実世界推定部 11043および画像生成部 11044において、 3通りの 動き量の候捕 1 9, 2 5 , 3 1それぞれについて、 入力画像が処理され、 これ により、 画像表示部 11045では、 図 1 2 6 Cに示すように、 3通りの動き量 の候補 1 9, 2 5, 3 1それぞれについての入力画像の処理結果としての 3通 りの出力画像が表示される。
そして、 以下、 同様の処理が繰り返されることにより、 動き量の候補として、 真値の動き量が設定され、 その真値の動き量についての出力画像が得られる。 即ち、 3通りの動き量の候補 1 9, 2 5, 3 1それぞれについての入力画像 の処理結果としての 3通りの出力画像の中では、 例えば、 真値の動き量 2 0に 最も近い動き量の候補 1 9について得られた出力画像が、 動きボケが最も低減 されたもの (最もくつきりしたもの) となる。 従って、 ユーザは、 動き量の候 補 1 9について得られた出力画像を選択する。
この場合、 定常性設定部 11042は、 上述した場合と同様にして、 新たな 3 通りの動き量の侯補 1 6 , 1 9, 2 2を設定し、 これにより、 画像表示部 11045では、 図 1 2 6 Dに示すように、 その 3通りの動き量の候補 1 6, 1 9 , 2 2それぞれについての入力画像の処理結果としての 3通りの出力画像が表示 される。
この 3通りの動き量の候補 1 6, 1 9, 2 2それぞれについての入力画像の 処理結果としての 3通りの出力画像の中では、 例えば、 真値の動き量 2 0に最 も近い動き量の候補 1 9について得られた出力画像が、 動きボケが最も低減さ れたもの (最もくつきりしたもの) となる。 従って、 ユーザは、 動き量の候補
1 9について得られた出力画像を選択する。
この場合、 定常性設定部 11042は、 上述した場合と同様にして、 新たな 3 通りの動き量の候補 1 8, 1 9, 2 0を設定し、 これにより、 画像表示部 11045では、 図 1 2 6 Eに示すように、 その 3通りの動き量の候補 1 8, 1 9,
2 0それぞれについての入力画像の処理結果としての 3通りの出力画像が表示 される。
動き量の候補 2 0は、 真値の動き量であり、 従って、 動き量の候捕 2 0につ いて得られた出力画像は、 入力画像から動きボケが最も低減されたもの (最も くっきりしたもの) となる。
実世界 1の定常性を表す動き量として、 その真値を設定することにより、 実 世界推定部 11043および画像生成部 11044では、 時間混合により生じている 動きボケを除去 (低減) した出力画像を得ることができる。 しかしながら、 信 号処理装置 4において、 入力画像だけから、 実世界 1の定常性の真値を求める ことは困難な場合がある。 そこで、 ユーザに、 実世界 1の定常性の真値を入力 してもらう方法があるが、 数値で表される動き量などの実世界 1の定常性の真 値を、 ユーザが入力するのは困難である。 —方、 ユーザは、 処理結果である出力画像を見れば、 その出力画像において、 動きボケが低減されているかどうか等の画質が改善されているかどうかを、 容 易に判断または認識することができる。
そこで、 上述のように、 信号処理装置 4において、 M通りの動き量の候補に ついて、 入力画像を処理することにより、 M通りの出力画像を求め、 ユーザに、 その M通りの出力画像の中から、 動きボケが最も改善されているものを選択し てもらい、 その選択結果に応じて、 新たに M通りの動き量の候補を設定し、 そ の M通りの動き量の候捕について、 M通りの出力画像を求めることを繰り返す ことにより、 極めて効率的に、 動きボケを除去することができる。
即ち、 信号処理装置 4は、 ユーザに処理結果を提示し、 人間が得意とする画 質の認識や判断を行ってもらう。 そして、 信号処理装置 4は、 その認識や判断 によるフィードバックを受けて、 再度処理を行う。 このように、 ユーザは自身 が得意とする認識や判断を行い、 信号処理装置 4は、 その認識や判断のフィー ドバックを受けて、 自身が得意とする処理 (信号処理) を行うという、 ユーザ と信号処理装置 4との協調によって、 実世界 1の信号に対応する画像により近 似した画質の良い画像を、 容易に得ることができる。
なお、 M通りの動き量の候補それぞれについての入力画像の処理結果として ,の M通りの出力画像の中では、 基本的には、 真値の動き量に最も近い動き量の 候補について得られた出力画像が、 動きボケが最も低減されたものとなるが、 ユーザが、 出力画像の画質の認識、 判断を誤って、 真値の動き量に最も近い動 き量の候補について得られた出力画像以外の出力画像を選択することがあり得 る。 この場合は、 基本的に、 その後に設定される新たな M通りの動き量の候捕' それぞれについて得られる出力画像の画質が、 前回の出力画像の画質よりも劣 化するから、 ユーザは、 前回の出力画像の選択が誤っていたことを認識するこ とができる。 このような場合に対処すべく、 例えば、 画像表示部 11045 には、 信号処理装置 4の状態を、 前回の出力画像の選択が行われる直前の状態に戻す ことができる 「戻る」 ポタンを表示し、 ユーザが、 「戻る」 ポタンを操作した 場合には、 信号処理装置 4において、 その状態を、 前回の出力画像の選択が行 われる直前の状態に戻すのが望ましい。 : '
また、 ここでは、 動いているオブジェク トを撮像して得られる画像を入力画 像として用いることとしたが、 その他、 例えば、 手ぶれが生じている画像など のオブジェクトを撮像するセンサ 2を備えるカメラが動いていることによって 動きボケが生じている画像を、 入力画像として用いることが可能である。 入力 画像において手ぶれが生じている場合には、 出力画像として、 その手ぶれを補 正した画像を得ることができる。 従って、 図 1 1 9の信号処理装置 4は、 動き ボケ除去装置や手ぶれ補正装置などとして用いることができる。
次に、 図 1 2 7は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施 の形態の構成例を示している。
図 1 2 7において、 処理領域設定部 11071、 定常性設定部 11072、 実世界推 定部 11073、 画像生成部 11074、 画像表示部 11075、 ユーザ I / F 11076は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I ZF 10006それ ぞれと同様の処理を行う。 さらに、 図 1 2 7において、 実世界推定部 11073 は、 モデル生成部 11081、 方程式生成部 11082、 実世界波形推定部 11083で構 成されている。 モデル生成部 11081、 方程式生成部 11082、 実世界波形推定部 11083は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 但し、 図 1 2 7においては、 ユーザがユーザ I Z F 11076を操作することに より、 ユーザ I / F 11076が出力する補助情報が、 実世界推定部 I IO73にのみ 供給されるようになっている。 即ち、 図 1 27では、 ユーザは、 ユーザ I/F 11076 を操作することにより、 実世界 1の信号の推定に用いるモデルに関するモデル情報を指示することがで きるようになつており、 ユーザ I /F 11076は、 ユーザがモデル情報を指示す る操作を行うと、 その操作によって指示されたモデル情報を表すモデル指示情 報を、 捕助情報として、 実世界推定部 11073に供給する。 さらに、 図 127 では、 画像表示部 11075には、 後述するように、 複数の出力画像が表示され るが、 ユーザは、 ユーザ I /F 11076を操作することにより、 画像表示部 11075に表示された出力画像を選択することができるようになつており、 ユー ザ IZF 11076は、 ユーザが出力画像を選択する操作を行うと、 その操作によ つて選択された出力画像を表す選択情報を、 補助情報として、 実世界推定部部 11073に供給する。
なお、 実世界 1の信号の推定に用いるモデルとしては、 実世界 1の光信号の 波形をモデル化したモデルとしての近似関数 (例えば、 式 (46) に示した多 項式 f 3 (X) (= w0 + W! X + w2 X2 + - ■ ■ +wn xn) など) と、 その近 似関数を用いて、 センサ 2により得られた画像データ内の各画素の画素値と実 世界 1の光信号との関係をモデル化したモデルとしての関数 (式) (例えば、 式 (103) (または式 (104) など) とがある。 ここで、 以下、 適宜、 実 世界 1の光信号の波形をモデル化したモデルを、 近似モデルと、 センサ 2によ り得られた画像データ内の各画素の画素値と実世界 1の光信号との関係をモデ ル化したモデルを、 関係モデルと、 それぞれいう。
モデル指示情報としては、 例えば、 式 (46) に示した多項式である近似関 数 f 3 (x) の次数 nを指示する情報を採用することができる。 また、 近似関 ' 数としては、 多項式の他、 スプライン関数、 三角関数、 シグモイド関数、 ガウ ス関数、 1次関数 (1次式) 、 関数値が一定の関数等の様々な種類の関数を用 いることができるが、 モデル指示情報としては、 実世界 1の信号の推定に用い る近似関数の種類を指示する情報を採用することもできる。 但し、 ここでは、 近似モデルとして、 例えば、 式 (46) に示した多項式の 近似関数 f 3 (x) を採用することとし、 ユーザがユーザ I /F 11076を操作 することにより、 例えば、 式 (46) に示した多項式の近似関数 f 3 (X) の 次数 nを指示する情報が、 モデル指示情報として、 ユーザ I/F 11076から実 世界推定部 11073に供給されるものとする。
次に、 図 1 28のフローチヤ一トを参照して、 図 1 27の信号処理装置 4の 処理について説明する。
図 1 27の信号処理装置 4は、 まず最初に、 ステップ S11101において、 前 処理を行い、 ステップ S11102に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1) からデータ 3として供給される、 例えば 1フレームまたは 1フィール ドの入力画像を、 処理領域設定部 11071、 定常性設定部 11072、 実世界推定部 11073、 画像生成部 11074、 および画像表示部 11075に供給する。 さらに、 信 号処理部 4は、 画像表示部 11075に、 入力画像を表示させる。
ステップ S11102では、 ユーザ I ZF 11076は、 ユーザがユーザ I/F 11076を操作することにより、 モデル指示情報の入力があつたかどうかを判定 する。 ステップ S11102において、 モデル指示情報の入力がなかったと判定さ れた場合、 ステップ S11103に進み、 ユーザ I /F 11076は、 ユーザがユーザ I /F 11076を操作することにより、 信号処理装置 4の処理の終了を指示する 終了指示の入力があつたかどうかを判定する。
ステップ S11103において、 終了指示の入力があつたと判定された場合、 即 ち、 例えば、 画像表示部 11075に表示された入力画像を見たユーザが、 その 入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良い として、 信号処理装置 4の処理を終了するように、 ユーザ I 11076を操作 した場合、 処理を終了する。
また、 ステップ S11103において、 終了指示の入力がなかったと判定された 場合、 ステップ S11102に戻り、 以下、 同様の処理を繰り返す。 一方、 ステップ S 11102において、 モデル指示情報の入力があつたと判定さ れた場合、 即ち、 画像表示部 11075に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 近似モデルとしての近似関数の次数を指示 するように、 ユーザ I Z F 11076を操作した場合、 ステップ S 11104に進み、 ユーザ I Z F 11076は、 ユーザがユーザ I Z F 11076を操作することによって 指示した次数を表すモデル指示情報を、 補助情報として、 実世界推定部 11073 に供給し、 ステップ S11105に進む。
ステップ S 11105では、 処理領域設定部 11071は、 処理領域を設定し、 その 処理領域を表す処理領域情報を、 定常性設定部 11072、 実世界推定部 11073、 および画像生成部 11074に供給し、 ステップ S 11106に進む。 ここで、 ステツ プ S 11105における処理領域の設定は、 ユーザに処理領域指示情報を入力して もらい、 その処理領域指示情報に基づいて行うことも可能であるし、 ユーザか らの処理領域指示情報なしで行うことも可能である。
ステップ S 11106では、 定常性設定部 11072は、 処理領域設定部 11071から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 11072は、 その処理領域の画像データにおいて欠落した実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界推定部 11073に供給して、 ステップ S11107に進む。 ここで、 ステップ S11106にお ける定常性の設定は、 ユーザに定常性指示情報を入力してもらい、 その定常性 指示情報に基づいて行うことも可能であるし、 ユーザからの定常性指示情報な しで行うことも可能である。
ステップ S 11107では、 実世界推定部 11073は、 入力画像における処理領域 内の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実 世界 1の信号を推定する。
即ち、 実世界推定部 11073では、 モデル生成部 11081力 処理領域設定部 11071から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 11072から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の信号の定常性を認識する。 さらに、 モデル 生成部 11081は、 入力画像における処理領域を構成する画素と、 その処理領 域の画像データに対応する実世界 1の信号の定常性に応じて、 処理領域内の各 画素の画素値と実世界 1の信号との関係をモデル化した関係モデルとしての関 数を M通りだけ生成し、 その M通りの関数を、 方程式生成部 11082に供給す る。
ここで、 モデル生成部 11081は、 直前に行われたステップ S11104において ユーザ I Z F 11076から補助情報としてのモデル指示情報が供給された場合は、 そのモデル指示情報を用いて、 M通りの関係モデルとしての関数を生成する。 即ち、 モデル生成部 Ι ΙΟδΙは、 直前に行われたステップ S11104においてユー ザ I Z F 11076から供給されたモデル指示情報が表す次数を含む Μ通りの次数 の多項式を、 近似関数として、 その Μ通りの近似関数を用いた関係モデルであ る Μ通りの関数を生成する。
方程式生成部 11082は、 処理領域設定部 11071から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域の各画素について、 モデル生成部 11081から供給される、 Μ通りの関係モデルとしての関数それ ぞれに、 入力画像の必要な画素の画素値を代入し、 これにより、 実世界 1の信 号を近似する近似関数を求める Μ通りの方程式を生成して、 実世界波形推定部 11083に供給する。
実世界波形推定部 11083は、 方程式生成部 11082から供給される、 Μ通り の方程式を解くことにより、 Μ通りの実世界 1の信号の波形を推定、 即ち、 実 世界 1の信号をモデル化したモデルとしての近似関数を求め、 その Μ通りの近 似関数を、 画像生成部 11074に供給ずる
ステップ S 11107の処理後は、 ステップ S11108に進み、 画像生成部 11074 は、 実世界推定部 11073 (の実世界波形推定部 11083) から供給された Μ通り の近似関数に基づいて、 実世界 1の信号により近似した信号を Μ通りだけ生成 する。 即ち、 画像生成部 11074は、 処理領域設定部 11071から供給される処 理領域情報から、 入力画像における処理領域を認識し、 その処理領域について、 実世界推定部 11073から供給された M通りの近似関数に基づき、 実世界 1の 信号に対応する画像により近似した画像データである近似画像を M通りだけ生 成する。 さらに、 画像生成部 11074は、 入力画像の処理領域の部分を、 M通 りの近似画像にそれぞれ置き換えた M通りの画像を、 出力画像として生成し、 画像表示部 11075に供給して、 ステップ S11108から S11109に進む。
ステップ S 11109では、 画像表示部 11075は、 画像生成部 11074から供給さ れた M通りの出力画像を、 ステップ S 11101で表示された入力画像に代えて、 またはその入力画像とともに表示し、 ステップ S11110に進む。
ステップ S 11110では、 ユーザ I Z F 11076は、 ユーザがユーザ I Z F
11076を操作することにより、 選択情報の入力があつたかどうかを判定する。 即ち、 ステップ S11109では、 画像表示部 11075において、 M通りの出力画像 が表示されるが、 その M通りの出力画像を見たユーザが、 その M通りの出力画 像の中から、 所望の画質の画像または所望の画質に近い画像を選択する選択情 報の入力を、 ユーザ I Z F 11076を操作することにより行ったかどうかが、 ス テツプ S 11110において判定される。
ステップ S 11110において、 選択情報の入力がなかったと判定された場合、 ステップ S11113に進み、 ステップ S11103における場合と同様に、 ユーザ I / F 11076は、 終了指示の入力があつたかどうかを判定する。
ステップ S 11113において、 終了指示の入力があつたと判定された場合、 信 号処理装置 4は、 処理を終了する。
また、 ステップ S11113において、 終了指示の入力がなかったと判定された 場合、 ステップ S11110に戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S 11110において、 選択情報の入力があつたと判定された場 合、 即ち、 画像表示部 11075 に表示された M通りの出力画像を見たユーザが、 その M通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画 像を選択した場合、 ステップ S11111に進み、 ユーザ I Z F 11076は、 ユーザ がユーザ I Z F 11076を操作することにより、 ユーザが選択した出力画像を、 最終的な出力画像として確定する確定指示の入力があつたかどうかを判定する c ステップ S11111において、 確定指示の入力があつたと判定された場合、 ス テツプ S11112に進み、 画像表示部 11075は、 例えば、 その画面全体に、 ユー ザが選択した出力画像を表示し、 処理を終了する。
また、 ステップ S11111において、 確定指示の入力がなかったと判定された 場合、 即ち、 ユーザが、 選択した出力画像の画質に不満があり、 再度処理を行 うために、 確定指示の入力を行わなかった場合、 ステップ S11104に戻り、 ュ 一ザ I Z F 11076は、 ユーザが選択した出力画像を表す選択情報を、 補助情報 として、 実世界推定部 11073に供給し、 ステップ S 11105に進む。
ステップ S 11105では、 処理領域設定部 11071は、 上述した場合と同様に、 処理領域を設定し、 その処理領域を表す処理領域情報を、 定常性設定部 11072、 実世界推定部 11073、 および画像生成部 11074に供給して、 ステップ S 11106 に進む。 ステップ S11106では、 定常性設定部 11072は、 上述した場合と同様 に、 処理領域設定部 11071から供給された処理領域情報から、 入力画像にお ける処理領域を認識するとともに、 その処理領域の画像データにおいて欠落し た実世界 1の信号の定常性を設定し、 その定常性を表す定常性情報を、 実世界 推定部 11073に供給して、 ステップ S11107に進む。
なお、 ステップ S11104乃至 S11113 のループ処理が行われる場合において、 例えば、 2回目以降のステップ S11105で設定される処理領域は、 前回のステ ップ S11105の処理で設定されるものと同一であり、 さらに、 2回目以降のス テツプ S11106で設定される定常性も、 前回のステップ S11106の処理で設定 されるものと同一である。 従って、 ステップ S11104乃至 S1 U13のループ処 理が行われる場合においては、 2回目以降のステップ S11105および S11106 の処理は、 スキップすることができる。 ステップ S 11107では、 実世界推定部 11073は、 入力画像における処理領域 内の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実 世界 1の信号を推定する。
即ち、 実世界推定部 11073では、 モデル生成部 11081力 S、 処理領域設定部 11071から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 11072から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の信号の定常性を認識する。 さらに、 モデル 生成部 11081は、 直前のステップ S11104でユーザ Iノ F 11076から供給され た補助情報としての選択情報に基づいて、 関係モデルとしての関数を、 新たに M通りだけ生成し、 その M通りの関数を、 方程式生成部 11082に供給する。 具体的には、 モデル生成部 11081は、 直前に行われたステップ S 11104にお いてユーザ I Z F 11076から供給された補助情報としての選択情報が表す出力 画像を得るのに用いられた近似関数の次数を含む M通りの次数の多項式を、 近 似関数として、 その M通りの近似関数を用いた関係モデルである M通りの関数 を新たに生成する。
方程式生成部 11082は、 処理領域設定部 11071から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域の各画素について、 モデル生成部 11081から供給きれる、 M通りの関係モデルとしての関数それ ぞれに、 入力画像の必要な画素の画素値を代入し、 これにより、 実世界 1の信 号を近似する近似関数を求める M通りの方程式を新たに生成して、 実世界波形 推定部 11083に供給する。
実世界波形推定部 11083は、 方程式生成部 11082から供給される、 M通り の方程式を解くことにより、 M通りの実世界 1の信号の波形を推定、 即ち、 実 世界 1の信号をモデル化したモデルとしての近似関数を新たに求め、 その M通 りの近似関数を、 画像生成部 11074に供給する。
ステップ S 11107の処理後は、 ステップ S11108に進み、 以下、 同様の処理 が繰り返される。 即ち、 これにより、 ステップ S 11104乃至 S 11113の処理が繰り返され、 最 終的には、 高画質の出力画像が得られる近似関数の次数、 つまりは、 実世界 1 の光信号をより忠実に近似する近似関数の次数が設定され、 その結果、 高画質 の出力画像が得られる。
以上のように、 図 1 2 7の信号処理装置 4でも、 入力画像に対する処理結果 としての M通りの出力画像をユーザに提示し、 その M通りの出力画像の中から ユーザが所望するものを選択してもらい、 その選択結果を踏まえて、 再度処理 を行うようにしたので、 ユーザの好みにあった、 高画質の出力画像を、 容易に 得ることができる。 即ち、 信号処理装置 4は、 入力画像に対する処理結果とし ての M通りの出力画像をユーザに提示する。 一方、 ユーザは、 その M通りの出 力画像それぞれの画質を認識、 判断し、 画質の良い出力画像を、 信号処理装置 4にフィードバックする。 そして、 信号処理装置 4は、 そのユーザからのフィ ードバックを踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返さ れる。 従って、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ること ができる。
なお、 図 1 2 7の信号処理装置 4においては、 M通りの実世界 1の信号の推 定 (M通りの近似関数の算出) のために、 M個の実世界推定部 11073を設け ることが可能である。 さらに、 図 1 2 7の信号処理装置 4においては、 M通り の近似関数から M通りの出力画像を生成するために、 M個の画像生成部 11074 を設けることが可能である。
次に、 図 1 2 9は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施 の形態の構成例を示している。
図 1 2 9において、 処理領域設定部 11091、 定常性設定部 11092、 実世界推 定部 11093、 画像生成部 11094、 画像表示部 11095、 ユーザ Iノ F 110%は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ Iノ F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 2 9において、 実世界推定部 11093 は、 モデル生成部 11101、 方程式生成部 11102、 実世界波形推定部 11103で構 成されている。 モデル生成部 11101、 方程式生成部 11102、 実世界波形推定部 11103は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 図 1 2 9においては、 ユーザがユーザ I / F 11096を操作することにより、 ユーザ I Z F 11096が出力する補助情報としての処理領域指示情報、 定常性指 示情報、 またはモデル指示情報が、 処理領域設定部 11091、 定常性設定部
11092、 または実世界推定部 11093にそれぞれ供給される。
次に、 図 1 3 0および図 1 3 1のフローチヤ一トを参照して、 図 1 2 9の信 号処理装置 4の処理について説明する。
図 1 2 9の信号処理装置 4は、 まず最初に、 ステップ S11121において、 前 処理を行い、 ステップ S 11122に進む。 即ち、 信号処理装置 4は、 センサ 2
(図 1 ) からデータ 3として供給される、 例えば 1フレームまたは 1フィール ドの入力画像を、 処理領域設定部 11091、 定常性設定部 11092、 実世界推定部
11093、 画像生成部 11094、 および画像表示部 11095に供給する。 さらに、 信 号処理部 4は、 画像表示部 11095に、 入力画像を表示させる。
ステップ S 11122では、 ユーザ I Z F 11096は、 ユーザがユーザ I / F
11096を操作することにより、 処理領域指示情報の入力があつたかどうかを判 定する。 ステップ S 11122において、 処理領域指示情報の入力があつたと判定 された場合、 ステップ S11123に進み、 ユーザ I Z F 11096は、 その処理領域 指示情報を、 補助情報として、 処理領域設定部 11091に供給して、 ステップ S11124に進む。
また、 ステップ S 11122において、 処理領域指示情報の入力がなかったと判 定された場合、 ステップ S11123をスキップして、 ステップ S11124に進み、 ユーザ I Z F 11096は、 ユーザがユーザ I / F 11096を操作することにより、 定常性指示情報の入力があつたかどうかを判定する。 ステップ S 11124におい て、 定常性指示情報の入力があつたと判定された場合、 ステップ S11125に進 み、 ユーザ I Z F 11096は、 その定常性指示情報を、 補助情報として、 定常性 設定部 11092に供給して、 ステップ S11126に進む。
また、 ステップ S 11124において、 定常性指示情報の入力がなかったと判定 された場合、 ステップ S 11125をスキップして、 ステップ S11126に進み、 ュ 一ザ I / F 11096は、 ユーザがユーザ I / F 11096を操作することにより、 モ デル指示情報の入力があつたかどうかを判定する。 ステップ S 11126 において、 モデル指示情報の入力があつたと判定された場合、 ステップ S 11127に進み、 ユーザ I Z F 110%は、 そのモデル指示情報を、 補助情報として、 実世界推定 部 11093に供給して、 ステップ S11128に進む。
また、 ステップ Sl l l^において、 モデル指示情報の入力がなかったと判定 された場合、 ステップ S 11127をスキップして、 ステップ S11128に進み、 ュ 一ザ I " F 11096は、 ユーザがユーザ I / F 11096を操作することにより、 信 号処理装置 4の処理の終了を指示する終了指示の入力があつたかどうかを判定 する。
ステップ S11128において、 終了指示の入力があつたと判定された場合、 即 ち、 例えば、 画像表示部 11095に表示された入力画像を見たユーザが、 その 入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良い として、 信号処理装置 4の処理を終了するように、 ユーザ I Z F 11096を操作 した場合、 処理を終了する。
また、 ステップ S11128において、 終了指示の入力がなかったと判定された 場合、 ステップ S11129に進み、 ユーザ I ZF 11096は、 処理領域設定部
11091への処理領域指示情報の供給、 定常性設定部 11092への定常性指示情報 の供給、 および実世界推定部 11093へのモデル指示情報の供給のすべてが行 われたかどうかを判定する。 ステップ S11129において、 処理領域設定部 11091への処理領域指示情報の供給、 定常性設定部 11092への定常性指示情報 の供給、 または実世界推定部 11093へのモデル指示情報の供給のうちのいず れかが行われていないと判定された場合、 即ち、 ユーザが、 補助情報としての 処理領域指示情報、 定常性指示情報、 またはモデル指示情報のうちのいずれか の入力を行っていない場合、 例えば、 画像表示部 11095は、 その入力が行わ れていない情報の入力を促すメッセージの表示を行って、 ステップ S11122に 戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S 11129において、 処理領域設定部 11091への処理領域指示 情報の供給、 定常性設定部 11092への定常性指示情報の供給、 および実世界 推定部 11093へのモデル指示情報の供給のすべてが行われたと判定された場 合、 ステップ S11130に進み、 処理領域設定部 11091は、 ユーザ I Z F 11096 から直前に供給された処理領域指示情報に基づき、 処理領域を設定し、 その処 理領域を表す処理領域情報を、 定常性設定部 11092、 実世界推定部 11093、 お よび画像生成部 11094に供給して、 ステップ S 11131に進む。
ステップ S 11131では、 定常性設定部 11092は、 処理領域設定部 11091から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 11092は、 その処理領域の画像データにおいて欠落した実世界 1の信号の定常性を、 ユーザ I Z F 11096から直前に供給された定常性指示情 報に基づいて設定し、 その定常性を表す定常性情報を、 実世界推定部 11003 に供給して、 ステップ S 11132に進む。
ステップ S 11132では、 実世界推定部 11093は、 入力画像における処理領域 内の画像データについて、 対応する実世界 1の信号の定常性に応じて、 その実 世界 1の信号を推定する。
即ち、 実世界推定部 11093では、 モデル生成部 11101力 処理領域設定部 11091から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 11092から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の信号の定常性を認識する。 さらに、 モデル 生成部 11101は、 入力画像における処理領域を構成する画素と、 その処理領 域の画像データに対応する実世界 1の信号の定常性に応じて、 処理領域内の各 画素の画素値と実世界 1の信号との関係をモデル化した関係モデルとしての関 数を、 ユーザ I Z F 11096から直前に供給されたモデル指示情報に基づいて生 成し、 方程式生成部 11102に供給する。
方程式生成部 11102は、 処理領域設定部 11091から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域の画素について、 モデル生成部 11101から供給される関係モデルとしての関数に、 入力画像の 必要な画素の画素値を代入し、 これにより、 実世界 1の信号を近似する近似関 数を求める方程式を生成して、 実世界波形推定部 11103に供給する。
実世界波形推定部 11103は、 方程式生成部 11102から供給される方程式を 解くことにより、 実世界 1の信号の波形を推定、 即ち、 実世界 1の信号をモデ ル化したモデルどしての近似関数を求め、 画像生成部 11094に供給する。 ステップ S 11132の処理後は、 ステップ S11133に進み、 画像生成部 11094 は、 実世界推定部 11093 (の実世界波形推定部 11103) から供給された近似関 数に基づいて、 実世界 1の信号により近似した信号を生成する。 即ち、 画像生 成部 11094は、 処理領域設定部 11091から供給される処理領域情報から、 入 力画像における処理領域を認識し、 その処理領域について、 実世界推定部 11093から供給された近似関数に基づき、 実世界 1の信号に対応する画像によ り近似した画像データである近似画像を生成する。 さらに、 画像生成部 11094 は、'入力画像の処理領域の部分を、 近似画像に置き換えた画像を、 出力画像と して生成し、 画像表示部 11095に供給して、 ステップ S11133から S 11134に 進む。
ステップ S11134では、 画像表示部 11095は、 画像生成部 11094から供給さ れた出力画像を、 ステップ S 11121で表示された入力画像に代えて、 またはそ の入力画像とともに表示し、 図 1 3 1のステップ S11141に進む。 ステップ S 11 141では、 ユーザ I Z F 11096は、 ステップ S11122における 場合と同様に、 ユーザから処理領域指示情報の入力が新たにあつたかどうかを 判定する。 ステップ S11141において、 処理領域指示情報の入力があつたと判 定された場合、 即ち、 例えば、 直前のステップ S11134で表示された出力画像 を見たユーザが、 その画質に不満を感じ、 その画質改善のために、 ユーザ I Z F 11096を操作して、 処理領域指示情報を、 新たに入力した場合、 ステップ S11142に進み、 ユーザ I / F 11096は、 その処理領域指示情報を、 補助情報 として、 処理領域設定部 11091に供給して、 図 1 3 0のステップ S 11130に戻 る。
この場合、 ステップ S 11130では、 処理領域設定部 11091は、 ユーザ I Z F 11096から直前に供給された処理領域指示情報に基づき、 新たな処理領域を設 定し、 その処理領域を表す処理領域情報を、 定常性設定部 11092、 実世界推定 部 11093、 および画像生成部 11094に供給して、 ステップ S11131乃至
S11133に順次進む。 ステップ S11131乃至 S11133では、 新たな処理領域につ いて、 上述した場合と同様の処理が行われ、 これにより、 新たな出力画像が生 成され、 ステップ S 11134に進む。 ステップ S 11134では、 画像表示部 11095 は、 新たな処理領域について生成された出力画像を表示して、 図 1 3 1のステ ップ S11141に進み、 以下、 同様の処理が繰り返される。
また、 ステップ S 11141において、 処理領域指示情報の入力がなかったと判 定された場合、 ステップ S11142をスキップして、 ステップ S11143に進み、 ユーザ I / F 11096は、 ステップ S11124における場合と同様に、 ユーザから 定常性指示情報の入力が新たにあつたかどうかを判定する。 ステップ S 11143 において、 定常性指示情報の入力があつたと判定された場合、 即ち、 例えば、' 直前のステップ S11134で表示された出力画像を見たユーザが、 その画質に不 満を感じ、 その画質改善のために、 ユーザ I Z F 11096を操作して、 定常性指 示情報を、 新たに入力した場合、 ステップ S11144に進み、 ユーザ I Z F 11096は、 その定常性指示情報を、 補助情報とし X、 定常性設定部 11092に供 給して、 図 1 3 0のステップ S11131に戻る。
この場合、 ステップ S 11131では、 定常性設定部 11092は、 処理領域設定部 11092から前回供給された処理領域情報によつて認識される処理領域の画像デ ータにおいて欠落した実世界 1の信号の定常性を、 ユーザ I Z F 11096から直 前に供給された定常性指示情報に基づいて新たに設定し、 その新たに設定した 定常性を表す定常性情報を、 実世界推定部 11093に供給して、 ステップ S11132, S11133に順次進む。 ステップ S11132, S 11133では、 新たに設定さ れた定常性について、 上述した場合と同様の処理が行われ、 これにより、 新た な出力画像が生成され、 ステップ S11134に進む。 ステップ S 11134では、 画 像表示部 11095は、 新たに設定された定常性について生成された出力画像を 表示して、 図 1 3 1のステップ S 11141に進み、 以下、 同様の処理が繰り返さ れる。
また、 ステップ S 11143において、 定常性指示情報の入力がなかったと判定 された場合、 ステップ S 11144をスキップして、 ステップ S11145に進み、 ュ 一ザ I Z F 11096は、 ステップ S11126における場合と同様に、 ユーザからモ デル指示情報の入力が新たにあつたかどうかを判定する。 ステップ S11145に おいて、 モデル指示情報の入力があつたと判定された場合、 即ち、 例えば、 直 前のステップ S11134で表示された出力画像を見たユーザが、 その画質に不満 を感じ、 その画質改善のために、 ユーザ I Z F 11096を操作して、 モデル指示 情報を、 新たに入力した場合、 ステップ S 11146に進み、 ュ"ザ I Z F I IO は、 そのモデル指示情報を、 補助情報として、 実世界推定部 11093に供給し て、 図 1 3 0のステップ S11132に戻る。
この場合、 ステップ S 11132では、 実世界推定部 11093は、 ユーザ I Z F 11096から直前に供給されたモデル指示情報に基づき、 入力画像における処理 領域内の実世界 1の信号を新たに推定する。 即ち、 実世界推定部 11093では、 モデル生成部 11101力 処理領域設定部 11091から前回供給された処理領域情報によつて認識される処理領域を構成す る画素と、 定常性設定部 111092から前回供給された定常性情報によって認識 される、 処理領域の画像データに対応する実世界 1の信号の定常性に応じて、 処理領域内の各画素の画素値と実世界 1の信号との関係をモデル化した関係モ デルとしての関数を、 ユーザ I Z F 11096から直前に供給されたモデル指示情 報に基づいて新たに生成し、 方程式生成部 11102に供給する。
方程式生成部 11102は、 処理領域設定部 11091から前回供給された処理領 域情報から認識される処理領域の画素について、 モデル生成部 11101から新 たに供給された関係モデルとしての関数に、 入力画像の必要な画素の画素値を 代入し、 これにより、 実世界 1の信号を近似する近似関数を求める方程式を新 たに生成して、 実世界波形推定部 11103に供給する。
ステップ S 11132の処理後は、 ステップ S11133に進み、 画像生成部 11094 は、 実世界推定部 11093 (の実世界波形推定部 11103) から新たに供給された 近似関数に基づいて、 実世界 1の信号により近似した信号を新たに生成する。 即ち、 画像生成部 11094は、 処理領域設定部 11091から前回供給された処理 領域情報から認識される処理領域について、 実世界推定部 11093から新たに 供給された近似関数に基づき、 実世界 1の信号に対応する画像により近似した 画像データである近似画像を生成する。 さらに、 画像生成部 11094は、 入力 画像の処理領域の部分を、 近似画像に置き換えた画像を、 出力画像として新た に生成し、 画像表示部 11095に供給して、 ステップ S11133から S11134に進 む。
ステップ S 11134では、 画像表示部 11095は、 上述したようにして、 新たな 関係モデルとしての関数について生成された出力画像を表示して、 図 1 3 1の ステップ S11141に進み、 以下、 同様の処理が繰り返される。
一方、 ステップ S 11145において、 モデル指示情報の入力がなかったと判定 された場合、 ステップ S 11147に進み、 ユーザ I Z F 11096は、 ユーザがユー ザ I / F 1 1096を操作することにより、 信号処理装置 4の処理の終了を指示す る終了指示の入力があつたかどうかを判定する。
ステップ S 11147において、 終了指示の入力がなかったと判定された場合、 即ち、 例えば、 画像表示部 11095に表示された出力画像を見たユーザが、 そ の出力画像の画質に不満を感じ、 処理領域指示情報、 定常性指示情報、 または モデル指示情報を入力して、 より良い画質の出力画像を得ようとしている場合、 ステップ S11141に戻り、 以下、 同様の処理が繰り返される。
また、 ステップ S11147において、 終了指示の入力があつたと判定された場 合、 即ち、 例えば、 画像表示部 11095 に表示された出力画像を見たユーザが、 その出力画像の画質に満足し、 信号処理装置 4の処理を終了するように、 ユー ザ I Z F 11096を操作した場合、 処理を終了する。
以上のように、 図 1 2 9の信号処理装置 4では、 ユーザからの入力に基づい て、 処理領域と定常性が設定されるとともに、 実世界 1の信号の推定に用いる 関係モデルが生成される。 さらに、 その処理領域、 定常性、 関係モデルを用い て、 実世界 1の信号が推定され、 その実世界 1の信号を用いて、 出力画像が生 成される。 そして、 出力画像がユーザに提示され、 その画質に不満がある場合 にユーザが、 処理領域、 定常性、 または関係モデルを変える入力を行うと、 そ の入力に基づいて、 新たな処理領域、 定常性、 または関係モデルが設定 (生 成) され、 新たな出力画像が生成されることが繰り返される。
即ち、 例えば、 図 1 3 2に示すように、 画像表示部 11095に入力画像が表 示された状態において、 ユーザは、 ポタンや、 つまみ、 マウスで構成されるュ 一ザ I Z F 11096を操作することにより、 画質に不満がある領域を、 処理領域 として指示する。
なお、 ユーザによる処理領域の指示方法としては、 例えば、 ユーザ I / F 11096としてのマウスを操作することによって、 入力画像上の 2点をクリック する方法がある。 この場合、 処理領域設定部 11091では、 例えば、 そのクリ ックされた 2点を対角線とする長方形の領域を、 処理領域として設定する。 また、 ユーザが画質に不満を感じる領域としては、 上述したような時間混合 によって動きボケが生じている領域、 あるいは、 例えば、 センサ 2の空間積分 効果による、 2つの物体に対する信号の空間方向の混合 (空間混合) に起因し て、 解像度が劣化している領域がある。
ここで、 いまの場合、 入力画像において、 例えば、 遠方にあるロープなどの 細い線状の物が表示されており、 そのロープの境界部分において、 ロープと背 景の信号の空間混合が生じているものとし、 ユーザは、 その空間混合によって 解像度が劣化している領域を、 処理領域として指定するものとする。 ユーザが、 入力画像上の 2点をクリックすることにより、 処理領域を指定した場合、 画像 表示部 11095においては、 そのクリックされた 2点を対角線とする長方形の 処理領域を囲む枠を表示 (提示) することができ、 この枠によって、 ユーザは、 適切な処理領域が設定されたかどうかを確認することができる。 なお、 処理領 域は、 入力画像上の 2点をクリックし直すことによって、 指定し直すことがで さる。
さらに、 ユーザは、 例えば、 図 1 3 2に示すように、 ポタンや、 つまみ、 マ ウスで構成されるユーザ I Z F 11096を操作することにより、 処理領域に表示 された画像に対応する実世界 1の定常性を指示する。 この場合、 定常性設定部 11092では、 その指示された定常性が、 そのまま設定される。
なお、 ユーザによる定常性の指示方法としては、 例えば、 ユーザ I Z F 11096としてのつまみを操作することによって、 処理領域に表示された画像に 対応する実世界の定常性の方向を指示する方法がある。 即ち、 いまの場合、 上 述したように、 入力画像には、 ロープなどの細い線状の物が表示されている力 ユーザは、 その線状の物が延びている方向 (線状の物を表す直線の傾き) を、 定常性の方向として指示する。 この場合、 画像表示部 11095においては、 ュ 一ザ I / F 11096としてのつまみの操作に応じて回転する矢印 (の画像) を表 示することができ、 この矢印によって、 ユーザは、 適切な定常性が設定された かどうかを確認することができる。 また、 ユーザは、 ユーザ Iノ F 11096を操作することにより、 実世界 1の信 号の推定に用いるモデルを指示する。 即ち、 いま、 実世界推定部 11093にお いて、 近似関数として、 例えば、 式 (4 6 ) に示した多項式 f 3 ( X ) ( = w 0 + W l x + w2 x 2 + - · ■ + wn x n ) を使用するものとすると、 ユーザは、 ユーザ I / F 11096 を操作することにより、 その近似関数の次数 nを指定する c この場合、 実世界推定部 11093では、 その指示された次数 nの多項式を近似 関数として用いて関係モデルを生成する。
図 1 2 9の信号処理装置 4では、 以上のようにして、 ユーザからの入力に基 づいて得られる処理領域、 定常性、 関係モデルを用いて、 実世界 1の信号が推 定され、 その実世界 1の信号を用いて、 出力画像が生成される。 そして、 出力 画像がユーザに提示され、 その画質に不満がある場合にユーザが、 処理領域、 定常性、 または関係モデルを変える入力を行うと、 その入力が信号処理装置 4 にフィーバックされ、 信号処理装置 4において、 その入力に基づいて得られる 新たな処理領域、 定常性、 または関係モデルを用いて、 新たな出力画像が生成 される。
従って、 ユーザは、 出力画像を見ながら、 ユーザ I Z F 11096を操作するこ とにより、 高画質の出力画像を得ることができる。
次に、 図 1 3 3のフローチヤ一トを参照して、 図 1 2 9の信号処理装置 4に 対して、 例えば、 上述したように、 遠方にあるロープなどの細い線状の物が表 示されており、 そのロープの境界部分において、 ロープと背景の信号の空間混 合が生じている入力画像が入力された場合の実世界推定部 11093による実世 界の推定処理 (図 1 3 0のステップ S11132の処理) と、 画像生成部 11094に よる出力画像の生成処理 (図 1 3 0のステップ S11133の処理) の詳細につい て説明する。
なお、 ここでは、 処理領域設定部 11091 において、 図 1 3 4に示すように、 処理領域として、 入力画像において、 空間混合によって解像度が劣化している 領域が設定され、 その処理領域を表す処理領域情報が出力されているものとす る。 さらに、 定常性設定部 11092では、 図 1 34に示すように、 入力画像に おける線状の物体の定常性が設定され、 その定常性の方向、 即ち、 線状の物体 が延ぴている方向を表す定常性情報が出力されているものとする。 また、 実世 界推定部 11093では、 近似関数として、 例えば、 式 (46) と同様の式 (1 37) に示す多項式 f ( X ) が採用されていることとする。 即ち、 ここでは、 実世界 1の信号の推定にあたり、 第 1の関数近似手法 (1次元近似手法) を採 用することとする。 f (X) = W0+ 1X+W X2+- · . +wnx wnxn
Figure imgf000251_0001
• · · (1 37)
ここで、 式 (1 3 7) において、 xは、 処理領域を構成する画素上の x方向 の位置 (座標) を表し、 wnは、 近似関数 ί ( X ) を特徴づける係数である。 また、 ユーザ I /F 11096から実世界推定部 11093に対しては、 近似関数 f ( X ) の次数 Nを表すモデル指示情報が供給されているものとする。
図 1 33に戻り、 実世界推定部 11096のモデル生成部 11101は、 ステップ S11161において、 ユーザ I /F 11096から供給されるモデル指示情報と、 定 常性設定部 11092から供給される定常性情報に基づき、 関係モデルとしての 関数 (式) を生成する。
即ち、 いまの場合、 モデル生成部 11101は、 式 (1 37) の近似関数 f ( X ) を用いて、 上述の式 (46) と同様の式 (1 38) に示す関係モデルと しての関数を生成する。
Figure imgf000251_0002
= jx (w0+w1x1+w2x2+- · ·+ννηχΝ)ο!χ
Figure imgf000251_0003
(1 3 8) ここで、 式 (138) において、 左辺の変数 Pは、 入力画像を構成する画素 の画素値を表す。
式 (138) の関係モデルは、 センサ 2のある画素において得られる画素値 Pが、 実世界の信号 (を近似するモデル) を表す近似関数 f ( X ) を、 その画 素上の左端の位置 xs から右端の位置 xe までの範囲で積分した値であるとし て、 センサ 2が出力する入力画像の画素の画素値と実世界 1の光信号との関係 をモデル化するものである。
即ち、 1次元近似手法は、 近似モデルの時空間方向 X , y , tにおける、 あ る 1次元方向の位置に対応する各画素の画素値が、 近似モデルを、 その 1次元 方向に積分することにより取得されるとして、 処理領域を構成する画素の画素 値と、 実世界 1の光信号との関係をモデル化するものであり、 式 (138) の 関係モデルでは、 近似モデルの時空間方向 x, y , tにおける X方向の位置に 対応する各画素の画素値が、 近似モデルを、 X方向に積分することにより取得 されるとして、 処理領域を構成する画素の画素値と、 実世界 1の光信号とが関 係付けられている。
なお、 式 (1 38) における近似関数 f ( X ) の次数 Nは、 ユーザ IZF 11096から供給されるモデル指示情報に基づいて決定される。
また、 式 (1 38) において、 積分範囲の始点 xs と終点 xeは、 定常性設 定部 11092から供給される定常性情報に基づいて決定される。 即ち、 ここで は、 積分範囲の始点 xs と終点 xeは、 次式で表される。
xs = x-Cx (y) -0.5
xe = x-Cx (y) +0.5
• • • (139)
なお、 式 (139) において、 画素の x方向および y方向の幅は、 図 82に 示したように、 いずれも 1であるとし、 後述するステップ S11162で設定され る注目画素の中心 (重心) に、 原点 (0, 0) をとるものとする。 また、 式 (139) において、 Cx (y) は、 式 (42) および式 (43) で説明した 場合と同様に、 積分範囲のシフト量を表し、 入力画像において、 線状の物体が 延びている方向が、 X軸とつくる角度を、 6と表すと、 次式で表される。
• · - ( 1 4 0 )
モデル生成部 11101において、 式 (1 4 0 ) の角度 Θは、 定常性情報に基 づいて認識される。
干デル生成部 11101は、 ステップ S11161において、 処理領域設定部 11091 から供給される処理領域情報から特定される処理領域を構成する各画素につい て、 式 (1 3 8 ) で表される関係モデルを生成し、 方程式生成部 11102に供 給して、 ステップ S11162に進む。
ステップ S11162では、 方程式生成部 11102は、 処理領域設定部 11091から 供給される処理領域情報から特定される処理領域を構成する画素の中から、 ま だ注目画素としていないものを、 注目画素として選択し、 ステップ S1 U63に 進む。 ステップ S11163では、 方程式生成部 11102は、 注目画素について、 そ の注目画素で積分された実世界の光信号を表す近似モデルを求めるのにたてる 方程式に用いる入力画像の領域 (以下、 適宜、 方程式領域という) を設定する。 即ち、 方程式生成部 11102 は、 例えば、 入力画像において、 注目画素を含む、 横 (X方向) X縦 (y方向) が x a X y a画素を、 方程式領域に設定する。 こ こで、 方程式領域を構成する横と縦の画素数 x a と y a は、 あらかじめ設定し ておくこともできるし、 ユーザが、 ユーザ I Z F 11096を操作することにより 入力するようにすることもできる。 また、 上述の場合には、 処理領域、 定常性、 または近似モデルが異なる M通りの出力画像を生成するようにしたが、 方程式 領域を構成する横と縦の画素数 x a と y a の組み合わせが異なる M通りの出力 画像を生成するようにすることができる。 この場合、 その M通りの出力画像の 中からユーザが選択したものを、 方程式生成部 11102 にフィードバックして、 新たな M通りの方程式領域を設定し、 その M通りの方程式領域それぞれについ ての出力画像を再度生成するようにすることが可能である。
ステップ S11163の処理後は、 ステップ S11164に進み、 方程式生成部
U102は、 注目画素について生成した式 (1 3 8) の関係モデルに対して、 注 目画素についての方程式領域の各画素の画素値を取得して代入することにより、 注目画素で積分された実世界 1の光信号を表す近似モデルを求める方程式を生 成する。
即ち、 いま、 方程式領域として、 注目画素を中心とする 3 X 3画素の領域を 採用することとする。 さらに、 画素の横および縦の幅がいずれも 1であるとす るとともに、 注目画素の中心位置を原点とする、 図 8 2に示した座標系を導入 し、 方程式領域における 3 X 3画素の各画素値を、 その画素の中心の座標 (χ, y) を用いて、 P (x, y) と表すこととする。 この場合、 注目画素の画素値 は、 P (0, 0) と表される。 また、 注目画素の左下の画素の画素値は、 P
(一 1, - 1) と表され、 注目画素の下の画素の画素値は、 P (0, 一 1) と 表される。 以下、 同様に、 注目画素の右下、 左、 右、 左上、 上、 右上の画素の 画素値は、 それぞれ、 P (1, _ 1) , P (— 1, 0) , P ( 1 , 0) , P
(— 1, 1) , P (0, 1) , P (1, 1 ) と表される。
この場合、 方程式生成部 11102では、 方程式領域の 9画素の画素値を、 式
(1 3 8) の関係モデルに代入することにより、 注目画素について、 式 (1 4 1) に示す 9式からなる方程式が生成される。
r-1-Cx(-1)+0.5
P (- 1,-"= — υ—。.5 f( dX
ρ(ο,-υ
Figure imgf000255_0001
r-1+0.5
P(-1,0) =/_1-05 f(x)dx
J» 0+0.5
0-0.5 f (X) dX
Figure imgf000255_0002
Γ1-0χ(1)+0.5
1) : ) - 0.5 f (X) dX
• · · (14 1)
ここで、 方程式生成部 11102において、 注目画素についてたてられる方程 式の数は、 方程式領域を構成する画素の数に等しい。 従って、 注目画素につい てたてられる方程式を解くことによって求められる式 (1 3 7) の近似関数 f (X) の次数 N (未知数 wnの数) は、 方程式領域を構成する画素の数に制限 される。 逆に言えば、 方程式領域を構成する画素数は、 式 (1 37) の近似関 数 f (x) の次数 Nに応じて決定する必要がある。
方程式生成部 11102は、 注目画素についての方程式を生成すると、 その方 程式を、 実世界波形推定部 11103に供給して、 ステップ S11164から S11165 に進む。
ステップ S11165では、 実世界波形推定部 11103は、 方程式生成部 11102か ら供給された注目画素についての方程式を、 例えば、 最小自乗法などによって 0
254
解くことにより、 注目画素で積分された実世界 1の光信号の波形を推定する。 即ち、 ステップ S11165において、 実世界波形推定部 11103は、 方程式生成部 11102から供給された注目画素についての方程式を解くことにより、 式 (1 3 7) の近似関数 f ( X ) を規定するパラメータとしての変数 wn を求め、 これ により、 その変数 wnで規定される近似関数 f ( X ) を求める (特定する) 。 実世界波形推定部 11103は、 注目画素について求められた近似関数 f
(x) を、 画像生成部 11094に供給して、 ステップ S11165から Slll66に進 む。
ステップ S11166では、 方程式生成部 11102は、 処理領域設定部 11091から 供給された処理領域情報から特定される処理領域を構成するすべての画素を、 注目画素としたかどうかを判定する。 ステップ S11166において、 処理領域を 構成するすべての画素を、 まだ、 注目画素としていないと判定された場合、 ス テツプ S11162に戻り、 方程式生成部 11102は、 処理領域を構成する画素の中 から、 まだ注目画素としていないものの 1つを、 注目画素として新たに選択し、 以下、 同様の処理が繰り返される。
ここで、 以上のステップ S11161乃至 S11166の処理が、 図 1 30のステツ プ S 11132 (実世界の推定) で行われる。
—方、 ステップ S11166において、 処理領域を構成するすべての画素が、 注 目画素とされたと判定された場合、 ステップ S11167に進み、 画像生成部 11094は、 処理領域設定部 11091から供給された処理領域情報から特定される 処理領域を構成する画素の中から、 まだ、 注目画素としていないものの 1つを、 注目画素として選択し、 ステップ S1U68に進む。
ステップ S11168では、 画像生成部 11094は、 実世界波形推定部 11103から 供給された近似関数のうちの、 注目画素についての近似関数 (以下、 適宜、 注 目近似関数という) ί ( χ ) を、 式 (1 38) の関係モデルと同様の式 (14 2) にしたがって、 X方向に積分 (再積分) することにより、 注目画素につい て、 高画質の画素値 Qを求める。
Figure imgf000257_0001
• · · (142)
但し、 式 (142) において、 Gは、 所定のゲインを表す。 また、 式 (14 2) において、 積分範囲の始点 xs と終点 xeは、 定常性設定部 11092から供 給される定常性情報に基づいて決定される。 即ち、 ここでは、 積分範囲の始点 xs と終点 xe は、 例えば、 式 (1 3 9) と同一の次式で表される。
xs = x-Cx(y)-0.5
xe = x-Cx(y) +0.5
■ · · (143) '
その後、 ステップ S11168から S11169に進み、 画像生成部 11094は、 処理 領域を構成するすべての画素を注目画素としたかどうかを判定する。 ステップ S11169において、 処理領域を構成するすべての画素を、 まだ注目画素として いないと判定された場合、 ステップ S11167に戻り、 画像生成部 11094は、 処 理領域構成する画素のうちの、 まだ注目画素としていないものの 1つを、 新た に、 注目画素として選択し、 以下、 同様の処理を繰り返す。
また、 ステップ S11169において、 処理領域を構成するすべての画素を注目 画素としたと判定された場合、 即ち、 処理領域について、 高画質の画素値から なる画像 (近似画像) が生成された場合、 ステップ S11170に進み、 画像生成 部 11094 は、 入力画像と、 近似関数に基づいて生成した近似画像とを合成し、 これにより、 入力画像の処理領域の部分を、 近似画像に置き換えた画像を生成 し、 その画像を、 出力画像として画像表示部 10005に供給して、 処理を終了 する。
ここで、 以上のステップ S11167乃至 S11170の処理が、 図 1 30のステツ プ S 11133 (出力画像の生成) で行われる。
なお、 式 (143) に示した積分範囲の始点 xs と終点 xe によれば、 処理 領域の 1画素を、 近似画像の 1画素として、 その 1画素の画素値 Qが、 式 (1 4 2) の再積分を行うことによって求められる。 従って、 この場合、 処理領域 の画素数と同一の近似画像が生成されるが、 近似画像としては、 処理領域より も画素数の多い画像を得ることが可能である。
即ち、 画像生成部 11094において、 積分範囲の始点 xs と終点 xe として、 式 (1 44) および式 (1 4 5) を採用して、 式 (1 4 2) の再積分の計算を 行うことにより、 X方向の画素数が処理領域の 2倍になった近似画像を得るこ とができる。
xs = x-Cx (y) -0.5
xe = x-Cx (y)
- - · ( 1 44)
xs = x-Cx(y)
xe = x-Cx (y) +0.5
• · · ( 1 4 5)
ここで、 式 (1 44) と式 (1 4 5) で表される積分範囲は、 式 (1 4 3) で表される積分範囲を 2等分したものとなっている。 従って、 式 (1 44) と 式 (1 4 5) で表される積分範囲を採用した場合には、 処理領域の 1画素を、 近似画像の 2画素として、 その 2画素の画素値 Qが、 式 (1 4 2) の再積分を、 式 (1 44) と式 (1 4 5) で表される積分範囲それぞれについて行うことに よって求められる。
即ち、 式 (1 44) の積分範囲は、 処理領域における注目画素の左端の位置 xsから中心までの範囲を表しており、 式 (1 4 5) の積分範囲は、 処理領域 における注目画素の中心から右端の位置 xeまでの範囲を表している。
従って、 例えば、 いま、 注目画素を、 その中心から左側と右側に分割し、 そ の左側と右側の画素を、 それぞれ第 1注目画素と第 2注目画素というものとす ると、 式 (1 4 2) の再積分を、 式 (1 44) で表される積分範囲について行 うことにより、 第 1注目画素の画素値が求められ、 式 (1 4 5) で表される積 分範囲について行うことにより、 第 2注目画素の画素値が求められる。 この場 合、 X方向の空間解像度が向上した高画質の近似画像を得ることができる。 なお、 式 (1 4 2 ) の再積分の積分範囲は、 式 (1 4 3 ) や、 式 (1 4 4 ) および式 (1 4 5 ) に示したものに限定されるものではない。
また、 式 (1 4 4 ) および式 (1 4 5 ) に示した積分範囲は、 注目画素を 2 分割するものであるが、 注目画素を、 より細かく分割する積分範囲を採用する ことにより、 より空間解像度が向上した高画質の近似画像を得ることができる。 なお、 注目画素を、 より細かく分割する場合、 近似画像を構成する画素数が増 加することとなるが、 このことは、 空間解像度の向上や、 高倍率でのズームの 実現を可能にする。 ·
ここで、 図 1 3 3のフローチャートに示したような、 実世界の推定処理と出 力画像の生成処理を、 以下、 適宜、 両方まとめて、 本処理という。
本処理によれば、 時間混合や空間混合により劣化した入力画像の画質を向上 させた出力画像を得ることができる。
即ち、 例えば、 いま、 空間混合について説明すれば、 実世界 1の光信号は、 図 1 3 5 Aに示すように、 前景 (例えば、 細線など) に対応する光信号 (図中 白色で示す部分) と、 背景に対応する光信号 (図中黒色で示す部分) に明確に 区分することができる。
センサ 2としてのイメージセンサの画素上に、 実世界 1の光信号の同一レべ ルの部分が一様に分布せず、 前景と背景のように異なるレベルの光信号それぞ れが分布する場合、 その画素では、 センサ 2の積分効果により、 異なる光のレ ベルがあたかも空間的に混合されて (空間方向に積分されて) 、 1つの画素値 とされる。 このように、 センサ 2の画素において、 実世界 1の光信号のうちの 前景の部分と背景の部分のように、 異なるレベルの部分が、 空間的に積分され ることにより混合される現象が空間混合である。
センサ 2から出力される入力画像は、 そのセンサ 2を構成する、 ある有限の 大きさを有する画素において、 実世界 1の光信号が積分され、 さらに有限の大 きさの画素で量子化されることにより得られる画素値で構成されるため、 例え ば、 図 1 3 5 Bに示すように、 空間混合と量子化により歪んだものとなる。 そこで、 本処理では、 入力画像における処理領域に対応する実世界 1の信号 の定常性に基づき、 その実世界 1の信号が推定され、 その推定された実世界 1 の信号を用いて、 入力画像における歪みを除去 (低減) した近似画像が生成さ れる。
即ち、 例えば、 1次元近似手法を採用する本処理では、 定常性情報に基づき、 関係モデルが生成され、 処理領域における注目画素の周辺にある xa X ya画 素でなる領域が、 方程式領域とされる。 さらに、 関係モデルに、 方程式領域の 画素の画素値が代入されることにより、 注目画素における実世界 1の光信号の 近似モデル f ( X ) を求めるための方程式が生成される。 そして、 その方程式 を解くことで、 注目画素における実世界 1の光信号を表す近似モデル f ( χ ) が求められ、 その近似モデル f (x) を再積分することにより、 高画質の近似 画像が求められる。
具体的には、 例えば、 図 1 36Aに示すように、 入力画像において、 注目画 素の周辺にある xa X ya画素でなる領域 (図 1 36 Aでは、 3 X 3画素の領 域) 力 方程式領域とされる。 ここで、 図 1 36 Aでは、 横方向に X軸を、 奥 行き方向に y軸をそれぞれとるとともに、 縦方向に画素値 (のレベル) をとつ て、 センサ 2の各位置 (x, y) の画素の画素値を表している。 図 1 36Aに おいて、 画素値が直方体で表されているが、 この直方体の底面は、 センサ 2の 画素に相当する。
本処理では、 さらに、 図 1 36 Bに示すような、 方程式領域の各画素の画素 値が取得される。 ここで、 図 1 36 Bでは、 横方向に X軸をとるとともに、 縦 方向に画素値をとつて、 方程式領域の各画素の画素値を表している。 後述する 図 1 3 6 Cおよび図 1 3 6 Dにおいても、 同様である。
そして、 本処理では、 関係モデルに、 方程式領域の各画素の画素値を代入す ることにより、 方程式が生成され、 さらに、 その方程式を解くことにより、 注 目画素における実世界 1の光信号を表す近似モデル f ( X ) が求められるが、 これは、 次のようなことを行っているのと等価である。
即ち、 図 1 36 Bに示した方程式領域の各位置 (X , y) の画素の画素値を、 定常性情報にしたがい、 図 1 36 Cに示すように、 X軸方向にシフトする。 こ こで、 定常性情報が、 図 1 3 5 Aおよぴ図 1 35 Bで説明したような前景とし ての細線が延びる方向を表すものとすると、 実世界 1の光信号の波形は、 上述 の X断面波形が、 定常性情報が表す方向に続いていった波形として表される。 従って、 実世界 1の光信号を表す近似モデル f (x) を精度良く推定するには、 図 9 1およぴ図 92で説明したように、 方程式領域の各位置 (X , y) の画素 の画素値も、 定常性情報が表す方向にしたがって、 X軸方向にシフトし、 これ により、 いわば実世界 1の光信号の波形の位相と、 その実世界 1の光信号を積 分して得られる、 方程式領域の各画素の画素値の位相とを一致させる必要があ る。 図 1 3 6 Cは、 実世界 1の光信号の波形と、 位相を一致させた、 方程式領 域の各画素の画素値を示している。
なお、 方程式領域の各画素の画素値の位相を、 実世界 1の光信号の波形の位 相と一致させることは、 式 (1 3 9) で表される、 式 (1 38) の積分範囲の 始点 xs と終点 xe を、 定常性情報が表す方向としての角度 Θを用いて式 (1 40) によって表されるシフト量 Cx (y ) に応じてシフトさせることに相当 する。
方程式領域の各画素では、 実世界 1の光信号が積分されて、 その画素値が得 られる。 従って、 上述のように、 位相を、 実世界 1の光信号の波形の位相と一 致させた方程式領域の各画素の画素値は、 図 1 3 6 Dに示すように、 実世界 1 · の光信号の波形を近似している。
そこで、 位相を、 実世界 1の光信号の波形の位相と一致させた方程式領域の 各画素の画素値を近似する、 例えば式 (1 3 7) の多項式が、 実世界 1の光信 号を表す近似モデル f ( X ) として求められる。 そして、 近似画像の生成時においては、 図 1 3 6 Eに示すように、 近似モデ ル f ( x ) を、 X断面波形として、 その X断面波形が定常性情報によって表さ れる方向に続いていった波形が、 実世界 1の光信号の推定波形として、 その推 定波形を再積分することにより、 近似画像の画素の画素値が求められる。 ここ で、 図 1 3 6 Eでは、 横方向に X軸を、 奥行き方向に y軸をそれぞれとるとと もに、 縦方向に実世界 1の光信号のレベルをとつて、 センサ 2の各位置 (X , y ) における実世界 1の光信号のレベルを表している。 図 1 3 6 Eにおいては、 図 1 3 6 Aと異なり、 レベル (画素値) が連続量で表されているが、 これは、 実世界 1の光信号が連続量であるからである。
なお、 上述の場合には、 近似モデルの時空間方向における X方向の位置に対 応する各画素の画素値が近似モデルを X方向に積分することにより取得される として、 処理領域の各画素の画素値と実世界 1の光信号との関係をモデル化し た関係モデルを採用し、 1次元近似手法によって、 実世界 1の光信号を推定す るようにしたが、 その他、 上述した 2次元近似手法や 3次元近似手法によって、 実世界 1の光信号を推定することが可能である。
即ち、 実世界 1の光信号の推定にあたっては、 近似モデルの時空間方向にお ける Xと y方向の位置に対応する各画素の画素値が近似モデルを Xと y方向そ れぞれに積分することにより取得されるとして、 処理領域の各画素の画素値と 実世界 1の光信号との関係をモデル化した関係モデルを採用することや、 近似 モデルの時空間方向における χ· (または y ) と t方向の位置に対応する各画素 の画素値が近似モデルを Xと t方向それぞれに積分することにより取得される として、 処理領域の各画素の画素値と実世界 1の光信号との関係をモデル化し た関係モデルを採用することが可能である。
さらに、 実世界 1の光信号の推定にあたっては、 近似モデルの時空間方向に おける X , y , t方向の位置に対応する各画素の画素値が近似モデルを x, y , t方向それぞれに積分することにより取得されるとして、 処理領域の各画素の 画素値と実世界 1の光信号との関係をモデル化した関係モデルを採用すること も可能である。
ここで、 近似モデルの積分方向として、 空間方向 (X , y方向) を考慮した 場合には、 空間混合により劣化した画質を向上させることができ、 時間方向 ( t方向) を考慮した場合には、 時間混合により劣化した画質を向上させるこ とができる。 さらに、 近似モデルの積分方向として、 時空間方向 (空間方向と 時間方向の両方) を考慮した場合には、 空間混合と時間混合の両方により劣化 した画質を向上させることができる。
次に、 図 1 2 2の動き検出部 11062における動きの検出方法について説明 する。
入力画像におけるあるオブジェク トが動いている場合の、 そのオブジェク ト の動きとしての、 例えば動きベク トルを検出する方法としては、 いわゆるプロ ックマッチング法が知られている。
しかしながら、 ブロックマッチング法では、 注目しているフレームと、 その 前または後のフレームとのマッチングを行うため、 注目している 1フレームだ けから動きを検出することは困難である。
そこで、 動き検出部 11062では、 1フレームの入力画像だけから、 動きの 検出を行うことができるようになつている。
即ち、 図 1 3 7は、 図 1 2 2の動き検出部 11062の構成例を示している。 図 1 3 7で構成が示される動き検出部 11062においては、 入力画像の中の 処理領域におけるォブジェクトの動き方向が検出され、 動き方向が水平方向に なるように入力画像が捕正される。 そして、 動き方向に隣接する画素の画素値' の差分値である、 入力画像のォブジェク トの動き方向に一次微分した特徴量が 検出される。
さらに、 注目している画素の特徴量と動き方向に所定の距離の対応画素の特 徴量との相関が検出され、 検出された相関が最大である対応画素と注目画素と の距離に応じてオブジェク トの動き量が検出される。 すなわち、 図 1 3 7で構成が示される動き検出部 11062は、 動き方向検出 部 11201、 動き方向修正部 11202、 特徴量検出部 11203、 および動き量検出部 11204を含む。
さらに、 動き方向検出部 11201は、 アクティビティ演算部 11211およびァ クテイビティ評価部 11212を含む。 動き方向修正部 11202は、 ァフィン変換 部 11213を含む。
特徴量検出部 11203は、 差分演算部 11214、 差分評価部 11215、 中間画像作 成部 11216、 中間画像作成部 11217、 フレームメモリ 11218、 符号反転部 11219、 およびフレームメモリ 1 1220を含む。
さらに、 動き量検出部 11204は、 相関検出部 11221および相関評価部 11222を含む。
図 1 3 7で構成が示される動き検出部 11062において、 図 1 2 2の画像メ モリ 11061に記憶された入力画像は、 動き方向検出部 11201および動き方向 修正部 11202に供給される。 さらに、 図 1 1 9の処理領域設定部 11041が出 力する処理領域情報も、 動き方向検出部 1 1201および動き方向修正部 11202 に供給される。
動き方向検出部 11201は、 入力画像と処理領域情報を取得して、 取得した 入力画像から処理領域における動き方向を検出する。
動いている対象物を撮像したとき、 対象物の画像には動きボケが生じる。 こ れは、 対象物の画像を撮像するセンサ 2どしてのカメラまたはビデオカメラの イメージセンサの働きによるものである。
すなわち、 CCD (Charge Coupled Device) または CMOS (Complementary Metal-Oxi de Semiconductor) センサなどのイメージセンサは、 露光時間 (シャツタ時間) において、 画素毎に入射された光を連続的に電荷に変換し、 さらに電荷を 1つの画像値に変換する。 撮像の対象物が静止しているとき、 露 光している期間において、 対象物の同じ部位の画像 (光) が 1つの画素値に変 換される。 このように撮像された画像には、 動きボケは含まれていない。 これに対して、 対象物が動いているとき、 露光している期間において、 1つ の画素に入射される対象物の部位の画像が変化し、 対象物の異なる部位の画像 が 1つの画素値に変換されてしまう。 逆に言えば、 対象物の 1つの部位の画像 が複数の画素値に射影される。 これが動きボケである。
動きボケは、 対象物の動き方向に生じる。
動きボケが生じている部分 (動きボケを含む領域) の動き方向に並んでいる 画素の画素値のそれぞれに注目すると、 動き方向に並んでいる画素の画素値に は、 対象物のほぼ同じ範囲の部位の画像が射影されている。 従って、 動きボケ が生じている部分の、 動き方向に並んでいる画素の画素値の変化は、 より少な くなつていると言える。
動き方向検出部 11201は、 このような入力画像の処理領域における画素の 画素値の変化、 すなわちアクティビティを基に、 動き方向を検出する。
より具体的には、 動き方向検出部 11201 のアクティビティ演算部 11211 は、 予め定めた方向毎に、 各方向に並んでいる画素の画素値の変化 (ァクティビテ ィ) を演算する。 例えば、 アクティビティ演算部 11211は、 予め定めた方向 毎に、 各方向に対応して位置する画素の画素値の差分をアクティビティとして 演算する。 アクティビティ演算部 11211は、 演算した画素値の変化を示す情 報をァクティビティ評価部 11212に供給する。
ァクティビティ評価部 11212は、 アクティビティ演算部 11211から供給さ れた、 予め定めた方向毎の画素の画素値の変化の中の、 最小の画素値の変化を 選択し、 選択した画素値の変化に対応する方向を動き方向とする。
動き方向検出部 11201は、 このように検出した動き方向を示す動き方向情 ' 報を動き方向修正部 11202に供給する。
動き方向修正部 11202には、 処理領域情報も供給される。 動き方向修正部 11202は、 動き方向検出部 11201から供給された動き方向情報を基に、 動き方 向が画像の水平方向となるように入力画像における処理領域の中の画像データ を変換する。 例えば、 動き方向修正部 11202のァフィン変換部 11213は、 動き方向検出 部 11201から供給された動き方向情報を基に、 動き方向情報で示される動き 方向が画像の水平方向となるように入力画像における処理領域の中の画像デー タをァフィン変換する。
動き方向修正部 11202は、 動き方向が画像の水平方向となるように変換さ れた入力画像における処理領域の中の画像データを特徴量検出部 11203に供 給する。
特徴量検出部 11203は、 動き方向修正部 11202から供給された画像の特徴 量を検出する。
すなわち、 特徴量検出部 11203の差分演算部 11214は、 入力画像の処理領 域の画素から 1つの画素を選択することにより、 注目している注目画素とする。 そして、 特徴量検出部 1 1203 の差分演算部 11214 は、 注目画素の画素値から、 注目画素の右隣の画素の画素値を引き算することにより差分値を求める。
差分演算部 11214は、 入力画像の処理領域の画素を順に注目画素として、 差分値を求める。 すなわち、 差分演算部 11214は、 入力画像の処理領域の全 ての画素に対して、 差分値を求める。 差分演算部 11214は、 差分値に対応す る注目画素の位置を示す情報 (差分値の画面上の位置を示す位置情報) と共に、 このように演算された差分値を差分評価部 11215に供給する。
差分評価部 11215は、 差分値が 0以上であるか否かを判定し、 ◦以上であ る差分値を、 差分値の画面上に位置を示す位置情報と共に、 中間画像作成部 11216に供給し、 0未満である差分値を、 差分値の画面上の位置を示す位置情 報と共に、 中間画像作成部 11217に供給する。
中間画像作成部 11216は、 差分値の画面上に位置を示す位置情報と共に、 差分評価部 11215から供給された 0以上である差分値を基に、 差分値からな る中間画像を作成する。 すなわち、 中間画像作成部 11216は、 位置情報で示 される画面上の位置の画素に、 差分評価部 11215から差分値が供給された 0 以上である差分値を設定し、 差分評価部 11215から差分値が供給されなかつ た位置の画素に 0を設定して、 中間画像を作成する。 中間画像作成部 11216 は、 このように作成した中間画像 (以下、 非反転中間画像と称する。 ) をフレ ームメモリ 11218に供給する。
中間画像作成部 11217は、 差分値の画面上に位置を示す位置情報と共に、 差分評価部 11215から供給された 0未満 (負の値) である差分値を基に、 差 分値からなる中間画像を作成する。 すなわち、 中間画像作成部 11217は、 位 置情報で示される画面上の位置の画素に、 差分評価部 11215から差分値が供 給された 0未満である差分値を設定し、 差分評価部 11215から差分値が供給 されなかった位置の画素に 0を設定して、 中間画像を作成する。 中間画像作成 部 11216は、 このように作成した中間画像を符号反転部 11219に供給する。 符号反転部 11219は、 中間画像作成部 11217から供給された中間画像の画 素に設定されている、 0未満である差分値の符号を反転する。 中間画像の画素 に設定されている 0である値の符号は、 反転されない。 すなわち、 符号反転部 11219は、 中間画像作成部 11217から供給された中間画像の画素に設定されて いる、 0未満である差分値を選択し、 選択した 0未満である差分値を、 差分値 と同じ絶対値の 0を超える値に変換する。 例えば、 一 1 5である差分値は、 符 号が反転され、 1 5に変換される。 符号反転部 11219は、 このように符号が 反転された中間画像 (以下、 反転中間画像と称する。 ) をフレームメモリ 11220に供給する。
フレームメモリ 11218は、 0以上である差分値と 0とからなる非反転中間 画像を、 特徴量として動き量検出部 11204に供給する。 フレームメモリ 11220 は、 符号が反転され 0を超える値とされた差分値と 0とからなる反転中間画像 を、 '特徴量として動き量検出部 11204に供給する。
動き量検出部 11204 は、 特徴量検出部 11203 から供給された特徴量を基に、 動きを検出する。 すなわち、 動き量検出部 11204は、 入力画像の処理領域に おける対象物の画像 (オブジェク ト) の画素の中の少なくとも注目画素の特徴 と、 注目画素に対して動き方向に沿って配される対応画素の特徴との相関を検 出し、 検出された相関に応じて、 入力画像の処理領域における対象物の画像 (オブジェク ト) の動き量を検出する。
動き量検出部 11204の相関検出部 11221は、 特徴量検出部 11203のフレー ムメモリ 11218から供給された、 特徴量としての、 非反転中間画像と、 特徴 量検出部 11203のフレームメモリ 11220から供給された、 特徴量としての、 反転中間画像との相関を検出する。 相関検出部 11221は、 検出された相関を 相関評価部 11222に供給する。
より詳細に説明すれば、 例えば、 動き量検出部 11204の相関検出部 11221 は、 特徴量検出部 11203のフレームメモリ 11218から供給された、 0以上で ある差分値と 0とからなる非反転中間画像に対して、 特徴量検出部 11203の フレームメモリ 11220から供給された、 符号が反転され 0を超える値とされ た差分値と 0とからなる反転中間画像を、 画素を単位として、 画面の水平方向 に移動させる (ずらす (シフトさせる) ) 。 すなわち、 相関検出部 11221 は、 反転中間画像を構成する画素の画面上の位置を水平方向に移動させる。
反転中間画像 (の画素) を、 画面上の水平方向に移動させることによって、 非反転中間画像の画素と、 反転中間画像の画素との画面上の位置の関係が変化 する。 例えば、 移動前に、 非反転中間画像の注目画素に対応する画面上の位置 にある、 反転中間画像の対応画素は、 移動後において、 移動量だけ、 非反転中 間画像の注目画素に対応する位置から離れることになる。 より具体的には、 反 転中間画像を右に 2 0画素移動したとき、 反転中間画像の対応画素は、 非反転 中間画像の注目画素に対応する位置から右に 2 0画素離れる。 逆に言えば、 移 動後に、 非反転中間画像の注目画素に対応する画面上の位置にある、 反転中間 画像の対応画素は、 移動前において、 注目画素に対応する位置から移動量だけ 離れている。
相関検出部 11221は、 非反転中間画像と、 移動された反転中間画像との、 対応する位置の画素の画素値の差分を演算し、 差分の絶対値の和を相関値とす る。 例えば、 相関検出部 11221 は、 非反転中間画像に対して、 反転中間画像を、 画面の左方向に 7 0画素乃至画面の右方向に 7 0画素の範囲で、 1画素ずつ画 面の水平方向に移動させ (ずらして) 、 移動させた位置毎 (移動量毎) に、 非 反転中間画像および移動された反転中間画像について、 画面上の同じ位置とな る画素の画素値の差分を演算し、 差分の絶対値の和を相関値とする。
例えば、 非反転中間画像に対して反転中間画像を、 画面の左方向に移動する とき、 移動量を負 (マイナス) で表す。 非反転中間画像に対して反転中間画像 を、 画面の右方向に移動するとき、 移動量を正 (プラス) で表す。 相関検出部 11221は、 一 7 0画素乃至 + 7 0画素の移動量毎に、 非反転中間画像おょぴ移 動された反転中間画像について、 画面上の同じ位置となる画素の画素値の差分 を演算し、 差分の絶対値の和を相関値とする。
相関検出部 11221は、 移動量に対応する相関値を相関評価部 11222に供給 する。 すなわち、 相関検出部 11221は、 移動量と相関値との組を相関評価部 11222に供給する。
相関評価部 11222は、 相関に応じて、 入力画像の処理領域における対象物 の画像の動き量を検出する。 具体的には、 相関評価部 11222は、 相関検出部 11221から供給された相関のうち、 最大の (最も強い) 相関に対応する移動量 を動き量とする。
例えば、 相関評価部 11222は、 相関検出部 11221から供給された相関値で ある、 差分の絶対値の和の内、 最小の値を選択し、 選択された最小の値に対応 する移動量を動き量に設定する。
相関評価部 11222は、 検出された動き量を出力する。
図 1 3 8乃至図 1 4 0は、 図 1 3 7の動き検出部 11062による動き検出の' 原理を説明する図である。
いま、 撮像の対象物である、 白い前景ォブジュタトが、 他の撮像の対象物で ある、 黒い背景オブジェクトの前 (手前) に配置され、 左側から右側に移動レ ており、 CCDまたは CMOSセンサなどのイメージセンサを有するカメラが、 所 定の露光時間 (シャツタ時間) で、 背景オブジェク トと共に、 前景オブジェク トを撮像するものとする。
この場合にカメラが出力する画像の 1フレームに注目すると、 背景オブジェ クトは、 黒いので、 例えば、 カメラは、 背景オブジェクトの画像に対して 0で ある画素値を出力する。 前景オブジェクトは、 白いので、 例えば、 カメラは、 前景オブジェクトの画像に対して 2 5 5である画素値を出力する。 なお、 ここ では、 カメラが、 0乃至 2 8— 1の範囲の画素値を出力するものであるとする。 図 1 3 8上側の図は、 カメラのシャツタが開いた瞬間 (露光を開始した瞬 間) における位置に、 前景オブジェクトが静止しているとき、 カメラが出力す る画像の画素値を示す図である。
図 1 3 8下側の図は、 カメラのシャツタが閉じる瞬間 (露光を終了する瞬 間) における位置に、 前景オブジェクトが静止しているとき、 カメラが出力す る画像の画素値を示す図である。
図 1 3 8で示されるように、 前景オブジェクトの画像の動き量は、 カメラの シャツタが開いた瞬間から、 カメラのシャツタが閉じる瞬間までに、 前景ォプ ジェク トの画像が移動した距離である。
図1 3 9は、 背景オブジェクトの前を移動する前景ォブジェクトをカメラで 撮像したときに、 カメラから出力される画像の画素値を示す図である。 カメラ のイメージセンサは、 露光時間 (シャツタ時間) において、 画素毎に対象物の 画像 (光) を連続的に電荷に変換し、 さらに電荷を 1つの画像値に変換するの で、 前景オブジェク ト 11251の画像は、 複数の画素の画素値に射影される。 図 1 3 8で示される画像の画素値の最大値に比較して、 図 1 3 9で示される画 像の画素値の最大値は小さくなる。
図 1 3 9で示される画素値のスロープの幅は、 背景オブジェクトの画像の幅 に対応する。 図 1 3 9で示される画像の個々の画素について、 右隣の画素との差分値を計 算し、 差分値を画素に設定すると、 図 1 4 0に示される、 差分値からなる画像 が得られる。
すなわち、 図 1 3 9で示される画像の画素から 1つの画素が選択され、 注目 している注目画素とされる。 そして、 注目画素の画素値から、 注目画素の右隣 の画素の画素値が引き算されることにより差分値が求められる。 差分値は、 注 目画素に対応する位置の画素に設定される。 図 1 3 9で示される画像の画素が 順に注目画素とされ、 図 1 4 0で示される差分値からなる画像が求められる。 図 1 3 8上側の図で示される、 カメラのシャツタが開いた瞬間における、 前 景オブジェクトの位置に対して 1画素左側に、 符号が負 (マイナス) である差 分値が現れ、 図 1 3 8下側の図で示される、 カメラのシャツタが閉じる瞬間に おける、 前景オブジェク トの位置に対して 1画素左側に、 符号が正 (プラス) である差分値が現れる。
従って、 図 1 4 0で示される、 符号が負 (マイナス) である差分値の符号を 反転した値と、 符号が正 (プラス) である差分値とのマッチングをとると、 例 えば、 マッチングしたときの、 符号が正 (プラス) である差分値を基準とした、 符号が負 (マイナス) である差分値の符号を反転した値の移動量は、 動き量と 同じである。
例えば、 符号が正 (プラス) である差分値を基準として、 符号が負 (マイナ ス) である差分値の符号を反転した値が水平方向に移動され、 その移動量毎に、 負である差分値を反転した値と正である差分値との相関が検出され、 最大の
(最も強い) 相関が検出される。 最大の相関が検出されたときの移動量は、 動 き量と同じである。
より具体的には、 例えば、 符号が正 (プラス) である差分値を基準として、 符号が負 (マイナス) である差分値の符号を反転した値が水平方向に移動され、 その移動量毎に、 負である差分値を反転した値と正である差分値との相関とし て、 画素毎に、 反転した値から正の差分値が引き算される。 そして、 引き算し た結果の内の最小の値、 すなわち最大の相関が検出される。 検出された最大の 相関に対応する移動量は、 動き量と同じである。
以上のように、 画像の 1フレームから、 露光時間 (シャツタ時間) において、 対象物の画像が移動した量である動き量を検出することができる。
すなわち、 特徴量検出部 11203の差分演算部 11214は、 入力画像の処理領 域における画素から 1つの画素を選択して、 注目画素とし、 注目画素の画素値 から、 注目画素の右隣の画素の画素値を引き算することにより、 例えば、 図 1 4 0で示される差分値を演算する。 差分評価部 11215 は、 差分の符号を基に、 正の差分値と負の差分値とに分類する。
中間画像作成部 11216は、 分類された正の差分値から、 その正の差分値か らなる非反転中間画像を作成する。 中間画像作成部 1 17は、 分類された負 の差分値から、 その負の差分値からなる中間画像を作成する。 符号反転部 11219は、 負の差分値からなる中間画像の負の画素値の符号を反転することに より、 反転中間画像を作成する。
動き量検出部 11204は、 相関が最も強い非反転中間画像と反転中間画像と の移動量を求めて、 求められた移動量を動き量とする。
特徴量検出部 11203が、 動いている対象物の画像 (オブジェク ト) を検出 し、 動いている対象物の画像の特徴量を検出したとき、 動き量検出部 11204 は、 特徴量を基に相関を検出し、 検出された相関に応じて、 入力画像内の対象 物の画像 (オブジェクト) の動き量を検出する。
また、 特徴量検出部 11203が、 動いている対象物の画像に属する画素から 注目している画素である注目画素を選択し、 注目画素の特徴量を検出したとき、 動き量検出部 11204は、 注目画素の特徴量と、 注目画素に対して動き方向に 沿って配される対応画素の特徴量との相関を検出し、 検出された相関に応じて、 入力画像の処理領域における対象物の画像の動き量を検出する。
図 1 4 1は、 図 1 3 7の動き検出部 11062による動き量の検出の処理を説 明するフローチヤ一トである。 ステップ S 11201において、 動き方向検出部 11201および動き方向修正部 11202は、 入力画像と処理領域情報を取得し、 ステップ S11202に進む。
ステップ S 11202において、 動き方向検出部 11201 1のァクティビティ演算 部 11211は、 ステップ S 11201の処理により取得された入力画像における処理 領域の画素について、 アクティビティを演算し、 ステップ S1 1203に進む。 例えば、 アクティビティ演算部 1121 1は、 入力画像における処理領域の画 素のうち、 注目している画素である注目画素を選択する。 アクティビティ演算 部 1 1211は、 注目画素の周辺の所定の数の周辺画素を抽出する。 例えば、 ァ クテイビティ演算部 11211は、 注目画素を中心とした、 縦 X横が 5 X 5の画 素からなる周辺画素を抽出する。
そして、 アクティビティ演算部 1121 1は、 抽出した周辺画素から、 予め定 めた画像上の方向に対応するァクティビティを検出する。
以下の説明において、 横方向の画素の 1列の並びを行と称し、 縦方向の画素 の 1列の並びを列と称する。
アクティビティ演算部 1121 1は、 例えば、 5 X 5の周辺画素について、 画 面上の上下方向 (垂直) に隣接する画素の画素値の差分を算出して、 算出され た差分の絶対値の総和を差分の数で割り、 その結果をァクティビティとするこ とにより、 画面の水平方向を基準として、 9 0度の角度 (画面の垂直方向) に 対する、 アクティビティを検出する。
例えば、 2 0組の、 画面上の上下方向に隣接する 2つの画素について、 画素 値の差分が算出され、 算出された差分の絶対値の和が 2 0で割り算され、 その 結果 (商) 力 9 0度の角度に対するアクティビティに設定される。
アクティビティ演算部 1121 1は、 例えば、 5 X 5の周辺画素について、 最 も下の行の画素であって、 最も左側の画素乃至左から 4番目の画素のそれぞれ の画素値と、 それぞれの画素に対して、 4画素上側であって、 1画素右側の画 素の画素値との差分を算出して、 算出された差分の絶対値の総和を差分の数で 2004/008690
272 .
割り、 その結果をアクティビティとすることにより、 画面の水平方向を基準と して、 7 6度の角度 (tan—1 (4 )) に対する、 アクティビティを検出する。 そして、 例えば、 4組の、 右上方向であって、 上下方向に 4画素、 およぴ左 右方向に 1画素離れた位置にある 2つの画素について、 画素値の差分が算出さ れ、 算出された差分の絶対値の和が 4で割り算され、 その結果 (商) 力 7 6 度の角度に対するアクティビティに設定される。
アクティビティ演算部 11211は、 同様の処理で、 画面の水平方向を基準と して、 9 0度乃至 1 8 0度の範囲の角度に対するァクティビティを検出する。 9 0度乃至 1 8 0度の範囲の角度に対するアクティビティを検出する場合、 左 上方向に位置する画素の画素値の差分を基に、 アクティビティが算出される。 このように検出されたァクティビティは、 注目画素に対するァクティビティ とされる。
なお、 検出されたアクティビティを、 周辺画素に対するアクティビティとす るよう.にしてもよい。
また、 周辺画素は、 縦 X横が 5 X 5の画素からなると説明したが、 5 X 5の 画素に限らず、 所望の範囲の画素とすることができる。 周辺画素の数が多い場 合、 角度の分解能が向上する。 ,
ァクティビティ演算部 11211は、 複数の方向に対応するァクティビティを 示す情報をァクティビティ評価部 11212に供給する。
図 1 4 1に戻り、 ステップ S11203において、 アクティビティ評価部 11212 は、 ステップ S11202の処理において算出された、 所定の方向に対応するァク テイビティを基に、 最小のアクティビティを選択し、 選択された方向を動き方' 向とすることにより、 動き方向を求めて、 ステップ S11204に進む。
ステップ S 11204において、 動き方向修正部 11202は、 ステップ S11203の 処理において求められた動き方向を基に、 動き方向が画像の水平方向となるよ うに入力画像の処理領域における画像データを変換し、 ステップ S 11205に進 む。 例えば、 ステップ S 11204において、 動き方向修正部 11202のァフィン変 換部 11213は、 ステップ S 11203の処理において求められた動き方向を基に、 動き方向が画像の水平方向となるように入力画像の処理領域における画像デー タをァフィン変換する。 より具体的には、 例えば、 ァフィン変換部 11213 は、 画面の水平方向を基準として、 動き方向が 1 8度の角度であるとき、 入力画像 の処理領域における画像データを時計方向に 1 8度回動するようにァフィン変 換する。
ステップ S11205において、 特徴量検出部 11203の差分演算部 11214は、 ス テツプ S11204の処理において、 動き方向が画面の水平方向となるように変換 された入力画像の処理領域における各画素について、 水平方向に隣接する画素 との画素値の差分値を演算し、 ステップ S 11206に進む。
例えば、 ステップ S11205において、 差分演算部 11214は、 入力画像の処理 領域における画素から 1つの画素を選択することにより、 注目している注目画 素とする。 そして、 差^演算部 1 14は、 注目画素の画素値から、 注目画素 の右隣の画素の画素値を引き算することにより差分値を求める。
ステップ S 11206において、 特徴量検出部 11203の差分評価部 11215は、 差 分値の符号を基に、 差分値を振り分け、 ステップ S 11207に進む。 すなわち、 差分評価部 11215 は、 0以上である差分値を中間画像作成部 11216 に供給し、 0未満である差分値を中間画像作成部 11217 に供給する。 この場合において、 差分評価部 11215は、 差分値の画面上に位置を示す位置情報と共に、 差分値 を中間画像作成部 11216または中間画像作成部 11217に供給する。
ステップ S 11207において、 特徴量検出部 11203の中間画像作成部 11216は、 ステップ S11206の処理で振り分けられた、 0以上である差分値 (正の差分 値) を基に、 正の差分値からなる中間画像を生成し、 ステップ S 11208 に進む。 すなわち、 ステップ S11207において、 中間画像作成部 11216は、 位置情報で 示される画面上の位置の画素に正の差分値を設定し、 差分値が供給されなかつ た位置の画素に 0を設定することにより、 中間画像を作成する。 このように、 ステップ S11207の処理において、 非反転中間画像が生成され る。 ステップ S11208において、 特徴量検出部 11203の中間画像作成部
11217は、 ステップ S 11206の処理で振り分けられた、 0未満である差分値 (負の差分値) を基に、 負の差分値からなる中間画像を生成し、 ステップ S 11209に進む。 すなわち、 ステップ S 11208において、 中間画像作成部 11217 は、 位置情報で示される画面上の位置の画素に負の差分値を設定し、 差分値が 供給されなかった位置の画素に 0を設定することにより、 中間画像を作成する。 ステップ S11209において、 特徴量検出部 11203の符号反転部 11219は、 ス テツプ S 11208の処理で生成された負の差分値からなる中間画像の負の差分値 の符号を反転する。 すなわち、 ステップ S11209において、 負の中間画像の画 素に設定されている、 負の差分値が、 同じ絶対値の正の値に変換される。
このように、 ステップ S 11209 において、 反転中間画像が生成され、 その後、 ステップ S 11210に進む。
ステップ S 11210において、 動き量検出部 11204は、 相関の検出の処理を実 行する。 ステップ S 11210の処理の詳細は、 図 1 4 2のフローチャートを参照 して、 後述する。
ステップ S11211において、 相関評価部 11222は、 ステップ S 11210の処理 で検出された相関のうち、 最も強い相関を選択し、 ステップ S 11212に進む。 例えば、 ステップ S 11211において、 画素値の差分の絶対値の和である相関値 のうち、 最小の相関値が選択される。
ステップ S 11212において、 相関評価部 11222は、 ステップ S11211の処理 で選択された、 最も強い相関に対応する移動量を動き量に設定して、 ステップ' S11213に進む。 例えば、 ステップ S11212において、 画素値の差分の絶対値 ' の和である相関値のうち、 選択された最小の相関値に対応して、 後述するステ ップ S11223の処理により記憶されている、 反転中間画像の移動量が動き量に 設定される。 ステップ S 11213において、 動き量検出部 11204は、 ステップ S11210の処 理において検出した動き量を出力して、 処理は終了する。
図 1 4 2は、 ステップ S 11210の処理に対応する、 相関の検出の処理を説明 するフローチヤ一トである。
ステップ S 11221において、 動き量検出部 11204の相関検出部 11221は、 ス テツプ S 11209の処理で生成された、 反転中間画像の画素の位置を、 画素を単 位として水平方向に移動し、 ステップ S 11222に進む。
ステップ S 11222において、 相関検出部 11221は、 非反転中間画像と、 ステ ップ S11221の処理において、 画素の位置が移動された反転中間画像との相関 を検出し、 ステップ S 11223に進む。 例えば、 ステップ S11222において、 非 反転中間画像の画素の画素値と、 画面上で対応する位置の、 反転中間画像の画 素の画素値との差分が算出され、 算出された差分の絶対値の和が相関値として 検出される。 相関検出部 11221は、 ステップ S11221の処理における反転中間 画像の画素の移動量と共に、 検出された相関を示す相関情報を相関評価部 11222に供給する。
ステップ S11223において、 相関評価部 11222は、 ステップ S11221の処理 における反転中間画像の画素の移動量と共に、 ステップ S 11222の処理におい て検出された相関を記憶し、 ステップ S 11224に進む。 例えば、 相関評価部 11222は、 ステップ S 11221の処理における反転中間画像の画素の移動量と共 に、 画素値の差分の絶対値の和である相関値を記憶する。
ステップ S 11224において、 相関検出部 11221は、 全ての移動量に対する相 関を検出したか否かを判定し、 まだ相関を検出していない移動量があると判定 された場合、 ステップ S11221に戻り、 次の移動量に対する相関を検出する処 理を繰り返す。
例えば、 ステップ S11224において、 相関検出部 11221は、 画面の左方向に 7 0画素乃至画面の右方向に 7 0画素の範囲で、 反転中間画像の画素を移動し たときの相関を全て検出したか杏かを判定する。 ステップ S 11224において、 全ての移動量に対する相関を検出したと判定さ れた場合、 処理は終了する (リターンする) 。
このように、 相関検出部 11221は、 相関を検出することができる。
以上のように、 図 1 3 7に構成を示す動き検出部 11062は、 画像の 1つの フレームから、 動き量を検出することができる。
なお、 ここでは、 処理領域を対象として動きを検出するようにしたか、 全画 面を処理対象とすることで、 例えば、 手振れにより発生した全画面の動きを検 出することができる。
また、 入力画像に同じ模様の繰り返しパターンが多く含まれていても、 処理 の対象となる入力画像の処理領域の動き量および動き方向が一定であれば、 正 確に動き量を検出することができる。
なお、 上述の場合には、 画像の 1つのフレームから動き量を検出すると説明 したが、 1つのフィールドから動き量を検出するようにしてもよいことは勿論 である。
また、 選択した注目画素の周辺についてのみ、 動き量を検出するようにして あよい。
図 1 4 3は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施の形態 の構成例を示している。
なお、 図 1 4 3は、 例えば、 一定方向に一定の速さで移動するという定常性 を有するデータ 3の一例である動きボケが発生した画像データ (以下、'適宜、 動きボケ画像データと称する) から、 実世界 1の光信号を推定する信号処理装 置 4の一実施の形態の構成例を示している。 即ち、 この信号処理装置 4は、 例 えば、 撮影時に被写体 (オブジェクト) が動いたことにより、 被写体がボケて 撮影されてしまった画像 (以下、 適宜、 動きボケ画像と称する) から、 そのポ ケがない画像 (以下、 適宜、 動きボケのない画像と称する) を推定する。 従つ て、 図 1 4 3の実施の形態では、 入力画像として、 移動しているオブジェク ト を撮影することにより得られた動きボケが生じている動きボケ画像が、 信号処 理装置 4に入力される。 なお、 ここでは、 入力画像として、 水平方向 (左から 右方向) に一定の速さ (動き量) で移動しているオブジェクトを撮像して得ら れる画像を採用する。
図 1 4 3において、 処理領域設定部 12001、 定常性設定部 12002、 実世界推 定部 12003、 画像生成部 12004、 画像表示部 12005、 ユーザ I / F 12006は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I ZF 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 4 3において、 実世界推定部 12003 は、 モデル生成部 12011、 方程式生成部 12012、 実世界波形推定部 12013で構 成されている。 モデル生成部 12011、 方程式生成部 12012、 実世界波形推定部 12013は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 伹し、 図 1 4 3においては、 ユーザがユーザ I / F 12006を操作することに より、 ユーザ I ZF 12006が出力する補助情報が、 処理領域設定部 12001のみ に供給されるようになっている。
即ち、 図 1 4 3では、 ユーザは、 ユーザ I / F 12006 を操作することにより、 画像表示部 12005に表示された画像に対して、 処理領域とする領域を指示す ることができるようになつており、 ユーザ I ZF 12006は、 ユーザが処理領域 を指示する操作を行うと、 その操作によって指定された領域としての処理領域 を表す処理領域指示情報を、 処理領域設定部 12001に供給する。
なお、 ユーザ I Z F 12006を操作することにより処理領域を指示する方法と しては、 例えば、 処理領域を囲む矩形によって指示する方法、 処理領域をトリ ム(trim)することによって指示する方法、 処理領域の中の任意の 1点以上を ポインティングすることによって指示する方法などがあるが、 ここでは、 例え ば、 ユーザは、 処理領域の中の任意の 1点を、 ユーザ I / F 12006を操作する ことによりボインティングすることによって、 処理領域を指示するものとする。 この場合、 ユーザ I / F 12006は、 ユーザがポインティングした点を表す情報 としての、 例えば、 その点の、 画像上の座標を、 処理領域指示情報として、 処 理領域設定部 12001に供給する。
次に、 図 1 4 4のフローチャートを参照して、 図 1 4 3の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S 12001 において、 信号処理装置 4は、 前処理を行い、 ステップ S12002に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ ータ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 12001、 定常性設定部 12002、 実世界推定部 12003、 画像生成 部 12004、 および画像表示部 12005に供給する。 さらに、 信号処理部 4は、 画 像表示部 12005に、 入力画像を表示させる。
ステップ S12002では、 ユーザ I 12006は、 ユーザがユーザ
12006を操作することにより、 何らかのユーザ入力があつたかどうかを判定す る。 ステップ S12002において、 ユーザ入力がなかったと判定された場合、 即 ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12003乃至 S12005 をスキップして、 ステップ S12006に進む。
また、 ステップ S 12002において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが画像表示部 12005に表示された入力画像を見て、 ユーザ I Z F 12006を操作し、 これにより、 何らかの指示または情報を表すユーザ入力が あった場合、 ステップ S 12003に進み、 ユーザ I Z F 12006は、 そのユーザ入 力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定 する。
ステップ S 12003 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12005に表示された入力画像を見たユーザが、 そ の入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了するように、 ユーザ I / F 12006を操 作した場合、 信号処理装置 4は処理を終了する。
また、 ステップ S12003において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S12004に進み、 ユーザ I Z F 12006は、 ユーザ入力が処理 領域指示情報であるかどうかを判定する。 ステップ S12004において、 ユーザ 入力が処理領域指示情報でないと判定された場合、 ステップ S 12005をスキッ プして、 ステップ S 12006に進む。
一方、 ステップ S12004において、 処理領域指示情報の入力があつたと判定 された場合、 即ち、 画像表示部 12005 に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 その不満のある箇所をポインティングする ように、 ユーザ I / F 12006を操作した場合、 ステップ S 12005に進み、 ユー ザ Iノ F 12006は、 ユーザがユーザ I Z F 12006を操作することによってポィ ンティングした点を表す処理領域指示情報を、 処理領域設定部 12001に供給 し、 ステップ S 12006に進む。
ステップ S 12006では、 処理領域設定部 12001は、 ユーザ I / F 12006から 供給された処理領域指示情報に基づいて、 処理領域を設定し、 その処理領域情 報を、 定常性設定部 12002、 実世界推定部 12003、 および画像生成部 12004に 供給し、 ステップ S 12007に進む。 但し、 ユーザ I Z F 12006から処理領域設 定部 12001に処理領域指示情報が供給されなかった場合 (ステップ S12002ま たはステップ S12004の処理の直後にステップ S12006の処理が行われる場 合) には、 処理領域設定部 12001は、 所定の処理 (例えば、 入力画像におい て動きボケが生じている領域を検出する処理) を行うことにより、 自動的に処 理領域を設定する。
ステップ S 12007では、 定常性設定部 12002は、 処理領域設定部 12001から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 12002は、 その処理領域の画像データにおいて欠落した実世界 1の光信号の定常性を表す情報として、 処理領域に表示されたォブジェクトの 動き量を設定し、 その定常性を表す定常性情報を、 実世界推定部 12003に供 給して、 ステップ S 12008に進む。 なお、 この動き量は、 ユーザがユーザ I / F 12006を操作して入力しても良い。 また、 ここでは、 定常性設定部 12002は、 入力画像において、 オブジェクトが水平方向に移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報として設定するようにしたが、 その他、 才ブジェクトの動きの大きさと方向を表す動きべクトルを定常性情報 として設定することも可能である。
ステップ S 12008では、 実世界推定部 12003は、 処理領域設定部 12001から 供給された処理領域情報に応じて、 入力画像における処理領域内の画像データ (動きボケ画像のデータ) から、 対応する実世界 1の光信号の動き量に基づい て、 その実世界 1の光信号 (動きボケのない画像) を推定する。
即ち、 実世界推定部 12003では、 モデル生成部 12011が、 処理領域設定部 12001から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 12002から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の光信号の動き量、 つまり、 ここでは、 処理 領域に表示されたオブジェクトの動き量を認識する。 さらに、 モデル生成部 12011は、 入力画像における処理領域の各水平ラインを構成する画素と、 その 処理領域の画像データに対応する実世界 1の光信号の動き量に応じて、 処理領 域の各水平ラインの画素の画素値と実世界 1の光信号との関係をモデル化した モデル (以下、 適宜、 関係モデルという) を処理領域の水平ラインごとに生成 し、 方程式生成部 12012に供給する。
方程式生成部 12012は、 処理領域設定部 12001から供給される処理領域情 · 報から、 入力画像における処理領域を認識し、 その処理領域に応じて、 入力画 像の各画素の画素値を、 モデル生成部 12011から供給される処理領域の水平 ラインごとの関係モデルに代入し、 これにより、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式を生成して、 実世界波形推定部 12013に供給する。 さらに、 方程式生成部 12012は、 処理領域情報に基づいて、 近似関数を拘束する拘束条件式を生成し、 実世界波形推定部 12013に供給す る。
実世界波形推定部 12013は、 方程式生成部 12012から供給される方程式を 演算することにより、 実世界 1の光信号の波形を推定する。 即ち、 実世界波形 推定部 12013は、 方程式生成部 12012から供給される方程式を解くことによ り、 実世界 1の光信号をモデル化した近似モデルとしての近似関数を求め、 実 世界 1の光信号の波形の推定結果として、 画像生成部 12004に供給する。
なお、 以下、 このような実世界推定部 12003が実行するステップ S12008の 処理を、 「実世界の推定処理」 と称する。 「実世界の推定処理」 の詳細につい ては、 図 1 4 9のフローチャートを参照して後述する。
ステップ S 12008の処理後は、 ステップ S12009に進み、 画像生成部 12004 は、 実世界推定部 12003 (の実世界波形推定部 12013) から供給された、 実世 界 1の光信号の波形を近似する近似関数に基づいて、 実世界 1の光信号により 近似した信号を生成する。 即ち、 画像生成部 12004は、 処理領域設定部 12001 力 ら供給される処理領域情報から、 入力画像における処理領域を認識し、 その 処理領域について、 実世界推定部 12003から供給される近似関数に基づき、 実世界 1の光信号により近似した近似画像 (ここでは、 例えば、 動きボケのな い画像) を生成する。
さらに、 画像生成部 12004は、 入力画像の処理領域の部分を、 近似画像 (動きボケのない画像) に置き換えた画像を、 出力画像として生成し、 画像表 示部 12005に供給して、 ステップ S12009から S12010に進む。
ステップ S 12010では、 画像表示部 12005は、 画像生成部 12004から供給さ れた出力画像を、 ステップ S 12001で表示された入力画像に代えて、 またはぞ の入力画像とともに表示し、 ステップ S12011に進む。
ステップ S 12011では、 ユーザ I Z F 12006は、 ステップ S12002における 場合と同様に、 ユーザがユーザ I Z F 12006を操作することにより、 何らかの ユーザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12011に戻り、 何 らかのユーザ入力があるまで待つ。
また、 ステップ S12011において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが、 画像表示部 12005 に表示された入力画像や出力画像を見て、 ユーザ I / F 12006を操作し、 これにより、 何らかの指示または情報を表すュ 一ザ入力があった場合、 ステップ S12012に進み、 ユーザ I Z F 12006は、 そ のユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかど うかを判定する。
ステップ S 12012 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12005に表示された出力画像を見たユーザが、 そ の出力画像の画質に不満を感じず、 出力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了するように、 ユーザ I ZF 12006を操 作した場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 12012において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S 12013に進み、 ユーザ I / F 12006は、 ユーザ入力が処理 領域指示情報であるかどうかを判定する。 ステップ S12013において、 ユーザ 入力が処理領域指示情報でないと判定された場合、 ステップ S 12011に戻り、 以下、 同様の処理が繰り返される。
また、 ステップ S12013において、 ユーザ入力が処理領域指示情報であると 判定された場合、 即ち、 画像表示部 12005に表示された出力画像を見たユー ザが、 その出力画像の画質に不満を感じ、 その出力画像に対して、 新たにその 不満のある箇所をポインティングするように、 ユーザ I Z F 12006を操作した 場合、 ステップ S 12005に戻り、 上述したように、 ユーザ I / F 12006は、 ュ 一ザがユーザ I F 12006を操作することによってポインティングした点を表 す処理領域指示情報を、 処理領域設定部 12001に供給する。 そして、 ステツ プ S 12005からステップ S 12006に進み、 以下、 同様の処理が繰り返される。 即ち、 これにより、 ステップ S 12005乃至 S 12013の処理が繰り返され、 出 力画像に対するユーザの不満が解消され、 その結果、 ユーザが所望する画質の 出力画像が得られる。
以上のように、 信号処理装置 4では、 入力画像に対する処理結果としての出 力画像をユーザに提示し、 その出力画像から新たな処理領域を指示してもらい、 その処理領域に基づいて、 再度処理を行うようにしたので、 ユーザの好みにあ つた、 高画質の出力画像を、 容易に得ることができる。 即ち、 信号処理装置 4 は、 入力画像に対する処理結果として出力画像をユーザに提示する。 一方、 ュ 一ザは、 その出力画像の画質を認識し、 所望の画質の画像または所望の画質に 近い画像であるかどうかを判断して、 信号処理装置 4にフィードバックする。 そして、 信号処理装置 4は、 そのユーザからのフィードバックを踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返される。 従って、 ユーザの好み にあった、 高画質の出力画像を、 容易に得ることができる。
なお、 このように、 信号処理装置 4において、 ユーザからのフィードバック を受けて入力画像に対する処理を行うことは、 信号処理装置 4が、 ユーザと協 調しながら処理を行っているということができる。
ここで、 実世界推定部 12003の具体的な説明に入る前に、 処理領域内の各 画素の画素値と実世界 1の光信号との関係をモデル化した関係モデルについて 説明する。
図 1 4 5は、 センサ 2が C C Dとされる場合の積分効果を説明する図である。 図 1 4 5で示されるように、 センサ 2の平面上には、 複数の検出素子 2— 1 (画素) が配置されている。
図 1 4 5の例では、 検出素子 2 - 1の所定の 1辺に平行な方向が、 空間方向 の 1方向である X方向とされており、 X方向に垂直な方向が、 空間方向の他方 向である Y方向とされている。 そして、 X— Y平面に垂直な方向が、 時間方向 である t方向とされている。 また、 図 145の例では、 センサ 2の各検出素子 2— 1のそれぞれの空間的 な形状は、 1辺の長さが 1の正方形とされている。 そして、 センサ 2のシャツ タ時間 (露光時間) が 1とされている。
さらに、 図 145の例では、 センサ 2の所定の 1つの検出素子 2— 1の中心 力、 空間方向 (X方向と Y方向) の原点 (X方向の位置 x==0、 および Y方向 の位置 y = 0) とされており、 また、 露光時間の中間時刻が、 時間方向 (t方 向) の原点 (1;方向の位置1 =0) とされている。
この場合、 空間方向の原点 (x = 0, y = 0) にその中心が存在する検出素 子 2— 1は、 X方向に- 0.5乃至 0.5の範囲、 Y方向に- 0.5乃至 0.5の範囲、 および t方向に- 0.5乃至 0.5の範囲で実世界 1の光信号を表す光信号関数 F(x,y,t)を積分し、 その積分値を画素値 Pとして出力することになる。
即ち、 空間方向の原点にその中心が存在する検出素子 2— 1から出力される 画素値 Pは、 次の式 (146) で表される。
X ++00..55 广++00.,55 ++0O..5 、
- -00.5 R J J --0o.5 R ^ J--0o.5 R F(x, yit)dxdyclt · · ■ (146)
その他の検出素子 2— 1も同様に、 対象とする検出素子 2— 1の中心を空間 方向の原点とすることで、 式 (146) で示される画素値 Pを出力することに なる。
次に、 ンサ 2の積分効果により発生する動きボケを、 図 146、 図 147 A乃至図 147 C、 および図 148 A乃至図 148 Cを参照して説明する。 こ の例において、 センサ 2から出力される画像データには、 空間混合がないもの とする。 即ち、 実世界 1の光信号のうちの 1画素 (センサ 2の検出素子) に对 応する部分には、 同一レベルの光信号が空間的に一様に分布するものとする。 図 146は、 センサ 1で撮影される実世界 1の光信号としての被写体 (ォブ ジ タ ト) が水平方向 (X方向) に一定の速さで動いているという定常性を有 する場合の、 その動きの動き量を説明する図である。 図 1 4 6において、 X方向と t方向は、 センサ 2の X方向と t方向 (図 1 4 5 ) を表している。 また、 露光開始時刻を、 t方向の原点 (t方向の位置 t = 0 ) とし、 露光開始時点での被写体の X方向のある位置を X方向の原点 (X方 向の位置 X= 0 ) とする。
被写体が水平方向 (X方向) に一定速度で移動している場合、 時刻 tと、 被 写体の X方向の位置との関係は、 図 1 4 6において、 点線で示す直線で表され る。 なお、 この点線の直線の傾きが、 被写体が移動する速さを表す。
ここで、 いまの場合、 図 1 4 6に実線で示すように、 被写体は、 ある時刻 Δ tは静止し、 その後無限小の時間で 1画素分だけ移動することを繰り返すこと により、 等価的に、 という一定の速さで移動しているものとする。
以上のように、 実世界 1の光信号のうちの 1画素に対応する部分が一定レ ベルであり、 かつ、 その動きが 1 画素単位で行われると仮定することにより、 センサ 2の積分効果によって生じる空間混合と時間混合のうち、 空間混合は生 じなくなるので、 時間混合だけを考えることができる。 ここでは、 説明を簡単 にするため、 センサ 2の積分効果によって生じる時間混合のみに起因する動き ボケを対象として説明を行う。
ここで、 動き量は、 例えば、 被写体が露光時間内に横切るセンサ 2の画素数 で表すこととする。 図 1 4 6において、 例えば、 露光時間が 5 Δ tであるとす ると、 露光時間内に被写体が動く画素数は 5であり、 従って、 動き量も 5とな る。
図 1 4 7 A乃至図 1 4 7 Cは、 露光時間において被写体 (オブジェク ト) が X方向に動き量 5で等速で移動する場合の光信号関数 F (x,y, t) の yと tを固 定にした X断面波形 F (X)、 即ち、 処理領域のある水平ラインに射影される光 信号関数 F (x, y, t)の X断面波形 F (x)を近似した近似関数 f (X)を説明する図 である。
図 1 4 7 A乃至図 1 4 7 Cの例では、 処理領域の X方向の画素数 (水平ライ ンの画素数) は 8である。 図 147 A乃至図 147 Cにおいて、 X方向は、 センサ 2の X方向 (図 14 5) を表している。 また、 処理領域の左端の画素の中心が、 X方向の原点 (X 方向の位置 x = 0) とされている。
図 147 Aは、 露光開始時点での近似関数 f(x)とセンサ 2の X方向の位置 の関係を示している。 図 147 Aの近似関数 f (X)は、 以下の式 (147) で 表される。
Q0 (-0.5≤x<0.5
(0.5≤x<1.5
Q2 (1.5≤x<2.5
Q3 (2.5≤x<3.5
f(x)
Q4 (3.5≤x<4.5
Q5 (4.5≤xく 5.5
Q6 (5.5≤x<6.5
(6.5≤x<7.5
… (147)
なお、 ここでは、 上述したように、 近似関数 f(x)によって近似される実世 界 1の光信号の 1画素に対応する部分には、 同一レベルの光信号が空間的に 一様に分布するものとしているので、 式 (147) において、 Q。乃至 Q7 は それぞれ一定値である。
ここで、 被写体は動き量 5で等速で動いている。 従って、 例えば、 露光時間 を 1とすると、 被写体が、 前回 1画素動いてから次に 1画素動くまでの時間は、 露光時間/動き量、 即ち 1/5となる。
従って、 露光開始時刻を 0とすると、 時刻 1/5には、 近似関数 f(x)とセン' サ 2の X方向の位置の関係は、 図 14 7Bに示すようになる。 即ち、 近似関数 f(x)は、 図 147 Aの状態から X方向に 1 画素分ずれた関数となる。 従って、 このときの近似関数 f(x)は、 以下の式 (148) で表される。 (0·5≤χく 1.5
(1.5≤x<2.5
Q2 (2.5≤x<3.5
(3.5≤x<4.5
f(x) =
Q4 (4.5≤x<5.5
(5.5≤x<6.5
Q6 (6.5≤x<7.5
(7.5≤x<8.5
• · · (148)
同様に被写体が X方向に 1画素単位で移動していき、 例えば、 時刻 4/5に は、 近似関数 f(x)とセンサ 2の X方向の位置の関係は、 図 14 7 Cに示すよ うになる。 即ち、 被写体は、 時刻 4/5には、 X方向に 4画素移動しているの で、 近似関数 f(x)は、 図 147Aの状態から、 X方向に 4画素分ずれた関数 となる。 従って、 このときの近似関数 f(x)は、 以下の式 (149) で表され る。
Q0 (3.5≤x<4.5
(4.5≤x<5.5
Q2 (5.5≤x<6.5
Q3 (6.5≤x<7.5
f(x) =
Q4 (7.5≤x<8.5
Q5 (8.5≤x<9.5
Q6 (9.5≤x<10.5
(10.5≤x<11.5 · · · ( 149)
ここで、 図 145で上述したように、 センサ 2から得られる画素値は、 露光 開始時刻における実世界 1の光信号から、 露光終了時刻における実世界 1の光 信号までが積分された値である b 換言すると、 画素値は、 露光開始時刻におけ る光のレベルから、 露光終了時刻における光のレベルまでが時間的に混合され たレベルに対応する値である。
従って、 実世界 1の光信号のうちの 1画素 (センサ 2の検出素子) に対応す る部分が、 同一レベルの光信号が時間的に一様に分布する部分ではなく、 例え ば、 被写体が動いた場合のように、 時間によって異なるレベルの光信号のそれ ぞれが分布する部分である場合、 その部分は、 センサ 2により検出されると、 センサ 2の積分効果により、 異なる光のレベルが時間的に混合されて (時間方 向に積分(加算)されて) 1つの画素値となってしまう。 このように、 被写体 が動いたり、 被写体の撮影時に手ぶれが生じた場合において、 1画素に対応す る被写体の画像 (実世界 1の光信号) が時間によって異なるレベルである画素 からなる領域を、 ここでは、 時間混合領域と称する。 そして、 被写体が動いた ことにより生じる時間混合領域を、 動きボケ領域と称する。 従って、 動きボケ 領域の画素値は、 露光開始時刻における被写体の画像 (実世界 1の光信号) か ら、 露光終了時刻における被写体の画像 (実世界 1の光信号) が時間的に積分 (加算) された値となる。 図 1 4 3の実世界推定部 12003は、 動きボケ領 域の画素値から、 実世界 1の光信号を推定する。 即ち、 実世界推定部 12003 は、 動きボケ領域の画素値が、 実世界 1の光信号を近似する近似関数 f (x)を、 露光開始時刻から露光終了時刻までの間、 動き量に対応して移動しながら積分 することにより得られた値であるとして、 動きボケ領域の画素値と近似関数 f (x)の関係をモデル化した関係モデルを生成し、 その関係モデルに基づいて 近似関数 f (x)を求める。
ここで、 上述したように動き量が 5であるとすると、 被写体は、 露光終了時 刻である時刻 1に、 X方向に 1画素移動し、 露光開始時刻の位置から X方向 に 5画素移動した位置に到達する。 しかしながら、 その瞬間に、 センサ 2での 露光が終了する。 従って、 露光時間である 1の間にセンサ 2における露光の対 象となるのは、 露光開始時刻を 0とすると、 時刻 0, 1/5, 2/5, 3/5, 4/5におけ る近似関数 f (X)となる。 図 148 A乃至図 148 Cは、 動きボケ領域のセンサ 2から出力される画像 データと、 実世界 1の光信号を表す光信号関数 F(x, y, t)を X方向に射影した X断面波形 F(x)を近似する近似関数 f (X)との関係 (関係モデル) を説明する 図である。
図 148 A乃至図 148 Cにおいて、 X方向と t方向は、 センサ 2の X方向 と t方向 (図 145) を表している。 領域 12031は、 センサ 2の X方向に並 ぶ複数の画素に対応する領域を表している。 ここでは、 領域 12031は、 8個 の小領域 (縦長の長方形の領域) に区分されており、 この小領域のそれぞれは 1つの画素に相当する。 なお、 ここでは、 領域 12031の小領域の数、 即ち、 画素数は、 処理領域の各水平ラインの X方向の画素数に一致する。 小領域の X 方向の一辺の長さは、 センサ 2の画素の X方向の長さを表し、 t方向の 1辺 の長さは、 センサ 2の露光時間を表す。 従って、 領域 12031は、 処理領域の ある水平ラインを構成する画素の領域ととらえることができる。
図 148 Aは、 センサ 2の領域 12031に対して、 近似関数 f (x)で表される 実世界 1の光信号が静止している場合に、 その光信号が入力されたときのセン サ 2から出力される画像データ (画素値) Q。乃至 Q7の例を示している。 いま、 x。乃至 x7それぞれを、 領域 12031の 8個の画素の X方向の中心の 座標値とする。 伹し、 x。く · · · < x7の関係があるとし、 また、 いまの 場合、 画素の X方向の幅を 1としているので、 式 Xl = x。+ 1, x2 = X l + 1, · · ·, x7 = x6+ 1の関係がある。 この場合、 近似関数 f(x)は、 式 (1 50) で表すことができる。 Q0 (x0-0.5≤x≤x0+0.5)
(x厂
Q2 (x2-0.5≤x≤x2+0.5)
Q3 (x3-0.5≤x≤x3+0.5)
f(x) =
Q4 (x4 - 0, 5≤x≤x4+0.5)
Q5 (x5-0.5≤x≤x5+0.5)
Q6 (x6-0.5≤x≤x6+0.5)
Q7 (x7-0.5≤x≤x7+0.5)
• · · (1 50)
実世界 1の光信号が静止している場合、 領域 12031の 8個の画素において 得られる画素値は、 式 (146) から、 式 (1 50) の近似関数 f(x)を、 露 光時間に亘つて積分した値となる。 いまの場合、 露光時間は 1であるから、 領 域 12031の 8個の画素で得られる画素値は、 図 148 Aに示すように、 式
(1 50) の近似関数 f (X)の値である Q。 乃至 Q7 と同一の値となる。 従って、 Q。乃至 Q7 は、 実世界 1の光信号が静止している場合の領域 12031の 8個の 画素の画素値であり、 この画素値 Q。乃至 Q7が得られる画素には動きボケが 生じていないので、 以下、 適宜、 動きボケのない画素値と称する。
図 148 Bは、 近似関数 f(x)で表される実世界 1の光信号が、 ある動き量 Vで水平方向に移動しているという定常性を有している場合に、 センサ 2の領 域 12031に対して、 近似関数 f(x)で表される信号が入力されたときのセンサ 2から出力される画像データ (画素値) P。乃至 P7 の例を示している。 ここ で、 画素値 P。乃至 P7は、 領域 12031内の X方向の中心の座標が、 それぞれ x0 > X i , ■ · ·, x7である 8個の画素の画素値である。
露光時間における動き量 V力 例えば 5であるとき、 画素値 P。 乃至 P7 は、 動き量 Vと動きボケのない画素値 Q。乃至 Q7 を用いて、 図 148 Cで示すよ うに表すことができる。 即ち、 実世界 1の光信号が、 図 146および図 147 A乃至図 147 Cで説 明したように、 水平方向に一定速度で移動している場合、 X方向の中心の座標 が x。乃至 x7である 8個の画素には、 1/v (図 1 48 Cの場合、 1/5) の時間 毎に、 その画素の位置における、 近似関数 f(x)で表される光信号に対応する 電荷が蓄積される。
いま、 X方向の中心の座標値が Xl である画素を、 画素 # 1と表すこととす ると、 例えば、 X方向の中心の座標値が x4の画素 # 4には、 露光開始時刻で ある 0から、 時刻 1/vまでの時間 1/vの間に、 その画素 # 4の位置における 近似関数 f(x)で表される光信号に対応する電荷が蓄積される。 即ち、 画素 # 4において、 このとき蓄積される電荷による画素値は、 露光時間が 1のときに 蓄積される電荷による画素値 Q4 の 1/vである、 Q4/vとなる。 つまり、 この とき画素 # 4に蓄積される電荷による画素値は、 式 (1 50) の近似関数 f (X)における画素 # 4の位置における値 Q4が時間 1/vだけ時間積分された値 である Q4/vとなる。
次に、 時刻 1/vから時刻 2/vまでの 1/vの間に、 画素 # 4には、 その画素 #4の位置における近似関数 f(x)で表される光信号に対応する電荷が蓄積さ れる。 このとき、 実世界 1の光信号が動き量 Vで水平方向に移動していると いう定常性により、 近似関数 f(x)は、 露光開始時刻における状態から X方向 に 1画素分ずれた状態となっているので、 画素 # 4に蓄積される電荷による 画素値は、 X方向に 1画素分ずれた近似関数 f(x)における画素 # 4の位置に おける値 Q3が時間 1/vだけ時間積分された値である Q3/vとなる。
露光時間の間に、 近似関数 f(x)は X方向に等速で移動するので、 以下、 上 述した場合と同様に、 画素 # 4には、 時刻 2/v力ゝら時亥 lj 3/vまでの時間 1/v ' の間に、 画素値 Q2/vに対応する電荷が蓄積され、 時刻 3/vから時刻 4/vまで の時間 1/vの間に、 画素値 Qi/vに対応する電荷が蓄積される。 さらに、 画素 #4には、 時亥 IJ4/V力 ら時刻 5/v (図 148 Cの場合、 時刻 1、 即ち、 露光 終了時刻〉 までの時間 1/vの間に、 画素値 Q。/vに対応する電荷が蓄積される。 従って、 最終的には、 画素 # 4の画素値 P4は、 これらの画素値の和、 即ち、 Qi/ +Qa/ +Qz/ +Qi/v+Qo/vとなる。
画素 # 4以外の画素も同様に考えられるので、 領域 12031の画素の画素値 P4乃至 P7は、 動き量 Vと動きボケのない画素値 Q。乃至 Q7 を用いて、 以下 の式 (1 5 1) で表される。
Figure imgf000294_0001
p5 = (0^02+03+04+05)^
P6二 (Q2+Q3+Q4+Q5+Q6) v
P7 = (Q3+Q4+Q5+Q6+Q7)zv
• · · (1 5 1)
以上のように、 センサ 2が出力する画素値 Pi ( i =0, 1, · ■ ·, 7) は、 複数の動きボケのない画素値 Qi の和 (積分) となるため、 動きボケを有 するものとなる。
ここで、 近似関数 f(x)は、 露光開始時刻における処理領域の画素 # 0乃至 # 7に射影される実世界の光信号を近似する。 そして、 いまの場合、 処理領域 における被写体が X方向 (左から右方向) に移動している。 このため、 処理領 域の左側にある画素、 即ち、 図 148 Cにおいては、 画素 # 0, # 1, # 2, # 3の画素値は、 近似関数 f(x)を用いて表すことができない。 これにより、 式 (1 5 1) においては、 動きボケのない画素値、 つまり求めるべき変数 Q。 乃至 Q7 の数が、 方程式の数より多くなる。
即ち、 式 (1 5 1) においては、 求めるべき変数が Q。乃至 Q7 の 8変数で あるのに対して、 方程式が 8より少ない 4式となっている。 従って、 動きボケ のない画素値 Q。乃至 Q7 を求めるためには、 動きボケのない画素値 Q。乃至 Q7 を用いた独立の方程式がさらに必要となる。 そこで、 ここでは、 例えば、 動きボケのない画素値 Q。乃至 Q7を拘束する方程式を代入することとする。 この方程式については、 後述する。 図 1 4 3の実世界推定部 12003は、 処理領域の X方向の画素数と動き量 V に応じて、 式 (1 5 1 ) と同様の式を関係モデルとして生成し、 その関係モデ ルに基づいて、 動きボケのない画素値、 即ち、 実世界 1の光信号を近似する近 似モデルとしての近似関数 f (x)を求める。
次に、 図 1 4 9のフローチャートを参照して、 実世界推定部 12003 (図 1 4 3 ) の実世界の推定処理 (図 1 4 4のステップ S12008の処理) について詳細 に説明する。
ステップ S 12031において、 モデル生成部 12011は、 関係モデルを生成する c 即ち、 モデル生成部 12011が、 処理領域設定部 12001から供給される処理領 域情報から、 入力画像における処理領域を認識するとともに、 定常性設定部 12002から供給される定常性情報から、 処理領域の画像データに対応する動き 量を認識する。 さらに、 モデル生成部 12011は、 入力画像における処理領域 について、 その処理領域の水平ラインを構成する画素と、 その処理領域の画像 データに対応する動き量に応じて、 処理領域内のセンサ 2で検出された各画素 の画素値 P i と、 実世界 1の光信号を近似する近似モデルで表される動きボケ のない画素の画素値 Q i との関係をモデル化した関係モデルを処理領域の水平 ラインごとに生成し、 方程式生成部 12012に供給する。 そして、 モデル生成 部 12011は、 ステップ S12031からステップ S 12032に進む。
具体的には、 モデル生 J5¾部 12011は、 処理領域の水平ラインの画素数と動 き量に応じて、 図 1 4 8 A乃至図 1 4 8 Cで説明した、 処理領域の各水平ライ ンの画素の画素値 P i と、 動きボケのない画素値 Q i との関係を表す式を関係 モデルとして生成する。 例えば、 処理領域の水平ラインの画素数が 8であり、 動き量 Vが 5である場合、 関係モデルとして、 上述した式 (1 5 1 ) の方程' 式が生成される。
ステップ S 12032では、 方程式生成部 12012は、 方程式生成処理を行う。 即 ち、 方程式生成部 12012は、 処理領域設定部 12001から供給される処理領域 情報から、 入力画像における処理領域を認識し、 その処理領域について、 入力 画像の各画素の画素値 P i を、 モデル生成部 12011から供給される、 その処理 領域の各水平ラインに対して得られた関係モデルに代入し、 これにより、 実世 界 1の光信号を近似する近似関数で表される、 動きボケのない画素値 Qi を求 める式 (1 5 1 ) の方程式 (モデル方程式) を生成する。
さらに、 方程式生成部 12012は、 処理領域設定部 12001から供給される処 理領域情報から認識される処理領域の水平ラインにおける実世界 1の光信号を 近似する近似モデルを拘束する方程式である拘束条件式を生成する。 即ち、 モ デル方程式では、 式 (1 5 1 ) に示したように、 求めたい変数である動きボケ のない画素値 Q i の方が、 方程式の数より多いため、 動きボケのない画素値 Q i を求めるには、 方程式の総数を動きボケのない画素値 Q i の数以上とする方 程式を導入する必要がある。 ここで、 方程式生成部 12012は、 隣接する画素 の、 近似関数で表される動きボケのない画素値 Qi の差が小さい (空間相関が ある) という拘束条件式を生成する。 そして、 方程式生成部 12012は、 生成 したモデル方程式と拘束条件式を合わせて、 正規方程式を生成し、 実世界波形 推定部 12013に供給して、 ステップ S12032からステップ S 12033に進む。
なお、 以下、 このような方程式生成部 12012が実行するステップ S12032の 処理を、 「方程式生成処理」 と称する。 「方程式生成処理」 の詳細については、 図 1 5 1のフローチヤ一トを参照して後述する。
ステップ S 12033において、 実世界波形推定部 12013は、 方程式生成部 12012から供給される、 処理領域の各水平ラインについての正規方程式を解く ことにより、 実世界 1の光信号の波形を推定、 即ち、 近似関数で表される動き ポケのない画素値 Q i を求め、 その画素値を、 画像生成部 12004に供給する。 次に、 図 1 5 0は、 図 1 4 3の方程式生成部 12012の詳細構成例を示して ' いる。
図 1 5 0では、 方程式生成部 12012は、 モデル方程式生成部 12051、 拘束条 件式生成部 12052、 および正規方程式生成部 12053から構成されている。 図 1 5 0に構成を示す方程式生成部 12012 には、 モデル生成部 12011 から、 処理領域の各水平ラインの画素の画素値 (動きボケ画像の画素値) と、 動きボ ケのない画素値との関係をモデル化した関係モデルが入力され、 モデル方程式 生成部 12051に供給される。 また、 方程式生成部 12012には、 入力画像が、 センサ 2 (図 1 ) から入力され、 その入力画像は、 モデル方程式生成部 12051 に供給される。 さらに、 方程式生成部 12012には、 処理領域情報が、 処理領 域設定部 12001から入力され、 その処理領域情報が、 モデル方程式生成部 12051と拘束条件式生成部 12052に供給される。
モデル方程式生成部 12051は、 処理領域情報から入力画像の処理領域を認 識し、 モデル生成部 12011から供給された関係モデルの動きボケ画像の各画 素の画素値 P i として、 入力画像の処理領域の画素値を代入して、 式 (1 5 1 ) のモデル方程式を生成する。 そして、 モデル方程式生成部 12051は、 正 規方程式生成部 12053に、 そのモデル方程式を供給する。 なお、 モデル生成 部 12011で得られる関係モデルは、 例えば、 式 (1 5 1 ) の動き量 Vに具体 的な値が代入されたものであり、 モデル方程式生成部 12051で得られるモデ ル方程式は、 さらに式 (1 5 1 ) の画素値 P 4乃至 P 7 に具体的な値が代入さ れたものである。
拘束条件式生成部 12052は、 処理領域情報に基づいて、 処理領域の各水平 ラインの画素に対して、 所定の拘束条件式を生成し、 その拘束条件式を正規方 程式生成部 12053に供給する。
正規方程式生成部 12053は、 モデル方程式生成部 12051から供給されたモ デル方程式と、 拘束条件式生成部 12052から供給された拘束条件式とを合わ ' せて正規方程式を生成し、 実世界波形推定部 120.13に供給する。
次に、 図 1 5 1のフローチャートを参照して、 方程式生成部 12012 (図 1 5 0 ) の方程式生成処理 (図 1 4 9のステップ S 12032の処理) について詳細に 説明する。 ステップ S 12051において、 モデル方程式生成部 12051は、 モデル生成部 12011から処理領域の水平ラインごとの関係モデルを取得し、 ステップ
S12052に進む。 ステップ S12052において、 モデル方程式生成部 12051は、 センサ 2から入力画像を取得するとともに、 処理領域設定部 12001から処理 領域情報を取得する。 そして、 モデル方程式生成部 12051は、 その入力画像 と処理領域情報から、 処理領域内の各画素の画素値 P i を認識し、 その画素値 P i を、 モデル生成部 12011から取得した式 (1 5 1 ) の関係モデルに代入す ることにより、 処理領域の水平ラインごとにモデル方程式を生成する。 さらに、 モデル方程式生成部 12051は、 そのモデル方程式を正規方程式生成部 12053 に供給する。 例えば、 モデル方程式生成部 12051が、 上述した式 (1 5 1 ) で表される関係モデルを、 モデル生成部 12011から取得した場合、 式 (1 5 1 ) の画素値 P 4乃至 P 7 に入力画像の画素値を代入することで、 モデル方程 式を生成する。
ステップ S 12052の処理後は、 ステップ S 12053に進み、 拘束条件式生成部 12052は、 処理領域情報に基づいて拘束条件式を生成し、 その拘束条件式を正 規方程式生 部 12053に供給して、 ステップ S 12054に進む。 即ち、 拘束条件 式生成部 12052は、 近似関数で表される動きボケのない画素のうちの隣接す るものどうしの画素値 Q i と Q i + 1 との差は小さいという拘束条件を表す拘束 条件式を、 処理領域の水平ラインの画素数に応じて生成する。 例えば、 処理領 域の水平ラインの画素数が 8個あり、 その 8画素の動きボケのない画素値を Q 。乃至 Q7で表す場合、 拘束条件式は、 例えば、 以下の式 (1 5 2 ) で表され る。 Q1 = Q2
Q2 = Q3
Q3 = Q4
Figure imgf000299_0001
Q5 = Qg
Figure imgf000299_0002
• · · ( 1 5 2 )
即ち、 式 (1 5 2 ) は、 処理領域の水平ラインにおいて、 隣接する画素どう しの画素値 Qi と Q i + 1 とが等しいことを表している。
ステップ S 12054において、 正規方程式生成部 12053は、 モデル方程式生成 部 12051から供給された式 (1 5 1 ) のモデル方程式と、 拘束条件式生成部 12052から供給された式 (1 5 2 ) の拘束条件式を合わせて、 正規方程式を生 成し、 その正規方程式を実世界波形推定部 12013に供給する。
この後、 実世界波形推定部 12013は、 正規方程式生成部 12053から供給さ れた正規方程式を、 例えば、 最小二乗誤差最小規範で解くことにより、 処理領 域の各水平ラインの画素の動きボケのない画素値 Qi を求める。
なお、 上述した実世界波形推定処理は、 処理領域内の水平方向に並ぶ画素 (水平ライン) 毎に行なわれる。 即ち、 実世界波形推定部 12013は、 水平ラ イン毎に、 処理領域の各画素の動きボケのない画素値 Qi を求める。 そして、 実世界波形推定部 12013は、 処理領域内の全ての水平ラインにおいて、 各画 素の動きボケのない画素値 Q i を求めた後、 処理領域の各画素の動きボケのな い画素値 Q i を、 画像生成部 12004に供給する。 画像生成部 12004は、 入力画 像における処理領域の各画素の画素値 P i を、 動きボケのない画素値 Qi に置 き換えた画像を、 出力画像として生成し、 画像表示部 12005に供給して表示 させる。 ここで、 図 1 5 2 A乃至図 1 5 2 Cは、 センサ 2から出力される処理領域の ある水平ラインの画素の画素値 Pi と、 その水平ラインの動きボケのない画素 の画素値 Qi との関係を示している。 なお、 図中、 図 148 A乃至図 148 C における場合と対応する部分については同一の符号を付してあり、 以下では、 その説明は適宜省略する。
図 1 52 A乃至図 1 52 Cは、 基本的には、 上述の図 148 A乃至図 148 Cとそれぞれ同様の図であり、 従って、 動きボケのない画素値 Qi と、 動きポ ケが生じている画素値 Pi との関係を表している。
さらに、 図 1 52Aにおいて、 動きボケのない画素の上に付した矢印 12061-1乃至 12061-7は、 その矢印の両端が示す動きボケのない画素どうし の画素値 と Qi + 1 との差が小さいという拘束条件を表している。 図 1 52 Aに示した拘束条件は、 処理領域である領域 12031の水平ラインにおいて、 動きボケのない画素のうちの隣接する全ての画素どうしの画素値 Qi と Qi + 1 の差が小さいことを表している。 図 1 50の拘束条件式生成部 12052では、 この図 1 52Aに示した拘束条件を採用し、 その拘束条件を表す式 (1 5 2) の拘束条件式を生成する。
図 1 53は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施の形態 の構成例を示している。
なお、 図 1 5 3は、 例えば、 一定方向に一定の速さで移動するという定常性 を有するデータ 3の一例である動きボケ画像データから、 実世界 1の光信号を 推定する信号処理装置 4の一実施の形態の構成例を示している。 即ち、 この信 号処理装置 4は、 例えば、 撮影時に被写体 (オブジェクト) が動いたことによ り、 被写体がボケて撮影されてしまった画像 (動きボケ画像) から、 そのボケ がない画像 (動きボケのない画像) を推定する。 従って、 図 1 5 3の実施の形 態では、 入力画像として、 移動しているォブジェクトを撮影することにより得 られた動きボケが生じている動きボケ画像が、 信号処理装置 4に入力される。 なお、 ここでは、 入力画像として、 水平方向 (左から右方向) に一定の速さ (動き量) で移動しているォブジェク トを撮像して得られる画像を採用する。 図 1 5 3において、 処理領域設定部 12071、 定常性設定部 12072、 実世界推 定部 12073、 画像生成部 12074、 画像表示部 12075、 ユーザ I F 12076は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I Z F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006それ ぞれと同様の処理を行う。 さらに、 図' 1 5 3において、 実世界推定部 12073 は、 モデル生成部 12081、 方程式生成部 12082、 実世界波形推定部 12083で構 成されている。 モデル生成部 12081、 方程式生成部 12082、 実世界波形推定部 12083は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 但し、 図 1 5 3においては、 ユーザがユーザ I ZF 12076を操作することに より、 ユーザ I / F 12076が出力する補助情報が、 処理領域設定部 12071 と実 世界推定部 12073に供給されるようになつている。
即ち、 図 1 5 3では、 ユーザは、 ユーザ I / F 12076 を操作することにより、 画像表示部 12075に表示された画像に対して、 動きボケのない画像が平坦で あると推定される領域を平坦領域として指示することができるようになってお り、 ユーザ I Z F 12076は、 ユーザが平坦領域を指示する操作を行うと、 その 操作によって指定された領域としての平坦領域を表す平坦領域指示情報を、 処 理領域設定部 12071と実世界推定部 12073に供給する。
なお、 ユーザ I Z F 12076を操作することにより平坦領域を指示する方法と しては、 例えば、 平坦領域を囲む矩形によって指示する方法、 平坦領域をトリ ム.(trim)することによって指示する方法、 平坦領域の中の任意の 1点以上を ポインティングすることによって指示する方法などがあるが、 ここでは、 例え ば、 ユーザは、 平坦領域の中の任意の 1点を、 ユーザ I Z F 12076を操作する ことによりポインティングすることによって、 平坦領域を指示するものとする。 この場合、 ユーザ I ZF 12076は、 ユーザがポインティングした点を表す情報 としての、 例えば、 その点の、 画像上の座標を、 平坦領域指示情報として、 処 理領域設定部 12071と実世界推定部 12073に供給する。
次に、 図 1 5 4のフローチヤ一トを参照して、 図 1 5 3の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S 12071 において、 信号処理装置4は、 前処理を行い、 ステップ S12072に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ ータ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 12071、 定常性設定部 12072、 実世界推定部 12073、 画像生成 部 12074、 および画像表示部 12075に供給する。 さらに、 信号処理部 4は、 画 像表示部 12075に、 入力画像を表示させる。
ステップ S 12072では、 ユーザ I Z F 12076は、 ユーザがユーザ I / F 12076を操作することにより、 何らかのユーザ入力があつたかどうかを判定す る。 ステップ S12072において、 ユーザ入力がなかったと判定された場合、 即 ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12073乃至 S12075 をスキップして、 ステップ S 12076に進む。
また、 ステップ S12072において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが画像表示部 12075に表示された入力画像を見て、 ユーザ I Z F 12076を操作し、 これにより、 何らかの指示または情報を表すユーザ入力が あった場合、 ステップ S 12073に進み、 ユーザ I ZF 12076は、 そのユーザ入 力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定 する。
ステップ S 12073 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12075に表示された入力画像を見たユーザが、 そ の入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了するように、 ユーザ I Z F 12076を操 作した場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 12073において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S12074に進み、 ユーザ I / F 12076は、 ユーザ入力が平坦 領域指示情報であるかどうかを判定する。 ステップ S12074において、 ユーザ 入力が平坦領域指示情報でないと判定された場合、 ステップ S 12075をスキッ プして、 ステップ S12076に進む。
一方、 ステップ S 12074において、 平坦領域指示情報の入力があつたと判定 された場合、 即ち、 画像表示部 12075 に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 動きボケのない画像が平坦な画像であると 推定される箇所をポインティングするように、 ユーザ I Z F 12076を操作した 場合、 ステップ S 12075に進み、 ユーザ I Z F 12076は、 ユーザがユーザ I / F 12076を操作することによってポインティングした点を表す平坦領域指示情 報を、 処理領域設定部 12071 と実世界推定部 12073に供給し、 ステップ
S12076に進む。
ステップ S 12076では、 処理領域設定部 12071は、 ユーザ I Z F 12076から 供給された平坦領域指示情報に基づいて、 例えば、 平坦領域を含む所定の矩形 の領域を処理領域として設定し、 その処理領域情報を、 定常性設定部 12072、 実世界推定部 12073、 および画像生成部 12074に供給し、 ステップ S12077に 進む。 なお、 この処理領域は、 ユーザがユーザ I ZF 12076を操作して入力し てもよい。
但し、 ユーザ I / F 12076から処理領域設定部 12071に平坦領域指示情報が 供給されなかった場合 (ステップ S12072またはステップ S12074の処理直後 にステップ S 12076の処理が行なわれる場合) には、 処理領域設定部 12071は、 所定の処理 (例えば、 入力画像において、 動きボケが生じている領域を検出す る処理) を行うことにより、 自動的に処理領域を設定する。 ステップ S12077では、 定常性設定部 12072は、 処理領域設定部 12071から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 12072は、 その処理領域の画像データにおいて欠落した実世界 1の光信号の定常性を表す情報として、 処理領域に表示されたオブジェクトの 動き量を設定し、 その定常性を表す定常性情報を、 実世界推定部 12073に供 給して、 ステップ S 12078に進む。 なお、 この動き量は、 ユーザがユーザ I / F 12076を操作して入力してもよい。 また、 ここでは、 定常性設定部 12072は、 入力画像において、 オブジェクトが水平方向に移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報として設定するようにしたが、 その他、 オブジェクトの動きの大きさと方向を表す動きベクトルを、 定常性情 報として設定することも可能である。
ステップ S 12078では、 実世界推定部 12073は、 処理領域設定部 12071から 供給された処理領域情報と、 ユーザ I Z F 12076から供給された平坦領域指示 情報に応じて、 入力画像における処理領域内の画像データ (動きボケ画像デー タ) から、 対応する実世界 1の光信号の動き量に基づいて、 その実世界 1の光 信号 (動きボケのない画像) を推定する。
即ち、 実世界推定部 12073では、 モデル生成部 12081が、 処理領域設定部 12071から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 12072から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の光信号の動き量、 つまり、 ここでは、 処理 領域に表示されたオブジェク トの動き量を認識する。 さらに、 モデル生成部 12081は、 入力画像における処理領域の各水平ラインを構成する画素と、 その 処理領域の画像データに対応する実世界 1の光信号の動き量に応じて、 処理領 域の各水平ラインの画素の画素値と実世界 1の光信号との関係をモデル化した 関係モデルを処理領域の水平ラインごとに生成し、 方程式生成部 12082に供 給する。 方程式生成部 12082は、 処理領域設定部 12071から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域に応じて、 入力画 像の各画素の画素値を、 モデル生成部 12081から供給される処理領域の水平 ラインごとの関係モデルに代入し、 これにより、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式を生成して、 実世界波形推定部 12083に供給する。 さらに、 方程式生成部 12082は、 処理領域情報または平坦 領域指示情報に基づいて、 近似関数を拘束する拘束条件式を生成し、 実世界波 形推定部 12083に供給する。
実世界波形推定部 12083は、 方程式生成部 12082から供給される方程式を 演算することにより、 実世界 1の光信号の波形を推定する。 即ち、 実世界波形 推定部 12083は、 方程式生成部 12012から供給される方程式を解くことによ り、 実世界 1の光信号をモデル化した近似モデルとしての近似関数を求め、 実 世界 1の光信号の波形の推定結果として、 画像生成部 12074に供給する。
なお、 以下、 このような実世界推定部 12073が実行するステップ S12078の 処理を、 「実世界の推定処理」 と称する。 「実世界の推定処理」 の詳細につい ては、 図 1 5 5のフローチャートを参照して後述する。
ステップ S12078の処理後は、 ステップ S 12079に進み、 画像生成部 12074 は、 実世界推定部 12073 (の実世界波形推定部 12083) から供給された、 実世 界 1の光信号の波形を近似する近似関数に基づいて、 実世界 1の光信号により 近似した信号を生成する。 即ち、 画像生成部 12074は、 処理領域設定部 120ァ1 から供給される処理領域情報から、 入力画像における処理領域を認識し、 その 処理領域について、 実世界推定部 12073から供給される近似関数に基づき、 実世界 1の光信号により近似した近似画像 (ここでは、 例えば、 動きボケのな い画像) を生成する。
さらに、 画像生成部 12074は、 入力画像の処理領域の部分を、 近似画像
(動きボケのない画像) に置き換えた画像を、 出力画像として生成し、 画像表 示部 12075に供給して、 ステップ S 12079から S12080に進む。 ステップ S12080では、 画像表示部 12075は、 画像生成部 12074から供給さ れた出力画像を、 ステップ S 12071で表示された入力画像に代えて、 またはそ の入力画像とともに表示し、 ステップ S12081に進む。
ステップ S12081では、 ユーザ I / F 12076は、 ステップ S12072における 場合と同様に、 ユーザがユーザ I Z F 12076を操作することにより、 何らかの ユーザ入力があつたかどうかを判定し、 ユーザ入力がなかったと判定した場合、 即ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12081に戻り、 何 らかのユーザ入力があるまで待つ。
また、 ステップ S 12081において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが、 画像表示部 12075 に表示された入力画像や出力画像を見て、 ユーザ I / F 12076を操作し、 これにより、 何らかの指示または情報を表すュ 一ザ入力があった場合、 ステップ S12082に進み、 ユーザ I / F 12076は、 そ のユーザ入力が、 信号処理装置 4の処理の終了を指示する終了指示であるかど うかを判定する。
ステップ S 12082 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12075に表示された出力画像を見たユーザが、 そ の出力画像の画質に不満を感じず、 出力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了するように、 ユーザ I 12076を操 作した場合、 信号処理装置 4は処理を終了する。
また、 ステップ S12082において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S 12083に進み、 ユーザ I ZF 12076は、 ユーザ入力が平坦 領域指示情報であるかどうかを判定する。 ステップ S12083において、 ユーザ 入力が平坦領域指示情報でないと判定された場合、 ステップ S 120S1に戻り、 以下、 同様の処理が繰り返される。
また、 ステップ S 12083において、 ユーザ入力が平坦領域指示情報であると 判定された場合、 即ち、 画像表示部 12075に表示された出力画像を見たユー ザが、 その出力画像の画質に不満を感じ、 その出力画像に対して、 動きボケの ない画像が平坦であると推定される箇所をボインティングするように、 ユーザ I Z F 12076を操作した場合、 ステップ S 12075に戻り、 上述したように、 ュ 一ザ I / F 12076は、 ユーザがユーザ I / F 12076を操作することによってポ インティングした点を表す平坦領域指示情報を、 処理領域設定部 12071と実 世界推定部 12073に供給する。 そして、 ステップ S 12075からステップ S12076に進み、 以下、 同様の処理が繰り返される。
即ち、 これにより、 ステップ S12075乃至 S12083の処理が繰り返され、 出 力画像に対するユーザの不満が解消され、 その結果、 ユーザが所望する画質の 出力画像が得られる。
以上のように、 信号処理装置 4では、 入力画像に対する処理結果としての出 力画像をユーザに提示.し、 その出力画像から、 動きボケのない画像が平坦な画 像であると推定される新たな平坦領域を指示してもらい、 その平坦領域に基づ いて、 再度処理を行うようにしたので、 ユーザの好みにあった、 高画質の出力 画像を、 容易に得ることができる。
即ち、 信号処理装置 4は、 入力画像に対する処理結果として出力画像をユー ザに提示する。 一方、 ユーザは、 その出力画像を認識し、 動きボケのない画像 が平坦な画像であると推定される領域を平坦領域として、 信号処理装置 4にフ イードバックする。 そして、 信号処理装置 4は、 そのユーザからのフィードバ ックを踏まえ、 例えば、 入力画像のうちユーザから指示された平坦領域に対し てのみ、 実世界 1の光信号を近似する近似モデルとしての近似関数を拘束する 拘束条件式として、 隣接する画素の画素値の差分が小さいという拘束条件式を 生成する。 信号処理装置 4は、 その拘束条件式を用いて、 再度、 入力画像を処 理し、 以下、 同様の処理が繰り返される。 従って、 信号処理装置 4は、 入力画 像のうち平坦な領域にのみ、 隣接する画素の画素値の差分が小さいという拘束 条件式を生成し、 エッジのある領域には、 隣接する画素の画素値の差分が小さ いという拘束条件式は生成せずに、 入力画像を処理するので、 入力画像におけ る平坦な領域のノイズが抑制され、 エッジのある領域のエッジは保たれ、 ユー ザの好みにあった、 高画質の出力画像を、 容易に得ることができる。
なお、 このように、 信号処理装置 4において、 ユーザからのフィードバック を受けて入力画像に対する処理を行うことは、 信号処理装置 4が、 ユーザと協 調しながら処理を行っているということができる。
次に、 図 1 5 5のフローチャートを参照して、 実世界推定部 12073 (図 1 5 3 ) の実世界の推定処理 (図 1 5 4のステップ S12078の処理) について詳細 に説明する。
ステップ S 12101において、 モデル生成部 12081は、 関係モデルを生成する。 即ち、 モデル生成部 12081が、 処理領域設定部 12071から供給される処理領 域情報から、 入力画像における処理領域を認識するとともに、 定常性設定部 12072から供給される定常性情報から、 処理領域の画像データに対応する動き 量を認識する。 さらに、 モデル生成部 12081は、 入力画像における処理領域 について、 その処理領域の水平ラインを構成する画素と、 その処理領域の画像 データに対応する動き量に応じて、 処理領域内のセンサ 2で検出された各画素 の画素値 P i と、 実世界 1の光信号を近似する近似モデルで表される動きボケ のない画素の画素値 Q i との関係をモデル化した関係モデルを、 処理領域の各 水平ライン毎に生成し、 方程式生成部 12082に供給する。 そして、 モデル生 成部 12081は、 ステップ S 12101からステップ Sl2102に進む。
具体的には、 モデル生成部 12011は、 処理領域の水平ラインの画素数と動 き量に応じて、 図 1 4 8 A乃至図 1 4 8 Cで説明した、 処理領域の各水平ライ ンの画素の画素値 P i と、 動きボケのない画素値 との関係を表す式を関係 モデルとして生成する。 例えば、 処理領域の水平ラインの画素数が 8であり、 動き量 Vが 5である場合、 関係モデルとして、 上述した式 (1 5 1 ) の方程 式が生成される。
ステップ S12102では、 方程式生成部 12082は、 方程式生成処理を行う。 即 ち、 方程式生成部 12082は、 処理領域設定部 12071から供給される処理領域 情報から、 入力画像における処理領域を認識し、 その処理領域について、 その 処理領域を構成する入力画像の各画素の画素値 P i を、 モデル生成部 12081か ら供給される、 その処理領域の各水平ラインに対して得られた関係モデルに代 入し、 これにより、 実世界 1の光信号を近似する近似関数で表される、 動きポ ケのない画素値 Qi を求める式 (1 5 1 ) の方程式 (モデル方程式) を生成す る。
さらに、 方程式生成部 12082は、 処理領域設定部 12071から供給される処 理領域情報から認識される処理領域の水平ラインにおける実世界 1の光信号を 近似する近似モデルを拘束する方程式である拘束条件式を生成する。 即ち、 モ デル方程式は、 式 (1 5 1 ) に示したように、 求めたい変数である動きボケの ない画素値 Q i の方が、 方程式の数より多いため、 動きボケのない画素値 Q i を求めるには、 方程式の総数を動きボケのない画素値 Q i の数以上とする方程 式を導入する必要がある。 ここで、 方程式生成部 12082 は、 隣接する画素の、 近似関数で表される動きボケのない画素値 Q i の差が小さい (空間相関があ る) という拘束条件式を生成する。 このとき、 方程式生成部 12082は、 ユー ザにより平坦領域が指示された場合、 その平坦領域に対してのみ拘束条件式を 生成する。
従って、 動きボケのない画像が平坦ではなく、 例えば、 何らかの模様があり、 アクティビティの高い画像である場合においても、 ユーザが所望する画質の動 きボケのない画像が得られる。 即ち、 方程式生成部 12082は、 動きポケのな い画像において、 平坦領域としてユーザにより指示されていない、 光の強度が 極端に異なるエッジ部分には、 隣接画素の画素値の差は小さいという拘束条件 を与えず、 平坦領域としてユーザにより指示された平坦部分には、 隣接画素の 画素値の差は小さいという拘束条件を与え、 拘束条件式を生成する。 その結果、 エッジ部分の画像においてはエッジが保たれ、 平坦部分の画像においてはノィ ズが抑制された、 画質の良い動きボケのない画像が得られる。 また、 ユーザが平坦領域を指示した場合、 ユーザが処理領域の全ての画素に 対して画素毎に拘束条件式を決定したり、 方程式生成部 12082が入力画像の 特徴量などから平坦である領域を推定し、 拘束条件式を決定する必要なく、 容 易に、 動きボケのない画像が平坦である領域にのみ、 拘束条件式を与えること ができる。 その結果、 信号処理装置 4は、 ユーザが所望する画質の出力画像を 容易に得ることができる。
方程式生成部 12082は、 生成したモデル方程式と拘束条件式を合わせて、 正規方程式を生成し、 実世界波形推定部 12083に供給して、 ステップ S12012 からステップ S 12013に進む。
なお、 以下、 このような方程式生成部 12082が実行するステップ S12102の 処理を、 「方程式生成処理」 と称する。 「方程式生成処理」 の詳細については、 図 1 5 7のフローチャートを参照して後述する。
ステップ S12103において、 実世界波形推定部 12083は、 方程式生成部 12082から供給される、 処理領域の各水平ラインについての正規方程式を解く ことにより、 実世界 1の光信号の波形を推定、 即ち、 近似関数で表される動き ボケのない画素値を求め、 その画素値を、 画像生成部 12074に供給する。
次に、 図 1 5 6は、 図 1 5 3の方程式生成部 12082の詳細構成例を示して いる。
図 1 5 6では、 方程式生成部 12082は、 モデル方程式生成部 12101、 拘束条 件式生成部 12102、 および正規方程式生成部 12103から構成されている。
図 1 5 6に構成を示す方程式生成部 12082 には、 モデル生成部 12081 から、 処理領域の各水平ラインの画素の画素値 (動きボケ画像の画素値) と、 動きボ ケのない画素値との関係をモデル化した関係モデルが入力され、 モデル方程式 生成部 12101に供給される。 また、 方程式生成部 12082には、 入力画像が、 センサ 2 (図 1 ) から入力され、 その入力画像は、 モデル方程式生成部 12101 に供給される。 さらに、 方程式生成部 12082には、 処理領域情報が、 処理領域設定部 12071 から入力され、 その処理領域情報が、 モデル方程式生成部 12101 と拘束条件 式生成部 12102に供給される。 また、 方程式生成部 120S2には、 平坦領域指 示情報が、 ユーザ I Z F 12076から入力され、 その平坦領域指示情報は、 拘束 条件式生成部 12102に供給される。
モデル方程式生成部 12101は、 処理領域情報から入力画像の処理領域を認 識し、 モデル生成部 12081から供給された関係モデルの動きボケ画像の各画 素の画素値 P i として、 入力画像の処理領域における画素値を代入して、 式 ( 1 5 1 ) のモデル方程式を生成する。 そして、 モデル方程式生成部 12101 は、 正規方程式生成部 12103に、 そのモデル方程式を供給する。 なお、 モデ ル生成部 12081で得られる関係モデルは、 例えば、 式 (1 5 1 ) の動き量 V に具体的な値が代入されたものであり、 モデル方程式生成部 12101で得られ るモデル方程式は、 さらに式 (1 5 1 ) の画素値 P 4乃至 P 7 に具体的な値が 代入されたものである。
拘束条件式生成部 12102は、 処理領域情報または平坦領域指示情報に基づ いて、 処理領域の各水平ラインの画素に対して、 所定の拘束条件式を生成し、 その拘束条件式を正規方程式生成部 12103に供給する。
正規方程式生成部 12103は、 モデル方程式生成部 12101から供給されたモ デル方程式と、 拘束条件式生成部 12102から供給された拘束条件式を合わせ て正規方程式を生成し、 実世界波形推定部 12083に供給する。
次に、 図 1 5 7のフローチャートを参照して、 方程式生成部 12082 (図 1 5 6 ) の方程式生成処理 (図 1 5 5のステップ S 12102の処理) について詳細に 説明する。
ステップ S 12121において、 モデル方程式生成部 12101は、 モデル生成部 12081から処理領域の水平ラインごとの関係モデルを取得し、 ステップ
S12122に進む。 ステップ S12122において、 モデル方程式生成部 12101は、 センサ 2から入力画像を取得するとともに、 処理領域設定部 12071から処理 領域情報を取得する。 そして、 モデル方程式生成部 12101は、 その入力画像 と処理領域情報から、 処理領域内の各画素の画素値 P i を認識し、 その画素値 P i を、 モデル生成部 12081から取得した式 (1 5 1 ) の関係モデルに代入す ることにより、 処理領域の水平ラインごとにモデル方程式を生成する。 さらに、 モデル方程式生成部 12101は、 そのモデル方程式を正規方程式生成部 12103 に供給する。 即ち、 例えば、 モデル方程式生成部 12101力 上述した式 (1 5 1 ) で表される関係モデルを、 モデル生成部 12081から取得した場合、 式 ( 1 5 1 ) の画素値 P 4乃至 P 7 に入力画像の画素値を代入することで、 モデ ル方程式を生成する。
ステップ S12122の処理後は、 ステップ S 12123に進み、 拘束条件式生成部 12102は、 ユーザ I Z F 12076から平坦領域指示情報が入力されたかどうかを 判定し、 平坦領域指示情報が入力されていないと判定した場合、 ステップ S12124をスキップし、 ステップ S12125に進む。 この場合、 ステップ S 12125 では、 拘束条件式生成部 12102は、 例えば、 処理領域設定部 12071が所定の 処理を行うことにより自動的に設定した処理領域情報に基づいて、 拘束条件式 を生成し、 その拘束条件式を正規方程式生成部 12103に供給して、 ステップ S12125からステップ S12126に進む。 即ち、 拘束条件式生成部 12102は、 近 似関数で表される動きボケのない画素のうちの隣接するものどうしの画素値 Q i と Q i + 1 との差は小さいという拘束条件を表す拘束条件式を、 例えば、 処理 領域の各水平ラインの全ての画素に対して生成する。 例えば、 処理領域の水平 ラインの画素数が 8個であり、 その 8画素の動きボケのない画素値を Q。乃至 Q7で表す場合、 拘束条件式は、 例えば、 上述した式 (1 5 2 ) で表される。 一方、 ステップ S12123で、 拘束条件式生成部 12102は、 ユーザ I / F 12076から平坦領域指示情報が入力されたと判定した場合、 拘束条件式生成部 12102は、 ステップ S 12124に進み、 ユーザ I / F 12076から平坦領域指示情 報を取得して、 ステップ S12125に進む。 8690
311
この場合、 ステップ S12125では、 拘束条件式生成部 12102は、 平坦領域指 示情報に基づいて、 拘束条件式を生成する。 即ち、 拘束条件式生成部 12102 は、 平坦領域に対してのみ拘束条件式を生成する (平坦領域の画素に対応する 拘束条件式に対する重みと平坦領域以外の画素に対応する拘束条件式に対する 重みを、 1対 1から 1対 0に変更する。 即ち、 拘束条件式の一部に対する重 みを変更する) 。 そして、 拘束条件式生成部 12102は、 生成した拘束条件式 を正規方程式生成部 12103に供給し、 ステップ S12125からステップ S12126 に進む。 '
例えば、 処理領域の水平ラインが図 1 4 8 A乃至図 1 4 8 Cまたは図 1 5 2 A乃至図 1 5 2 Cに示したように、 8個の画素 # 0乃至 # 7で構成され、 平坦 領域として、 その 8画素 # 0乃至 # 7のうちの画素 # 0乃至 # 5が指定されて いる場合、 その画素 # 0乃至 # 5の動きボケのない画素値 Q。乃至 Q5 を用い て、 拘束条件式は、 例えば、 以下の式 (1 5 3 ) で表される。
Figure imgf000313_0001
Q1 = Q2
Q2 = Q3
Q3 =
Q4 = Q5
· · · ( 1 5 3 )
即ち、 式 (1 5 3 ) は、 平坦領域の隣接画素どうしの画素値 Qi と Q i + 1力 等しいことを表している。
従って、 実際の画像が平坦な領域にのみ、 動きボケのない画像の隣接画素の 画素値の差が小さいという拘束条件を与えることができるので、 信号処理装置 4は、 実世界 1の光信号により近似した動きボケのない画像を生成することが できる。
ステップ S 12126において、 正規方程式生成部 12103は、 モデル方程式生成 部 12101から供給された式 (1 5 1 ) のモデル方程式と、 拘束条件式生成部 12102から供給された式 (1 5 2 ) の拘束条件式または式 (1 5 3 ) の拘束条 件式 (重みが変更された拘束条件式) を合わせて、 正規方程式を生成し、 その 正規方程式を実世界波形推定部 12083に供給する。
この後、 実世界波形推定部 12083は、 正規方程式生成部 12103から供給さ れた正規方程式を、 例えば、 最小二乗誤差最小規範で解くことにより、 処理領 域の各水平ラインの画素の動きボケのない画素値 Q i を求める。
なお、 上述した実世界推定処理は、 処理領域内の水平方向に並ぶ画素 (水平 ライン) 毎に行なわれる。 即ち、 実世界波形推定部 12083は、 水平ライン毎 に、 処理領域の各画素の動きボケのない画素値 Q i を求める。 そして、 実世界 波形推定部 12083は、 処理領域内の全ての水平ラインにおいて、 各画素の動 きポケのない画素値 Qi を求めた後、 処理領域の各画素の動きボケのない画素 値 Qi を、 画像生成部 12074に供給する。 画像生成部 12074は、 入力画像にお ける処理領域の各画素の画素値 P i を、 動きボケのない画素値 Q i に置き換え た画像を、 出力画像として生成し、 画像表示部 12075 に供給して表示させる。 また、 上述の処理では、 ユーザは、 ユーザ I / F 12076を操作して、 出力画 像から平坦な領域を指示したが、 エッジのある領域を指示してもよい。 この場 合、 上述した処理と同様に、 指示されたエッジのある領域が、 エッジ領域指示 情報として、 処理領域設定部 12071と実世界推定部 12073に供給される。 そ して、 拘束条件式生成部 12102は、 処理領域のうち、 エッジ領域として指示 された領域以外の領域に対して拘束条件式を生成する (エッジ領域の画素に対 応する拘束条件式に対する重みと、 処理領域内のエツジ領域以外の領域の画素 に対応する拘束条件式に対する重みを、 1対 1から 0対 1に変更する) 。 即ち、 拘束条件式生成部 12102は、 エッジ領域に対する拘束条件式を生成しない。 ' さらに、 上述の処理では、 平坦領域以外に対する拘束条件式は生成しなかつ たが、 平坦領域以外の領域における拘束条件式も、 平坦領域における拘束条件 式に対する重みに比べて小さい重みを付けて、 生成してもよい。 この場合、 例 えば、 平坦領域における拘束条件式に対しては重み 1を付け、 平坦領域以外の 領域における拘束条件式に対しては、 例えば、 0 . 5などの 1より小さい重み を付けた拘束条件式が生成される。
図 1 5 8と図 1 5 9は、 図 1 5 3の信号処理装置 4の処理の概要を説明する 図である。
図 1 5 8で示すように、 ユーザは、 入力画像 12121を見て、 動きボケのな い画像 12123を想像し、 平坦であると推定される領域を、 入力画像 12121に 対して、 平坦領域として指示する。 また、 ユーザは、 入力画像 12121に対し て信号処理装置 4で処理された処理結果としての出力画像 12122を見て、 動 きボケのない画像 12123を想像し、 平坦であると推定される領域を、 出力画 像 12122に対して、 平坦領域として指示する。 そして、 信号処理装置 4は、 ユーザが平坦領域として指示した領域に対してのみ拘束条件式を生成し、 その 拘束条件式を用いて、 実世界 1の光信号により近似した動きボケのない画像を 生成する。
このように、 信号処理装置 4では、 入力画像または出力画像がユーザに提示 され、 ユーザは、 その入力画像または出力画像に対して平坦領域を指示する。 信号処理装置 4では、 その平坦領域に対して、 動きボケのない画像の隣接画素 の画素値の差は小さいという拘束条件を与えるようにしたので、 簡単に最適な 拘束条件を設定し、 実世界 1の光信号により近似した画像を得ることができる。 また、 ユーザは、 画質に対する不満をダイレクトに信号処理装置 4に指示する ことが可能であり、 所望の画質の画像または所望の画質に近い画像を容易に得 ることができる。
図 1 5 9は、 ユーザが、 入力画像を見て平坦領域を指示した場合と指示しな い場合の信号処理装置 4の処理を説明する図である。
図 1 5 9で示すように、 ユーザが、 入力画像 12142に対して平坦領域を指 示しない場合、 信号処理装置 4により処理領域が決定され、 その処理領域の各 水平ラインの全ての画素に対して、 いわば均一 (平等) に拘束条件式が生成さ れる (均一処理) 。 一方、 ユーザが、 その入力画像 12142を見て、 動きボケのない画像 12123 を想像し、 その動きボケのない画像 12123が平坦な領域を、 入力画像 12142 に対して指示した場合、 不均一処理が行なわれる。 即ち、 図 1 5 9の例では、 ユーザは、 入力画像の画素値が P 3 と P 4である画素を、 平坦領域として指示 している。
信号処理装置 4は、 ユーザにより指示された平坦領域に基づいて、 入力画像 の画素値が P 3 と P 4である画素に対応する動きボケのない画素値 Q3 と Q4の 差が小さいという拘束条件式を生成する。 また、 信号処理装置 4は、 処理領域 の平坦領域以外の画素に対しては、 平坦領域に対する拘束条件式より小さい重 みを付けた拘束条件式を生成する。 即ち、 拘束条件式は、 処理領域に対して、 いわば不均一に生成される (不均一処理) 。
従って、 信号処理装置 4は、 複雑な処理を行なわずに、 実際の画像が平坦な 領域に、 処理領域内の他の領域に比べて大きい重みを付けた拘束条件を与える ことができる。 その結果、 信号処理装置 4は、 動きボケのない画像を、 より実 際の画像に近いものとすることができる。
図 1 6 O A乃至図 1 6 0 Cは、 センサ 2から出力される処理領域のある水平 ラインの画素の画素値 P i と、 その水平ラインの動きボケのない画素の画素値 Q i との関係を示している。 なお、 図中、 図 1 5 2 A乃至図 1 5 2 Cにおける 場合と対応する部分については同一の符号を付してあり、 以下では、 その説明 は適宜省略する。
図 1 6 0 A乃至図 1 6 0 Cは、 基本的には、 上述の図 1 5 2 A乃至図 1 5 2 Cとそれぞれ同様の図であり、 従って、 動きボケのない画素値 Q i と、 動きポ ケが生じている画素値 P i との関係を表している。
図 1 6 O A乃至図 1 6 0 Cの'例では、 ユーザは、 ユーザ I Z F 12076を操作 することにより、 動きボケのない画素値が Q。 と である画素の領域、 動き ボケのない画素値が Q2乃至 Q5である画素の領域、 および動きボケのない画 素値が Q6 と Q7である画素の領域を、 平坦領域として指示している。 従って、 図 1 6 O Aに示すように、 動きボケのない画素値が Q。 と であ る画素の領域、 動きボケのない画素値が Q2乃至 Q5である画素の領域、 およ び動きボケのない画素値が Q6 と Q7である画素の領域 (平坦領域として指示 された領域) に対してのみ、 動きボケのない画素のうちの隣接する画素どうし の画素値 Qi と Q i + 1 との差が小さいという拘束条件が与えられている。
図 1 6 1は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施の形態 の構成例を示している。
なお、 図 1 6 1は、 例えば、 一定方向に一定の速さで移動するという定常性 を有するデータ 3の一例である動きボケ画像データから、 実世界 1の光信号を 推定する信号処理装置 4の一実施の形態の構成例を示している。 即ち、 この信 号処理装置 4は、 例えば、 撮影時に被写体 (オブジェクト) が動いたことによ り、 被写体がボケて撮影されてしまった画像 (動きボケ画像) から、 そのボケ がない画像 (動きボケのない画像) を推定する。 従って、 図 1 6 1の実施の形 態では、 入力画像として、 移動しているオブジェクトを撮影することにより得 られた動きボケが生じている動きボケ画像が、 信号処理装置 4に入力される。 なお、 ここでは、 入力画像として、 水平方向 (左から右方向) に一定の速さ (動き量) で移動しているオブジェク トを撮像して得られる画像を採用する。 図 1 6 1において、 処理領域設定部 12161、 定常性設定部 12162、 実世界推 定部 12163、 画像生成部 12164、 画像表示部 12165、 ユーザ Iノ F 12166は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ Iノ F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I Z F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 6 1において、 実世界推定部 12163 は、 モデル生成部 12171、 方程式生成部 12172、 実世界波形推定部 12173で構 成されている。 モデル生成部 12171、 方程式生成部 12172、 実世界波形推定部 12173は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 但し、 図 1 6 1においては、 ユーザがユーザ I Z F 12166を操作することに より、 ユーザ I Z F 12166が出力する補助情報が、 処理領域設定部 12161 と実 世界推定部 12163に供給されるようになっている。
即ち、 図 1 6 1では、 ユーザは、 ユーザ I Z F 12166 を操作することにより、 画像表示部 12165に表示された画像に対して、 不満のある領域を不満領域と して指示することができるようになつており、 ユーザ I / F 12166は、 ユーザ が不満領域を指示する操作を行うと、 その操作によって指定された領域として の不満領域を表す不満領域指示情報を、 処理領域設定部 12161と実世界推定 部 12163に供給する。 さらに、 図 1 6 1では、 画像表示部 12165には、 後述 するように、 複数の出力画像が表示されるが、 ユーザは、 ユーザ I Z F 12166 を操作することにより、 画像表示部 12165に表示された出力画像を選択する ことができるようになつており、 ユーザ I Z F 12166は、 ユーザが出力画像を 選択する操作を行うと、 その操作によって選択された出力画像を表す選択情報 を、 補助情報として、 処理領域設定部 12161と実世界推定部 12163に供給す る。
なお、 ユーザ Iノ F 12166を操作することにより不満領域を指示する方法と しては、 例えば、 不満領域を囲む矩形によって指示する方法、 不満領域をトリ ム(trim)することによって指示する方法、 不満領域の中の任意の 1点以上を ポインティングすることによって指示する方法などがあるが、 ここでは、 例え ば、 ユーザは、 不満領域の中の任意の 1点を、 ユーザ I Z F 12166を操作する ことによりポインティングすることによって、 不満領域を指示するものとする。 この場合、 ユーザ I Z F 12166は、 ユーザがポインティングした点を表す情報 としての、 例えば、 その点の、 画像上の座標を、 不満領域指示情報として、 処 理領域設定部 12161と実世界推定部 12163に供給する。 次に、 図 1 6 2のフローチヤ一トを参照して、 図 1 6 1の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S 12141 において、 信号処理装置 4は、 前処理を行い、 ステップ S12142に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ ータ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 12161、 定常性設定部 12162、 実世界推定部 12163、 画像生成 部 12164、 および画像表示部 12165に供給する。 さらに、 信号処理部 4は、 画 像表示部 12165に、 入力画像を表示させる。
ステップ S 12142では、 ユーザ I / F 12166は、 ユーザがユーザ I / F 12166を操作することにより、 何らかのユーザ入力があつたかどうかを判定す る。 ステップ S12142において、 ユーザ入力がなかったと判定された場合、 即 ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12143乃至 S12145 をスキップして、 ステップ S12146に進む。
また、 ステップ S 12142において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが画像表示部 12165に表示された入力画像を見て、 ユーザ 1 / F 12166を操作し、 これにより、 何らかの指示または情報を表すユーザ入力が あった場合、 ステップ S 12143に進み、 ユーザ I F 12166は、 そのユーザ入 力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定 する。
ステップ S12143 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12165に表示された入力画像を見たユーザが、 そ の入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了す.るように、 -ユーザ I ZF 12166を操 作した場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 12143において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S12144に進み、 ユーザ I Z F 12166は、 ユーザ入力が不満 領域指示情報であるかどうかを判定する。 ステップ S12144において、 ユーザ 入力が不満領域指示情報でないと判定された場合、 ステップ Sl2145をスキッ プして、 ステップ S12146に進む。
一方、 ステップ S12144において、 不満領域指示情報の入力があつたと判定 された場合、 即ち、 画像表示部 12165 に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 不満な箇所をポインティングするように、 ユーザ I Z F 12166を操作した場合、 ステップ S 12145に進み、 ユーザ i Z F 12166は、 ユーザがユーザ I / F 12166を操作することによってポインティン グした点を表す不満領域指示情報を、 補助情報として、 処理領域設定部 12161 と実世界推定部 12163に供給し、 ステップ S12146に進む。
ステップ S12146では、 処理領域設定部 12161は、 ユーザ I Z F 12166から 供給された補助情報としての不満領域指示情報に基づいて、 例えば、 不満領域 を含む所定の矩形の領域を処理領域として設定し、 その処理領域情報を、 定常 性設定部 12162、 実世界推定部 12163、 および画像生成部 12164に供給して、 ステップ S12147に進む。 なお、 この処理領域は、 ユーザがユーザ I Z F 12166を操作して入力してもよい。
但し、 ユーザ I Z F 12166から処理領域設定部 12161に不満領域指示情報が 供給されなかった場合 (ステップ S12142またはステップ S12144の処理直後 にステップ S12146の処理が行われる場合) には、 処理領域設定部 12161は、 所定の処理 (例えば、 入力画像において、 動きボケが生じている領域を検出す る処理) を行うことにより、 処理領域の設定を行う。
ステップ S12147では、 定常性設定部 12162は、 処理領域設定部 12161から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 12162は、 その処理領域の画像データにおいて欠落した実世界 1の光信号の定常性を表す情報として、 処理領域に表示されたォブジェク トの 動き量を設定し、 その定常性を表す定常性情報を、 実世界推定部 121S3に供 給して、 ステップ S 12148に進む。 なお、 この動き量は、 ユーザがユーザ I F 12166を操作して入力してもよい。 また、 ここでは、 定常性設定部 12162は、 入力画像において、 ォブジェクトが水平方向に移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報として設定するようにしたが、 その他、 オブジェク トの動きの大きさと方向を表す動きべクトルを定常性情報 として設定することも可能である。
ステップ S 12148では、 実世界推定部 12163は、 処理領域設定部 12161から 供給された処理領域情報と、 ユーザ I / F 12166から供給された不満領域指示 情報に応じて、 入力画像における処理領域内の画像データ (動きボケ画像デー タ) から、 対応する実世界 1の光信号の動き量に基づいて、 その実世界 1の光 信号 (動きボケのない画像) を複数である N通りの方法で推定する。
即ち、 実世界推定部 12163では、 モデル生成部 12171が、 処理領域設定部 12161から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 12162から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の光信号の動き量、 つまり、 ここでは、 処理 領域に表示されたオブジェク トの動き量を認識する。 さらに、 モデル生成部 12171は、 入力画像における処理領域の各水平ラインを構成する画素と、 その 処理領域の画像データに対応する実世界 1の光信号の動き量に応じて、 処理領 域の各水平ラインの画素の画素値と実世界 1の光信号との関係をモデル化した 関係モデルを処理領域の水平ラインごとに生成し、 方程式生成部 12172に供 給する。
方程式生成部 12172は、 処理領域設定部 12161から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域に応じて、 入力画 像の各画素の画素値を、 モデル生成部 12171から供給される処理領域の水平 ラインごとの関係モデルに代入し、 これにより、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式を生成する。 さらに、 方程式生成 部 12172は、 処理領域情報または不満領域指示情報に基づいて、 近似関数を 拘束する拘束条件式に N通りの重みを付けた、 N通りの拘束条件式を生成する。 方程式生成部 12172は、 実世界 1の光信号を近似する近似モデルとしての近 似関数を求める方程式と N通りの拘束条件式のそれぞれとを合わせて、 N通り の正規方程式を生成し、 実世界波形推定部 12173に供給する。
実世界波形推定部 12173は、 方程式生成部 12172から供給される N通りの 正規方程式をそれぞれ演算することにより、 N通りの実世界 1の光信号の波形 を推定する。 即ち、 実世界波形推定部 12173は、 方程式生成部 12172から供 給される N通りの正規方程式をそれぞれ解くことにより、 実世界 1の光信号を モデル化した近似モデルとしての N通りの近似関数を求め、 N通りの実世界 1 の光信号の波形の推定結果として、 画像生成部 12164に供給する。
なお、 以下、 このような実世界推定部 12163が実行するステップ S12148の 処理を、 「実世界の推定処理」 と称する。 「実世界の推定処理」 の詳細につい ては、 図 1 6 3のフローチャートを参照して後述する。
ステップ S12148の処理後は、 ステップ S 12149に進み、 画像生成部 12164 は、 実世界推定部 12163 (の実世界波形推定部 12173) から供給された、 実世 界 1の光信号の波形を近似する N通りの近似関数に基づいて、 実世界 1の光信 号により近似した N通りの信号を生成する。 即ち、 画像生成部 12164は、 処 理領域設定部 12161から供給される処理領域情報から、 入力画像における処 理領域を認識し、 その処理領域について、 実世界推定部 12163から供給され る N通りの近似関数に基づき、 実世界 1の光信号により近似した N通りの近似 画像 (動きボケのない画像) を生成する。
さらに、 画像生成部 12164は、 入力画像の処理領域の部分を、 N通りの近 似画像 (動きボケのない画像) に置き換えた画像を、 N通りの出力画像として 生成し、 画像表示部 12165に供給して、 ステップ S 12149から S12150に進む。 ステップ S 12150では、 画像表示部 12165は、 画像生成部 12164から供給さ れた N通りの出力画像を、 ステップ S 12141で表示された入力画像に代えて、 またはその入力画像とともに表示し、 ステップ S12151に進む。
ステップ S 12151では、 ユーザ I Z F 12166は、 ユーザがユーザ I , F 12166を操作することにより、 選択情報の入力があつたかどうかを判定する。 即ち、 ステップ S12150では、 画像表示部 12165において、 N通りの出力画像 が表示されるが、 その N通りの出力画像を見たユーザが、 その N通りの出力画 像の中から、 所望の画質の画像または所望の画質に近い画像を選択する選択情 報の入力を、 ユーザ I Z F 12166を操作することにより行ったかどう力が、 ス テツプ S 12151において判定される。
ステップ S12151において、 選択情報の入力がなかったと判定された場合、 ステップ S12154に進み、 ステップ S12143における場合と同様に、 ユーザ I / F 12166は、 終了指示の入力があつたかどうかを判定する。
ステップ S12154において、 終了指示の入力があつたと判定された場合、 信 号処理装置 4は、 処理を終了する。
また、 ステップ S 12154において、 終了指示の入力がなかったと判定された 場合、 ステップ S12151に戻り、 以下、 同様の処理を繰り返す。
—方、 ステップ S 12151において、 選択情報の入力があつたと判定された場 合、 即ち、 画像表示部 12165 に表示された N通りの出力画像を見たユーザが、 その N通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画 像を選択した場合、 ステップ S12152に進み、 ユーザ I / F 12166は、 ユーザ がユーザ I / F 12166を操作することにより、 ユーザが選択した出力画像を、 最終的な出力画像として確定する確定指示の入力があつたかどうかを判定する。 ステップ S12152において、 確定指示の入力があつたと判定された場合、 ス テツプ S 12153に進み、 画像表示部 12165は、 例えば、 その画面全体に、 ユー ザが選択した出力画像を表示し、 処理を終了する。
また、 ステップ S 12152において、 確定指示の入力がなかったと判定された 場合、 即ち、 ユーザが、 選択した出力画像の画質に不満があり、 再度処理を行 うために、 確定指示の入力を行わなかった場合、 ステップ S12145に戻り、 ュ 一ザ I Z F 12166は、 ユーザが選択した出力画像を表す選択情報を、 補助情報 として、 処理領域設定部 12161と実世界推定部 12163に供給し、 ステップ S12146, S12147, S 12148に順次進む。 ステップ S 12146の処理領域の設定処 4 008690
322
の定常性の設定処理では、 前回設定された処理領域と定 常性が設定される。 そして、 その処理領域情報が定常性設定部 12162、 実世界 推定部 12163、 および画像生成部 12164に供給され、 その定常性情報が実世界 推定部 12163に供給される。 なお、 2回目以降に行われるステップ S12 6お ょぴ S12147の処理は、 スキップすることができる。
ステップ S 12148では、 実世界推定部 12163は、 ユーザ I Z F 12166から供 給された補助情報としての選択情報に基づいて、 その実世界 1の光信号 (動き ボケのない画像) を新たな N通りの方法で推定する。
即ち、 この場合、 ステップ S12148においては、 実世界推定部 12163の方程 式生成部 12172では、 ユーザ I Z F 12166から供給された補助情報としての選 択情報が表す出力画像を得るのに用いられた拘束条件式を基準に、 新たな N通 りの拘束条件式を設定する。 方程式生成部 12172は、 実世界 1の光信号を近 似する近似モデルとしての近似関数を求める方程式と、 新たな N通りの拘束条 件式のそれぞれとを合わせて、 新たな N通りの正規方程式を生成し、 その新た な N通りの正規方程式を実世界波形推定部 12173に供給する。 さらに、 実世 界狭形推定部 12173は、 方程式生成部 12172から供給される新たな N通りの 正規方程式をそれぞれ演算することにより、 新たな N通りの実世界 1の光信号 の波形を推定する。 そして、 ステップ S12148から S12149に進み、 以下、 同 様の処理が繰り返される。
即ち、 これにより、 ステップ S12145乃至 S 12154の処理が繰り返され、 最 終的には、 出力画像に対するユーザの不満が解消された、 ユーザが所望する画 質の出力画像が得られる。
以上のように、 信号処理装置 4では、 入力画像に対する処理結果としての N 通りの出力画像をユーザに提示し、 その N通りの出力画像の中からユーザが所 望するものを選択してもらい、 その選択結果を踏まえて、 再度処理を行うよう にしたので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ることが できる。 即ち、 信号処理装置 4は、 入力画像に対する処理結果としての N通り の出力画像をユーザに提示する。 一方、 ユーザは、 その N通りの出力画像それ ぞれの画質を認識、 判断し、 画質の良い出力画像を、 信号処理装置 4にフィー ドバックする。 そして、 信号処理装置 4は、 そのユーザからのフィードバック を踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返される。 従つ て、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ることができる。 なお、 このように、 信号処理装置 4において、 ユーザからのフィードバック を受けて入力画像に対する処理を行うことは、 信号処理装置 4が、 ユーザと協 調しながら処理を行っているということができる。
次に、 図 1 6 3のフローチャートを参照して、 実世界推定部 12163 (図 1 6 1 ) の実世界の推定処理 (図 1 6 2のステップ S 12148の処理) について詳細 に説明する。
ステップ S 12171において、 モデル生成部 12171は、 関係モデルを生成する c 即ち、 モデル生成部 12171が、 処理領域設定部 12161から供給される処理領 域情報から、 入力画像における処理領域を認識するとともに、 定常性設定部 12162から供給される定常性情報から、 処理領域の画像データに対応する動き 量を認識する。 さらに、 モデル生成部 12171は、 入力画像における処理領域 について、 その処理領域の水平ラインを構成する画素と、 その処理領域の画像 データに対応する動き量に応じて、 処理領域内のセンサ 2で検出された各画素 の画素値 P i と、 実世界 1の光信号を近似する近似モデルで表される動きボケ のない画素の画素値 との関係をモデル化した関係モデルを処理領域の水平 ラインごとに生成し、 方程式生成部 12172に供給する。 そして、 モデル生成 部 12171は、 ステップ S 12171からステップ S 12172に進む。
具体的には、 モデル生成部 12171は、 処理領域の水平ラインの画素数と動 き量に応じて、 図 1 4 8 A乃至図 1 4 8 Cで説明した、 処理領域の各水平ライ ンの画素の画素値 P i と、 動きボケのない画素値 Q i との関係を表す式を関係 モデルとして生成する。 例えば、 処理領域の水平ラインの画素数が 8であり、 動き量 vが 5である場合、 関係モデルとして、 上述した式 (1 5 1 ) の方程 式が生成される。
ステップ S12172では、 方程式生成部 12172は、 方程式生成処理を行う。 即 ち、 方程式生成部 12172は、 処理領域設定部 12161から供給される処理領域 情報から、 入力画像における処理領域を認識し、 その処理領域について、 その 処理領域を構成する入力画像の各画素の画素値 P i を、 モデル生成部 12171か ら供給される、 その処理領域の各水平ラインに対して得られた関係モデルに代 ^し、 これにより、 実世界 1の光信号を近似する近似関数で表される、 動きポ ケのない画素値 Q i を求める式 ( 1 5 1 ) の方程式 (モデル方程式) を生成す る。
さらに、 方程式生成部 12172は、 処理領域設定部 12161から供給される処 理領域情報から認識される処理領域の水平ラインにおける実世界 1の光信号を 近似する近似モデルを拘束する方程式である拘束条件式を生成する。 即ち、 モ デル方程式は、 式 (1 5 1 ) に示したように、 求めたい変数である動きボケの ない画素値 Q i の方が、 方程式の数より多いため、 動きボケのない画素値 Q i を求めるには、 方程式の総数を動きボケのない画素値 Q i の数以上とする方程 式を導入する必要がある。 ここで、 方程式生成部 12172 は、 隣接する画素の'、 近似関数で表される動きボケのない画素値 Qi の差が小さい (空間相関があ る) という拘束条件式を生成する。 このとき、 方程式生成部 12172は、 ユー ザにより不満領域が指示された場合、 その不満領域に対して重みを付けた拘束 条件式を生成する。
伹し、 不満領域に対する重み付けの仕方により画質の異なる出力画像が得ら れるため、 方程式生成部 12172は、 N通りの重みを付けた拘束条件式を生成 する。 その結果、 信号処理装置 4では、 N通りの出力画像が生成されて、 表示 される。 そして、 ユーザは、 その N通りの出力画像を見て、 その中から所望の 画質の画像または所望の画質に近い画像を選択する。 従って、 動きボケのない画像が平坦ではなく、 例えば、 何らかの模様があり、 ァクティビティの高い画像である場合においても、 ユーザが所望する画質の動 きボケのない画像が得られる。 即ち、 方程式生成部 12172は、 ユーザにより 不満のある領域であると指示された領域に対して、 N通りの重みを付けた、 隣 接画素の動きボケのない画素値の差は小さいという拘束条件式を生成する。 ュ 一ザは、 その結果得られる N通りの出力画像から所望の画質の画像が選択する ことができるので、 不満のある領域に対して最適な拘束条件が設定された、 所 望する画質の画像を容易に得ることができる。
方程式生成部 12172は、 モデル方程式を生成するとともに、 不満領域指示 情報に基づいて、 N通りの重みを付けた拘束条件式を生成し、 生成されたモデ ル方程式と N通りの拘束条件式のそれぞれとを合わせて、 N通りの正規方程式 を生成する。 方程式生成部 12172は、 その N通りの正規方程式を、 実世界波 形推定部 12173に供給して、 ステップ S 12172からステップ S12173に進む。 なお、 以下、 このような方程式生成部 12172が実行するステップ S12172の 処理を、 「方程式生成処理」 と称する。 「方程式生成処理」 の詳細については、 図 1 6 5のフローチヤ一トを参照して後述する。
ステップ S12173において、 実世界波形推定部 12173は、 方程式生成部 12172から供給される N通りの正規方程式を解くことにより、 N通りの実世界 1の光信号の波形を推定、 即ち、 N通りの近似関数で表される動きボケのない 画素値を求め、 その N通りの画素値を、 画像生成部 12164に供給する。
次に、 図 1 6 4は、 図 1 6 1の方程式生成部 12172の詳細構成例を示して いる。
図 1 6 4では、 方程式生成部 12172は、 モデル方程式生成部 12191、 重み設 定部 12192、 拘束条件式生成部 12193、 および正規方程式生成部 12194から構 成されている。
図 1 6 4に構成を示す方程式生成部 12172 には、 モデル生成部 12171 から、 処理領域の水平ラインの各画素の画素値 (動きボケ画像の画素値) と、 動きポ ケのない画素値との関係をモデル化した関係モデルが入力され、 モデル方程式 生成部 12191に供給される。 また、 方程式生成部 12172には、 入力画像が、 センサ 2 (図 1 ) から入力され、 その入力画像は、 モデル方程式生成部 12191 に供給される。
さらに、 方程式生成部 12172には、 処理領域情報が、 処理領域設定部 12161 から入力され、 その処理領域情報が、 モデル方程式生成部 12191と拘束条件 式生成部 12193に供給される。 また、 方程式生成部 12172には、 補助情報と して不満領域指示情報と選択情報が、 ユーザ I Z F 12166から入力され、 その 不満領域指示情報は、 拘束条件式生成部 12193に、 選択情報は、 重み設定部 12192にそれぞれ供給される。
モデル方程式生成部 12191は、 処理領域情報から入力画像の処理領域を認 識し、 モデル生成部 12171から供給された関係モデルの動きボケ画像の各画 素の画素値 P i として、 入力画像の処理領域における画素値を代入して、 処理 領域の水平ラインごとに式 (1 5 1 ) のモデル方程式を生成する。 そして、 モ デル方程式生成部 12191は、 正規方程式生成部 12194に、 そのモデル方程式 を供給する。 なお、 モデル生成部 12171で得られる関係モデルは、 例えば、 式 (1 5 1 ) の動き量 Vに具体的な値が代入されたものであり、 モデル方程式 生成部 12191で得られるモデル方程式は、 さらに式 (1 5 1 ) の画素値 P 4乃 至 p 7 に具体的な値が代入されたものである。
重み設定部 12192は、 ユーザ I Z F 12166から入力された選択情報に基づい て、 拘束条件式に付ける N通りの重みを設定し、 その N通りの重みを、 拘束条 件式生成部 12193に供給する。 拘束条件式生成部 12193は、 処理領域情報、 ユーザ I Z F 12166から入力された不満領域指示情報、 および重み設定部 12192で設定された N通りの重みに基づいて、 不満領域の水平ラインの各画素 に対して、 N通りの重みを付けた N通りの所定の拘束条件式をそれぞれ生成し、 その N通りの拘束条件式を正規方程式生成部 12194に供給する。 正規方程式生成部 12194は、 モデル方程式生成部 12191から供給されたモ デル方程式と、 拘束条件式生成部 12193から供給された N通りの拘束条件式 のそれぞれとを合わせて、 N通りの正規方程式を生成し、 実世界波形推定部 12173に供給する。
次に、 図 1 6 5のフローチャートを参照して、 方程式生成部 12172 (図 1 6 4 ) の方程式生成処理 (図 1 6 3のステップ S12172の処理) について詳細に 説明する。
ステップ S 12191において、 モデル方程式生成部 12191は、 モデル生成部 12171から処理領域の水平ラインごとの関係モデルを取得し、 ステップ
S12192に進む。 ステップ S12192において、 モデル方程式生成部 12191は、 センサ 2から入力画像を取得するとともに、 処理領域設定部 12161から処理 領域情報を取得する。 そして、 モデル方程式生成部 12191は、 その入力画像 と処理領域情報から、 処理領域内の各画素の画素値 P i を認識し、 その画素値 P i を、 モデル生成部 12171から取得した式 (1 5 1 ) の関係モデルに代入す ることにより、 処理領域の水平ラインごとにモデル方程式を生成する。 さらに、 モデル方程式生成部 12191は、 そのモデル方程式を正規方程式生成部 12194 に供給する。 即ち、 例えば、 モデル方程式生成部 12191力 上述した式 (1 5 1 ) で表される関係モデルを、 モデル生成部 12171から取得した場合、 式 ( 1 5 1 ) の画素値 P 4乃至 P 7 に入力画像の画素値を代入することで、 モデ ル方程式を生成する。
ステップ S 12192の処理後は、 ステップ S 12193に進み、 重み設定部 12192 は、 N通りの重みを設定してそれぞれの重みを拘束条件式生成部 121Θ3に供 給し、 ステップ S12194に進む。 ここで、 重み設定部 12192は、 ユーザ i Z F 12166から選択情報が入力された場合、 その選択情報が表す出力画像を得るの に用いられた重みを基準に、 新たな N通りの重みを設定する。 即ち、 重み設定 部 12192は、 最初に重みを設定する場合、 例えば、 0 . 5を中心として 0乃 至 1の範囲内で等間隔に、 N通りの重みを設定する。 そして、 重み設定部 12192は、 ユーザ I Z F 12166から選択情報が入力された場合、 その選択情報 が表す出力画像を得るのに用いられた重みを中心として、 前回の重みの設定時 よりも細かい等間隔で (但し、 0乃至 1の範囲) 、 新たな N通りの重みを設定 する。
ユーザが前回の処理で出力された N通りの出力画像の中から所望するものを 選択すると、 その選択結果を踏まえて、 新たな N通りの重みが設定されるので、 ユーザは N通りの出力画像の中から所望するものの選択を繰り返すことにより、 最終的には、 ユーザが所望する画質の出力画像が得られる重みが設定され、 そ の結果、 ユーザが所望する画質の出力画像が得られる。
ステップ S12194では、 拘束条件式生成部 12193は、 ユーザ I / F 12166か ら不満領域指示情報が入力されたかどうかを判定し、 不満領域指示情報が入力 されていないと判定した場合、 ステップ S12195をスキップし、 ステップ S12196に進む。 この場合、 ステップ S12196では、 拘束条件式生成部 12193 は、 例えば、 処理領域設定部 12161が所定の処理を行うことにより自動的に 設定した処理領域情報に基づいて、 重み設定部 12192から供給された N通り の重みを付けた拘束条件式をそれぞれ生成し、 その N通りの拘束条件式を正規 方程式生成部 12194に供給する。 即ち、 不満領域指示情報が入力されなかつ た場合、 拘束条件式生成部 12193は、 処理領域の水平ラインの全ての画素に 対して N通りの拘束条件式を生成する。
例えば、 処理領域の水平ラインの画素数が、 例えば、 図 1 5 2 A乃至図 1 5 2 Cに示したように 8個であり、 各画素の動きボケのない画素値を Q。乃至 Q 7で表す場合、 拘束条件式は、 例えば、 以下の式 (1 5 4 ) で表される。 W - Q0) = 0
W =0
W(Q3-Q2) = 0
W(Q4-Q3) = 0
(Q5-Q4) = 0
(Q6-Q5) = 0
W(Q厂 ¾) = 0
• · · (1 54)
なお、 式 (1 54) において、 Wは重みを表し、 拘束条件式生成部 12193 は、 重み Wが異なる N通りの式 (1 54) で示される拘束条件式を生成する。 重み Wの値が大きいほど、 隣接画素の画素値の差分が小さいという拘束条件の 重みが大きくなる。 即ち、 式 (1 54) におけるある拘束条件式 (Qi + 1—Q = 0の重み Wが大きいほど、 画素値 Qi と Qi + 1 とは、 同一の値となるよ うに、 いわば強く拘束される。 重み Wが小さい場合には、 そのような拘束が、 いわば弱くなり、 画素値 Qi と Qi + 1 とは、 異なる値をとり易くなる。
一方、 ステップ S12194で、 拘束条件式生成部 12193は、 ユーザ I /F 12166から不満領域指示情報が入力されたと判定した場合、 ステップ S12194 からステップ S12195に進み、 ユーザ I / F 12166から不満領域指示情報を取 得してステップ S12196に進む。
この場合、 ステップ S12196では、 拘束条件式生成部 12193は、 処理領域情 報と不満領域指示情報に基づいて、 重み設定部 12192から供給された N通り の重みを付けた拘束条件式をそれぞれ生成し、 その N通りの拘束条件式を正規 方程式生成部 12194 に供給する。 即ち、 不満領域指示情報が入力された場合、 拘束条件式生成部 12193は、 処理領域のうちの、 不満領域指示情報が表す不 満領域の各水平ラインの画素に対応する拘束条件式に N通りの重みを付けた N 通りの拘束条件式を生成する。 例えば、 図 1 52 A乃至図 1 52 Cに示したように、 処理領域の水平ライン が 8個の画素 # 0乃至 # 7で構成され、 その各画素 # 0乃至 # 7の動きボケの ない画素値を Q。乃至 Q7で表す場合において、 ユーザにより指示された不満 領域が画素値 Q。乃至 Q4 の 5つの画素 # 0乃至 # 4で構成されるとき、 拘束 条件式は、 以下の式 (1 5 5) 'で表される。
W(Q厂 Q0) = 0
W ({½-()】) = 0
(Q3-Q2) = 0
(Q4-Q3) = 0
W(Q5-Q4) = 0
• - • (1 5 5) ' なお、 式 (1 55) において、 Wは重みを表し、 拘束条件式生成部 1 93 は、 重み Wが異なる N通りの式 (1 5 5) で示される拘束条件式を生成する。 式 (1 54) における場合と同様に、 重み Wの値が大きいほど、 隣接画素の画 素値の差分が小さいという拘束条件の重みが大きくなる。
ステップ S12196の処理後は、 ステップ S12197に進み、 正規方程式生成部 12194は、 モデル方程式生成部 12191から供給された式 (1 5 1) のモデル方 程式に、 拘束条件式生成部 12193から供給された N通りの式 (1 54) また は式 (1 5 5) で示される拘束条件式をそれぞれ合わせて、 水平ラインごとに N通りの正規方程式を生成し、 その N通りの正規方程式を実世界波形推定部 12173に供給する。
この後、 実世界波形推定部 12173は、 正規方程式生成部 12194から供給さ れた N通りの正規方程式を、 例えば最小二乗誤差最小規範でそれぞれ解くこと により、 処理領域の各水平ラインの画素の N通りの動きボケのない画素値 Qi を求める。
なお、 上述した実世界推定処理は、 処理領域内の水平方向に並ぶ画素 (水平 ライン) 毎に行なわれる。 即ち、 実世界波形推定部 12173は、 水平ライン毎 に、 処理領域の各画素の N通りの動きボケのない画素値 Q i を求める。 そして、 実世界波形推定部 12173は、 処理領域内の全ての水平ラインにおいて、 各画 素の N通りの動きボケのない画素値 Q i を求めた後、 処理領域の各画素の N通 りの動きボケのない画素値 Q i を、 画像生成部 12164に供給する。 画像生成部 12164は、 入力画像における処理領域の各画素の画素値 P i を、 N通りの動き ボケのない画素値 Q i にそれぞれ置き換えた画像を、 N通りの出力画像として 生成し、 画像表示部 12165に供給して表示させる。
また、 上述の処理では、 不満領域がユーザにより指示された場合、 拘束条件 式生成部 12193は、 不満領域以外に対する拘束条件式を生成しなかったが、 不満領域以外に対する拘束条件式も、 所定の重みを付けて、 生成してもよい。 この場合、 例えば、 拘束条件式生成部 12193は、 図 1 5 2 A乃至図 1 5 2 C に示したように、 処理領域の水平ラインが 8個の画素 # 0乃至 # 7で構成され、 その各画素 # 0乃至 # 7の動きボケのない画素値を Q。乃至 Q7で表す場合に おいて、 ユーザにより指示された不満領域が画素値 Q。乃至 Q4の 5つの画素 # 0乃至 # 4で構成されるとき、 画素値 Q 5乃至 Q7 の 3つの画素 # 5乃至 # 7に対しても所定の重み (例えば、 不満領域の画素に対する重みとは異なる重 み) Wを付けた拘束条件式を生成する。
図 1 6 6は、 図 1 6 1の信号処理装置 4の処理の概要を説明する図である。 図 1 6 6で示すように、 ユーザは、 入力画像 12211を見て、 不満のある領 域を、 不満領域として指示する。 そして、 信号処理装置 4は、 ユーザにより指 示された不満領域の拘束条件式の重みを変更 (設定〉 し、 N通りの重みを付け た拘束条件式を用いて、 N通りの出力画像 12222-1 乃至 12222- N を生成して、 表示する。 ユーザは、 N通りの出力画像 12222- 1乃至 12222- Nを見て、 その' N通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画像を 選択する。 図 1 6 6の例では、 ユーザは、 N通りの出力画像 12222- 1乃至 12222- Nのうちの 12222- Nを選択している。 信号処理装置 4は、 ユーザから 選択された出力画像 12222- Nを得るのに用いられた拘束条件式の重みを基準 4 008690
332
にして、 不満領域の拘束条件式に、 新たな N通りの重みを付け (重みを変更 し) 、 その新たな N通りの重みに基づいて得られる新たな N通りの出力画像を 表示することを繰り返す。
従って、 ユーザは、 出力画像の選択や不満領域の指示を行うだけで、 簡単に 最適な拘束条件を設定し、 実世界 1の光信号により近似した画像を得ることが できる。 即ち、 ユーザは、 所望の画質の画像または所望の画質に近い画像を容 易に得ることができる。
図 1 6 7は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施の形態 の構成例を示している。
なお、 図 1 6 7は、 例えば、 一定方向に一定の速さで移動するという定常性 を有するデータ 3の一例である動きボケ画像データから、 実世界 1の光信号を 推定する信号処理装置 4の一実施の形態の構成例を示している。 即ち、 この信 号処理装置 4は、 例えば、 撮影時に被写体 (オブジェク ト) が動いたことによ り、 被写体がボケて撮影されてしまった画像 (動きボケ画像) から、 そのボケ がない画像 (動きボケのない画像) を推定する。 従って、 図 1 6 7の実施の形 態では、 入力画像として、 移動しているオブジェクトを撮影することにより得 られた動きボケが生じている動きボケ画像が、 信号処理装置 4に入力される。 なお、 ここでは、 入力画像として、 水平方向 (左から右方向) に一定の速さ (動き量) で移動しているオブジェク トを撮像して得られる画像を採用する。 図 1 6 7において、 処理領域設定部 12241、 定常性設定部 12242、 実世界推 定部 12243、 画像生成部 12244、 画像表示部 12245、 ユーザ I / F 12246は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 100ひ 2、 実世界推 定部 10003、 面像生成部 10004、 画像表示部 10005、 ユーザ I / F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 6 7において、 実世界推定部 12243 は、 モデル生成部 12251、 方程式生成部 12252、 実世界波形推定部 122δ3で構 成されている。 モデル生成部 12251、 方程式生成部 12252、 実世界波形推定部 12253は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 但し、 図 1 6 7においては、 ユーザがユーザ I / F 12246を操作することに より、 ユーザ I / F 12246が出力する補助情報が、 処理領域設定部 12241 と実 世界推定部 12243に供給されるようになっている。
即ち、 図 1 6 7では、 ユーザは、 ユーザ I / F 12246を操作することにより、 画像表示部 12245に表示された画像に対して、 不満のある領域を不満領域と して指示することができるようになつており、 ユーザ I / F 12246は、 ユーザ が不満領域を指示する操作を行うと、 その操作によって指定された領域として の不満領域を表す不満領域指示情報を、 処理領域設定部 12241と実世界推定 部 12243に供給する。 さらに、 図 1 6 7では、 画像表示部 12245には、 後述 するように、 複数の出力画像が表示されるが、 ユーザは、 ユーザ I Z F 12246 を操作することにより、 画像表示部 12245に表示された出力画像を選択する ことができるようになつており、 ユーザ I Z F 12246は、 ユーザが出力画像を 選択する操作を行うと、 その操作によって選択された出力画像を表す選択情報 を、 捕助情報として、 処理領域設定部 12241と実世界推定部 12243に供給す る。
なお、 ユーザ I Z F 12246を操作することにより不満領域を指示する方法と しては、 例えば、 不満領域を囲む矩形によって指示する方法、 不満領域をトリ ム(trim)することによって指示する方法、 不満領域の中の任意の 1点以上を ポインティングすることによって指示する方法などがあるが、 ここでは、 例え ば、 ユーザは、 不満領域の中の任意の 1点を、 ユーザ I / F 12246を操作する ことによりポインティングすることによって、 不満領域を指示するものとする。 この場合、 ユーザ I / F 12246は、 ユーザがポインティングした点を表す情報 4 008690
334
としての、 例えば、 その点の、 画像上の座標を、 不満領域指示情報として、 処 理領域設定部 12241と実世界推定部 12243に供給する。
次に、 図 1 6 8のフローチャートを参照して、 図 1 6 7の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S 12211 において、 信号処理装置 4は、 前処理を行い、 ステップ S12212に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ ータ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 12241、 定常性設定部 12242、 実世界推定部 12243、 画像生成 部 12244、 および画像表示部 12245に供給する。 さらに、 信号処理部 4は、 画 像表示部 12245に、 入力画像を表示させる。
ステップ S 12212では、 ユーザ I Z F 12246は、 ユーザがユーザ I / F
12246を操作することにより、 何らかのユーザ入力があつたかどうかを判定す る。 ステップ S12212において、 ユーザ入力がなかったと判定された場合、 即 ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12213乃至 S12215 をスキップして、 ステップ S 12216に進む。
また、 ステップ S12212において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが画像表示部 12245に表示された入力画像を見て、 ユーザ Iノ F 12246を操作し、 これにより、 何らかの指示または情報を表すユーザ入力が あった場合、 ステップ S 12213に進み、 ユーザ I / F 12246は、 そのユーザ入 力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定 する。
ステップ S12213 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12245に表示された入力画像を見たユーザが、 そ の入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了するように、 ユーザ I / F 12246を操 作した場合、 信号処理装置 4は処理を終了する。 また、 ステップ S12213において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S 12214に進み、 ユーザ I Z F 12246は、 ユーザ入力が不満 領域指示情報であるかどうかを判定する。 ステップ S12214において、 ユーザ 入力が不満領域指示情報でないと判定された場合、 ステップ S 12215をスキッ プして、 ステップ S12216に進む。
一方、 ステップ S12214において、 不満領域指示情報の入力があつたと判定 された場合、 即ち、 画像表示部 12245 に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 不満な箇所をボインティングするように、 ユーザ I Z F 12246を操作した場合、 ステップ S12215に進み、 ユーザ i Z F 12246は、 ユーザがユーザ I Z F 12246を操作することによってポインティン グした点を表す不満領域指示情報を、 補助情報として、 処理領域設定部 12241 と実世界推定部 12243に供給し、 ステップ S12216に進む。
ステップ S 12216では、 処理領域設定部 12241は、 ユーザ I / F 12246から 供給された補助情報としての不満領域指示情報に基づいて、 例えば、 不満領域 を含む所定の矩形の領域を処理領域として設定し、 その処理領域情報を、 定常 性設定部 12242、 実世界推定部 12243、 および画像生成部 12244に供給し、 ス テツプ S12217に進む。 なお、 この処理領域は、 ユーザがユーザ I / F 12246 を操作して入力してもよい。
但し、 ユーザ I Z F 12246から処理領域設定部 12241に不満領域指示情報が 供給されなかった場合 (ステップ S12212またはステップ S12214の処理直後 にステップ S12216の処理が行われる場合) には、 処理領域設定部 12241は、 所定の処理 (例えば、 入力画像において、 動きボケが生じている領域を検出す る処理) を行うことにより、 処理領域の設定を行う。
ステップ S12217では、 定常性設定部 12242は、 処理領域設定部 12241から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 12242は、 その処理領域の画像データにおいて欠落した実世界 1の光信号の定常性を表す情報として、 処理領域に表示されたオブジェクトの 動き量を設定し、 その定常性を表す定常性情報を、 実世界推定部 12243に供 給して、 ステップ S 12218に進む。 なお、 この動き量は、 ユーザがユーザ I / F 12246を操作して入力しても良い。 また、 ここでは、 定常性設定部 12242は、 入力画像において、 オブジェクトが水平方向に移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報として設定するようにしたが、 その他、 オブジェク トの動きの大きさと方向を表す動きべクトルを、 定常性情 報として設定することも可能である。
ステップ S 12218では、 実世界推定部 12243は、 処理領域設定部 12241から 供給された処理領域情報と、 ユーザ I / F 12246から供給された不満領域指示 情報に応じて、 入力画像における処理領域内の画像データ (動きボケ画像デー タ) から、 対応する実世界 1の光信号の動き量に基づいて、 その実世界 1の光 信号 (動きボケのない画像) を複数である N通りの方法で推定する。
即ち、 実世界推定部 12243では、 モデル生成部 12251が、 処理領域設定部 12241から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 12242から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の光信号の動き量、 つまり、 ここでは、 処理 領域に表示されたオブジェク トの動き量を認識する。 さらに、 モデル生成部 12251は、 入力画像における処理領域の各水平ラインを構成する画素と、 その 処理領域の画像データに対応する実世界 1の光信号の動き量に応じて、 処理領 域の各水平ラインの画素の画素値と実世界 1の光信号との関係をモデル化した 関係モデルを処理領域の水平ラインごとに生成し、 方程式生成部 12252に供 給する。
方程式生成部 12252は、 処理領域設定部 12241から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域に応じて、 入力画 像の各画素の画素値を、 モデル生成部 12251から供給される処理領域の水平 ラインごとの関係モデルに代入し、 これにより'、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式を生成する。 さらに、 方程式生成 部 12252は、 処理領域情報と入力画像の特徴量に基づいて、 近似関数を拘束 する拘束条件式に N通りの重みを付けた、 N通りの拘束条件式を生成する。 方 程式生成部 12252は、 実世界 1の光信号を近似する近似モデルとしての近似 関数を求める方程式と N通りの拘束条件式のそれぞれとを合わせて、 N通りの 正規方程式を生成し、 実世界波形推定部 12253に供給する。
実世界波形推定部 12253は、 方程式生成部 12252から供給される N通りの 正規方程式をそれぞれ演算することにより、 N通りの実世界 1の光信号の波形 を推定する。 即ち、 実世界波形推定部 12253は、 方程式生成部 12252から供 給される N通りの正規方程式をそれぞれ解くことにより、 実世界 1の光信号を モデル化した近似モデルとしての N通りの近似関数を求め、 N通りの実世界 1 の光信号の波形の推定結果として、 画像生成部 12244に供給する。
なお、 以下、 このような実世界推定部 12243が実行するステップ S12218の 処理を、 「実世界の推定処理」 と称する。 「実世界の推定処理」 の詳細につい ては、 図 1 6 9のフローチャートを参照して後述する。
ステップ S 12218の処理後は、 ステップ S12219に進み、 '画像生成部 12244 は、 実世界推定部 12243 (の実世界波形推定部 12253) から供給された、 実世 界 1の光信号の波形を近似する N通りの近似関数に基づいて、 実世界 1の光信 号により近似した N通りの信号を生成する。 即ち、 画像生成部 12244は、 処 理領域設定部 12241から供給される処理領域情報から、 入力画像における処 理領域を認識し、 その処理領域について、 実世界推定部 12243から供給され る N通りの近似関数に基づき、 実世界 1の光信号により近似した N通りの近似 画像 (動きボケのない画像) を生成する。
さらに、 画像生成部 12244は、 入力画像の処理領域の部分を、 N通りの近' 似画像 (動きボケのない画像) に置き換えた画像を、 N通りの出力画像として 生成し、 画像表示部 12245 に供給して、 ステップ S 12219から S12220に進む。 ステップ S 12220では、 画像表示部 12245は、 画像生成部 12244から供給さ れた N通りの出力画像を、 ステップ S 1221 1で表示された入力画像に代えて、 またはその入力画像とともに表示し、 ステップ S12221に進む。
ステップ S 12221では、 ユーザ I Z F 12246は、 ユーザがユーザ I / F 12246を操作することにより、 選択情報の入力があつたかどうかを判定する。 即ち、 ステップ S12220では、 画像表示部 12245において、 N通りの出力画像 が表示されるが、 その N通りの出力画像を見たユーザが、 その N通りの出力画 像の中から、 所望の画質の画像または所望の画質に近い画像を選択する選択情 報の入力を、 ユーザ I Z F 12246を操作することにより行ったかどう力が、 ス テツプ S12221において判定される。
ステップ S 12221において、 選択情報の入力がなかったと判定された場合、 ステップ S12224に進み、 ステップ S12213における場合と同様に、 ユーザ I Z F 12246は、 終了指示の入力があつたかどうかを判定する。
ステップ S12224において、 終了指示の入力があつたと判定された場合、 信 号処理装置 4は、 処理を終了する。
また、 ステップ S 12224において、 終了指示の入力がなかったと判定された 場合、 ステップ S12221に戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S 12221において、 選択情報の入力があつたと判定された場 合、 即ち、 画像表示部 12245 に表示された N通りの出力画像を見たユーザが、 その N通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画 像を選択した場合、 ステップ S12222に進み、 ユーザ I Z F 12246は、 ユーザ がユーザ I 12246を操作することにより、 ユーザが選択した出力画像を、 最終的な出力画像として確定する確定指示の入力があったか.どうかを判定する。 ステップ S12222において、 確定指示の入力があつたと判定された場合、 ス テツプ S 12223に進み、 画像表示部 12245は、 例えば、 その画面全体に、 ユー ザが選択した出力画像を表示し、 処理を終了する。 また、 ステップ S 12222において、 確定指示の入力がなかったと判定された 場合、 即ち、 ユーザが、 選択した出力画像の画質に不満があり、 再度処理を行 うために、 確定指示の入力を行わなかった場合、 ステップ S12215に戻り、 ュ 一ザ I / F 12246は、 ユーザが選択した出力画像を表す選択情報を、 補助情報 として、 処理領域設定部 12241 と実世界推定部 12243に供給し、 ステップ S12216, S12217, 12218に順次進む。 ステップ S12216の処理領域の設定処理 とステップ S12217の定常性の設定処理では、 前回設定された処理領域と定常 性が設定される。 そして、 その処理領域情報が定常性設定部 12242、 実世界推 定部 12243、 および画像生成部 12244に供給され、 その定常性情報が実世界推 定部 12243に供給される。 なお、 2回目以降に行われるステップ S12216およ ぴ S12217の処理は、 スキップすることができる。
ステップ S12218では、 実世界推定部 12243は、 ユーザ Iダ F 12246から供 給された補助情報としての選択情報に基づいて、 その実世界 1の光信号 (動き ボケのない画像) を新たな N通りの方法で推定する。
即ち、 この場合、 ステップ S12218では、 実世界推定部 12243の方程式生成 部 12252では、 ユーザ I / F 12246から供給された捕助情報としての選択情報 が表す出力画像を得るのに用いられた拘束条件式を基準に、 新たな N通りの拘 束条件式を設定する。 方程式生成部 12252は、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式と、 新たな N通りの拘束条件式の それぞれとを合わせて、 新たな N通りの正規方程式を生成し、 その新たな N通 りの正規方程式を実世界波形推定部 12253に供給する。 さらに、 実世界波形 推定部 12253は、 方程式生成部 12252か 供給される新たな N通りの正規方 程式をそれぞれ演算することにより、 新たな N通りの実世界 1の光信号の波形 を推定する。 そして、 ステップ S12218から S12219に進み、 以下、 同様の処 理が繰り返される。 08690
340
即ち、 これにより、 ステップ S 12215乃至 S 12224の処理が繰り返され、 最 終的には、 出力画像に対するユーザの不満が解消された、 ユーザが所望する画 質の出力画像が得られる。
以上のように、 信号処理装置 4では、 入力画像に対する処理結果としての N 通りの出力画像をユーザに提示し、 その N通りの出力画像の中からユーザが所 望するものを選択してもらい、 その選択結果を踏まえて、 再度処理を行うよう にしたので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ることが できる。 即ち、 信号処理装置 4は、 入力画像に対する処理結果としての N通り の出力画像をユーザに提示する。 一方、 ユーザは、 その N通りの出力画像それ ぞれの画質を認識、 判断し、 画質の良い出力画像を、 信号処理装置 4にフィー ドバックする。 そして、 信号処理装置 4は、 そのユーザからのフィードバック を踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返される。 従つ て、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ることができる。 なお、 このように、 信号処理装置 4において、 ユーザからのフィードバック を受けて入力画像に対する処理を行うことは、 信号処理装置 4が、 ユーザと協 調しながら処理を行っているということができる。
次に、 図 1 6 9のフローチャートを参照して、 実世界推定部 12243 (図 1 6 7 ) の実世界の推定処理 (図 1 6 8のステップ S12218の処理) について詳細 に説明する。
ステップ S 12231において、 モデル生成部 12251は、 関係モデルを生成する。 即ち、 モデル生成部 12251が、 処理領域設定部 12241から供給される処理領 域情報から、 入力画像における処理領域を認識するとともに、 定常性設定部 12242から供給される定常性情報から、 処理領域の画像データに対応する動き 量を認識する。 さらに、 モデル生成部 12251は、 入力画像における処理領域 について、 その処理領域の水平ラインを構成する画素と、 その処理領域の画像 データに対応する動き量に応じて、 処理領域内のセンサ 2で検出された各画素 の画素値と、 実世界 1の光信号を近似する近似モデルで表される動きボケのな 4 008690
341
い画像との関係をモデル化した関係モデルを、 処理領域の水平ラインごとに生 成し、 方程式生成部 12252に供給する。 そして、 モデル生成部 12251は、 ス テツプ S 12231からステップ S 12232に進む。
具体的には、 モデル生成部 12251は、 処理領域の水平ラインの画素数と動 き量に応じて、 図 1 4 8 A乃至図 1 4 8 Cで説明した、 処理領域の各水平ライ ンの画素の画素値 P i と、 動きボケのなぃ_画素値 Q i との関係を表す式を関係 モデルとして生成する。 例えば、 処理領域の水平ラインの画素数が 8であり、 動き量 Vが 5である場合、 関係モデルとして、 上述した式 (1 5 1 ) が生成 される。
ステップ S 12232では、 方程式生成部 12252は、 方程式生成処理を行う。 即 ち、 方程式生成部 12252は、 処理領域設定部 12241から供給される処理領域 情報から、 入力画像における処理領域を認識し、 その処理領域について、 その 処理領域を構成する入力画像の各画素の画素値を、 モデル生成部 12251から 供給される、 その処理領域の各水平ラインに対して得られた関係モデルに代入 し、 これにより、 実世界 1の光信号を近似する近似関数で表される、 動きボケ のない画素値 Q i を求める式 (1 5 1 ) の方程式 (モデル方程式) を生成する。 さらに、 方程式生成部 12252は、 処理領域設定部 12241から供給される処 理領域情報から認識される処理領域の水平ラインにおける実世界 1の光信号を 近似する近似モデルを拘束する拘束条件式を生成する。 即ち、 式 (1 5 1 ) の モデル方程式は、 求めたい変数である動きボケのない画素値の方が、 方程式の 数より多いため、 動きボケのない画素値 Q i を求めるには、 方程式の総数を動 きボケのない画素値 Q i の数以上とする方程式を導入する必要がある。 ここで、 方程式生成部 12252は、 隣接する画素の、 近似関数で表される動きボケのな い画素値 Q i の差が小さい (空間相関がある) という拘束条件式を生成する。 このとき、 方程式生成部 12252は、 ユーザにより指示された不満領域の画素 と、 処理領域内における不満領域の画素と類似 (同一を含む) の特徴量を有す る画素に対して、 重みを付けた拘束条件式を生成する。 但し、 不満領域に対する重み付けの仕方により画質の異なる出力画像が得ら れるため、 方程式生成部 12252は、 N通りの重み付けた拘束条件式を生成す る。 その結果、 信号処理装置 4では、 N通りの出力画像が生成されて、 表示さ れる。 そして、 ユーザは、 その N通りの出力画像を見て、 その中から所望の画 質の画像または所望の画質に近い画像を選択する。
従って、 動きボケのない画像が平坦ではなく、 例えば、 何らかの模様があり、 アクティビティの高い画像である場合においても、 ユーザが所望する画質の動 きボケのない画像が得られる。 即ち、 方程式生成部 12252は、 ユーザにより 不満のある領域であると指示された領域に対して、 N通りの重みを付けた、 隣 接画素の動きボケのない画素値の差は小さいという拘束条件式を生成する。 ュ 一ザは、 その結果得られる N通りの出力画像から所望の画質の画像が選択する ことができるので、 不満のある領域に対して最適な拘束条件を設定し、 所望す る画質の画像を容易に得ることができる。
また、 方程式生成部 12252は、 不満領域の画素だけでなく、 不満領域の画 素と類似する特徴量を有する処理領域内の画素に対しても、 不満領域の画素と 同一の N通りの拘束条件式を生成するので、 不満領域の画素と類似の特徴量を 有する画素に対して同一の拘束条件式を与えたい場合、 ユーザは不満領域とす る画素すベてを指示する必要がなく、 不満領域とするある画素を指示するだけ で、 容易に、 その指示した画素と類似の特徴量を有する画素に対して最適な拘 束条件を設定することができる。 従って、 ユーザの負担を軽減することができ る。
方程式生成部 12252は、 モデル方程式を生成するとともに、 不満領域指示 ' 情報に基づいて、 不満領域の画素と、 不満領域の画素と類似の特徴量を有する 処理領域内の画素に対して、 N通りの重みを付けた拘束条件式を生成し、 生成 されたモデル方程式と N通りの拘束条件式のそれぞれとを合わせて、 N通りの 正規方程式を生成する。 方程式生成部 12252 は、 その N通りの正規方程式を、 実世界波形推定部 12253に供給して、 ステップ S 12232からステップ S 12233 に進む。
なお、 以下、 このような方程式生成部 12252が実行するステップ S 12232の 処理を、 「方程式生成処理」 と称する。 「方程式生成処理」 の詳細については、 図 1 7 1のフローチャートを参照して後述する。
ステップ S 12233において、 実世界波形推定部 12253は、 方程式生成部 12252から供給される、 処理領域の各水平ラインについての N通りの正規方程 式を解くことにより、 N通りの実世界 1の光信号の波形を推定、 即ち、 N通り の近似関数で表される動きボケのない画素値 Q i を求め、 その N通りの画素値 を、 画像生成部 12244に供給する。
次に、 図 1 7 0は、 図 1 6 7の方程式生成部 12252の詳細構成例を示して いる。
図 1 7 0では、 方程式生成部 12252は、 モデル方程式生成部 12271、 特徴量 抽出部 12272、 特徴量空間 LUT (Look Up Tabl e) 生成部 12273、 重み設定部 12274、 拘束条件式生成部 12275、 および正規方程式生成部 12276から構成さ れている。
図 1 7 0に構成を示す方程式生成部 12252 には、 モデル生成部 12251 から、 処理領域の水平ラインごとに得られる、 処理領域内のセンサ 2で検出される各 画素の画素値 (動きボケ画像の画素値) と、 動きボケのない画素値との関係を モデル化した関係モデルが入力され、 モデル方程式生成部 12271に供給され る。 また、 方程式生成部 12252には、 入力画像が、 センサ 2 (図 1 ) から入 力され、 その入力画像は、 モデル方程式生成部 12271と特徴量抽出部 12272 に供給される。
さらに、 方程式生成部 12252には、 処理領域情報が、 処理領域設定部 12241 から入力され、 その処理領域情報が、 モデル方程式生成部 12271と特徴量抽 出部 12272に供給される。 また、 方程式生成部 12252には、 補助情報として 不満領域指示情報または選択情報が、 ユーザ I Z F 12246から入力され、 その 不満領域指示情報は、 特徴量空間 LUT生成部 12273に、 選択情報は、 特徴量 空間 LUT生成部 12273と重み設定部 12274にそれぞれ供給される。 .
モデル方程式生成部 12271は、 処理領域情報から入力画像の処理領域を認 識し、 モデル生成部 12251から供給された処理領域の水平ラインごとの関係 モデルの動きボケ画像の各画素の画素値 P i として、 入力画像の処理領域にお ける画素値を代入して、 処理領域の水平ラインごとにモデル方程式を生成する。 そして、 モデル方程式生成部 12271は、 正規方程式生成部 12276に、 そのモ デル方程式を供給する。
特徴量抽出部 12272は、 処理領域設定部 12241から入力された処理領域情 報と入力画像から、 処理領域を構成する画素 (の画素値) を認識し、 その処理 領域を構成する各画素について、 複数種類の特徴量を抽出 (検出) する。 そし て、 特徴量抽出部 12272は、 その処理領域の各画素の複数種類の特徴量を特 徴量空間 LUT生成部 12273に供給する。
ここで、 画素の複数種類の特徴量としては、 例えば、 その画素に隣接する画 素との画素値の差分 (1次微分) や、 その差分の差分 (2次微分) 、 画素値と しての輝度と色差との比、 動きベク トル、 隣接するフレームの同一位置にある 画素との画素値の差分、 その他アクティビティを表す任意の値などを採用する ことが可能である。
特徴量空間 LUT生成部 12273は、 特徴量抽出部 12272から供給された処理 領域の各画素の複数種類の特徴量ごとに、 その処理領域の各画素をクラス分け (クラス分類) した特徴量空間 LUTを生成する。
また、 特徴量空間 LUT生成部 12273は、 ユーザ I Z F 12246から入力され る不満領域指示情報に基づき、 処理領域内の画素の中から、 不満領域の画素と、 その画素と同一のクラスの特徴量を有する画素を選択 (抽出) し、 拘束条件式 によって拘束する対象の拘束対象画素として、 その拘束対象画素の情報を拘束 条件式生成部 12275に供給する。 690
345
さらに、 特徴量空間 LUT生成部 12273は、 ユーザ I / F 12246から選択情 報が入力された場合、 即ち、 ユーザが N通りの出力画像を見て、 ユーザ I / F 12246 を操作することにより所望の画像または所望に近い画像を選択した場合、 生成した特徴量空間 LUTに、 不満領域の画素の属するクラスに対して、 選択 情報が表す出力画像を得るのに用いられた拘束条件式に対する重みを記憶させ る。 特徴量空間 LUT生成部 12273は、 ユーザ I Z F 12246から選択情報の入 力が繰り返されると、 特徴量空間 LUTの、 不満領域の画素の属するクラスに 対して、 前回記憶された重みに代え、 今回選択された出力画像を得るのに用い られた拘束条件式に対する重みを記憶させ、 最終的には、 不満領域の画素の属 するクラスに対して、 最適な重みを記憶させる。
このように、 特徴量空間 LUTには、 不満領域の画素の属するクラスに対し て、 そのクラスが表す特徴量を有する画素にとって最適な重みが記憶されるの で、 特徴量空間 LUTに、 そのような最適な重みが記憶された後は、 その特徴 量空間 LUTにしたがい、 各特徴量の画素に対応する拘束条件式に対する重み を、 その画素の属するクラスに記憶された重みとすることにより、 ユーザが不 満領域を指示しなくても、 任意の入力画像に対して、 ユーザが所望する画質の 出力画像を得ることが可能となる。
重み設定部 12274は、 ユーザ I Z F 12246から入力された選択情報に基づい て、 拘束条件式に付ける N通りの重みを設定し、 その N通りの重みを、 拘束条 件式生成部 12275に供給する。 拘束条件式生成部 12275は、 特徴量空間 LUT 生成部 12273から供給された拘束対象画素に対して、 重み設定部 12274で設 定された N通りの重みに基づいて、 N通りの所定の拘束条件式をそれぞれ生成 し、 その N通りの拘束条件式を正規方程式生成部 12276に供給する。
正規方程式生成部 12276は、 モデル方程式生成部 12271から供給されたモ デル方程式と、 拘束条件式生成部 12275から供給された N通りの拘束条件式 のそれぞれを合わせて、 N通りの正規方程式を生成し、 実世界波形推定部 12253に供給する。 次に、 図 1 7 1のフローチャートを参照して、 方程式生成部 12252 (図 1 7 0 ) の方程式生成処理 (図 1 6 9のステップ S 12232の処理) について詳細に 説明する。
ステップ S 12251において、 モデル方程式生成部 12271は、 モデル生成部 12251から処理領域の水平ラインごとの関係モデルを取得し、 ステップ
S12252に進む。 ステップ S12252において、 モデル方程式生成部 12271は、 センサ 2から入力画像を取得するとともに、 処理領域設定部 12241から処理 領域情報を取得する。 そして、 モデル方程式生成部 12271は、 その入力画像 と処理領域情報から、 処理領域内の各画素の画素値 P i を認識し、 その画素値 P i を、 モデル生成部 12251から取得した式 (1 5 1 ) の関係モデルに代入す ることにより、 処理領域の水平ラインごとにモデル方程式を生成する。 さらに、 モデル方程式生成部 12271は、 そのモデル方程式を正規方程式生成部 12276 に供給する。 即ち、 例えば、 モデル方程式生成部 12271が、 上述した式 (1 5 1 ) で表される関係モデルを、 モデル生成部 12251から取得した場合、 式 ( 1 5 1 ) の画素値 P 4乃至 P 7 に入力画像の画素値を代入することで、 モデ ル方程式を生成する。
ステップ S 12252の処理後は、 ステップ S12253に進み、 特徴量抽出部
12272は、 入力画像の特徴量を抽出し、 特徴量空間 LUT生成部 12273に供給 する。 即ち、 特徴量抽出部 12272は、 処理領域設定部 12241から処理領域情 報を取得し、 入力画像を取得する。 そして、 特徴量抽出部 12272は、.その処 理領域情報から、 入力画像の処理領域内の画像データを認識し、 処理領域内の 画素毎に複数種類の特徴量を抽出して、 その複数種類の特徴量を、 特徴量空間 LUT生成部 12273に供給する。
ステップ S 12253の処理後は、 ステップ S12254に進み、 特徴量空間 LUT生 成部 12273は、 特徴量抽出部 12272から供給された複数種類の特徴量に基づ いて、 処理領域内の各画素を、 クラス分類し、 特徴量空間 LUTを生成する。 なお、 ある処理領域について、 特徴量空間 LUTが既に生成されており、 ュ 一ザ I Z F 12246から選択情報が入力された、 即ち、 ユーザが N通りの出力画 像を見て、 所望の画像または所望に近い画像を選択した場合には、 特徴量空間 LUT生成部 12273は、 ステップ S12253と ' S 12254の処理に代えて、 選択情報 が表す出力画像を得るのに用いられた重みを、 ユーザによって指示された不満 領域の画素 (ユーザによって不満領域が指示されていない場合は、 処理領域の 画素) の属するクラスに対して、 LUT値として特徴量空間 LUTに記億させる。 特徴量空間 LUT生成部 12273は、 ユーザ I ZF 12246から選択情報の入力 が繰り返されると、 不満領域の画素の特徴量クラスに対して、 前回記憶された 重みに代え、 今回選択された出力画像を得るのに用いられた拘束条件式に対す る重みを記憶し、 最終的には、 不満領域の画素の属するクラスに対して、 最適 な重みを記憶させる。
この場合、 方程式生成部 12252は、 特徴量空間 LUTに記億された拘束条件 式の重みを、 他の入力画像に対しても適用することができる。 即ち、 他の入力 画像が新たに入力された場合、 方程式生成部 12252は、 その入力画像の処理 領域内の画素毎に複数種類の特徴量を抽出し、 その複数種類の特徴量に基づい て処理領域内の各画素をクラス分類する。 方程式生成部 122δ2は、 特徴量空 間 LUTのクラスのうちの、 クラス分類によって得られる処理領域の各画素の クラスと同一のクラスに対して LUT値として既に記億された重みを、 その画 素に対応する拘束条件式に対する重みとして設定する。 この場合、 ユーザは、 入力画像ごとに最適な重みを設定する必要がなく、 ユーザの負担が軽減される。 なお、 新たな入力画像が入力されるたびに、 特徴量空間 LUTを新たに生成ま たは更新してもかまわない。
ステップ S 12254の処理後は、 ステップ S 12255に進み、 特徴量空間 LUT生 成部 12273は、 拘束条件によって拘束する拘束対象画素を決定し、 拘束条件 式生成部 12275に供給して、 ステップ S12256に進む。 即ち、 特徴量空間 LUT 生成部 12273は、 ユーザ I F 12246から不満領域指示情報を取得し、 ステツ プ S12254で生成した特徴量空間 LUTに基づいて、 不満領域の画素と、 その画 素と同一の特徴量のクラス (特徴量クラス) に属する画素を、 拘束対象画素と して決定し、 拘束条件式生成部 12275に供給する。
ここで、 ユーザが不満領域を指示せず、 ユーザ I / F 12246から不満領域指 示情報が入力されない場合は、 特徴量空間 LUT生成部 12273は、 例えば、 処 理領域のすべての画素を、 拘束条件式の対象となる拘束対象画素に決定する。 ステップ S 12256では、 重み設定部 12274は、 N通りの重みを設定してそれ ぞれの重みを拘束条件式生成部 12275に供給し、 ステップ S12257に進む。 こ こで、 重み設定部 12274は、 ユーザ I Z F 12246から選択情報が入力された場 合、 その選択情報が表す出力画像を得るのに用いられた重みを基準に、 新たな N通りの重みを設定する。 即ち、 重み設定部 12274は、 最初に重みを設定す る場合、 例えば、 0 . 5を中心として、 0乃至 1の範囲內で等間隔に、 N通り の重みを設定する。 そして、 重み設定部 12274は、 ユーザ I Z F 12246から選 択情報が入力された場合、 その選択情報が表す出力画像を得るのに用いられた 重みを中心として、 前回の重みの設定時よりも細かい等間隔で (伹し、 0乃至 1の範囲) 、 新たな N通りの重みを設定する。
従って、 ユーザが前回の処理で出力された N通りの出力画像の中から所望す るものを選択すると、 その選択結果を踏まえて、 新たな N通りの重みが設定さ れるので、 ユーザは N通りの出力画像の中から所望するものの選択を繰り返す ことにより、 最終的には、 ユーザが所望する画質の出力画像が得られる重みが 設定され、 その結果、 ユーザが所望する画質の出力画像が得られる。
ステップ S12257では、 拘束条件式生成部 12275は、 ステップ Sl2255で決 定された拘束対象画素に対して、 ステップ S12256で設定された N通りの重み' に基づいて、 拘束条件式を生成する。 即ち、 拘束条件式生成部 12275は、 拘 束対象画素に対して N通りの重みを付けた拘束条件式を生成する。 そして、 拘 束条件式生成部 12275は、 生成した N通りの拘束条件式を正規方程式生成部 12276に供給する。 例えば、 拘束対象画素の水平ラインの画素数が、 例えば、 図 1 5 2 A乃至図 1 5 2 Cに示したように 8個であり、 拘束対象画素の動きボケのない画素値を Q。乃至 Q7で表す場合、 拘束条件式は、 上述した式 (1 5 4 ) で表される。 拘束条件式生成部 12275は、 重み Wが異なる N通りの式 (1 5 4 ) で示され る拘束条件式を生成する。
ステップ S 12257の処理後は、 ステップ S 12258に進み、 正規方程式生成部 12276は、 モデル方程式生成部 12271から供給されたモデル方程式に、 拘束条 件式生成部 12275から供給された N通りの拘束条件式をそれぞれ合わせて、 N通りの正規方程式を生成し、 その N通りの正規方程式を実世界波形推定部 12253に供給する。
この後、 実世界波形推定部 12253は、 正規方程式生成部 12276から供給さ れた N通りの正規方程式を、 例えば、 最小二乗誤差最小規範でそれぞれ解くこ とにより、 処理領域内の各水平ラインの画素の N通りの動きボケのない画素値 Q i を求める。
なお、 上述した実世界推定処理は、 処理領域内の水平方向に並ぶ画素 (水平 ライン) 毎に行なわれる。 即ち、 実世界波形推定部 12253は、 水平ライン毎 に、 処理領域の各画素の N通りの動きボケのない画素値を求める。 そして、 実 世界波形推定部 12253は、 処理領域内の全ての水平ラインにおいて、 各画素 の N通りの動きボケのない画素値を求めた後、 処理領域の各画素の N通りの動 きボケのない画素値を、 画像生成部 12244 に供給する。 画像生成部 12244 は、 入力画像の処理領域の各画素の画素値を、 N通りの動きボケのない画素値にそ れぞれ置き換えた画像を、 N通りの出力画像として生成し、 画像表示部 12245 に供給して、 表示させる。
また、 上述の処理では、 拘束条件式生成部 12275は、 拘束対象画素以外に 対する拘束条件式は生成しなかったが、 拘束対象画素以外に対する拘束条件式 も、 所定の重みを付けて、 生成してもよい。 例えば、 拘束条件式生成部 12275 では、 図 1 5 2 A乃至図 1 5 2 Cに示したように、 処理領域の水平ラインが 8 個の画素 # 0乃至 # 7で構成され、 その各画素 # 0乃至 # 7の動きボケのない 画素値を Q。乃至 Q7で表す場合において、 拘束対象画素が画素値 Q。乃至 Q4 の 5つの画素 # 0乃至 # 4で構成されるとき、 画素値 Q5乃至 Q7 の 3つの画 素 # 5乃至 # 7に対しても所定の重み (例えば、 拘束対象画素に対する重みと は異なる重み) Wを付けた拘束条件式を生成することができる。
図 1 7 2 Aと図 1 7 2 Bは、 図 1 6 7の信号処理装置 4の処理の概要を説明 する図である。 なお、 ここでは、 処理領域の画素の特徴量として、 例えば、 3 つの特徴量 A, B , Cが抽出され、 特徴量空間 LUT が構成されるものとする。 図 1 7 2 Aと図 1 7 2 Bの例では、 3つの特徴量 A乃至 Cのうちの、 例えば 2つの特徴量 Aと Cだけに注目し、 横軸を特徴量 Aとするとともに、 縦軸を特 徴量 Cとして、 特徴量空間 LUT12281を示している。
図 1 7 2 Aおよび図 1 7 2 Bに示すように、 ユーザは、 入力画像 12280を 見て、 不満のある領域を、 不満領域として指示する (ポインティングする) 。 そして、 信号処理装置 4は、 ユーザにより指示された不満領域に基づいて処理 領域を設定し、 その処理領域内の入力画像データから、 画素毎に特徴量 A乃至 Cを抽出する。 信号処理装置 4は、 特徴量 A乃至 Cそれぞれに基づいて、 処理 領域の各画素をクラス分類した、 特徴量空間 LUT12281を生成する。 即ち、 信 号処理装置 4は、 画素の特徴量 A乃至 Cで規定する特徴量空間において、 その 画素の特徴量 A乃至 Cをコンポーネントとするベタトルが属する部分空間によ つて、 画素をクラス分類し、 その部分空間としてのクラス (特徴量クラス) と、 画素とを対応付けた特徴量空間 LUT12281を生成する。 なお、 図 1 7 2 Aおよ び図 1 7 2 Bでは、 上述したように、 特徴量 Aと Cだけに注目した特徴量空間 LUT12281を示している。 また、 特徴量空間 LUT12281のマス目は、 特徴量空 間の部分空間としての特徴量クラスを表している。
信号処理装置 4は、 特徴量 LUT12281から、 ユーザによって指示された不満 領域の画素の特徴量クラス 12282を認識し、 その特徴量クラス 12282に分類 された全ての画素を、 拘束対象画素として設定する。 さらに、 信号処理装置 4 は、 N通りの重みを設定し、 拘束対象画素に対して、 N通りの重みそれぞれを 付けた拘束条件式を生成して、 その N通りの拘束条件式を用いて得られる N通 りの出力画像を表示する。
なお、 図 1 7 2 Aと図 1 7 2 Bは、 拘束対象画素に対して異なる重みを付け た拘束条件式から得られた出力画像 12283と出力画像 12284が表示された例 をそれぞれ示している。 なお、 出力画像 12283上の丸印と出力画像 12284上 の三角印は、 拘束対象画素を表している。
信号処理装置 4は、 図 1 7 2 Aおよび図 1 7 2 Bで説明した出力画像を、 N 通り生成して表示する。 そして、 ユーザは、 その N通りの出力画像の中から、 所望の画像または所望の画像に近い画像を選択し、 信号処理装置 4は、 その選 択された画像を得るのに用いた重みを基準として、 新たな N通りの重みを設定 することを繰り返す。
従って、 ユーザは、 簡単に最適な重みと拘束対象画素を設定し、 実世界 1の 光信号により近似した画像を得ることができる。 即ち、 ユーザは、 所望の画質 の画像または所望の画質に近い画像を容易に得ることができる。 また、 不満領 域と同一の特徴量クラスの画素に対して、 拘束条件式が生成されるので、 ユー ザは、 不満領域とする画素全てを指示する必要がなく、 ユーザの負担を軽減す ることができる。
なお、 図 1 7 2 Aおよび図 1 7 2 Bでは、 画素から抽出される 3つの特徴量 A乃至 Cのうちの 2つの特徴量 Aと Cに注目し、 その 2つの特徴量 Aと Cのク ラスが不満領域の画素と同一の画素を拘束対象画素とすることとしたが、 その 他、 例えば、 特徴量 A乃至 Cの全てのクラスまたはいずれか 1のクラスが不 満領域の画素と同一の画素を、 拘束対象画素とすることが可能である。 また、 特徴量 Aと Bや、 特徴量 Bと Cだけに注目して、 拘束対象画素を決定すること も可能である。 ここで、 どの特徴量に注目するかは、 例えば、 ユーザによる操 作に基づいて決定することが可能である。 また、 信号処理装置 4では、 注目す る特徴量だけ抽出するようにすることが可能である。 4 008690
352
図1 7 3は、 図 1 1 1に示した信号処理装置 4の応用例の他の一実施の形態 の構成例を示している。
なお、 図 1 7 3は、 例えば、 一定方向に一定の速さで移動するという定常性 を有するデータ 3の一例である動きボケ画像データから、 実世界 1の光信号を 推定する信号処理装置 4の一実施の形態の構成例を示している。 即ち、 この信 号処理装置 4は、 例えば、 撮影時に被写体 (オブジェクト) が動いたことによ り、 被写体がボケて撮影されてしまった画像 (動きボケ画像) から、 そのボケ がない画像 (動きボケのない画像) を推定する。 従って、 図 1 7 3の実施の形 態では、 入力画像として、 移動しているオブジェクトを撮影することにより得 られた動きボケが生じている動きボケ画像が、 信号処理装置 4に入力される。 なお、 ここでは、 入力画像として、 水平方向 (左から右方向) に一定の速さ (動き量) で移動しているォブジェク トを撮像して得られる画像を採用する。 図 1 7 3において、 処理領域設定部 12291、 定常性設定部 12292、 実世界推 定部 12293、 画像生成部 12294、 画像表示部 12295、 ユーザ I Z F 12296は、 図 1 1 1の処理領域設定部 10001、 定常性設定部 10002、 実世界推定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I ZF 10006にそれぞれ対応し ており、 基本的には、 処理領域設定部 10001、 定常性設定部 10002、 実世界推 定部 10003、 画像生成部 10004、 画像表示部 10005、 ユーザ I Z F 10006それ ぞれと同様の処理を行う。 さらに、 図 1 7 3において、 実世界推定部 12293 は、 モデル生成部 12301、 方程式生成部 12302、 実世界波形推定部 12303で構 成されている。 モデル生成部 12301、 方程式生成部 12302、 実世界波形推定部 12303は、 図 1 1 1のモデル生成部 10011、 方程式生成部 10012、 実世界波形 推定部 10013にそれぞれ対応しており、 基本的には、 モデル生成部 10011、 方 程式生成部 10012、 実世界波形推定部 10013それぞれと同様の処理を行う。 但し、 図 1 7 3においては、 ユーザがユーザ I ZF 12296を操作することに より、 ユーザ I / F 12296が出力する補助情報が、 処理領域設定部 12291と実 世界推定部 12293に供給されるようになつている。 即ち、 図 1 7 3では、 ユーザは、 ユーザ I Z F 12296 を操作することにより、 画像表示部 12295に表示された画像に対して、 不満のある領域を不満領域と して指示することができるようになつており、 ユーザ I Z F 12296は、 ユーザ が不満領域を指示する操作を行うと、 その操作によって指定された領域として の不満領域を表す不満領域指示情報を、 処理領域設定部 12291と実世界推定 部 12293に供給する。 さらに、 図 1 7 3では、 画像表示部 12295には、 後述 するように、 複数の出力画像が表示されるが、 ユーザは、 ユーザ I Z F 12296 を操作することにより、 画像表示部 12295に表示された出力画像を選択する ことができるようになつており、 ユーザ I Z F 12296は、 ユーザが出力画像を 選択する操作を行うと、 その操作によって選択された出力画像を表す選択情報 を、 補助情報として、 処理領域設定部.12291と実世界推定部 12293に供給す る。
なお、 ユーザ I / F 12296を操作することにより不満領域を指示する方法と しては、 例えば、 不満領域を囲む矩形によって指示する方法、 不満領域をトリ ム(trim)することによって指示する方法、 不満領域の中の任意の 1点以上を ポインティングすることによって指示する方法などがあるが、 ここでは、 例え ば、 ユーザは、 不満領域の中の任意の 1点を、 ユーザ I / F 122%を操作する ことによりポインティングすることによって、 不満領域を指示するものとする。 この場合、 ユーザ I ZF 12296は、 ユーザがポインティングした点を表す情報 としての、 例えば、 その点の、 画像上の座標を、 不満領域指示情報として、 処 理領域設定部 12291と実世界推定部 12293に供給する。
次に、 図 1 7 4のフローチャートを参照して、 図 1 7 3の信号処理装置 4の 処理について説明する。
まず最初に、 ステップ S12271 において、 信号処理装置 4は、 前処理を行い、 ステップ S12272に進む。 即ち、 信号処理装置 4は、 センサ 2 (図 1 ) からデ ータ 3として供給される、 例えば 1フレームまたは 1フィールドの入力画像を、 処理領域設定部 12291、 定常性設定部 12292、 実世界推定部 12293、 画像生成 690
354
部 12294、 および画像表示部 12295に供給する。 さらに、 信号処理装置 4は、 画像表示部 12295に、 入力画像を表示させる。
ステップ S12272では、 ユーザ I / F 12296は、 ユーザがユーザ I / F 122%を操作することにより、 何らかのユーザ入力があつたかどうかを判定す る。 ステップ S12272において、 ユーザ入力がなかったと判定された場合、 即 ち、 ユーザが何らの操作も行わなかった場合、 ステップ S12273乃至 S12275 をスキップして、 ステップ S 12276に進む。
また、 ステップ S 12272において、 ユーザ入力があつたと判定された場合、 即ち、 ユーザが画像表示部 12295に表示された入力画像を見て、 ユーザ I / F 12296を操作し、 これにより、 何らかの指示または情報を表すユーザ入力が あった場合、 ステップ S 12273に進み、 ユーザ I / F 12296は、 そのユーザ入 力が、 信号処理装置 4の処理の終了を指示する終了指示であるかどうかを判定 する。
ステップ S12273 において、 ユーザ入力が終了指示であると判定された場合、 即ち、 例えば、 画像表示部 12295に表示された入力画像を見たユーザが、 そ の入力画像の画質に不満を感じず、 入力画像に対して信号処理を施さないで良 いとして、 信号処理装置 4の処理を終了するように、 ユーザ I 7 F 12296を操 作した場合、 信号処理装置 4は処理を終了する。
また、 ステップ S 12273において、 ユーザ入力が終了指示でないと判定され た場合、 ステップ S 12274に進み、 ユーザ I / F 12296は、 ユーザ入力が不満 領域指示情報であるかどうかを判定する。 ステップ S12274において、 ユーザ 入力が不満領域指示情報でないと判定された場合、 ステップ S 12275をスキッ プして、 ステップ S12276に進む。
一方、 ステップ S12274において、 不満領域指示情報の入力があつたと判定 された場合、 即ち、 画像表示部 12295 に表示された入力画像を見たユーザが、 その入力画像の画質に不満を感じ、 不満な箇所をボインティングするように、 ユーザ I Z F 12296を操作した場合、 ステップ S12275に進み、 ユーザ I , F 12296は、 ユーザがユーザ I / F 12296を操作することによってポィンティン グした点を表す不満領域指示情報を、 補助情報として、 処理領域設定部 12291 と実世界推定部 12293に供給し、 ステップ S12276に進む。
ステップ S12276では、 処理領域設定部 12291は、 ユーザ I Z F 12296から 供給された補助情報としての不満領域指示情報に基づいて、 例えば、 不満領域 を含む所定の矩形の領域を処理領域として設定し、 その処理領域情報を、 定常 性設定部 12292、 実世界推定部 12293、 および画像生成部 12294に供給し、 ス テツプ S12277に進む。 なお、 この処理領域は、 ユーザがユーザ I ZF 12296 を操作して入力してもよレ、。
伹し、 ユーザ I / F 12296から処理領域設定部 12291に不満領域指示情報が 供給されなかった場合 (ステップ S12272またはステップ S12274の処理直後 にステップ S12276の処理が行われる場合) には、 処理領域設定部 12291は、 所定の処理 (例えば、 入力画像において、 動きボケが生じている領域を検出す る処理) を行うことにより、 処理領域の設定を行う。
ステップ S12277では、 定常性設定部 12292は、 処理領域設定部 12291から 供給された処理領域情報から、 入力画像における処理領域を認識する。 さらに、 定常性設定部 12292は、 その処理領域の画像データにおいて欠落.した実世界 1の光信号の定常性を表す情報として、 処理領域に表示されたォブジェク トの 動き量を設定し、 その定常性を表す定常性情報を、 実世界推定部 122S3に供 給して、 ステップ S 12278に進む。 なお、 この動き量は、 ユーザがユーザ I Z F 12296を操作して入力しても良い。 また、 ここでは、 定常性設定部 12292は、 入力画像において、 ォブジェク トが水平方向に移動していることを前提として、 その動きの大きさだけを表す動き量を定常性情報として設定するようにしたが、 その他、 オブジェク トの動きの大きさと方向を表す動きべクトルを、 定常性情 報として設定することも可能である。
ステップ S12278では、 実世界推定部 12293は、 処理領域設定部 12291から 供給された処理領域情報と、 ュ ザ I / F 12296から供給された不満領域指示 情報に応じて、 入力画像における処理領域内の画像データ (動きボケ画像デー タ) から、 対応する実世界 1の光信号の動き量に基づいて、 その実世界 1の光 信号 (動きボケのない画像) を複数である M通りの方法で推定する。
即ち、 実世界推定部 12293では、 モデル生成部 12301が、 処理領域設定部 12291から供給される処理領域情報から、 入力画像における処理領域を認識す るとともに、 定常性設定部 12292から供給される定常性情報から、 処理領域 の画像データに対応する実世界 1の光信号の動き量、 つまり、 ここでは、 処理 領域に表示されたオブジェク トの動き量を認識する。 さらに、 モデル生成部 12301は、 入力画像における処理領域の各水平ラインを構成する画素と、 その 処理領域の画像データに対応する実世界 1の光信号の動き量に応じて、 処理領 域の各水平ラィンの画素の画素値と実世界 1の光信号との関係をモデル化した 関係モデルを処理領域の水平ラインごとに生成し、 方程式生成部 12302に供 給する。
方程式生成部 12302は、 処理領域設定部 12291から供給される処理領域情 報から、 入力画像における処理領域を認識し、 その処理領域に応じて、 入力画 像の各画素の画素値を、 モデル生成部 12301から供給される処理領域の水平 ラインごとの関係モデルに代入し、 これにより、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式を生成する。 さらに、 方程式生成 部 12302は、 処理領域情報と入力画像の M通りの特徴量に基づいて、 近似関 数を拘束する M通りの拘束条件式を生成する。 方程式生成部 12302は、 実世 界 1の光信号を近似する近似モデルとしての近似関数を求める方程式と M通り の拘束条件式のそれぞれとを合わせて、 M通りの正規方程式を生成し、 実世界 波形推定部 12303に供給する。
実世界波形推定部 12303は、 方程式生成部 12302から供給される M通りの 正規方程式をそれぞれ演算することにより、 M通りの実世界 1の光信号の波形 を推定する。 即ち、 実世界波形推定部 12303は、 方程式生成部 12302から供 給される M通りの正規方程式をそれぞれ解くことにより、 実世界 1の光信号を モデル化した近似モデルとしての M通りの近似関数を求め、 M通りの実世界 1 の光信号の波形の推定結果として、 画像生成部 12294に供給する。
なお、 以下、 このような実世界推定部 12293が実行するステップ S 12278の 処理を、 「実世界の推定処理」 と称する。 「実世界の推定処理」 の詳細につい ては、 図 1 7 5のフローチャートを参照して後述する。
ステップ S 12278の処理後は、 ステップ S12279に進み、 画像生成部 12294 は、 実世界推定部 12293 (の実世界波形推定部 12303) から供給された、 実世 界 1の光信号の波形を近似する M通りの近似関数に基づいて、 実世界 1の光信 号により近似した M通りの信号を生成する。 即ち、 画像生成部 12294は、 処 理領域設定部 12291から供給される処理領域情報から、 入力画像における処 理領域を認識し、 その処理領域について、 実世界推定部 12293から供給され る M通りの近似関数に基づき、 実世界 1の光信号により近似した M通りの近似 画像 (動きボケのない画像) を生成する。
さらに、 画像生成部 12294は、 入力画像の処理領域の部分を、 M通りの近 似画像 (動きボケのない画像) に置き換えた画像を、 M通りの出力画像として 生成し、 画像表示部 12295に供給して、 ステップ S 12279から S12280に進む c ステップ S 12280では、 画像表示部 122 は、 画像生成部 12294から供給さ れた M通りの出力画像を、 ステップ S12271で表示された入力画像に代えて、 またはその入力面像とともに表示し、 ステップ S12281に進む。
ステップ S 12281では、 ユーザ I Z F 12296は、 ユーザがユーザ I / F
12296を操作することにより、 選択情報の入力があつたかどうかを判定する。 即ち、 ステップ S12280では、 画像表示部 12295において、 M通りの出力画像 が表示されるが、 その M通りの出力画像を見たユーザが、 その M通りの出力画 像の中から、 所望の画質の画像または所望の画質に近い画像を選択する選択情 報の入力を、 ユーザ I Z F 12296を操作することにより行ったかどうかが、 ス テツプ S 12281において判定される。 ステップ S 12284において、 選択情報の入力がなかったと判定された場合、 ステップ S12284に進み、 ステップ S12273における場合と同様に、 ユーザ I / F 12296は、 終了指示の入力があつたかどうかを判定する。
ステップ S 12284において、 終了指示の入力があつたと判定された場合、 信 号処理装置 4は、 処理を終了する。
また、 ステップ S12281において、 終了指示の入力がなかったと判定された 場合、 ステップ S12281に戻り、 以下、 同様の処理を繰り返す。
一方、 ステップ S 12281において、 選択情報の入力があつたと判定された場 合、 即ち、 画像表示部 12295 に表示された M通りの出力画像を見たユーザが、 その M通りの出力画像の中から、 所望の画質の画像または所望の画質に近い画 像を選択した場合、 ステップ S12282に進み、 ユーザ I / F 12296は、 ユーザ がユーザ I / F 12296を操作することにより、 ユーザが選択した出力画像を、 最終的な出力画像として確定する確定指示の入力があつたかどうかを判定する。 ステップ S 12282において、 確定指示の入力があつたと判定された場合、 ス テツプ S12283に進み、 画像表示部 12295は、 例えば、 その画面全体に、 ユー ザが選択した出力画像を表示し、 処理を終了する。
また、 ステップ S 12282において、 確定指示の入力がなかったと判定された 場合、 即ち、 ユーザが、 選択した出力画像の画質に不満があり、 再度処理を行 うために、 確定指示の入力を行わなかった場合、 ステップ S12275に戻り、 ュ 一ザ I Z F 12296は、 ユーザが選択した出力画像を表す選択情報を、 補助情報 として、 処理領域設定部 12291 と実世界推定部 12293に供給し、 ステップ S12276, S12277, S12278に順次進む。 ステップ S12276の処理領域の設定処 理とステップ S12277の定常性の設定処理では、 前回設定された処理領域と定 常性が設定される。 そして、 その処理領域情報が定常性設定部 12292、 実世界 推定部 12293、 および画像生成部 12294に供給され、 その定常性情報が実世界 推定部 12293に供給される。 なお、 2回目以降に行われるステップ S12276お よび S12277の処理は、 スキップすることができる。 ステップ S 12278では、 実世界推定部 12293は、 ユーザ I / F 12296から供 給された補助情報としての選択情報に基づいて、 その実世界 1の光信号 (動き ボケのない画像) を新たな M通りの方法で推定する。
即ち、 この場合、 ステップ S12278では、 実世界推定部 12293の方程式生成 部 12302では、 ユーザ I / F 12296から供給された補助情報としての選択情報 が表す出力画像を得るのに用いられた拘束条件式を基準に、 新たな M通りの拘 束条件式を設定する。 方程式生成部 12302は、 実世界 1の光信号を近似する 近似モデルとしての近似関数を求める方程式と、 新たな M通りの拘束条件式の それぞれとを合わせて、 新たな M通りの正規方程式を生成し、 その新たな M通 りの正規方程式を実世界波形推定部 12303に供給する。 さらに、 実世界波形 推定部 12303は、 方程式生成部 12302から供給される新たな M通りの正規方 程式をそれぞれ演算することにより、 新たな M通りの実世界 1の光信号の波形 を推定する。 そして、 ステップ S12278から S 12279に進み、 以下、 同様の処 理が繰り返される。
即ち、 これにより、 ステップ S12275乃至 S 12284の処理が操り返され、 最 終的には、 出力画像に対するユーザの不満が解消された、 ユーザが所望する画 質の出力画像が得られる。
以上のように、 信号処理装置 4では、 入力画像に対する処理結果としての M 通りの出力画像をユーザに提示し、 その M通りの出力画像の中からユーザが所 望するものを選択してもらい、 その選択結果を踏まえて、 再度処理を行うよう にしたので、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ることが できる。 即ち、 信号処理装置 4は、 入力画像に対する処理結果としての M通り の出力画像をユーザに提示する。 一方、 ユーザは、 その M通りの出力画像それ ぞれの画質を認識、 判断し、 画質の良い出力画像を、 信号処理装置 4にフィー ドバックする。 そして、 信号処理装置 4は、 そのユーザからのフィードバック を踏まえ、 再度、 入力画像を処理し、 以下、 同様の処理が繰り返される。 従つ て、 ユーザの好みにあった、 高画質の出力画像を、 容易に得ることができる。 なお、 このように、 信号処理装置 4において、 ユーザからのフィードバック を受けて入力画像に対する処理を行うことは、 信号処理装置 4が、 ユーザと協 調しながら処理を行っているということができる。
次に、 図 1 7 5のフローチャートを参照して、 実世界推定部 12293 (図 1 7 3 ) の実世界の推定処理 (図 1 7 4のステップ S 12278の処理) について詳細 に説明する。
ステップ S 12291において、 モデル生成部 12301は、 関係モデルを生成する c 即ち、 モデル生成部 12301力 処理領域設定部 12291から供給される処理領 域情報から、 入力画像における処理領域を認識するとともに、 定常性設定部 12292から供給される定常性情報から、 処理領域の画像データに対応する動き 量を認識する。 さらに、 モデル生成部 12301は、 入力画像における処理領域 について、 その処理領域の水平ラインを構成する画素と、 その処理領域の画像 データに対応する動き量に応じて、 処理領域内のセンサ 2で検出された各画素 の画素値と、 実世界 1の光信号を近似する近似モデルで表される動きボケのな い画像との関係をモデル化した関係モデルを生成し、 これにより、 処理領域に 対して得られる関係モデルを、 処理領域の水平ラインごとに生成し、 方程式生 成部 12302に供給する。 そして、 モデル生成部 12301は、 ステップ S 1229 lか らステップ S 12292に進む。
具体的には、 モデル生成部 12301は、 処理領域の水平ラインの画素数と動 き量に応じて、 図 1 4 8 A乃至図 1 4 8 Cで説明した、 処理領域の各水平ライ ンの画素の画素値 P i と、 動きボケのない画素値 Q i との関係を表す式を関係 モデルとして生成する。 例えば、 処理領域の水平ラインの画素数が 8であり、 動き量 Vが 5である場合、 関係モデルとして、 上述した式 (1 5 1 ) が生成 される。
ステップ S 12292では、 方程式生成部 12302は、 方程式生成処理を行う。 即 ち、 方程式生成部 12302は、 処理領域設定部 12291から供給される処理領域 情報から、 入力画像における処理領域を認識し、 その処理領域について、 その 処理領域を構成する入力画像の各画素の画素値を、 モデル生成部 12301から 供給される、 その処理領域の各水平ラインに対して得られた関係モデルに代入 し、 これにより、 実世界 1の光信号を近似する近似関数で表される、 動きボケ のない画素値 Qi を求める式 (1 5 1 ) の方程式 (モデル方程式) を、 処理領 域の水平ラインごとに生成する。
さらに、 方程式生成部 12302は、 処理領域設定部 12291から供給される処 理領域情報から認識される処理領域における実世界 1の光信号を近似する近似 モデルを拘束する拘束条件式を生成する。 即ち、 式 (1 5 1 ) のモデル方程式 は、 求めたい変数である動きボケのない画素値の方が、 方程式の数より多いた め、 動きボケのない画素値 を求めるためには、 方程式の総数を動きボケの ない画素値 Qi の数以上とする方程式を導入する必要がある。 ここで、 方程式 生成部 12302は、 隣接する画素の、 近似関数で表される動きボケのない画素 値の差が小さい (空間相関がある) という拘束条件式を生成する。 このとき、 方程式生成部 12302は、 ユーザにより指示された不満領域の画素と、 処理領 域内における不満領域の画素と類似の特徴量を有する画素を、 拘束対象画素と して、 その拘束対象画素に対して、 重みを付けた拘束条件式を生成する。
即ち、 方程式生成部 12302は、 処理領域の各画素について複数種類の特徴 量を抽出し、 不満領域と類似の特徴量を有する処理領域内の画素を、 拘束条件 式の対象となる拘束対象画素として選択する。 具体的には、 方程式生成部 12302は、 複数種類の特徴量の 1以上の組み合わせを、 M通り設定し、 その M 通りの特徴量 (の 1以上の組み合わせ) それぞれについて、 拘束対象画素を 選択する。 そして、 方程式生成部 12302は、 その拘束対象画素に対して、 所 定の重みを付けた拘束条件式を生成する。 その結果、 M通りの出力画像が生成 されて表示される。 そして、 ユーザは、 M通りの出力画像を見て、 その M通り の出力画像の中から所望の画質の画像または所望の画質に近い画像を選択する。 以上のように、 方程式生成部 12302は、 不満領域の画素だけでなく、 M通 りの特徴量の 1以上の組み合わせに基づいて、 不満領域の画素と類似の特徴量 を有する処理領域内の画素に対しても、 不満領域の画素と同一の拘束条件式を 生成するので、 ユーザは、 その結果得られる M通りの出力画像から所望の画像 の選択することにより、 同一の拘束条件式を与えたい箇所に、 容易に、 同一の 拘束条件を与えることができる。 従って、 ユーザは同一の拘束条件式を与えた い箇所が複数ある場合においても、 その複数の箇所それぞれを、 不満領域とし て指示する必要がなく、 ユーザの負担を軽減することができる。
方程式生成部 12302は、 モデル方程式を生成するとともに、 不満領域指示 情報に基づいて、 不満領域の画素と、 M通りの種類の特徴量 (M通りの特徴量 の 1以上の組み合わせ) それぞれについて不満領域の画素と類似の特徴量を有 する処理領域内の画素に対して、 所定の重みを付けた M通りの拘束条件式を生 成し、 生成されたモデル方程式と M通りの拘束条件式のそれぞれとを合わせて、 M通りの正規方程式を生成する。 方程式生成部 12302は、 その M通りの正規 方程式を、 実世界波形推定部 12303に供給して、 ステップ S12292からステツ プ S 12293に進む。
なお、 以下、 このような方程式生成部 12302が実行するステップ S12292の 処理を、 「方程式生成処理」 と称する。 「方程式生成処理」 の詳細については、 図 1 7 7のフローチャートを参照して後述する。
ステップ S12293において、 実世界波形推定部 12303は、 方程式生成部 12302から供給される、 処理領域の各水平ラインについての M通りの正規方程 式を解くことにより、 M通りの近似関数で表される動きボケのない画素値 Q i を求め、 その M通りめ画素値を、 画像生成部 12294に供給する。
次に、 図 1 7 6は、 図 1 7 3の方程式生成部 12302の詳細構成例を示して いる。
図 1 7 6では、 方程式生成部 12302は、 モデル方程式生成部 123S1、 特徴量 抽出部 12322、 特徴量軸設定部 12323、 特徴量空間 LUT生成部 12324、 拘束条 件式生成部 12325、 および正規方程式生成部 12326から構成されている。 図 1 7 6に構成を示す方程式生成部 12302 には、 モデル生成部 12:301 から、 処理領域の水平ラインごとに得られる、 処理領域の各水平ラインの画素の画素 値 (動きボケ画像の画素値) と、 動きボケのない画素値との関係をモデル化し た関係モデルが入力され、 モデル方程式生成部 12321に供給される。 また、 方程式生成部 12302には、 入力画像が、 センサ 2 (図 1 ) から入力され、 そ の入力画像は、 モデル方程式生成部 12321 と特徴量抽出部 12322に供給され る。
さらに、 方程式生成部 12302には、 処理領域情報が、 処理領域設定部 12291 から入力され、 その処理領域情報が、 モデル方程式生成部 12321 と特徴量抽 出部 12322に供給される。 また、 方程式生成部 12302には、 補助情報として 不満領域指示情報と選択情報が、 ユーザ I Z F 12296から入力され、 不満領域 指示情報は、 特徴量空間 LUT生成部 12324に、 選択情報は、 特徴量空間 LUT 生成部 12324と特徴量軸設定部 12323にそれぞれ供給される。
モデル方程式生成部 12321は、 処理領域情報から入力画像の処理領域を認 識し、 モデル生成部 12301から供給された処理領域の水平ラインごとの関係 モデルの動きボケ画像の各画素の画素値 P i として、 入力画像の処理領域にお ける画素値を代入して、 処理領域の水平ラインごとに、 式 (1 5 1 ) のモデル 方程式を生成する。 そして、 モデル方程式生成部 121321は、 正規方程式生成 部 12326に、 そのモデル方程式を供給する。
特徴量抽出部 12322は、 処理領域設定部 12291から入力された処理領域情 報と入力画像から、 処理領域を構成する画素 (の画素値) を認識し、 その処理 領域を構成する各画素について、 複数種類の特徴量を抽出する。 そして、 特徴 量抽出部 12322は、 その処理領域の画素毎の複数種類の特徴量を特徴量空間 LUT生成部 12324に供給する。
特徴量軸設定部 12323は、 ユーザ I Z F 12296から入力された選択情報に基 づいて、 特徴量空間 LUTを生成するための M通りの特徴量軸を設定する。 な お、 この特徴量軸は、 入力画像から抽出される複数の特徴量のいずれかを表す 軸である。
特徴量空間 LUT生成部 12324は、 特徴量抽出部 12322から供給された処理 領域の各画素の複数種類の特徴量のうちの、 特徴量軸設定部 12323から供給 される特徴量軸に対応する特徴量に基づいて、 処理領域の各画素をクラス分け (クラス分類) し、 特徴量空間 LUTを生成する。 なお、 特徴量空間 LUT生成 部 12324は、 特徴量軸設定部 12323から供給される M通りの特徴量軸それぞ れについて、 処理領域の各画素をクラス分けし、 これにより、 M通りの特徴量 空間 LUTを生成する。 また、 特徴量空間 LUT生成部 12324は、 生成した M通 りの特徴量空間 LUTと、 ユーザ I / F 12296から入力される不満領域指示情報 に基づき、 処理領域内の画素の中から、 不満領域の画素と、 その画素と類似の 特徴量を有する画素をそれぞれ選択し、 拘束対象画素として、 その拘束対象画 素の情報を拘束条件式生成部 12325に供給する。 従って、 特徴量空間 LUT生 成部 12324は、 M通りの特徴量空間 LUTについて、 M通りの拘束対象画素を 選択する。
さらに、 特徴量空間 LUT生成部 12324は、 ユーザ I Z F 122%から選択情 報が入力された場合、 即ち、 ユーザが M通りの出力画像を見て、 ユーザ I / F 12296 を操作することにより所望の画像または所望に近い画像を選択した場合、 生成した M通りの特徴量空間 LUTのうち、 選択情報が表す出力画像を得るの に用いられた特徴量空間 LUTの、 ユーザによって指示された不満領域の画素
(ユーザによって不満領域が指示されていない場合は、 処理領域の画素) の特 徴量クラスに対して、 拘束条件式に付けられた重みを記憶させる。
特徴量空間 LUT生成部 12324は、 ユーザ I 12296から選択情報の入力 が繰り返されると、 前回生成された特徴量空間 LUTを削除し、 今回生成され た M通りの特徴量空間 LUTのうちの、 今回選択された出力画像を得るのに用 いられた特徴量空間 LUTの、 不満領域の画素の特徴量クラスに対して重みを 記憶させ、 最終的には、 ユーザが最も良いとした画質の出力画像が得られたと きに用いられた、 いわば最適な特徴量空間 LUTに、 重みを記憶させる。 従つ て、 この最適な特徴量空間 LUTにおいては、 拘束対象画素とするのに、 最適 な画素の属する特徴量クラスに対して、 重みが記憶されているので、 そのよう な最適な特徴量空間 LUTが得られた後は、 その最適な特徴量空間 LUTにした 力^、、 各特徴量の画素に対応する拘束条件式の重みを、 その画素の属するクラ スに記憶された重みとすることにより、 ユーザが不満領域を指示しなくても、 任意の入力画像に対してユーザが所望する画質の出力画像を得ることが可能と なる。
なお、 ここでは、 特徴量空間 LUTに、 重みを記憶させるようにしたが、 特 徴量空間 LUT には、 重みそのものではなく、 重みが付されたこと (あるいは、 拘束対象画素とされたこと) を表す情報を記億させてもよい。
また、 ここでは、 特徴量軸設定部 12323において、 M通りの特徴量軸を設 定し、 特徴量空間 LUT生成部 12324において、 その M通りの特徴量軸それぞ れによつて規定される特徴量空間で処理領域の画素をクラス分類する M通りの 特徴量空間 LUTを生成するようにしたが、 M通りの特徴量空間 LUTは、 その 他、 例えば、 特徴量軸はすべて同一とし、 その同一の特徴量軸を区切って特徴 量クラスを作るときの、 その特徴量軸の区切り方を M通り用意することによつ て生成することも可能である。
拘束条件式生成部 12325は、 特徴量空間 LUT生成部 12324から供給された M通りの拘束対象画素に対して、 所定の重みを付けた M通りの所定の拘束条件 式をそれぞれ生成し、 その M通りの拘束条件式を正規方程式生成部 12326に 供給する。
正規方程式生成部 12326は、 モデル方程式生成部 12321から供給されたモ デル方程式と、 拘束条件式生成部 12325から供給された M通りの拘束条件式 それぞれとを合わせて、 M通りの正規方程式を生成し、 実世界波形推定部 12303に供給する。 次に、 図 1 7 7のフローチャートを参照して、 方程式生成部 12302 (図 1 7 6 } の方程式生成処理 (図 1 7 5のステップ S 12292の処理) について詳細に 説明する。
ステップ S 12311において、 モデル方程式生成部 12321は、 モデル生成部 12301から処理領域の水平ラインごとの関係モデルを取得し、 ステップ
S12312に進む。 ステップ S12312において、 モデル方程式生成部 12321は、 センサ 2から入力画像を取得するとともに、 処理領域設定部 12291から処理 領域情報を取得する。 そして、 モデル方程式生成部 12321は、 その入力画像 と処理領域情報から、 処理領域内の各画素の画素値 P i を認識し、 その画素値 P i を、 モデル生成部 12301から取得した式 (1 5 1 ) の関係モデルの処理領 域内の各画素の画素値に代入することにより、 処理領域の水平ラインごとにモ デル方程式を生成する。 さらに、 モデル方程式生成部 12321は、 そのモデル 方程式を正規方程式生成部 12326に供給する。 即ち、 例えば、 モデル方程式 生成部 12321が、 上述した式 ( 1 5 1 ) で表される関係モデルを、 モデル生 成部 12301から取得した場合、 式 (1 5 1 ) の画素値 P 4乃至 P 7 に入力画像 の画素値を代入する。
ステップ S 12312の処理後は、 ステップ S 12313に進み、 特徴量抽出部 12322は、 入力画像の特徴量を抽出し、 特徴量空間 LUT生成部 12324に供給 する。 即ち、 特徴量抽出部 12322は、 処理領域設定部 12291から処理領域情 報を取得するとともに、 入力画像を取得する。 そして、 特徴量抽出部 12322 は、 その処理領域情報から、 入力画像の処理領域内の画素を認識し、 その処理 領域内の画素毎に複数種類の特徴量を抽出して、 特徴量空間 LUT生成部 12324 に供給する。
ステップ S 12313の処理後は、 ステップ S 12314に進み、 特徴量軸設定部 12323は、 例えば、 特徴量抽出部 12322で抽出される複数の特徴量の 1以上 を組み合わせることによって、 M通りの特徴量軸を設定して、 特徴量空間 LUT 生成部 12324に供給し、 ステップ S 12315に進む。 ここで、 特徴量設定部 12323は、 ユーザ I Z F 12296から選択情報が入力された場合、 その選択情報 が表す出力画像を得るのに用いられた特徴量軸を基準に、 新たな M通りの特徴 量軸を設定する。 即ち、 特徴量軸設定部 12323は、 最初に特徴量軸を設定す る場合、 例えば、 ある特徴量 Aを 1つの特徴量軸とし、 他の M通りの特徴量そ れぞれを他の特徴量軸として、 M通りの特徴量軸 (M通りの、 2つの特徴量軸 の組み合わせ) を設定する。 そして、 特徴量軸設定部 12323は、 ユーザ I Z F 12296から選択情報が入力された場合、 その選択情報が表す出力画像を得る のに用いられた 2つの特徴量軸、 例えば、 特徴量 Aおよび Bの特徴量軸に加え て、 その特徴量 Aおよび B以外の M通りの特徴量それぞれを新たな他の特徴量 軸として、 新たな M通りの特徴量軸 (M通りの、 3つの特徴量軸の組み合わ せ) を設定する。
従って、 ユーザが前回の処理で出力された M通りの出力画像の中から所望す るものを選択することによって、 その選択結果を踏まえて、 新たな M通りの特 徴量軸が設定され、 拘束条件の対象となる拘束対象画素が決定されるので、 こ の処理を操り返すことにより、 最終的には、 ユーザが所望する画質の出力画像 が得られる特徴量軸が設定され、 その結果、 ユーザが所望する画質の出力画像 が得られる。
なお、 上述の場合には、 M通りの特徴量軸 (の組み合わせ) として、 同一の 数の特徴量軸からなる M通りの特徴量軸を設定するようにしたが、 M通りの特 徴量軸の設定方法は、 これに限定されるものではない。 即ち、 M通りの特徴量 軸としては、 その他、 例えば、 異なる数の特徴量軸からなる M通りの特徴量軸 (例えば、 特徴量 Aだけの特徴量軸と、 特徴量 Aおよび Bの特徴量軸など) を 設定することが可能である。
ステップ S12315では、 特徴量空間 LUT生成部 12324は、 特徴量抽出部 12322から供給された処理領域内の各画素の特徴量から、 それぞれの画素を、 ステップ S12314で設定された M通りの特徴量軸に基づいて、 特徴量クラスに 分類し、 M通りの特徴量空間 LUTを生成する。 即ち、 例えば、 いま、 特徴量軸抽出部 12322において、 複数の特徴量とし て、 3つの特徴量 A, B , Cが抽出され、 特徴量軸設定部 12323において、 M通りの特徴量軸として、 3つの特徴量 A乃至 Cのうちの特徴量 A , B , C , Aと B , Aと C, Bと C, Aと Bと Cの 7通りの軸が設定されたとする。 この 場合、 特徴量軸設定部 12322で設定された 7通りの特徴量軸のうちの、 例え ば、 特徴量 Aと Bの軸に注目すると、 特徴量空間 LUT生成部 12324は、 例え ば、 特徴量 Aと Bの軸を所定の間隔で区切ることによって、 その特徴量 Aと B で規定される空間 (特徴量空間) に生じる部分空間を特徴量クラスとして、 そ の特徴量クラスに特徴量 Aと Bが含まれる画素の情報を、 その特徴量クラスに 登録 (分類) することにより、 特徴量 Aと Bの軸を有する特徴量空間 LUTを 生成する。
なお、 ある処理領域について、 M通りの特徴量空間 LUTが既に生成されて おり、 ユーザ I ZF 12296から選択情報が入力された、 即ち、 ユーザが M通り の出力画像を見て、 所望の画像または所望に近い画像を選択した場合には、 特 徴量空間 LUT生成部 12324は、 ステップ S12314と S12315の処理に代えて、 選択情報が表す出力画像を得るのに用いられた特徴量空間 LUTの、 不 領域 の画素の特徴量クラスに対して、 LUT値として拘束条件式に付けられた重みを 記億させる。
特徴量空間 LUT生成部 12324は、 ユーザ I / F 12296から選択情報の入力 が繰り返されると、 前回生成された特徴量空間 LUTを削除し、 今回生成され た Μ通りの特徴量空間 LUTのうちの、 今回選択された出力画像を得るのに用 いられた特徴量空間 LUTの、 不満領域の画素の特徴量クラスに対して重みを 記憶させ、 最終的には、 ユーザが最も良いとした画質の出力画像が得られたと きに用いられた、 いわば最適な特徴量空間 LUTに、 重みを記憶させる。
この場合、 方程式生成部 12302は、 特徴量空間 LUTに記億された拘束条件 式の重みを、 他の入力画像に対しても適用することができる。 即ち、 他の入力 画像が新たに入力された場合、 方程式生成部 12302は、 その入力画像の処理 領域内の画素毎に複数種類の特徴量を抽出し、 その複数種類の特徴量に基づい て処理領域内の各画素をクラス分類する。 方程式生成部 12302は、 特徴量空 間 LUTのクラスのうちの、 クラス分類によって得られる処理領域の各画素の クラスと同一のクラスに対して LUT値として既に記億された重みを、 その画 素に対応する拘束条件式に対する重みとして設定する。 この場合、 ユーザは、 入力画像ごとに最適な重みを設定する必要がなく、 ユーザの負担が軽減される c なお、 新たな入力画像が入力されるたびに、 特徴量空間 LUTを新たに生成ま たは更新してもかまわない。
ステップ S 12315の処理後は、 ステップ S 12316に進み、 特徴量空間 LUT生 成部 12324は、 拘束条件の対象となる拘束対象画素を決定し、 拘束条件式生 成部 12325に供給して、 ステップ S 12317に進む。 即ち、 特徴量空間 LUT生成 部 12324は、 ユーザ I / F 12296から不満領域指示情報を取得し、 ステップ S12315で生成した M通りの特徴量空間 LUTそれぞれについて、 不満領域の画 素と、 その画素と同一の特徴量クラスの画素を、 拘束対象画素として決定し、 この決定により得られる M通りの拘束対象画素を、 拘束条件式生成部 12325 に供給する。
ここで、 ユーザが不満領域を指示せず、 ユーザ I / F 12296から不満領域指 示情報が入力されない場合は、 特徴量空間 LUT生成部 12324は、 例えば、 処 理領域すベての画素を、 拘束対象画素に決定する。
ステップ S 12317では、 拘束条件式生成部 12325は、 ステップ S12316で決 定された M通りの拘束対象画素に対応する拘束条件式に所定の重みを付けた M 通りの拘束条件式を生成する。 そして、 拘束条件式生成部 12325は、 生成し た M通りの拘束条件式を正規方程式生成部 12326に供給する。
例えば、 拘束対象画素が 8個であり、 その拘束対象画素の動きボケのない画 素値を Q。乃至 Q7で表す場合、 ある 1通りの拘束条件式は、 上述した式 (1 5 4 ) で表される。 拘束条件式生成部 12325は、 M通りの特徴量空間 LUTに ついて、 式 (1 5 4 ) と同様の M通りの拘束条件式を生成する。 ステップ S 12317の処理後は、 ステップ S12318に進み、 正規方程式生成部 12326は、 モデル方程式生成部 12321から供給されたモデル方程式に、 拘束条 件式生成部 12325から供給された M通りの拘束条件式それぞれを合わせて、 M通りの正規方程式を生成し、 実世界波形推定部 12303に供給する。
この後、 実世界波形推定部 12303は、 正規方程式生成部 12325から供給さ れた M通りの正規方程式を最小二乗誤差最小規範でそれぞれ解くことにより、 処理領域内の各水平ラインの画素の M通りの動きボケのない画素値を求める。 なお、 上述した実世界推定処理は、 処理領域内の水平方向に並ぶ画素 (水平 ライン) 毎に行なわれる。 即ち、 実世界波形推定部 12303は、 水平ライン毎 に、 処理領域の各画素の M通りの動きボケのない画素値を求める。 そして、 実 世界波形推定部 12303は、 処理領域内の全ての水平ラインにおいて、 各画素 の M通りの動きボケのない画素値を求めた後、 処理領域の各画素の M通りの動 きボケのない画素値を、 画像生成部 12294 に供給する。 画像生成部 12294 は、 入力画像における処理領域の各画素の画素値を、 M通りの動きボケのない画素 値にそれぞれ置き換えた画像を、 M通りの出力画像として生成し、 画像表示部 12295に供給して表示させる。
また、 上述の処理では、 拘束条件式生成部 12325は、 拘束対象画素以外【こ 対する拘束条件式は生成しなかったが、 拘束対象画素以外に対する拘束条件式 も、 所定の重み (例えば、 拘束対象画素に対する重みとは異なる重み) Wを付 けて、 生成してもよい。
また、 上述の処理では、 M通りの特徴量軸に基づいて、 M通りの特徴量空間 LUTを生成するようにしたが、 方程式生成部 12302では、 上述したように、 特 徴量軸ではなく、 特徴量クラスの分類の区切り方を M通り設定し、 それぞれの 区切り方に基づいて、 処理領域内の画素を特徴量クラスに分類し、 M通りの特 徴量空間 LUTを生成してもよい。
図 1 7 8は、 図 1 7 3の信号処理装置 4の処理の概要を説明する図である。 図 1 7 8に示すように、 ユーザは、 入力画像 12341を見て、 不満のある領 域を、 不満領域として指示する。 または、 ユーザは、 入力画像 12341 を見て、 不満領域を指示せず、 信号処理装置 4が所定の条件に基づいて処理した出力画 像 12342を見て、 不満のある領域を、 不満領域として指示する。
そして、 信号処理装置 4は、 ユーザにより指示された不満領域に基づいて 処理領域を設定し、 その処理領域内の入力画像データから、 画素毎に複数種類 の特徴量を抽出する。 信号処理装置 4は、 M通りの特徴量軸を設定し、 画素 毎の特徴量から、 その M通りの特徴量軸に基づいて、 各画素を特徴量クラスに 分類し、 特徴量空間 LUT12343を生成する。 なお、 図 1 7 8では、 1通りの特 徴量空間 LUT12343 しか図示していないが、 信号処理装置 4では、 M通りの特 徴量空間 LUTが生成される。 ここで、 特徴量空間 LUT12343のマス目は、 特徴 量クラスを表している。 また、 特徴量空間 LUT12343の丸印は、 不満領域の画 素を表している。 丸印が中にあるマス目である特徴量クラスに含まれる画素が、 拘束対象画素とされる。 なお、 図 1 7 8では、 不満領域の画素は、 ある 1つの 特徴量クラスだけに属しているが、 不満領域の画素が属する特徴量クラスは、 1つに限らない。 即ち、 不満領域の画素は、 複数の特徴量クラスに属する場合 がある。
信号処理装置 4は、 M通りの特徴量空間 LUTそれぞれについて、 不満領域 の画素の特徴量クラスに属する画素を拘束対象画素として決定する。 さらに、 信号処理装置 4は、 M通りの特徴量空間 LUTからそれぞれ決定された拘束対 象画素に対して、 所定の重みを付けた拘束条件式をそれぞれ生成し、 その結果 得られる M通りの出力画像 12344-1乃至 12344- Mを表示する。 そして、 ユー ザは、 その M通りの出力画像の中から、 所望の画像または所望の画像に近い繭 像を選択し、 信号処理装置 4は、 その選択された画像を得るのに用いた特徴量 軸を基準として、 新たな M通りの特徴量軸を設定することを繰り返す。
従って、 ユーザは、 簡単に最適な拘束対象画素を設定し、 実世界 1の光信号 により近似した画像を得ることができる。 即ち、 ユーザは、 所望の画質の画像 または所望の画質に近い画像を容易に得ることができる。 また、 不満領域と同 一の特徴量クラスの画素に対して、 拘束条件式が生成されるので、 ユーザは、 不満領域とする画素全てを指示する必要がなく、 ユーザの負担を軽減すること ができる。
図 1 7 9 Aと図 1 7 9 Bを参照して、 図 1 7 3の信号処理装置 4の処理の概 要について、 さらに説明する。
図 1 7 9 Aおよぴ図 1 7 9 Bでは、 画素から複数種類の特徴量として、 例え ば、 3つの特徴量 A乃至 Cが抽出されるものとしてある。 そして、 図 1 7 9 A の例では、 特徴量空間 LUT12362は、 横軸を特徴量 Aとするとともに、 縦軸を 特徴量 Bとする特徴量軸を有している。 また、 図 1 7 9 Bの例では、 特徴量空 間 LUT12364は、 横軸を特徴量 Aとするとともに、 縦軸を特徴量 Cとする特徴 量軸を有している。
図 1 7 9 Aに示すように、 ユーザは、 入力画像 12361を見て、 不満のある 領域を、 不満領域として指示する (ポインティングする) 。 そして、 信号処理 装置 4は、 ユーザにより指示された不満領域に基づいて処理領域を設定し、 そ の処理領域内の入力画像データから、 画素毎に複数種類の特徴量 A乃至 Cを抽 出する。 信号処理装置 4は、 その画素毎の特徴量 A乃至 Cのうちの、 特徴量 A と Bに基づいて、 各画素を特徴量クラスに分類し、 特徴量空間 LUT12362を生 成する。
信号処理装置 4は、 特徴量空間 LUT12362から、 ユーザによって指示された 不満領域の画素の特徴量クラス 12363を認識し、 その特徴量クラス 12363に 分類された全ての画素を、 拘束対象画素として設定する。 さらに、 信号処理装 置 4は、 この拘束対象画素に対して、 所定の重みを付けた拘束条件式を生成し、 その拘束条件式を用いて得られる出力画像 12364を表示する。 なお、 出力画 像 12364上の丸印は、 特徴量空間 LUT12362の特徴量クラス 12363に分類され、 拘束対象画素とされた画素を表している。 図 1 7 9 Bは、 図 1 7 9 Aと異なる特徴量軸に基づいて、 特徴量空間
LUT12365が生成された例を示している。 即ち、 信号処理装置 4は、 横軸を特 微量 Aとし、 縦軸を特徴量 Cとした特徴量軸に基づいて、 特徴量空間
LUT12365を生成し、 ユーザによって指示された不満領域の画素の特徴量クラ ス 12366に分類された全ての画素を拘束対象画素として、 拘束条件式を生成 する。 なお、 この拘束条件式には、 例えば、 図 1 7 9 Aに示した場合と同じ重 みが付けられる。 信号処理装置 4は、 拘束条件式を用いて得られる出力画像 12367を生成して、 表示する。
信号処理装置 4は、 図 1 7 9 Aおよぴ図 1 7 9 Bにおける場合と同様に、 特 徴量軸の異なる M通りの特徴量空間 LUTに基づいて、 M通りの出力画像を生 成して表示する。 そして、 ユーザは、 その M通りの出力画像の中から、 所望の 画像または所望の画像に近い画像を選択し、 信号処理装置 4は、 その選択され た画像を得るのに用いた特徴量空間 LUTの特徴量軸を基準として、 新たな M 通りの特徴量軸を設定することを繰り返す。
従って、 ユーザは、 簡単に最適な拘束対象画素を設定し、 実世界 1の光信号 により近似した画像を得ることができる。 即ち、 ユーザは、 所望の画質の画像 または所望の画質に近い画像を容易に得ることができる。 また、 不満領域と同 一の特徴量クラスの画素に対して、 拘束条件式が生成されるので、 ユーザは、 不満領域とする画素全てを指示する必要がなく、 ユーザの負担を軽減すること ができる。
図 1 8 0は、 図 1 5 3、 図 1 6 1、 図 1 6 7、 図 1 7 3の信号処理装置 4と 等価な信号処理装置 4の構成例を示している。
即ち、 図 1 8 0において、 処理領域選択部 12381は、 例えば、 図 1 5 3の 処理領域設定部 12071に、 動き量パラメータ入力部 12382は、 例えば、 図 1 5 3の定常性設定部 12072に、 特徴量抽出部 12383、 特徴量空間 LUT生成部
12384、 拘束条件設定部 12385、 および動きボケ除去処理部 12386 は、 例えば、 図 1 5 3の実世界推定部 12073に、 出力画像生成部 12387は、 例えば、 図 1 5 3の画像生成部 12074に、 画像表示部 12388は、 例えば、 図 1 5 3の画像 表示部 12075に、 ユーザ I Z F 12389は、 例えば、 図 1 5 3のユーザ I / F 12076にそれぞれ対応している。
なお、 図 1 8 0は、 例えば、 一定方向に一定の速さで移動するという定常性 を有するデータ 3の一例である動きボケが発生した画像データ (動きボケ画像 データ) から、 実世界 1の光信号を推定する信号処理装置 4の一実施の形態の 構成例を示している。 即ち、 この信号処理装置 4は、 例えば、 撮影時に被写体 (オブジェクト) が動いたことにより、 被写体がボケて撮影されてしまった画 像 (動きボケ画像) から、 そのボケがない画像 (動きボケのない画像) を推定 する。
図 1 8 0の実施の形態では、 入力画像として、 例えば水平方向 (左から右方 向) に一定の動き量で移動しているォブジェクトを撮影することにより得られ た動きボケが生じている動きボケ画像が、 信号処理装置 4に入力され、 処理領 域選択部 12381、 特徴量抽出部 12383、 拘束条件設定部 12385、 出力画像生成 部 12387、 および画像表示部 ί2388に供給される。
処理領域選択部 12381は、 入力画像から処理領域を選択 (設定) し、 その 処理領域の情報を、 動き量パラメータ入力部 12382、 拘束条件設定部 12385、 および出力画像生成部 12387に供給する。
動き量パラメータ入力部 12382は、 オブジェク トの動きを表す動き量パラ メータ (動き量を表す値) を設定し、 その動き量パラメータを拘束条件設定部 12385に供給する。 なお、 ここでは、 動き量パラメータ入力部 12382は、 入力 画像において、 オブジェクトが水平方向に移動していることを前提として、 そ の動きの大きさだけを表す動き量を設定するようにしたが、 その他、 オブジェ クトの動きの大きさと方向を表す動きべクトルを設定することも可能である。 特徴量抽出部 12383 は、 入力画像から画素毎に複数種類の特徴量を抽出し、 その複数種類の特徴量を特徴量空間 LUT生成部 12384に供給する。 特徴量空 間 LUT生成部 12384は、 特徴量抽出部 12383から供給された複数種類の特徴 量から、 複数通りである M通りの特徴量軸に基づいて、 入力画像の各画素を特 徴量クラスに分類し、 特徴量空間 LUTを生成する。 特徴量空間 LUT生成部 12384は、 その特徴量空間 LUTを拘束条件設定部 12385に供給する。
拘束条件設定部 12385は、 入力画像と処理領域選択部 12381から供給され た処理領域情報から、 処理領域の各水平ラインの画素の画素値を認識するとと もに、 動き量パラメータ入力部 12382 から供給された動き量パラメータから、 オブジェク トの動き量を認識する。 拘束条件設定部 12385は、 オブジェク ト の動き量に基づいて、 処理領域の水平ラインの各画素の画素値と、 動きボケの ない画素の画素値の関係をモデル化した関係モデルを、 処理領域の水平ライン ごとに生成し、 その関係モデルに処理領域の水平ラインの各画素の画素値を代 入して、 水平ラインごとにモデル方程式を生成する。
また、 拘束条件設定部 12385は、 動きボケのない画素の画素値を拘束する 拘束条件式を水平ラインごとに設定する。 このとき、 拘束条件設定部 12385 は、 特徴量空間 LUT生成部 12384から供給された特徴量空間 LUTに基づいて、 拘束条件式を設定する。 拘束条件設定部 12385は、 水平ラインごとのモデル 方程式と拘束条件式を動きボケ除去処理部 12386に供給する。
動きボケ除去処理部 12386は、 拘束条件設定部 12385から供給されたモデ ル方程式と拘束条件式を、 水平ラインごとに最小二乗誤差最小規範で解くこと により、 処理領域の各水平ラインの画素について、 動きポケのない画素値を求 める。 動きボケ除去処理部 12386は、 処理領域の各水平ラインの画素の動き ボケのない画素値を、 出力画像生成部 12387に供給する。
出力画像生成部 12387は、 処理領域選択部 12381から供給された処理領域 情報から、 処理領域の各水平ラインの画素を認識し、 その各水平ラインの画素 を、 動きボケ除去処理部 12386から供給された処理領域の各水平ラインの画 素の動きボケのない画素値に置き換えた画像を出力画像として生成する。 出力 画像生成部 12387は、 その出力画像を、 画像表示部 12388に供給して、 表示 させる。 画像表示部 12388は、 入力画像や、 出力画像生成部 12387から供給される 出力画像を表示する。
ユーザ I / F 12389は、 ユーザによって操作され、 そのユーザの操作に応じ て、 例えば、 処理領域と動き量に関連する情報を、 処理領域選択部 12381 と 動き量パラメータ入力部 12382にそれぞれ供給する。
即ち、 ユーザは、 画像表示部 12388に表示された入力画像や出力画像を見 て、 その入力画像や出力画像に対する入力を与えるように、 ユーザ I Z F 12389を操作する。 ユーザ I / F 12389は、 ユーザの操作に応じて、 処理領域 を選択する情報を処理領域選択部 12381に供給する。 また、 ユーザ I Z F 12389は、 ユーザの操作に応じて、 処理領域におけるオブジェクトの動き量の 情報を、 動き量パラメータ入力部 12382に供給する。
さらに、 ユーザ I Z F 12389は、 ユーザの操作に応じて、 処理領域内の画素 に対して拘束条件を不均一に設定するために、 拘束条件を与える領域に関する 情報を、 特徴量空間 LUT生成部 12384と拘束条件設定部 12385に供給する。 また、 ユーザ I Z F 12389は、 ユーザの操作に応じて、 拘束条件に対する'重み を指示する重み指示情報を、 拘束条件設定部 12385に供給する。
図 1 8 1と図 1 8 2のフローチヤ一トを参照して、 図 1 8 0の信号処理装置 4の処理について説明する。 なお、 オブジェクトは水平方向に一定速度で動い ているものとする。
まず最初に、 ステップ S12331において、 信号処理装置 4は、 入力画像とし て動きボケ画像の画像信号を取得し、 処理領域選択部 12381、 特徴量抽出部 12383、 拘束条件設定部 12385、 出力画像生成部 12387、 および画像表示部 12388に供給する。 そして、 特徴量抽出部 12383は、 入力画像から、 画素毎に 複数種類の特徴量を抽出し、 その複数種類の特徴量を特徴量空間 LUT生成部 12384に供給する。 特徴量空間 LUT生成部 12384は、 特徴量抽出部 12383か ら供給された複数種類の特徴量に基づいて、 複数通りの特徴量軸に基づく特徴 量空間 LUT (図 1 7 9 Aと図 1 7 9 B ) を生成する。 さらに、 ステップ S12331 では、 信号処理装置 4は、 画像表示部 12388 に、 入力画像を表示させ、 ステップ S12332に進む。
ステップ S 12332では、 ユーザ I / F 12389は、 ユーザにより動きボケ領域 が指示された、 即ち、 画像表示部 12388に表示された入力画像 (動きボケ画 像) を見たユーザが、 その入力画像に動きボケが生じていると感じ、 動きボケ が生じている箇所をボインティングするように、 ユーザ I / F 12389を操作し たかどうかを判定する。 ステップ S12332において、 ユーザにより動きボケ領 域が指示されていない、 即ち、 画像表示部 12388に表示された入力画像を見 たユーザが、 その入力画像に動きボケが生じておらず、 不満がないと感じた場 合、 図 1 8 2のステップ S12342に進む。 ステップ S12342において、 出力画 像生成部 12387は、 出力画像として入力画像を画像表示部 12388に供給して 表示させる。
一方、 ステップ S12332において、 ユーザにより動きボケ領域が指示された と判定された場合、 ユーザ I / F 12389は、 ユーザがユーザ I Z F 12389を操 作することによって指示した動きボケ領域を表す動きボケ領域指示情報を、 処 理領域選択部 12381に供給して、 ステップ S12333に進む。 ステップ S12333 では、 処理領域選択部 12381は、 ユーザ I ZF 12389から供給された動きボケ 領域指示情報に基づいて、 例えば、 動きボケ領域を含む矩形を、 入力画像の領 域から処理領域として選択し、 その処理領域を表す処理領域情報を、 動き量パ ラメータ入力部 12382、 拘束条件設定部 12385、 および出力画像生成部 12387 に供給する。
ステップ S 12333の処理後は、 ステップ S 12334に進み、 動き量パラメータ 入力部 12382は、 処理領域におけるオブジェク トの動き量を表す動きパラメ ータを、 拘束条件設定部 12385に入力する。 即ち、 例えば、 ユーザが画像表 示部 12388に表示された入力画像 (動きボケ画像) を見て、 ユーザ I Z F
12389を操作することにより、 処理領域におけるオブジェクトの動き量を入力 した場合、 動き量パラメータ入力部 12382は、 ユーザ I Z F 12389から入力さ れる動き量を表す動き量パラメータを拘束条件設定部 12385に供給する。 あ るいは、 また、 動き量パラメータ入力部 12382は、 処理領域におけるォブジ ェタ トの動き量を検出し、 その動き量を表すパラメータを、 拘束条件設定部 12385に供給する。 拘束条件設定部 12385は、 その動き量パラメータと処理領 域選択部 12381から供給された処理領域情報に基づいて、 処理領域内の水平 ラインの各画素の画素値と、 動きボケのない画素の画素値の関係をモデル化し た関係モデルを、 処理領域の水平ラインごとに生成して記憶し、 ステップ S12334からステップ S12335に進む。
ステップ S 12335では、 ユーザ I / F 12389は、 ユーザにより、 入力画像で ある動きボケ画像から平坦領域が指示されたかどうかを判定する。 ステップ S 12335において、 ユーザ I Z F 12389は、 ユーザがユーザ I / F 12389を操 作することにより、 動きボケ画像から平坦領域が指示された、 即ち、 ユーザが 入力画像を見て、 処理領域内における動きボケのない画像が平坦であると推定 される平坦領域を指示したと判定した場合、 ステップ S 12336に進み、 ユーザ I Z F 12389は、 ユーザがユーザ I Z F 12389を操作することによって指示し た平坦領域を表す平坦領域指示情報を、 拘束条件設定部 12385に供給する。 ステップ S12336の処理後は、 ステップ S 12337に進み、 特徴量空間 LUT生 成部 12384は、 生成した複数の特徴量空間 LUTのうち、 例えば、 ユーザがュ 一ザ I ZF 12389を操作することによって選択した特徴量空間 LUTを選択し、 拘束条件設定部 12385に供給して、 ステップ S 12339に進む。 即ち、 ステップ S12337では、 例えば、 特徴量空間 LUT生成部 12384が生成した複数通りの特 徴量空間 LUT に対応するポタンが、 画像表示部 12388 に表示される。 そして、 ユーザがユーザ I Z F 12389を操作することにより、 画像表示部 12388に表示 されたボタンをクリック等して選択すると、 ステップ S 12337では、 その選択 されたボタンに対応する特徴量空間 LUTが選択される。
ステップ S 12339において、 拘束条件設定部 12385は、 ユーザ I / F 12389 から供給された平坦領域指示情報から、 処理領域内の平坦領域を認識する。 さ らに、 拘束条件設定部 12385は、 特徴量空間 LUT生成部 12384から供給され た特徴量空間 LUTから、 平坦領域の画素と同一の特徴量クラスの処理領域の 画素を認識する。 そして、 拘束条件設定部 12385は、 平坦領域の画素と、 平 坦領域の画素と同一の特徴量クラスの画素を拘束対象画素として、 その拘束対 象画素に対して、 処理領域の水平ラインごとに拘束条件式を生成し、 その拘束 条件式を動きボケ除去処理部 12386に供給して、 図 1 8 2のステップ S 12340 に進む。 例えば、 処理領域において、 拘束対象画素が 6個だけ水平方向に並ん でおり、 その各画素の動きボケのない画素値を Q。乃至 Q5で表す場合、 拘束 条件式は、 例えば、 上述した式 (1 5 3 ) で示される。
—方、 図 1 8 1のステップ S12335において、 ユーザ I ZF 12389は、 動き ボケ画像から平坦領域が指示されていないと判定した場合、 ステップ S12338 に進み、 出力画像の不満領域が指示されたかどう力、 即ち、 ユーザが前回のス テツプ S12342 (図 1 8 2 ) で画像表示部 12388 に表示された出力画像を見て、 不満を感じ、 その不満を感じた領域を、 ユーザがユーザ I / F 12389を操作す ることにより指示したかどうかを判定する。 ステップ S12338において、 ユー ザ I Z F 12389は、 出力画像の不満領域が指示されていないと判定した場合、 ステップ S12339に進む。 この場合、 ユーザにより平坦領域も不満領域も指示 されていないので、 ステップ S 12339では、 拘束条件設定部 12385は、 例えば、 処理領域のすべての画素を拘束対象画素として、 その拘束対象画素に対して、 水平ラインごとに拘束条件式を生成する。
拘束条件設定部 12385は、 その拘束条件式を動きボケ除去処理部 12386に 供給し、 ステップ S 12339から図 1 8 2のステップ S12340に進む。 例えば、 処理領域の水平ラインの画素が 8個あり、 その各画素の動きボケのない画素値 を Q。 乃至 Q 7 で表す場合、 拘束条件式は、 上述した式 (1 5 2 ) で示される。 ステップ S 12340では、 拘束条件設定部 12385は、 処理領域選択部 12381か ら供給された処理領域情報と入力画像から、 入力画像における処理領域の各水 平ラインの画素の画素値を認識する。 また、 ステップ S 12340において、 拘束 条件設定部 12385は、 入力画像における処理領域の各水平ラインの画素の画 素値を、 ステップ S 12334で生成して記憶した関係モデルに代入して、 水平ラ インごとに、 式 (1 5 1 ) に示したモデル方程式を生成する。 そして、 拘束条 件設定部 12385は、 そのモデル方程式を動きボケ除去処理部 12386に供給す る。
ステップ S 12340の処理後は、 ステップ S12341に進み、 拘束条件設定部 12385は、 動きボケ除去処理を行う。 即ち、 動きボケ除去処理部 12386は、 拘 束条件設定部 12385から供給された拘束条件式とモデル方程式を用いて、 処 理領域の水平ラインごとに正規方程式を生成する。 さらに、 動きボケ除去処理 部 12386は、 その正規方程式を、 最小二乗誤差最小規範で解くことにより、 処理領域の各水平ラインの画素の動きボケのない画素値を求める。 そして、 動 きボケ除去処理部 12386は、 処理領域の各水平ラインの画素の動きボケのな い画素値を、 出力画像生成部 12387に供給し、 ステップ S12341からステップ S12342に進む。
ステップ S 12342において、 出力画像生成部 12387は、 処理領域選択部
12381から供給された処理領域情報から、 処理領域の各水平ラインの画素を認 識し、 その処理領域の各水平ラインの画素の画素値を、 動きボケ除去処理部 12386から供給される動きボケのない画素値に置き換えることにより、 出力画 像を生成する。 さらに、 ステップ S12342では、 出力画像生成部 12^7は、 そ の出力画像を画像表示部 12388に供給して表示させ、 ステップ S 12351に進む。 一方、 図 1 8 1のステップ S12338において、 ユーザ I _ F 12389は、 出力 画像の不満領域が指示されたと判定した場合、 ステップ S12343に進み、 ユー ザがユーザ I F 12389を操作することによって指示した不満領域を表す不満 領域指示情報を拘束条件設定部 12385に供給し、 ステップ S12344に進む。 ス テツプ S12344において、 拘束条件設定部 12385は、 不満領域の画素における 拘束条件式に対する N通りの重みを設定し、 ステップ S 12345に進む。 ステツ プ S 12345において、 特徴量空間 LUT生成部 12384は、 生成した複数の特徴量 空間 LUTから、 例えば、 ステップ S12337における場合と同様に、 ユーザがュ 一ザ I ZF 12389を操作することによつて選択した特徴量空間 LUTを選択し、 その特徴量空間 LUTを拘束条件設定部 12385に供給する。
ステップ S12345の処理後は、 ステップ S 12346に進み、 拘束条件設定部 12385は、 ユーザ I Z F 12389から供給された不満領域指示情報により、 不満 領域を認識するとともに、 処理領域選択部 12381から供給された処理領域情 報により、 処理領域を認識する。 拘束条件設定部 12385は、 特徴量空間 LUT 生成部 12384から供給きれた特徴量空間 LUTから、 処理領域の画素のうち、 不満領域の画素と同一の特徴量クラスの画素を認識し、 拘束対象画素とする。 そして、 拘束条件設定部 12385は、 ステップ S 12344で設定した N通りの重み を用いて、 拘束対象画素に対して、 N通りの重みを付けた拘束条件式を水平ラ インごとに生成する。 拘束条件設定部 12385は、 その N通りの拘束条件式を 動きボケ除去処理部 12386に供給し、 図 1 8 2のステップ S12347に進む。 例えば、 処理領域において、 拘束対象画素が 8個だけ水平方向に並んでおり、 その各画素の動きボケのない画素値を Q。乃至 Q7で表す場合、 拘束条件式に 対する 1通りの重みを Wとすると、 ある 1通りの拘束条件式は、 上述した式 ( 1 5 4 ) で表される。 拘束条件設定部 12385は、 式 (1 5 4 ) の拘束条件 式において重み Wの異なる式を N通り生成する。
ステップ S12347では、 拘束条件設定部 12385は、 処理領域選択部 12381か ら供給された処理領域情報と入力画像から、 入力画像における処理領域の各水 平ラインの画素の画素値を認識する。 また、 ステップ S 12347において、 拘束 条件設定部 12385は、 入力画像における処理領域の各水平ラインの画素の画 素値を、 ステップ S 12334で生成し、 記憶した関係モデルに代入して、 水平ラ インごとの式 (1 5 1 ) のモデル方程式を生成する。 そして、 拘束条件設定部 12385は、 そのモデル方程式を動きボケ除去処理部 12386に供給する。
ステップ S 12347の処理後は、 ステップ S 12348に進み、 拘束条件設定部 12385は、 動きボケ除去処理を行う。 即ち、 動きボケ除去処理部 12386は、 拘 束条件設定部 12385から供給された N通りの拘束条件式それぞれとモデル方 程式とから、 N通りの正規方程式を、 処理領域の水平ラインごとに生成し、 そ の N通りの正規方程式を最小二乗誤差最小規範で解くことにより、 処理領域の 各水平ラインの画素について、 N通りの動きボケのない画素値を求める。 そし て、 動きボケ除去処理部 12386は、 処理領域の各水平ラインの画素の N通り の動きボケのない画素値を、 出力画像生成部 12387に供給し、 ステップ
S12348からステップ S12349に進む。
ステップ S 12349において、 出力画像生成部 12387は、 処理領域選択部 12381から供給された処理領域情報から、 処理領域の各水平ラインの画素を認 識し、 その処理領域の各水平ラインの画素の画素値を、 動きボケ除去処理部
12386から供給される N通りの動きボケのない画素値に置き換えることにより、 N通りの出力画像を生成する。 さらに、 ステップ S12349において、 出力画像 生成部 12387 は、 N通りの出力画像を画像表示部 12388 に供給して表示させ、 ステップ S12350に進む。
ステップ S 12350では、 ユーザ I ZF 12389は、 ユーザにより出力画像が選 択されたかどうかを判定する。 即ち、 ステップ S12349では、 画像表示部 12388において、 N通りの出力画像が表示されるが、 その N通りの出力画像を 見たユーザが、 その N通りの出力画像の中から、 所望の画質の画像または所望 の画質に近い画像を選択したかどうかが、 ステップ S12350において判定され る。 ステップ S12350において、 ユーザ I / F 12389は、 ユーザにより出力画 像が選択されていないと判定した場合、 ユーザにより出力画像が選択されるま で待機する。
ステップ S 12350において、 ユーザ I / F 12389は、 ユーザにより出力画像 が選択されたと判定した場合、 ステップ S 12351に進む。
ステップ S 12351において、 ユーザ I ZF 12389は、 処理領域内の画像に不 満があるかどうかを判定する。 即ち、 ユーザが、 ステップ S12342で画像表示 部 12388に表示される出力画像またはステップ S12350で選択された出力画像 を見て、 ステップ S 12333で選択された処理領域内の画像に不満を感じ、 不満 があることを知らせるように、 ユーザ I Z F 12389を操作したかどうかが、 ス テツプ S12351で判定される。 ステップ S12351において、 ユーザ I / F 12389 は、 処理領域内の画像に不満があると判定した場合、 図 1 8 1のステップ S12335に戻り、 上述の処理を繰り返す。 なお、 この場合、 次に行われるステ ップ S12344では、 直前のステップ S12350で選択された出力画像を得るのに 用いられた拘束条件式に対する重みを基準に、 新たな重みが N通り設定される。 従って、 ユーザが前回の処理で出力された N通りの出力画像の中から所望す るものを選択すると、 その選択結果を踏まえて、 新たな N通りの重みが設定さ れるので、 ユーザは N通りの出力画像の中から所望するものの選択を繰り返す ことにより、 最終的には、 ユーザが所望する画質の出力画像が得られる重みが 設定される。 その結果、 ユーザは、 入力画像の処理領域の部分が、 所望の画質 の画像または所望の画質に近い画像とされた出力画像を得ることができる。 一方、 ステップ S12351において、 ユーザ I / F 12389は、 処理領域内の画 像に不満がないと判定した場合、 ステップ S12352に進み、 他の動きボケ領域 が指示されたかどうかを判定する。 即ち、 ユーザがステップ S 12342で表示さ れた出力画像またほステップ S12350で選択された出力画像を見て、 処理領域 以外の画像に動きボケがあると感じ、 その動きボケのある領域を、 ユーザ I Z F 12389を操作することにより指示したかどう力が、 ステップ S12352におい て判定される。 ステップ S 12352において、 ユーザ I ZF 12389は、 他の動き ボケ領域が指示されたと判定した場合、 ステップ S12333に戻り、 上述した処 理を繰り返す。 即ち、 信号処理装置 4は、 新たな動きボケ領域に対して処理を 行う。 なお、 この場合、 直前のステップ S 12342で表示された出力画像または ステップ S12350で選択された出力画像を入力画像として、 あるいは、 入力画 像の処理領域について、 その処理領域に対して最終的に得られた画素値に置き 換えた画像を入力画像として、 処理が行なわれる。 また、 ステップ S 12352において、 ユーザ I Z F 12389は、 他の動きボケ領 域が指示されていないと判定した場合、 ユーザは、 出力画像に満足しているの で、 処理を終了する。
図 1 8 3と図 1 8 4のフローチャートを参照して、 図 1 8 0の信号処理装置 の他の処理について説明する。 なお、 オブジェク トは水平方向に一定速度で動 いているものとする。
まず最初に、 ステップ S12371において、 信号処理装置 4は、 入力画像とし て動きボケ画像の画像信号を取得し、 処理領域選択部 12381、 特徴量抽出部 12383、 拘束条件設定部 12385、 出力画像生成部 12387、 および画像表示部 12388に供給する。 そして、 特徴量抽出部 12383は、 入力画像から、 画素毎に 複数種類の特徴量を抽出し、 その複数種類の特徴量を特徴量空間 LUT生成部 12384に供給する。 特微量空間 LUT生成部 12384は、 特徴量抽出部 123δ3か ら供給された複数種類の特徴量に基づいて、 複数通りの特徴量軸に基づく特徴 量空間 LUT (図 1 7 9 Aと図 1 7 9 B ) を生成する。 さらに、 ステップ
S12371 では、 信号処理装置 4は、 画像表示部 12388 に、 入力画像を表示させ、 ステップ S12372に進む。
ステップ S 12372では、 ユーザ I Z F 12389は、 ユーザにより動きボケ領域 が指示された、 即ち、 画像表示部 12388に表示された入力画像 (動きボケ画 像) を見たユーザが、 その入力画像に動きボケが生じていると感じ、 動きボケ が生じている箇所をポインティングするように、 ユーザ I Z F 121389を操作し たかどうかを判定する。 ステップ S12372において、 ユーザにより動きポケ領 域が指示されていない、 即ち、 画像表示部 12388に表示された入力画像を見 たユーザが、 その入力画像に動きボケが生じておらず、 不満がないと感じた璩 合、 図 1 8 4のステップ S12382に進む。 ステップ S12382において、 出力画 像生成部 12387は、 出力画像として入力画像を画像表示部 12388に供給して 表示する。 一方、 ステップ S12372において、 ユーザにより動きボケ領域が指示された と判定された場合、 ユーザ I / F 12389は、 ユーザがユーザ I / F 12389を操 作することによつて指示した動きボケ領域を表す動きボケ領域指示情報を、 処 理領域選択部 12381に供給して、 ステップ S12373に進む。 ステップ S12373 では、 処理領域選択部 12381は、 ユーザ I Z F 12389から供給された動きボケ 領域指示情報に基づいて、 例えば、 動きボケ領域を含む矩形を、 入力画像の領 域から処理領域として選択し、 その処理領域を表す処理領域情報を、 動き量パ ラメータ入力部 12382、 拘束条件設定部 12385、 および出力画像生成部 12387 に供給する。
ステップ S 12373の処理後は、 ステップ S12374に進み、 動き量パラメータ 入力部 12382は、 処理領域におけるオブジェクトの動き量を表す動きパラメ ータを、 拘束条件設定部 12385に入力する。 即ち、 例えば、 ユーザが画像表 示部 12388に表示された入力画像を見て、 ユーザ I / F 12389を操作すること により、 処理領域におけるオブジェク トの動き量を入力した場合、 動き量パラ メータ入力部 12382は、 ユーザ I / F 12389から入力される動き量を表す動き 量パラメータを拘束条件設定部 12385に供給する。 あるいは、 また、 動き量 パラメータ入力部 12382は、 処理領域におけるォブジェク トの動き量を検出 し、 その動き量を表す動き量パラメータを、 拘束条件設定部 12385に供給す る。 拘束条件設定部 12385は、 その動き量パラメータと処理領域選択部 12381 から供給された処理領域情報に基づいて、 処理領域内の水平ラインの各画素の 画素値と、 動きボケのない画素の画素値の関係をモデル化した関係モデルを、 処理領域の水平ラインごとに生成して記憶し、 ステップ S12374からステップ S12375に進む。
ステップ S 12375では、 ユーザ I / F 12389は、 ユーザにより、 入力画像で ある動きボケ画像から平坦領域が指示されたかどうかを判定する。 ステップ S12375において、 ユーザ I / F 12389は、 ユーザがユーザ I / F 12389を操 作することにより、 動きボケ画像から平坦領域が指示された、 即ち、 ユーザが 入力画像を見て、 処理領域内における動きボケのない画像が平坦であると推定 される平坦領域を指示したと判定した場合、 ステップ S 12376に進み、 ユーザ I / F 12389は、 ユーザがユーザ I / F 12389を操作することによって指示し た平坦領域を表す平坦領域指示情報を、 拘束条件設定部 12385に供給する。 ステップ S 12376の処理後は、 ステップ S 12377に進み、 特徴量空間 LUT生 成部 12384は、 生成した複数の特徴量空間 LUTのうち、 例えば、 ユーザがュ 一ザ I Z F 12389を操作することによって選択した特徴量空間 LUTを選択し、 拘束条件設定部 12385に供給して、 ステップ S 12379に進む。 即ち、 ステップ S12377では、 例えば、 特徴量空間 LUT生成部 12384が生成した複数通りの特 徴量空間 LUT に対応するボタンが、 画像表示部 12388 に表示される。 そして、 ユーザがユーザ I ZF 12389を操作することにより、 画像表示部 12388に表示 されたボタンをクリック等して選択すると、 ステップ S12377では、 その選択 されたポタンに対応する特徴量空間 LUTが選択される。
ステップ S 12379において、 拘束条件設定部 12385は、 ユーザ I Z F 12389 から供給された平坦領域指示情報から、 処理領域内の平坦領域を認識する。 さ らに、 拘束条件設定部 12385は、 特徴量空間 LUT生成部 12384から供給され た特徴量空間 LUTから、 平坦領域の画素と同一の特徴量クラスの処理領域の 画素を認識する。 そして、 拘束条件設定部 12385は、.平坦領域の画素と、 平 坦領域の画素と同一の特徴量クラスの画素を拘束対象画素として、 その拘束対 象画素に対して、 処理領域の水平ラインごとに拘束条件式を生成し、 その拘束 条件式を動きボケ除去処理部 12386に供給して、 図 1 8 4のステップ S 12380 に進む。 例えば、 処理領域において、 拘束対象画素が 6個だけ水平方向に並ん でおり、 その各画素の動きボケのない画.素値を Q。乃至 Q5で表す場合、 拘束 条件式は、 例えば、 上述した式 (1 5 3 ) で示される。
—方、 図 1 8 1のステップ S12375において、 ユーザ I / F 12389は、 動き ボケ画像から平坦領域が指示されていないと判定した場合、 ステップ S 12378 に進み、 出力画像の不満領域が指示された、 即ち、 ユーザが前回 < S12382 (図 1 8 4 ) で画像表示部 12388に表示された出力画像を見て、 不満 を感じ、 その不満を感じた領域を、 ユーザがユーザ I / F 12389を操作するこ とにより指示したかどうかを判定する。 ステップ S 12378において、 ユーザ I Z F 12389は、 出力画像の不満領域が指示されていないと判定した場合、 ステ ップ S12379に進む。 この場合、 ユーザにより平坦領域も不満領域も指示され ていないので、 ステップ S12379では、 拘束条件設定部 12385は、 例えば、 処 理領域のすべての画素を拘束対象画素として、 水平ラインごとに、 その拘束対 象画素に対して拘束条件式を生成する。 拘束条件設定部 123S5は、 その拘束 条件式を動きボケ除去処理部 12386に供給し、 ステップ S12379から図 1 8 4 のステップ S 12380 に進む。 例えば、 処理領域の水平ラインの画素が 8個あり、 その各画素の動きボケのない画素値を Q。 乃至 Q 7 で表す場合、 拘束条件式は、 上述した式 (1 5 2 ) で示される。
ステップ S 12380では、 拘束条件設定部 12385は、 処理領域選択部 12381か ら供給された処理領域情報と入力画像から、 入力画像における処理領域の各水 平ラインの画素の画素値を認識する。 また、 ステップ S 12380において、 拘束 条件設定部 12385は、 入力画像における処理領域の各水平ラインの画素の画 素値を、 ステップ S 12384で生成して記憶した関係モデルに代入して、 水平ラ インごとに、 式 ( 1 5 1 ) に示したモデル方程式を生成する。 そして、 拘束条 件設定部 12385は、 そのモデル方程式を動きボケ除去処理部 12386に供給す る。
ステップ S 12380の処理後は、 ステップ S12381に進み、 拘束条件設定部 12385は、 動きボケ除去処理を行う。 即ち、 動きボケ除去処理部 12386は、 拘 束条件設定部 12385から供給された拘束条件式とモデル方程式を用いて、 処 理領域の水平ラインごとに正規方程式を生成する。 さらに、 動きボケ除去処理 部 12386は、 その正規方程式を、 最小二乗誤差最小規範で解くことにより、 処理領域の各水平ラインの画素の動きボケのない画素値を求める。 そして、 動 きポケ除去処理部 12386は、 処理領域の各水平ラインの画素の動きボケのな い画素値を、 出力画像生成部 12387に供給し、 ステップ S12381からステップ S 12382に進む。
ステップ S12382において、 出力画像生成部 12387は、 処理領域選択部 12381から供給された処理領域情報から、 処理領域の各水平ラインの画素を認 識し、 その処理領域の各水平ラインの画素の画素値を、 動きボケ除去処理部 12386から供給される動きボケのない画素値に置き換えることにより、 出力画 像を生成する。 さらに、 ステップ S12382では、 出力画像生成部 12387は、 そ の出力画像を画像表示部 12388に供給して表示させ、 ステップ S12391に進む c —方、 図 1 8 3のステップ S12378において、 ユーザ I ZF 12389は、 出力 画像の不満領域が指示されたと判定した場合、 ステップ S12383に進み、 ユー ザがユーザ I Z F 12389を操作することによって指示した不満領域を表す不満 領域指示情報を拘束条件設定部 12385に供給し、 ステップ S12384に進む。 ス テツプ S 12384において、 拘束条件設定部 12385は、 不満領域の画素における 拘束条件式に対する所定の重みを設定し、 ステップ S12385に進む。 なお、 重 みは、 ユーザがユーザ I Z F 12389を操作することにより設定してもよい。 ステップ S 12385において、 特徴量空間 LUT生成部 12384は、 生成した特徴 量空間 LUTから、 M通りの特徴量空間 LUTを選択し、 M通りの特徴量空間 LUT を拘束条件設定部 12385に供給する。
ステップ S12385の処理後は、 ステップ S 12386に進み、 拘束条件設定部 12385は、 ユーザ I Z F 12389から供給された不満領域指示情報により、 不満 領域を認識するとともに、 処理領域選択部 12381から供給された処理領域情 報により、 処理領域を認識する。 拘束条件設定部 12385は、 特徴量空間 LUT 生成部 12384から供給された M通りの特徴量空間 LUTから、 処理領域の画素 のうち、 不満領域の画素と同一の特徴量クラスの画素を、 拘束対象画素として 認識する。 従って、 拘束条件設定部 12385は、 水平ラインごとに、 M通りの 拘束対象画素を認識する。 そして、 拘束条件設定部 12385は、 ステップ
S12384で設定した所定の重みを用いて、 拘束対象画素に対して、 水平ライン ごとに、 所定の重みを付けた M通りの拘束条件式を生成する。 拘束条件設定部 12385は、 その M通りの拘束条件式を動きボケ除去処理部 12386に供給し、 図 1 8 4のステップ S12387に進む。
例えば、 処理領域において、 拘束対象画素が 8個だけ水平方向に並んでおり、 その各画素の動きボケのない画素値を Q。乃至 Q7で表す場合、 拘束条件式に 対する重みを Wとすると、 ある 1通りの拘束条件式は、 上述した式 (1 5 4 ) で表される。 従って、 拘束条件設定部 12385は、 M通りの拘束対象画素に対 して、 式 (1 5 4 ) の拘束条件式において、 拘束対象がその異なる式を M通り 生成する。
ステップ S12387では、 拘束条件設定部 12385は、 処理領域選択部 12381か ら供給された処理領域情報と入力画像から、 入力画像における処理領域の各水 平ラインの画素の画素値を認識する。 また、 ステップ S 12387において、 拘束 条件設定部 12385は、 入力画像における処理領域の各水平ラインの画素の画 素値を、 ステップ S 12374で生成し、 記憶した関係モデルに代入して、 水平ラ インごとの式 (1 5 1 ) のモデル方程式を生成する。 そして、 拘束条件設定部 12385は、 そのモデル方程式を動きボケ除去処理部 12386に供給する。
ステップ S 12387の処理後は、 ステップ S12388に進み、 拘束条件設定部 12385は、 動きボケ除去処理を行う。 即ち、 動きボケ除去処理部 12386は、 拘 束条件設定部 12385から供給された M通りの拘束条件式それぞれとモデル方 程式とから、 M通りの正規方程式を、 処理領域の水平ラインごとに生成し、 そ の M通りの正規方程式を最小二乗誤差最小規範で解くことにより、 処理領域の 各水平ラインの画素について、 M通りの動きボケのない画素値を求める。 そし て、 動きボケ除去処理部 12386は、 処理領域の各水平ラインの画素の M通り の動きボケのない画素値を、 出力画像生成部 12387に供給し、 ステップ
S12388からステップ S12389に進む。
ステップ S 12389において、 出力画像生成部 12387は、 処理領域選択部 12381から供給された処理領域情報から、 処理領域の各水平ラインの画素を認 識し、 その処理領域の各水平ラインの画素の画素値を、 動きボケ除去処理部 12386から供給される M通りの動きボケのない画素値に置き換えることにより、 M通りの出力画像を生成する。 さらに、 ステップ S12389において、 出力画像 生成部 12387 は、 M通りの出力画像を画像表示部 12388 に供給して表示させ、 ステップ S12390に進む。
ステップ S 12390では、 ユーザ I / F 12389は、 ユーザにより出力画像が選 択されたかどうかを判定する。 即ち、 ステップ S12389では、 画像表示部 12388において、 M通りの出力画像が表示されるが、 その M通りの出力画像を 見たユーザが、 その M通りの出力画像の中から、 所望の画質の画像または所望 の画質に近い画像を選択したかどうかが、 ステップ S12390において判定され る。 ステップ S12390において、 ユーザ I / F 12389は、 ユーザにより出力画 像が選択されていないと判定した場合、 ユーザにより出力画像が選択されるま で待機する。
ステップ S 12390において、 ユーザ I Z F 12389は、 ユーザにより出力画像 が選択されたと判定した場合、 ステップ S 12391に進む。
ステップ S 12391において、 ユーザ I Z F 12389は、 処理領域内の画像に不 満があるかどうかを判定する。 即ち、 ユーザが、 ステップ S12382で画像表示 部 12388に表示される出力画像またはステップ S12390で選択された出力画像 を見て、 ステップ S12373で選択された処理領域内の画像に不満を感じ、 不満 があることを知らせたるように、 ユーザ I / F 12389を操作したかどうかが、 ステップ S12391で判定される。 ステップ S 12391において、 ユーザ I , F 12389は、 処理領域内の画像に不満があると判定した場合、 図 1 8 3のステツ プ S12375に戻り、 上述の処理を繰り返す。 なお、 この場合、 次に行われるス テツプ S 12385では、 直前のステップ S 12390で選択された出力画像を得るの に用いられた特徴量空間 LUTの特徴量軸を基準に、 新たな特徴量軸を M通り 選択し、 その M通りの特徴量軸を有する特徴量空間 LUTを選択する。 従って、 ユーザが前回の処理で出力された M通りの出力画像の中から所望す るものを選択することによって、 その選択結果を踏まえて、 新たな M通りの特 徴量軸が設定され、 拘束条件の対象となる拘束対象画素が決定されるので、 こ の処理を繰り返すことにより、 最終的には、 ユーザが所望する画質の出力画像 が得られる特徴量軸が設定される。 その結果、 ユーザは、 入力画像の処理領域 の部分が、 所望の画質の画像または所望の画質に近い画像とされた出力画像を 得ることができる。
一方、 ステップ S12391において、 ユーザ I / F 12389は、 処理領域内の画 像に不満がないと判定した場合、 ステップ S12392に進み、 他の動きボケ領域 が指示されたかどうかを判定する。 即ち、 ユーザがステップ S12382で表示さ れた出力画像またはステップ S12390で選択された出力画像を見て、 処理領域 以外の画像に動きボケがあると感じ、 その動きボケのある領域を、 ユーザ 1 / F 12389を操作することにより指示したかどうかが、 ステップ S12392におい て判定される。 ステップ S12392において、 ユーザ I Z F 12389は、 他の動き ボケ領域が指示されたと判定した場合、 ステップ S12373に戻り、 上述した処 理を繰り返す。 即ち、 信号処理装置 4は、 新たな動きボケ領域に対して処理を 行う。 なお、 この場合、 直前のステップ S 12382で表示された出力画像または ステップ S12390で選択された出力画像を入力画像として、 あるいは、 入力画 像の処理領域について、 その処理領域に対して最終的に得られた画素値に置き 換えた画像を入力画像として、 処理が行なわれる。
また、 ステップ S 12392において、 ユーザ I / F 12389は、 他の動きボケ領 域が指示されていないと判定した場合、 ユーザは、 出力画像に満足しているの で、 処理を終了する。
なお、 図 1 8 1および図 1 8 2に示すフローチャートの処理と、 図 1 8 3お よび図 1 8 4に示すフローチヤ一トの処理とは組み合わせて行うようにしても よい。 即ち、 ユーザが出力画像を見て不満領域を指示した場合、 拘束条件設定 部 12385は、 拘束対象画素における拘束条件式に対する重みを N通り設定す るとともに、 M通りの特徴量空間 LUTに基づく M通りの拘束対象画素を認識 し、 合計 N X M通りの出力画像を生成してもよい。 また、 ユーザが出力画像を 見て不満領域を指示した場合、 拘束条件設定部 12385は、 不満領域の拘束条 件に対する重みを N通り設定して N通りの出力画像を生成することと、 M通り の特徴量空間 LUTに基づいて M通りの拘束対象画素を認識して M通りの出力 画像を生成することを交互に行ってもよい。
図 1 8 5乃至図 1 9 4は、 図 1 8 0に示す信号処理装置 4が、 図 1 8 1およ び図 1 8 2に示すフローチヤ一トの処理と、 図 1 8 3および図 1 8 4に示すフ ローチャートの処理とを組み合わせて行なった例を説明する図である。 この例において、 ユーザは、 入力画像から処理領域を指示し、 さらに動きポ ケ画像が平坦であると推定される領域を指示する。 そして、 ユーザは、 その処 理結果である出力画像を見て、 不満のある領域を指示し、 再度の処理結果であ る 2通りの出力画像を得る。 さらに、 ユーザは、 その 2通りの出力画像から、 所望の画像に近い画像を選択し、 その選択結果を踏まえて処理された 4通りの 出力画像を得る。 最後に、 ユーザは、 その 4通りの出力画像から所望の画像ま たは所望の画像に近い画像を選択する。
なお、 ここでは、 動き量パラメータについては、 その真値が信号処理装置 4 に与えられるものとする。
図 1 8 5は、 入力画像を見たユーザが処理領域を指示した状態を示している。 図 1 8 5の入力画像は、 画面中を飛行機 (の玩具) が左から右へ水平に移動し ている瞬間を撮影して得られたものである。 図 1 8 5に示すように、 この入力 画像は、 動きボケにより文字 「TAL」 等のエッジ部分 (輪郭部分) が鈍ってい る。 ここで、 ユーザは、 「TAL」 という文字が表示された部分を囲む矩形の領 域を、 処理領域として指示している。
図 1 8 6は、 図 1 8 5に示した入力画像を見たユーザが、 動きボケのない画 像が平坦であると推定される部分を平坦領域としてポインティングした例であ る。 ここで、 画像の中の X印の部分は、 ユーザが平坦領域を指示するためにポ インティングした位置を表し、 図 1 8 6では、 このユーザによりポインティン グされた位置を含む文字 「L」 の右側の部分を囲む矩形の領域が、 平坦領域と して設定されている。 また、 図 1 8 6において、 画像上左側の正方形で囲まれ た画像は、 そのユーザが指示した領域の周辺を拡大した画像であり、 その中の 長方形で Hまれた部分が、 ユーザがポインティングしたことにより設定された 平坦領域である。
図 1 8 7は、 図 1 8 5に示した入力画像に対して、 ユーザによる平坦領域の 指示なしで、 信号処理装置 4が処理を行うことにより得られた処理結果として の出力画像を示している。 即ち、 信号処理装置 4は、 図 1 8 1および図 1 8 2 のステップ S 12331乃至ステップ S12335、 ステップ S12338乃至ステップ
S12342の処理を行い、 画像表示部 12388に図 1 8 7に示す出力画像を表示す る。 この場合、 拘束条件式は、 処理領域の全ての画素に対して生成される。 図 1 8 7に示すように、 出力画像においては、 図 1 8 5または図 1 8 6に示す入 力画像に比べて、 動きボケが低減され、 「TALJ という文字が鮮明になってい る。
図 1 8 8は、 図 1 8 6に示すように、 図 1 8 5の入力画像に対してユーザが 平坦領域を指示した場合に、 信号処理装置 4が、 その平坦領域に基づいて処理 を行うことにより得られる処理結果としての出力画像を示している。 即ち、 信 号処理装置 4は、 図 1 8 1およぴ図 1 8 2のステップ S 12331乃至ステップ S12337、 ステップ S12339乃至ステップ S 12342の処理を行い、 画像表示部
12388に図 1 8 8に示す出力画像を表示する。 この場合、 拘束条件式は、 平坦 領域の画素に対してのみ生成される。 図 1 8 8の出力画像では、 図 1 8 7と同 様に、 動きボケが低減され、 「TAL」 という文字が鮮明になっている。 さらに、 図 1 8 8の出力画像では、 図 1 8 7における場合よりも、 エッジ部分と平坦部 分の画質が向上している。
図 1 8 9は、 図 1 8 8に示した出力画像に対して、 ユーザが不満のある領域 を指示した状態を示す図である。 即ち、 ユーザは、 出力画像に対して、 想像し ている動きボケのない画像と異なる (画質が劣化している) 領域を不満領域と して指示する。 図 1 89の例の場合、 ユーザは、 文字 「TAL」 のうちの 「L」 の右側近傍の白い劣化部分を不満領域として指示している。 つまり、 図中、 長 方形の部分が、 不満領域として指示された領域である。
図 1 90Aと図 1 90 Bは、 図 1 8 9に示すように、 ユーザから指示された 不満領域に基づいて、 信号処理装置 4が処理を行うことにより得られる出力画 像を示している。 即ち、 信号処理装置 4は、 図 1 8 1および図 1 82のステツ プ S12331乃至ステップ S12335,ステップ S12338、 ステップ S12343乃至ステ ップ S12349の処理を行い、 画像表示部 12388に図 1 90Aと図 1 90 Bに示 す出力画像を表示する。
図 1 90 Aと図 1 90 Bでは、 信号処理装置 4は、 ユーザから指示された不 満領域に対して、 2通りの重みを付けた拘束条件式をそれぞれ生成し、 その 2 通りの拘束条件式を用いて処理を行うことにより得られる 2通りの出力画像を 表示している。 ユーザは、 この 2通りの出力画像を見て、 所望の画質に近い画 像を選択する。 ここで、 図中、 画像が四角で囲まれた画像 (図 1 9 OA) 力 ユーザにより選択された画像を表している。
図 1 9 1 A乃至図 1 9 1Dは、 図 1 90Aと図 1 90 Bで選択された画像を 再度処理して得られた出力画像を示している。 即ち、 信号処理装置 4は、 図 1 8 1および図 1 82のステップ S12331乃至ステップ S12335、 ステップ S12338、 ステップ S12343乃至ステップ S12351の処理後、 図 1 83および図 1 84のステップ S12375、 ステップ S12378、 ステップ S12383乃至ステップ S12389の処理を行い、 画像表示部 12388に図 1 9 1 A乃至図 1 9 1 Dの出力 画像を表示ずる。
図 1 9 1 A乃至図 1 9 1 Dでは、 信号処理装置 4は、 ユーザから指示された 不満領域における拘束条件を、 処理領域の不満領域以外の領域に反映させる仕 方を決定するために、 入力画像の複数種類の特徴量から 4通りの特徴量軸に基 づく特徴量空間 LUTを生成し、 その 4通りの特徴量空間 LUTに基づいて、 4 通りの出力画像を生成して表示している。
ユーザは、 その 4通りの出力画像から、 所望の画質の画像または所望の画質 に近い画像を選択する。 ここで、 図中、 四角で囲われた画像 (図 1 9 1 D ) ί ユーザにより選択された画像を表している。
図 1 9 2は、 図 1 8 5に示した入力画像の 「TAL」 という文字を拡大した図 である。
図 1 9 3は、 図 1 9 2に示した入力画像に対して、 ユーザが平坦領域および 不満領域を指示しない場合に、 信号処理装置 4から得られる出力画像を示して いる。 図 1 9 3に示すように、 出力画像では、 動きボケが低減 (除去) され、 「TALJ という文字が明確になっている。
図1 9 4は、 図 1 9 2に示した入力画像に対して、 ユーザが平坦領域を一回 指示し、 不満領域を 2回指示した場合に、 信号処理装置 4から得られる出力画 像を示している。 図 1 9 4の出力画像では、 図 1 9 3に示した出力画像に比べ て、 文字 「TAL」 が鮮明になっている。 さらに、 図 1 9 4の出力画像では、 図 1 9 3における場合よりも、 文字 「L」 の横の白い平坦領域の画質が向上して いる。
なお、 上述した説明では、 拘束条件式に対して重みを与え、 その重みを変更 したが、 拘束条件式だけでなく、 モデル方程式に対して重みを与え、 その重み を変更してもよレ、。
上述した実施の形態には、 請求の範囲に記載した発明についての実施の形態 の他、 以下に示す第 1乃至第 6の信号処理装置についての実施の形態も含まれ ている。
第 1の信号処理装置は、 それぞれ時間積分効果を有する複数の画素に現実世 界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した画像デー タ内の処理領域を設定する処理領域設定手段と、 画像データにおいて定常性の 一部が欠落した現実世界の光信号の定常性に対応する画像データ内のオブジェ クトの動きべクトルを設定する動きべクトル設定手段と、 処理領域内の各画素 の画素値は、 才ブジェクトに対応する動きボケが生じていない各画素の画素値 が動きべクトルに対応して移動しながら積分された値であるとして、 処理領域 內の各画素の画素値と、 動きボケが生じていない各画素の画素値との関係をモ デル化するモデル生成手段と、 モデル生成手段により生成されたモデルに対し て、 処理領域内の各画素の画素値を代入した第 1の方程式と、 動きボケが生 じていない各画素間の関係を拘束する第 2の方程式とにより正規方程式を生成 する正規方程式生成手段と、 ユーザ入力に応じて第 1または第 2の方程式の一 部に対する重みを変更する重み変更手段と、 重み変更手段により重みが変更さ れた第 1または第 2の方程式から生成される正規方程式を演算することにより 動きボケの生じていない各画素の画素値を推定する実世界推定手段とを備える ことを特徴とする。
第 2の信号処理装置は、 第 1の信号処理装置の特徴に加え、 処理領域内の各 画素の画素値、 または動きボケが生じていない各画素の画素値のうちの少なく とも一方を表示する表示手段をさらに備え、 重み変更手段は、 表示手段に表示 される各画素の画素値に対するユーザ入力に応じた画素に対応する第 1または 第 2の方程式の重みを変更することを特徴とする。
第 3の信号処理装置は、 第 2の信号処理装置の特徴に加え、 重み変更手段は、 ユーザ入力に応じた画素に対応する第 1または第 2の方程式の重みが大きくな るように重みを変更し、 実世界推定手段は、 重みが変更された第 1または第 2 の方程式から生成される正規方程式を演算することにより動きボケが生じてい ない各画素の画素値を推定することを特徴とする。
第 4の信号処理装置は、 第 2の信号処理装置の特徴に加え、 重み変更手段は、 ユーザ入力に応じた画素に対応する第 1または第 2の方程式の重みを複数設定 し、 実世界推定手段は、 複数の重みが設定された第 1または第 2の方程式から それぞれ生成される正規方程式を各々演算することにより複数の動きボケが生 じていない各画素の画素値を推定し、 表示手段は、 実世界推定手段により推定 された複数の動きボケが生じていない各画素の画素値を表示することを特徴と する。
第 5の信号処理装置は、 第 2の信号処理装置の特徴に加え、 ユーザ入力に応 じた画素の特徴を検出する特徴検出手段と、 特徴検出手段によって検出された 特徴に類似する特徴を有する画素を抽出する画素抽出手段とをさらに備え、 重 み変更手段は、 画素抽出手段により抽出された画素に対応する第 1または第 2 の方程式の重みが大きくなるように重みを変更し、 実世界推定手段は、 重みが 変更された第 1または第 2の方程式から生成される正規方程式を演算すること により動きボケが生じていない各画素の画素値を推定することを特徴とする。 第 6の信号処理装置は、 第 2の信号処理装置の特徴に加え、 ユーザ入力に応 じた画素の複数種類の特徴を検出する特徴検出手段と、 特徴検出手段によって 検出された複数種類の特徴それぞれについて、 その特徴に類似する特徴を有す る画素を抽出する画素抽出手段とをさらに備え、 重み変更手段は、 複数種類の 特徴それぞれについて、 その特徴に類似する特徴を有する画素に対応する第 1 または第 2の方程式の重みを変更し、 実世界推定手段は、 複数種類の特徴それ ぞれについて重みが変更された第 1または第 2の方程式から生成される正規方 程式を各々演算することにより複数種類の動きボケが生じていない各画素の画 素値を推定し、 表示手段は、 実世界推定手段により推定された複数種類の動き ボケが生じていない各画素の画素値を表示することを特徴とする。
また、 上述した実施の形態には、 以下に示す、 信号処理方法、 プログラム、 並びに記録媒体についての実施の形態も含まれている。
即ち、 信号処理方法、 プログラム、 並びに記録媒本は、 それぞれ時間積分効 果を有する複数の画素に現実世界の光信号が射影され、 現実世界の光信号の定 常性の一部が欠落した画像データ内の処理領域を設定する処理領域設定ステツ プと、 画像データにおいて定常性の一部が欠落した現実世界の光信号の定常性 に対応する画像データ内のオブジェク トの動きべクトルを設定する動きべク ト ル設定ステップと、 処理領域内の各画素の画素値は、 オブジェクトに対応する 動きボケが生じていない各画素の画素値が動きべクトルに対応して移動しなが ら積分された値であるとして、 処理領域内の各画素の画素値と、 動きボケが生 じていない各画素の画素値との関係をモデル化するモデル生成ステップと、 モ デル生成ステップの処理により生成されたモデルに対して、 処理領域内の各画 素の画素値を代入した第 1の方程式と、 動きボケが生じていない各画素間の 関係を拘束する第 2の方程式とにより正規方程式を生成する正規方程式生成ス テツプと、 ユーザ入力に応じて第 1または第 2の方程式の一部に対する重みを 変更する重み変更ステップと、 重み変更ステップの処理により重みが変更され た第 1または第 2の方程式から生成される正規方程式を演算することにより動 きボケの生じていない各画素の画素値を推定する実世界推定ステップとを含む ことを特徴とする。 産業上の利用可能性
以上の如く、 本発明によれば、 現実世界の信号により近似した画像等を得る: とが可能となる。

Claims

請求の範囲
1 . 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実 世界の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次元 の第 2の信号について、 処理の対象とする処理領域を設定する処理領域設定手 段と、
前記第 2の信号において欠落した現実世界の信号の定常性を設定する定常性 設定手段と、
前記定常性設定手段により設定された定常性に応じて、 前記処理領域設定手 段により設定された処理領域内の前記第 2の信号に対応する、 前記現実世界の 信号を推定する実世界推定手段と、
ユーザの操作に応じて、 前記処理領域、 前記定常性、 または前記現実世界の 信号のうちの少なくとも 1つに関連する情報を、 前記処理領域設定手段、 前記 定常性設定手段、 または前記実世界推定手段に供給する情報供給手段と
を備えることを特徴とする信号処理装置。
2 . 前記処理領域設定手段は、 時間または空間積分効果を有する複数の画素 に現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落した 画像データについて、 前記処理領域を設定し、
前記定常性設定手段は、 前記画像データにおいて欠落した現実世界の光信号 ' の定常性を設定し、
前記実世界推定手段は、 前記処理領域内の前記画像データに対応する前記現 実世界の光信号をモデル化することにより、 前記現実世界の光信号を推定する ことを特徴とする請求の範囲第 1項に記載の信号処理装置。
3 . 前記定常性設定手段は、 前記情報供給手段から供給される情報に応じて、 前記画像データにおいて欠落した現実世界の光信号の定常性に対応する前記画 像データ内のオブジェクトの動きを設定し、
前記実世界推定手段は、 前記処理領域および前記動きに応じて、 前記画像データ内の各画素の画素値 と前記現実世界の光信号との関係をモデル化した関係モデルを生成するモデル 生成手段と、
前記モデル生成手段により生成された関係モデルに対して前記画像データ内 の各画素の画素値を代入して方程式を生成する方程式生成手段と、
前記方程式生成手段により生成された方程式を演算することにより、 前記現 実世界の光信号を推定する実世界波形推定手段と
を有する
ことを特徴とする請求の範囲第 2項に記載の信号処理装置。
4 . 前記定常性設定手段は、 前記情報供給手段から供給される情報に応じて、 前記画像データにおいて欠落した現実世界の光信号の定常性に対応する前記画 像データ内のオブジェク トの空間的な方向を設定し、
前記実世界推定手段は、
前記処理領域および前記空間的な方向に応じ、 前記画像データに対応する前 記現実世界の光信号の波形をモデル化した近似モデルの時空間方向における少 なくとも 1次元方向の位置に対応する各画素の画素値が前記近似モデルを前記 少なくとも 1次元方向に積分することにより取得されるとして、 前記画像デー タ内の各画素の画素値と前記現実世界の光信号との関係をモデル化した関係モ デルを生成するモデル生成手段と、
前記モデル生成手段により生成された関係モデルに対して前記画像データ内 の各画素の画素値を代入して方程式を生成する方程式生成手段と、
前記方程式生成手段により生成された方程式を演算することにより、 前記現 実世界の光信号の波形を推定する実世界波形推定手段と
を有する
ことを特徴とする請求の範囲第 2項に記載の信号処理装置。
5 . 前記モデル生成手段は、 前記処理領域および前記空間的な方向に応じて、 前記画像データに対応する前記現実世界の光信号を複数種類の次数の多項式で モデル化した前記複数種類の近似モデルそれぞれについて、 前記光信号の波形 の近似モデルの時空間方向における少なくとも 1次元方向の位置に対応する各 画素の画素値が前記近似モデルを前記少なくとも 1次元方向に積分することに より取得されるとして、 前記関係モデルを生成し、
前記方程式生成手段は、 前記複数種類の近似モデルそれぞれについて生成さ れた関係モデルに対して画素値を代入して方程式を生成し、
前記実世界波形推定手段は、 前記方程式生成手段により生成された前記複数 種類の近似モデルそれぞれについての方程式を演算することにより、 複数の前 記現実世界の光信号の波形を推定し、
前記実世界波形推定手段により推定された前記複数の光信号の波形に基づい て、 複数の画像を生成する画像生成手段と、
前記画像生成手段により生成された前記複数の画像を表示する表示手段と をさらに備え、
前記モデル生成手段は、 さらに、 前記ユーザが前記複数の画像のうちの 1つ を選択する操作をした場合に前記情報供給手段から供給される情報に基づいて、 前記画像データに対応する前記現実世界の光信号をモデル化した近似モデルの 多項式の次数を設定する
ことを特徴とする請求の範囲第 4項に記載の信号処理装置。
6 . 前記実世界波形推定手段により推定された前記光信号より画像を生成す る画像生成手段と、
前記画像生成手段により生成された前記画像を表示する表示手段と
をさらに備え、
前記情報供給手段は、 前記表示手段により前記画像を表示した後のユーザの 操作に応じて、 再び、 前記処理領域、 前記定常性、 または前記現実世界の信号 のうちの少なくとも 1つに関連する情報を、 前記処理領域設定手段、 前記定常 性設定手段、 または前記実世界推定手段に供給する
ことを特徴とする請求の範囲第 2項に記載の信号処理装置。
7 . 前記定常性設定手段は、 前記情報供給手段から供給された情報に応じて、 複数の定常性を設定し、
前記実世界推定手段は、 前記複数の定常性それぞれに応じて、 前記処理領域 内の前記画像データに対応する前記現実世界の光信号をモデル化することによ り、 複数の前記現実世界の光信号を推定し、
前記表示手段は、 前記画像生成手段により生成された前記複数の現実世界の 光信号に対応する複数の画像それぞれを表示し、
前記定常性設定手段は、 さらに、 前記ユーザが前記複数の画像のうちの 1つ を選択する操作をした場合に前記情報供給手段から供給される情報に基づいて、 定常性を設定する
ことを特徴とする請求の範囲第 6項に記載の信号処理装置。
8 . 前記処理領域設定手段は、 前記ユーザが画像データを選択する操作をし た場合にその選択された画像データの特徴に応じて、 複数の処理領域を設定し、 さらに、 前記ユーザが前記複数の処理領域に対する処理結果のうちの 1つを選 択する操作をした場合にそのユーザの操作に応じて、 処理領域を設定する ことを特徴とする請求の範囲第 2項に記載の信号処理装置。
9 . 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実 世界の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次元 の第 2の信号について、 処理の対象とする処理領域を設定する処理領域設定手 段において、 前記処理領域を設定する処理領域設定ステップと、
前記第 2の信号において欠落した現実世界の信号の定常性を設定する定常性 設定手段において、 前記定常性を設定する定常性設定ステップと、
前記定常性設定ステップにより設定された定常性に応じて、 前記処理領域設 定ステップにより設定された処理領域内の前記第 2の信号に対応する前記現実 世界の信号を推定する世界信号推定手段において、 前記現実世界の信号を推定 する実世界推定ステップと、 ユーザの操作に応じて、 前記処理領域、 前記定常性、 または前記現実世界の 信号のうちの少なくとも 1つに関連する情報を、 前記処理領域設定手段、 前記 定常性設定手段、 または前記実世界推定手段に供給する情報供給ステップと を備えることを特徴とする信号処理方法。
1 0 . コンピュータに所定の信号処理を行わせるプログラムにおいて、 第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実世界 の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次元の第 2の信号について、 処理の対象とする処理領域を設定する処理領域設定手段に おいて、 前記処理領域を設定する処理領域設定ステップと、
前記第 2の信号において欠落した現実世界の信号の定常性を設定する定常性 設定手段において、 前記定常性を設定する定常性設定ステップと、
前記定常性設定ステップにより設定された定常性に応じて、 前記処理領域設 定ステップにより設定された処理領域内の前記第 2の信号に対応する前記現実 世界の信号を推定する世界信号推定手段において、 前記現実世界の信号を推定 する実世界推定ステップと、
ユーザの操作に応じて、 前記処理領域、 前記定常性、 または前記現実世界の 信号のうちの少なくとも 1つに関連する情報を、 前記処理領域設定手段、 前記 定常性設定手段、 または前記実世界推定手段に供給する情報供給ステップと を備えることを特徴とするプログラム。
1 1 . コンピュータに所定の信号処理を行わせるプログラムが記録されてい る記録媒体において、
第 1の次元を有する現実世界の信号である第 1の信号が射影され、 現実世界 の信号の定常性の一部が欠落した前記第 1の次元よりも少ない第 2の次元の第 2の信号について、 処理の対象とする処理領域を設定する処理領域設定手段に おいて、 前記処理領域を設定する処理領域設定ステップと、
前記第 2の信号において欠落した現実世界の信号の定常性を設定する定常性 設定手段において、 前記定常性を設定する定常性設定ステップと、 前記定常性設定ステップにより設定された定常性に応じて、 前記処理領域設 定ステップにより設定された処理領域内の前記第 2の信号に対応する前記現実 世界の信号を推定する世界信号推定手段において、 前記現実世界の信号を推定 する実世界推定ステップと、
ユーザの操作に応じて、 前記処理領域、 前記定常性、 または前記現実世界の 信号のうちの少なくとも 1つに関連する情報を、 前記処理領域設定手段、 前記 定常性設定手段、 または前記実世界推定手段に供給する情報供給ステツプと を備えるプログラムが記録されている
ことを特徴とする記録媒体。
PCT/JP2004/008690 2003-06-27 2004-06-15 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 WO2005001762A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP04746160A EP1640906A4 (en) 2003-06-27 2004-06-15 SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING, PROGRAM AND RECORDING MEDIUM
US10/556,842 US7672526B2 (en) 2003-06-27 2004-06-15 Signal processing device, signal processing method, program, and recording medium
US11/626,439 US7672536B2 (en) 2003-06-27 2007-01-24 Signal processing device, signal processing method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003184017A JP4392584B2 (ja) 2003-06-27 2003-06-27 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP2003-184017 2003-06-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/556,842 A-371-Of-International US7672526B2 (en) 2003-06-27 2004-06-15 Signal processing device, signal processing method, program, and recording medium
US11/626,439 Continuation US7672536B2 (en) 2003-06-27 2007-01-24 Signal processing device, signal processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
WO2005001762A1 true WO2005001762A1 (ja) 2005-01-06

Family

ID=33549597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/008690 WO2005001762A1 (ja) 2003-06-27 2004-06-15 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体

Country Status (6)

Country Link
US (2) US7672526B2 (ja)
EP (1) EP1640906A4 (ja)
JP (1) JP4392584B2 (ja)
KR (1) KR101002225B1 (ja)
CN (2) CN101290677B (ja)
WO (1) WO2005001762A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI384413B (zh) * 2006-04-24 2013-02-01 Sony Corp An image processing apparatus, an image processing method, an image processing program, and a program storage medium
US8009903B2 (en) * 2006-06-29 2011-08-30 Panasonic Corporation Image processor, image processing method, storage medium, and integrated circuit that can adjust a degree of depth feeling of a displayed high-quality image
KR100883106B1 (ko) * 2007-04-03 2009-02-11 삼성전자주식회사 비디오 데이터 표시 방법 및 이를 이용하는 휴대 단말기
US8189864B2 (en) * 2007-08-29 2012-05-29 Casio Computer Co., Ltd. Composite image generating apparatus, composite image generating method, and storage medium
JP5061882B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム、並びに学習装置
CN101472064A (zh) * 2007-12-25 2009-07-01 鸿富锦精密工业(深圳)有限公司 拍摄系统及其景深处理方法
GB0807411D0 (en) * 2008-04-23 2008-05-28 Mitsubishi Electric Inf Tech Scale robust feature-based indentfiers for image identification
JP4586880B2 (ja) 2008-05-14 2010-11-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
WO2010103593A1 (ja) * 2009-03-13 2010-09-16 シャープ株式会社 画像表示方法及び画像表示装置
JP5451181B2 (ja) * 2009-05-25 2014-03-26 株式会社ジャパンディスプレイ 物体の接触または近接を検出するセンサ装置
KR101551690B1 (ko) * 2009-06-26 2015-09-09 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
US9413477B2 (en) * 2010-05-10 2016-08-09 Microsoft Technology Licensing, Llc Screen detector
US9508011B2 (en) 2010-05-10 2016-11-29 Videosurf, Inc. Video visual and audio query
US9311708B2 (en) 2014-04-23 2016-04-12 Microsoft Technology Licensing, Llc Collaborative alignment of images
JP5878167B2 (ja) * 2010-05-10 2016-03-08 オセ−テクノロジーズ・ベー・ヴエーOce’−Nederland Besloten Vennootshap ラスタ画像のエッジを復元する方法
WO2012039346A1 (ja) * 2010-09-22 2012-03-29 富士フイルム株式会社 立体撮像装置およびシェーディング補正方法
WO2012127618A1 (ja) * 2011-03-22 2012-09-27 株式会社モルフォ 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
JP2012231389A (ja) * 2011-04-27 2012-11-22 Sony Corp 画像処理装置、画像処理方法、及びプログラム
EP2709056B1 (en) * 2011-05-11 2021-02-24 I-cubed Research Center Inc. Image processing device, image processing method, and recording medium that has recorded program
KR20140102038A (ko) * 2013-02-13 2014-08-21 삼성전자주식회사 영상 정합 장치 및 영상 정합 방법
US10417740B2 (en) * 2014-09-26 2019-09-17 Lachlan BARRATT Image processing
US9286502B1 (en) * 2015-04-28 2016-03-15 The Code Corporation Barcode reader
US9846808B2 (en) * 2015-12-31 2017-12-19 Adaptive Computation, Llc Image integration search based on human visual pathway model
CN108805851B (zh) * 2017-04-26 2021-03-02 杭州海康威视数字技术股份有限公司 一种图像时域噪声的评估方法及装置
CN109767658B (zh) * 2019-03-25 2021-05-04 重庆医药高等专科学校 一种英语影视例句分享方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237476A (ja) * 1994-11-22 1996-09-13 Xerox Corp データ処理方法及びデジタル出力データ生成方法
JPH10200753A (ja) 1997-01-14 1998-07-31 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
EP1096424A2 (en) 1995-05-23 2001-05-02 Hewlett-Packard Company, A Delaware Corporation Area based interpolation for image scaling
JP2001250119A (ja) 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002112025A (ja) * 2000-10-03 2002-04-12 Fujitsu Ltd 画像補正装置および補正方法
JP2003016456A (ja) * 2001-06-27 2003-01-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003018578A (ja) * 2001-06-27 2003-01-17 Sony Corp 通信装置および方法、通信システム、記録媒体、並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991003795A1 (en) * 1989-08-28 1991-03-21 Eastman Kodak Company Digital image noise reduction of luminance and chrominance based on overlapping planar approximation
FR2730571B1 (fr) * 1995-02-10 1997-04-04 Controle Dimensionnel Optique Procede et dispositif de mesure de la distribution de la mobilite d'elements particulaires dans un milieu
JP3560749B2 (ja) * 1996-11-18 2004-09-02 株式会社東芝 画像出力装置及び画像出力のための信号処理方法
US6097835A (en) * 1997-07-23 2000-08-01 Lockheed Martin Corporation Projective pan sharpening methods and apparatus
US6285801B1 (en) * 1998-05-29 2001-09-04 Stmicroelectronics, Inc. Non-linear adaptive image filter for filtering noise such as blocking artifacts
JP4016493B2 (ja) * 1998-08-05 2007-12-05 三菱電機株式会社 ディスプレイ装置及びその多階調化回路
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
JP4583573B2 (ja) * 2000-10-05 2010-11-17 ソニー株式会社 情報蓄積装置およびデータベースシステム
JP4596202B2 (ja) * 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
US7516107B2 (en) 2001-02-21 2009-04-07 Sony Corporation Signal processing device
GB0104622D0 (en) * 2001-02-24 2001-04-11 Swedish Match Lighters Bv Child resistant gas lighters
JP4596212B2 (ja) 2001-06-15 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596225B2 (ja) 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7224851B2 (en) * 2001-12-04 2007-05-29 Fujifilm Corporation Method and apparatus for registering modification pattern of transmission image and method and apparatus for reproducing the same
US7694326B2 (en) * 2002-05-17 2010-04-06 Sony Corporation Signal processing system and method, signal processing apparatus and method, recording medium, and program
US7218794B2 (en) * 2003-04-10 2007-05-15 Samsung Electronics Co., Ltd. Method for detecting grid in block-based compressed video

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237476A (ja) * 1994-11-22 1996-09-13 Xerox Corp データ処理方法及びデジタル出力データ生成方法
EP1096424A2 (en) 1995-05-23 2001-05-02 Hewlett-Packard Company, A Delaware Corporation Area based interpolation for image scaling
JPH10200753A (ja) 1997-01-14 1998-07-31 Fuji Xerox Co Ltd 画像処理装置および画像処理方法
JP2000201283A (ja) * 1999-01-07 2000-07-18 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2001084368A (ja) * 1999-09-16 2001-03-30 Sony Corp データ処理装置およびデータ処理方法、並びに媒体
JP2001250119A (ja) 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002112025A (ja) * 2000-10-03 2002-04-12 Fujitsu Ltd 画像補正装置および補正方法
JP2003016456A (ja) * 2001-06-27 2003-01-17 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003018578A (ja) * 2001-06-27 2003-01-17 Sony Corp 通信装置および方法、通信システム、記録媒体、並びにプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BONACCHI A M: "Artshop: a tool for art image processing", DIGITAL SIGNAL PROCESSING, 2002
KLASSEN R: "Using B-Splines for Re-Sizing Images", COMPUTER SCIENCE DEPARTMENT TECHNICAL REPORT
See also references of EP1640906A4

Also Published As

Publication number Publication date
JP4392584B2 (ja) 2010-01-06
CN101290677A (zh) 2008-10-22
US20070115286A1 (en) 2007-05-24
EP1640906A1 (en) 2006-03-29
EP1640906A4 (en) 2011-12-21
US20070110333A1 (en) 2007-05-17
KR20060021375A (ko) 2006-03-07
US7672526B2 (en) 2010-03-02
JP2005018535A (ja) 2005-01-20
CN101290677B (zh) 2011-05-11
US7672536B2 (en) 2010-03-02
CN1813267A (zh) 2006-08-02
KR101002225B1 (ko) 2010-12-20
CN100388307C (zh) 2008-05-14

Similar Documents

Publication Publication Date Title
WO2005001762A1 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
KR101002224B1 (ko) 신호 처리 장치 및 신호 처리 방법, 및 컴퓨터로 판독 가능한 기록 매체
WO2004077352A1 (ja) 画像処理装置および方法、並びにプログラム
US20070116372A1 (en) Signal processing device, signal processing method, program, and recording medium
JP4143916B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4423537B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4419453B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4423535B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4182827B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4419454B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4423536B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4325296B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4182826B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007110333

Country of ref document: US

Ref document number: 10556842

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057023911

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004746160

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20048177063

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057023911

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004746160

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10556842

Country of ref document: US