WO2004077828A1 - 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム - Google Patents

画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
WO2004077828A1
WO2004077828A1 PCT/JP2004/001607 JP2004001607W WO2004077828A1 WO 2004077828 A1 WO2004077828 A1 WO 2004077828A1 JP 2004001607 W JP2004001607 W JP 2004001607W WO 2004077828 A1 WO2004077828 A1 WO 2004077828A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
image data
pixels
interest
continuity
Prior art date
Application number
PCT/JP2004/001607
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Takashi Sawao
Junichi Ishibashi
Takahiro Nagano
Naoki Fujiwara
Toru Miyake
Seiji Wada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/545,074 priority Critical patent/US7450764B2/en
Publication of WO2004077828A1 publication Critical patent/WO2004077828A1/ja
Priority to US12/044,557 priority patent/US7483565B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Definitions

  • Image processing apparatus and method learning apparatus and method, recording medium, and program
  • the present invention relates to an image processing apparatus and method, a learning apparatus and method, a recording medium, and a program, and more particularly to an image processing apparatus and method for creating a higher-resolution image, a learning apparatus and method, a recording medium, and a program. . Background art
  • the applicant of the present application has previously proposed, for example, a classification adaptive process as an image process for improving the image quality of an image and performing other image conversion.
  • the class classification adaptive processing includes class classification processing and adaptive processing.
  • the class classification processing classifies image data into classes based on their properties, and performs adaptive processing for each class. Is the processing of the following method. That is, in the adaptive processing, for example, mapping using a low-quality or standard-quality image (hereinafter, appropriately referred to as an SD (Standard Definition) image) using a predetermined tap coefficient (hereinafter, also appropriately referred to as a prediction coefficient), is performed.
  • the image is converted to a high-quality image (hereinafter, appropriately referred to as an HD (High Definition) image).
  • x n is that make up the prediction taps for the HD pixel y, represents the pixel value of the pixel of the n-th SD image
  • w n is the n-th SD pixel (the picture element Value) multiplied by n.
  • the pixel value y of the HD pixel can be obtained not by the linear linear expression shown in Expression (1) but by a higher-order expression of second order or higher.
  • Equation (3) x n and k represent the n-th SD pixel that forms a prediction tap for the HD pixel of the k-th sample.
  • the tap coefficient w n in Equation (3) with the prediction error e k being 0 is optimal for predicting HD pixels, but it is not possible to find such a tap coefficient w n for all HD pixels. , Generally difficult.
  • the optimum tap coefficients w n the as a statistical error, for example, the following It can be obtained by minimizing the sum of square errors E expressed by the formula. • ⁇ ⁇ (Four)
  • K is a sample of a set of an HD pixel y k and SD pixels x ,, k , ⁇ ⁇ ⁇ , x N , k constituting a prediction tap for the HD pixel y k. Represents the number of files.
  • the tap coefficient w n for minimizing (minimizing) the sum E of the squared errors in equation (4) is a value obtained by partially differentiating the sum E with the tap coefficient w n to be 0. Need to meet. - ° (n one 1, 2, ⁇ ..,
  • Eq. (7) can be represented by the normal equation shown in Eq. (8).
  • Equation (8) The normal equation in Eq. (8) can be obtained by preparing a set of HD pixels y k and SD pixels x n , k to a certain number, and setting the same number of tap coefficients w n to be obtained. Therefore, by solving equation (8), ( ⁇ , and to solve equation (8),
  • the matrix on the left side of the tap coefficient w n must be non-singular), and the optimum tap coefficient w n can be obtained.
  • the sweeping method Gas-Jordan elimination method
  • the tap coefficient is also referred to as a prediction coefficient.
  • the adaptive processing is different from, for example, a simple interpolation processing in that components included in an HD image, which are not included in an SD image, are reproduced. That is, the adaptive processing is the same as the interpolation processing using a so-called interpolation filter as far as only Equation (1) is viewed, but the tap coefficient w n corresponding to the tap coefficient of the interpolation filter is equal to the teacher data. Since it is obtained by learning using the HD image as the data and the SD image as the student data, the components included in the HD image can be reproduced. From this, it can be said that the adaptive processing has a so-called image creation (resolution imagination) effect.
  • tap coefficient w n for performing various conversion .
  • the tap coefficient w n to be converted into an image can be obtained.
  • an HD image is used as the teacher data y and an SD image with the HD image resolution degraded is used as the student data X
  • the image is improved in resolution.
  • the tap coefficient w n to be converted into an image can be obtained.
  • a DCT coefficient obtained by transforming the image as a DCT Discrete Cosine Transform
  • the DC ⁇ coefficient is used as the image.
  • the tap coefficient w n to be converted can be obtained.
  • FIG. 1 is a block diagram illustrating a configuration of a conventional image processing apparatus that creates an output image as an HD image from an input image as an SD image by a class classification adaptive process.
  • an input image is supplied to a class tap extracting unit 11 and a prediction tap extracting unit 15.
  • the class tap extracting unit 11 extracts a class tap which is a predetermined pixel corresponding to a pixel of interest (hereinafter, also referred to as a pixel of interest) from the input image, and detects the extracted class tap together with the input image as a feature amount.
  • the feature amount detection unit 12 corresponds to the pixel of interest from the input image supplied via the class tap extraction unit 11.
  • the feature amount of the image is detected, and the detected feature amount is supplied to the class classification unit 13 together with the class tap.
  • the feature amount of an image refers to a motion or a change in a pixel value in a frame.
  • the classifying unit 13 classifies the target pixel into classes based on the class tap characteristic amount supplied from the characteristic amount detecting unit 12 and stores a class code indicating a result of the classification in the coefficient memory 14 and This is supplied to the prediction tap extraction unit 15.
  • the coefficient memory 14 supplies a tap coefficient corresponding to the class of the pixel of interest to the pixel value calculation unit 16 based on the class code supplied from the class classification unit 13.
  • the prediction tap extraction unit 15 extracts a predetermined prediction tap from the input image corresponding to the pixel of interest based on the class code supplied from the class separation unit 13.
  • the prediction tap extraction unit 15 supplies the extracted prediction tap to the pixel value calculation unit 16.
  • the pixel value prediction unit 16 calculates the target pixel of the HD image from the prediction tap supplied from the prediction tap extraction unit 15 and the tap coefficient supplied from the coefficient memory 14 by the operation shown in Expression (1). Is predicted.
  • the pixel value prediction unit 16 outputs an HD image composed of pixel values that are predicted using all the pixels of the HD image as the pixel of interest in sequence.
  • FIG. 2 is a flowchart illustrating a process of creating an image by a conventional image processing apparatus in which an output image as an HD image is created from an input image as an SD image by a class classification adaptive process.
  • step S11 the class tap extracting unit 11 extracts a class tap corresponding to the selected target pixel from the input image that is the SD image.
  • step S12 the feature amount detection unit 12 detects a feature amount corresponding to the target pixel from the input image.
  • step S13 the class classification unit 13 classifies the class of the pixel of interest based on the class tap extracted in the processing in step S11 and the feature amount detected in the processing in step S12. .
  • step S14 the prediction tap extraction unit 15 calculates a prediction tap corresponding to the pixel of interest from the input image in accordance with the result of class classification by the processing in step S13. Extract the top.
  • step S15 the coefficient memory 14 stores the prediction coefficient corresponding to the classified class from among the prediction coefficients stored in advance in accordance with the result of the class classification by the processing in step S13. read out.
  • step S16 the pixel value prediction unit 16 performs the adaptive processing based on the prediction tap extracted in the process of step S14 and the prediction coefficient read in the process of step S15. Is predicted.
  • step S17 the image processing apparatus determines whether or not prediction has been completed for all pixels, and when it is determined that prediction has not been completed for all pixels, the next pixel is set as a target pixel. Returning to step S11, the processing of class classification and adaptation is repeated.
  • step S17 If it is determined in step S17 that prediction has been completed for all pixels, the process ends.
  • FIG. 3 is a block diagram illustrating a configuration of a conventional image processing device that generates a prediction coefficient used in a class classification adaptive process for creating an output image as an HD image from an input image as an SD image.
  • the input image input to the image processing apparatus shown in FIG. 3 is a teacher image which is an HD image, and is supplied to the student image generator 31 and the teacher pixel extractor 38.
  • the pixels (pixel values of) included in the teacher image are used as teacher data.
  • the student image generation unit 31 generates a student image, which is an SD image corresponding to the teacher image, by thinning out pixels from the input teacher image, which is an HD image, and stores the generated student image in the image memory 32. Supply.
  • the image memory 32 stores the student image which is the SD image supplied from the student image generating unit 31 and supplies the stored student image to the class tap extracting unit 33 and the prediction tap extracting unit 36. .
  • the class tap extracting unit 33 sequentially selects the target pixel, extracts a cluster tap from the student image corresponding to the selected target pixel, and outputs the cluster tap extracted together with the student image to the feature amount detecting unit 34.
  • the feature amount detection section 34 corresponds to the pixel of interest, The feature amount is detected from the student image, and the detected feature amount is supplied to the class classification unit 35 together with the class tap.
  • the class classifying unit 35 classifies the class of the pixel of interest based on the class tap and the characteristic amount supplied from the characteristic amount detecting unit 34, and classifies the class code indicating the classified class into the prediction tap extracting unit 3 6 and learning memory 39.
  • the prediction tap extracting unit 36 extracts a prediction tap corresponding to the classified class from the student image supplied from the image memory 32 based on the class code supplied from the class classification unit 35.
  • the added prediction tap is supplied to the adding operation unit 37.
  • the teacher pixel extraction unit 38 extracts teacher data, that is, a pixel of interest of the teacher image, and supplies the extracted teacher data to the addition operation unit 37.
  • the addition operation unit 37 adds the teacher data, which is an HD pixel, and the prediction tap, which is an SD pixel, to the normal equation of Expression (8), and learns a normal equation in which the teacher data and the prediction tap are added. Supply to memory 39.
  • the learning memory 39 stores the normal equation supplied from the addition operation unit 37 for each class based on the class code supplied from the class classification unit 35.
  • the learning memory 39 supplies the normal equation stored with the teacher data and the prediction tap stored for each class to the normal equation calculation unit 40.
  • the normal equation calculation unit 40 solves the normal equation supplied from the learning memory 39 by a sweep-out method and obtains a prediction coefficient for each class.
  • the normal equation calculation unit 40 supplies the prediction coefficient for each class to the coefficient memory 41.
  • the coefficient memory 41 stores the prediction coefficient for each class, supplied from the normal equation operation unit 40.
  • Fig. 4 is a flowchart illustrating the learning process by a conventional image processing device that generates prediction coefficients used in the class classification adaptation process that creates an output image that is an HD image from an input image that is an SD image. is there.
  • step S31 the student image generation unit 31 generates a student image from an input image that is a teacher image.
  • step S32 the class tap extracting unit 33 The target pixel is sequentially selected, and a cluster map corresponding to the selected target pixel is extracted from the student image.
  • step S33 the feature amount detection unit 34 detects a feature amount corresponding to the target pixel from the student image.
  • the classifying unit 35 classifies the class of the pixel of interest based on the class tap extracted in the process in step S32 and the feature amount detected in the process in step S33. Classify.
  • step S35 the prediction tap extraction unit 36 extracts a prediction tap corresponding to the pixel of interest from the student image based on the class classified by the processing in step S34.
  • step S36 the teacher pixel extraction unit 38 extracts a pixel of interest, that is, a teacher pixel (teacher data) from the input image that is the teacher image.
  • step S37 the adding operation unit 37 adds the prediction tap extracted in step S35 and the teacher pixel (teacher data) extracted in step S36 to the normal equation. Execute the operation to insert.
  • step S38 the image processing apparatus determines whether the addition processing has been completed for all pixels of the teacher image, and when it is determined that the addition processing has not been completed for all pixels, Returning to step S32, the process of extracting the prediction tap and the teacher pixel using the pixel which has not been determined as the pixel of interest as the pixel of interest and adding it to the normal equation is repeated.
  • step S38 If it is determined in step S38 that the addition process has been completed for all the pixels of the teacher image, the process proceeds to step S39, where the normal equation calculation unit 40 adds the prediction tap and the teacher pixel. Calculate the prediction coefficient by calculating the normal equation.
  • step S40 the image processing apparatus determines whether or not the prediction coefficients of all the classes have been calculated, and when it is determined that the prediction coefficients of all the classes have not been calculated, returns to step S39, The process of calculating the normal equation and calculating the prediction coefficient is repeated. If it is determined in step S40 that the prediction coefficients of all classes have been calculated, the process ends. Also, in Japanese Patent Application Laid-Open No. Hei 9-74453, not only classifying an input image based on a level distribution pattern of the input image but also classifying the input image based on a movement of the input image is disclosed. It is disclosed that a class code has been generated.
  • the present invention has been made in view of such a situation, and an object of the present invention is to make it possible to obtain a more accurate and more accurate processing result by utilizing data continuity.
  • the image processing apparatus of the present invention corresponds to the continuity of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a first target pixel in high-quality image data. Detecting a first stationarity of the image data and detecting a plurality of second pixels in the input image data corresponding to a second pixel of interest in the high-quality image data temporally or spatially adjacent to the first pixel of interest.
  • Image data continuity detecting means for detecting a second continuity of the image data corresponding to the continuity of the optical signal in the real world of the two peripheral pixels; and Based on the first continuity, a plurality of third peripheral pixels in the input image data corresponding to the first target pixel are extracted, and a second one of the image data detected by the image data continuity detecting means is extracted.
  • Input corresponding to the second pixel of interest based on the stationarity of A first extraction unit for extracting a plurality of fourth peripheral pixels in the image data; and a first pixel of interest based on the first continuity of the image data detected by the image data continuity detection unit.
  • a plurality of fifth peripheral pixels in the input image data are extracted, and corresponding to the second pixel of interest based on the second continuity of the image data detected by the image data continuity detecting means.
  • a second extraction unit that extracts a plurality of sixth peripheral pixels in the input image data; and a first feature amount of a plurality of third peripheral pixels extracted by the first extraction unit.
  • First feature amount detecting means for detecting a second feature amount of a plurality of fourth peripheral pixels extracted by the first extracting means, and a first feature 4 001607
  • a first feature pixel is predicted from a plurality of fifth peripheral pixels extracted by the second extraction means based on the first feature quantity detected by the quantity detection means;
  • a second pixel of interest is predicted from a plurality of sixth peripheral pixels extracted by the second extraction means based on the second feature value detected by the first feature value, and a first prediction value of the first pixel of interest is calculated.
  • a first prediction unit that outputs a second prediction value of the second pixel of interest, a first prediction value of the first pixel of interest predicted by the first prediction unit, and a first prediction unit A second predicted value of the predicted second target pixel, and input image data at a position that includes at least the first target pixel and the second target pixel in the temporal direction or the spatial direction.
  • the image processing device extracts a plurality of seventh peripheral pixels in the input image data corresponding to the first target pixel in the high-quality image data, and extracts the plurality of seventh peripheral pixels in the high-quality image data as second target pixels.
  • a third extracting means for extracting a plurality of eighth peripheral pixels in the input image data, and a plurality of ninth peripheral pixels in the input image data corresponding to the first target pixel; Fourth extracting means for extracting a plurality of 10th peripheral pixels in the input image data corresponding to the second target pixel, and a plurality of seventh peripheral pixels extracted by the third extracting means.
  • a second feature value detecting means for detecting a third feature value and detecting a fourth feature value of the plurality of eighth peripheral pixels extracted by the third extracting means; and a second feature value detecting means.
  • a second prediction unit that predicts the second pixel of interest, and outputs a third prediction value of the first pixel of interest and a fourth prediction value of the second pixel of interest.
  • a first prediction value of a first pixel of interest predicted by the first prediction unit, a second prediction value of a second pixel of interest predicted by the first prediction unit, and a corresponding pixel of the input image data Detects the relationship with the pixel value of Selectively output one of the first set of predicted values consisting of the predicted value and the second predicted value and the second set of predicted values consisting of the third predicted value and the fourth predicted value It can be done.
  • the selection output means determines that the absolute value of the result of subtracting the first predicted value of the first pixel of interest and the second predicted value of the second pixel of interest from the pixel value of the corresponding pixel is less than a predetermined threshold When, the first set of predicted values consisting of the first predicted value and the second predicted value can be selectively output.
  • the image processing method of the present invention corresponds to the continuity of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a first target pixel in high-quality image data. Detecting a first stationarity of the image data and detecting a plurality of second pixels in the input image data corresponding to a second pixel of interest in the high-quality image data temporally or spatially adjacent to the first pixel of interest. An image data continuity detection step of detecting a second continuity of image data corresponding to the continuity of the optical signal in the real world of the two peripheral pixels, and an image data continuity detection step of detecting the second continuity of the image data.
  • a plurality of third peripheral pixels in the input image data corresponding to the first pixel of interest are extracted, and a second one of the image data detected in the image data continuity detecting step is extracted.
  • a first extraction step of extracting a plurality of fourth peripheral pixels in the input image data and a first continuity of the image data detected in the image data continuity detection step.
  • a plurality of fifth peripheral pixels in the input image data corresponding to one target pixel are extracted, and the second peripheral pixels are extracted based on the second continuity of the image data detected in the image data continuity detecting step.
  • a feature amount detecting step of detecting a second feature amount of the plurality of fourth peripheral pixels extracted in the first extracting step and a first feature amount detected in the feature amount detecting step.
  • a second target pixel is predicted from a plurality of sixth peripheral pixels extracted in the second extraction step based on the second feature amount, and a first predicted value of the first target pixel and a second target pixel are predicted.
  • a prediction step of outputting a second prediction value of the pixel of interest, a first prediction value of the first pixel of interest predicted in the prediction step, and a second prediction of the second pixel of interest predicted in the prediction step The relationship between the value and the pixel value of the corresponding pixel in the input image data arranged at a position including at least the first target pixel and the second target pixel in the time direction or the spatial direction is detected and detected.
  • a selection output step for selectively outputting a first predicted value of the first pixel of interest and a second predicted value of the second pixel of interest according to the result.
  • the program of the first recording medium of the present invention is a program for determining the continuity of a plurality of first peripheral pixels in the input image data corresponding to the first target pixel in the high-quality image data, in the continuity of the optical signal in the real world. Detecting a first continuity of the corresponding image data, and detecting a plurality of the plurality of input image data corresponding to the second target pixel in the high-quality image data temporally or spatially adjacent to the first target pixel; Image data continuity detecting step for detecting the second continuity of image data corresponding to the continuity of the real-world optical signal of the second peripheral pixel of the second peripheral pixel, and the image data continuity detecting step Based on the first continuity of the image data, a plurality of third peripheral pixels in the input image data corresponding to the first pixel of interest are extracted, and the image data detected in the image data continuity detecting step is extracted.
  • a second target pixel is predicted from a plurality of sixth peripheral pixels extracted in the second extraction step based on the feature amount, and a first prediction value of the first target pixel and a second target pixel are predicted.
  • the first program provides a computer with the continuity of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a first target pixel in high-quality image data. Detecting the first continuity of the image data corresponding to the first pixel of interest, and corresponding to the second pixel of interest in the high-quality image data temporally or spatially adjacent to the first pixel of interest.
  • An image data continuity detecting step of detecting a second continuity of image data corresponding to a continuity of a real-world optical signal of a second peripheral pixel of the image, and an image detected in the image data continuity detecting step Based on the first continuity of the data, a plurality of third peripheral pixels in the input image data corresponding to the first target pixel are extracted, and the image data detected in the image data continuity detecting step is extracted. Based on the second stationarity A first extraction step of extracting a plurality of fourth peripheral pixels in the input image data corresponding to the second target pixel, and a first stationary state of the image data detected in the image data stationary state detecting step.
  • a first target pixel is predicted from the plurality of fifth peripheral pixels extracted in the second extraction step based on the first characteristic amount obtained, and the second characteristic detected in the characteristic amount detection step.
  • the second target pixel is predicted from the plurality of sixth peripheral pixels extracted in the second extraction step based on the amount, and the first predicted value of the first target pixel and the second predicted pixel of the second target pixel are calculated.
  • At least the first pixel of interest and the second pixel of interest Is detected in relation to the pixel value of the corresponding pixel in the input image data arranged at a position that encompasses in the temporal direction or the spatial direction, and the first predicted value and the first predicted value of the first target pixel are determined according to the detection result.
  • selectively outputting a second predicted value of the second pixel of interest is selectively outputting a second predicted value of the second pixel of interest.
  • the learning device of the present invention detects the continuity of image data corresponding to the continuity of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a target pixel in high-quality image data. Based on the continuity of the image data detected by the image data continuity detecting means, and a plurality of second data in the input image data corresponding to the pixel of interest in the high-quality image data. A plurality of third peripheral pixels of the input image data ⁇ ⁇ corresponding to the pixel of interest based on the continuity of the image data detected by the image data continuity detecting means.
  • Second extracting means for extracting the characteristic amounts, a characteristic amount detecting means for detecting the characteristic amounts of the plurality of second peripheral pixels extracted by the first extracting means, and a characteristic amount detected by the characteristic amount detecting means.
  • the second extraction means Learning means for learning prediction means for predicting a target pixel from a plurality of third peripheral pixels extracted by the above.
  • the learning method of the present invention detects the continuity of image data corresponding to the continuity of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a target pixel in high-quality image data.
  • Image data continuity detection step A first extraction step of extracting a plurality of second peripheral pixels in the input image data corresponding to a pixel of interest in the high-quality image data based on the stationarity of the image data detected in the step; A second extraction step of extracting a plurality of third peripheral pixels in the input image data corresponding to the pixel of interest based on the continuity of the image data detected in the continuity detection step, and a first extraction
  • a feature value detecting step of detecting feature values of a plurality of second peripheral pixels extracted in the step; and a plurality of feature values extracted in the second extracting step for each feature value detected in the feature value detecting step.
  • Learning step of learning prediction means for predicting a target pixel from the third peripheral pixel.
  • the program of the second recording medium of the present invention is a program for storing image data corresponding to the continuity of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a target pixel in high-quality image data. Based on the continuity of the image data detected in the image data continuity detection step and the continuity of the image data detected in the image data continuity detection step. A first extraction step of extracting a plurality of second peripheral pixels, and a plurality of input image data corresponding to the pixel of interest based on the continuity of the image data detected in the image data continuity detection step.
  • a second extraction step of extracting a third peripheral pixel a feature amount detection step of detecting a feature amount of a plurality of second peripheral pixels extracted in the first extraction step,
  • a learning step of learning prediction means for predicting a pixel of interest from a plurality of third peripheral pixels extracted in the second extraction step for each feature amount detected in the amount detection step. It is characterized by.
  • a second program provides a computer with an image corresponding to the normality of a real-world optical signal of a plurality of first peripheral pixels in input image data corresponding to a target pixel in high-quality image data.
  • An image data continuity detecting step for detecting data continuity; and input image data corresponding to a target pixel in the high-quality image data based on the continuity of the image data detected in the image data continuity detecting step.
  • the image processing device may be an independent device or a block that performs image processing.
  • the learning device may be an independent device or a block that performs a learning process.
  • the first continuity of the image data corresponding to the continuity of the real-world optical signal of the plurality of first peripheral pixels in the input image data corresponding to the first target pixel in the high-quality image data is detected.
  • a second continuity of the image data corresponding to the continuity of the image data is detected, and a plurality of continuities in the input image data corresponding to the first target pixel are detected based on the first continuity of the detected image data.
  • a plurality of fourth peripheral pixels in the input image data corresponding to the second target pixel Based on the first stationarity of the detected image data, A plurality of fifth peripheral pixels in the input image data are extracted, and a plurality of fifth peripheral pixels in the input image data corresponding to the second pixel of interest are extracted based on the second continuity of the detected image data.
  • a sixth feature pixel of the plurality of extracted third feature pixels is detected, a second feature value of the extracted plurality of fourth feature pixels is detected, A first pixel of interest is predicted from a plurality of extracted fifth peripheral pixels based on the detected first feature, and a plurality of extracted pixels are predicted based on the detected second feature.
  • a second target pixel is predicted from the sixth peripheral pixel, and a first predicted value of the first target pixel and a second predicted value of the second target pixel are output.
  • the first predicted value of the predicted first pixel of interest, the second predicted value of the predicted second pixel of interest, and at least the first pixel of interest and the second pixel of interest The relationship with the pixel value of the corresponding pixel in the input image data arranged at the position included in the direction is detected, and the first predicted value and the second predicted value of the first target pixel are determined according to the detection result.
  • the second predicted value of the pixel of interest is selectively output.
  • the continuity of the image data corresponding to the continuity of the optical signal in the real world of the plurality of first peripheral pixels in the input image data corresponding to the pixel of interest in the high-quality image data is detected, and the detected image data
  • a plurality of second surrounding pixels in the input image data corresponding to the target pixel in the high-quality image data are extracted based on the continuity of the A plurality of third peripheral pixels in the input image data corresponding to the pixel are extracted, feature amounts of the extracted plurality of second peripheral pixels are detected, and the extracted plurality of second peripheral pixels are extracted for each detected feature amount.
  • the prediction means for predicting the target pixel from the third peripheral pixel is learned.
  • FIG. 1 is a block diagram illustrating the configuration of a conventional image processing apparatus.
  • FIG. 2 is a flowchart illustrating a conventional image creation process.
  • FIG. 3 is a block diagram illustrating a configuration of a conventional image processing apparatus that generates a prediction coefficient.
  • FIG. 4 is a flowchart illustrating a conventional learning process.
  • FIG. 5 is a block diagram showing a configuration of an embodiment of the image processing apparatus according to the present invention.
  • Figure 6 is a flowchart describing the image creation process for creating a higher resolution output image.
  • FIG. 7 is a diagram illustrating an example of an arrangement of pixels on an image sensor.
  • FIG. 8 is a diagram for explaining the operation of the detection element which is a CCD.
  • FIG. 9 is a diagram illustrating the relationship between light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • FIG. 10 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • FIG. 11 is a diagram illustrating an example of an image of a linear object in the real world.
  • FIG. 12 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 13 is a schematic diagram of image data.
  • FIG. 14 is a diagram illustrating an example of a real-world image of an object having a single color and a straight edge, which is a color different from the background.
  • FIG. 15 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
  • FIG. 16 is a schematic diagram of image data.
  • FIG. 17 is a block diagram illustrating a configuration of the data continuity detection unit.
  • FIG. 18 is a diagram for explaining an activity in an input image having data continuity.
  • FIG. 19 is a diagram illustrating a block for detecting an activity.
  • FIG. 20 is a diagram illustrating an angle of data continuity with respect to activity.
  • FIG. 21 is a block diagram showing a more detailed configuration of the data continuity detector.
  • FIG. 22 is a diagram illustrating a set of pixels.
  • FIG. 23 is a diagram illustrating the relationship between the position of a set of pixels and the angle of data continuity.
  • FIG. 24 is a flowchart illustrating a process of detecting data continuity.
  • FIG. 25 is a diagram showing a set of pixels extracted when detecting the continuity angle of data in the temporal direction and the spatial direction.
  • FIG. 26 is a block diagram showing another more detailed configuration of the data continuity detector.
  • FIG. 27 is a diagram illustrating a set of pixels including a number of pixels corresponding to the set range of the angle of the straight line.
  • FIG. 28 is a diagram illustrating the range of the angle of the set straight line.
  • FIG. 29 is a diagram for explaining the range of the angle of the set straight line, the number of pixel sets, and the number of pixels for each pixel set.
  • FIG. 30 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 31 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 32 is a diagram for explaining the number of pixels in each pixel set.
  • FIG. 33 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 34 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 35 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 36 is a diagram illustrating the number of pixels in each pixel set.
  • FIG. 37 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
  • FIG. 38 is a flowchart for explaining processing for detecting data continuity.
  • FIG. 39 is a block diagram showing still another configuration of the data continuity detecting unit.
  • FIG. 40 is a block diagram showing a more detailed configuration of the data continuity detector.
  • FIG. 41 is a diagram illustrating an example of a block.
  • FIG. 42 is a diagram for explaining a process of calculating an absolute value of a pixel value difference between a target block and a reference block.
  • FIG. 43 is a diagram illustrating the distance in the spatial direction X between the position of a pixel around the target pixel and a straight line having an angle ⁇ .
  • FIG. 44 is a diagram illustrating a relationship between the shift amount and the angle 0. In FIG.
  • FIG. 45 is a diagram illustrating a distance in the spatial direction X between a position of a pixel around the target pixel and a straight line passing through the target pixel and having an angle of 0 with respect to the shift amount.
  • FIG. 46 is a diagram showing a reference block passing through the target pixel and having a minimum distance from a straight line having an angle ⁇ ⁇ ⁇ ⁇ with respect to the axis in the spatial direction X.
  • FIG. 47 is a diagram illustrating a process for reducing the range of the continuity angle of the detected data to /.
  • FIG. 48 is a flowchart for explaining a process of detecting data continuity.
  • FIG. 49 is a diagram showing blocks extracted when detecting the continuity angles of inter- and spatial data.
  • FIG. 50 is a block diagram illustrating a configuration of a data continuity detecting unit that executes a process of detecting data continuity based on a component signal of an input image.
  • FIG. 51 is a block diagram illustrating a configuration of a data continuity detecting unit that executes a process of detecting data continuity based on a component signal of an input image.
  • FIG. 52 is a block diagram showing still another configuration of the data continuity detecting unit.
  • FIG. 53 is a diagram for explaining an angle of data continuity with respect to a reference axis in an input image.
  • FIG. 54 is a diagram for explaining the angle of continuity of data with respect to a reference axis in an input image.
  • FIG. 55 is a diagram illustrating an angle of continuity of data with respect to a reference axis in an input image.
  • FIG. 56 is a diagram illustrating a relationship between a change in a pixel value and a regression line with respect to a position of a pixel in a spatial direction in an input image.
  • FIG. 57 is a diagram illustrating the angle between the regression line A and, for example, an axis indicating the spatial direction X which is a reference axis.
  • FIG. 58 is a diagram illustrating an example of a region.
  • FIG. 59 is a flowchart illustrating a process of detecting data continuity performed by the data continuity detecting unit configured as shown in FIG.
  • FIG. 60 is a block diagram illustrating a configuration of a data continuity detecting unit that detects the angle of a thin line or a binary edge according to the present invention as data continuity information.
  • FIG. 61 is a diagram illustrating a method for detecting data continuity information.
  • FIG. 62 is a diagram illustrating a method for detecting data continuity information.
  • FIG. 63 is a diagram showing a more detailed configuration of the data continuity detector of FIG.
  • FIG. 64 is a diagram for explaining the horizontal / vertical determination processing.
  • FIG. 65 illustrates the horizontal / vertical determination process.
  • FIG. 66A is a diagram illustrating the relationship between a thin line in the real world and a thin line imaged by a sensor.
  • FIG. 66B is a diagram for explaining the relationship between a thin line in the real world and a thin line imaged by a sensor.
  • FIG. 66C is a diagram for explaining the relationship between a thin line in the real world and a thin line imaged by a sensor.
  • FIG. 67A is a diagram illustrating the relationship between the thin lines and the background of an image in the real world.
  • FIG. 67B is a diagram illustrating the relationship between the thin lines and the background of the image of the real world.
  • FIG. 68A is a diagram for explaining the relationship between the thin lines of the image captured by the sensor and the background.
  • FIG. 68B is a diagram for explaining the relationship between the fine lines of the image captured by the sensor and the background.
  • FIG. 69A is a diagram for explaining an example of the relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 69B is a view for explaining an example of the relationship between the thin lines of the image captured by the sensor and the background.
  • FIG. 7OA illustrates the relationship between the thin lines and the background of the real world image.
  • FIG. 70B is a diagram for explaining the relationship between the thin lines of the image of the real world and the background.
  • FIG. 71A is a diagram for explaining a relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 71B is a diagram for explaining the relationship between the thin lines of the image captured by the sensor and the background.
  • FIG. 72A is a diagram for explaining an example of the relationship between a thin line of an image captured by a sensor and a background.
  • FIG. 72B is a view for explaining an example of the relationship between the fine lines of the image captured by the sensor and the background.
  • FIG. 73 is a diagram showing a model for obtaining the angle of a thin line.
  • FIG. 74 is a diagram showing a model for obtaining the angle of a thin line.
  • FIG. 75A is a diagram illustrating the maximum value and the minimum value of the pixel value of the dynamic range block corresponding to the target pixel.
  • FIG. 75B is a diagram illustrating the maximum value and the minimum value of the pixel value of the dynamic range block corresponding to the target pixel.
  • FIG. 76A is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 76B is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 76C is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 77 is a diagram for explaining how to obtain the angle of the thin line.
  • FIG. 78 is a diagram illustrating an extraction block and a dynamic range block.
  • FIG. 79 is a diagram for explaining the solution of the least squares method.
  • FIG. 80 is a diagram for explaining the solution of the least squares method.
  • FIG. 81A illustrates a binary edge
  • FIG. 81B is a diagram for explaining binary edges.
  • FIG. 81C is a diagram illustrating binary edges.
  • FIG. 82A is a diagram illustrating binary edges of an image captured by a sensor.
  • FIG. 82B is a diagram illustrating the binary edge of the image captured by the sensor.
  • FIG. 83A is a diagram illustrating an example of a binary edge of an image captured by a sensor.
  • FIG. 83B is a diagram illustrating an example of a binary edge of an image captured by a sensor.
  • FIG. 84A is a diagram illustrating binary edges of an image captured by a sensor.
  • FIG. 84B is a diagram illustrating the binary edge of the image captured by the sensor.
  • FIG. 85 is a diagram showing a model for obtaining the angle of the binary wedge.
  • FIG. 86A is a diagram for explaining a method of obtaining the angle of a binary edge.
  • FIG. 86B is a view for explaining a method of obtaining the angle of the binary wedge.
  • FIG. 86C is a diagram for explaining a method of obtaining the angle of the binary edge.
  • FIG. 87 is a view for explaining a method of obtaining the angle of the binary edge.
  • FIG. 88 is a flowchart illustrating a process of detecting the angle of a thin line or a binary edge as data continuity.
  • FIG. 89 is a flowchart illustrating the data extraction process.
  • FIG. 90 is a flowchart illustrating the process of adding to the normal equation.
  • FIG. 91A is a diagram comparing the inclination of the thin line obtained by applying the present invention with the angle of the thin line obtained by using the correlation.
  • FIG. 9IB is a diagram comparing the inclination of the thin line obtained by applying the present invention with the angle of the thin line obtained by using the correlation.
  • FIG. 92A is a diagram comparing the slope of a binary edge obtained by applying the present invention with the angle of a thin line obtained using correlation.
  • FIG. 92B is a diagram comparing the slope of a binary edge obtained by applying the present invention with the angle of a thin line obtained using correlation.
  • FIG. 93 is a block diagram illustrating a configuration of a data continuity detecting unit that detects a mixture ratio to which the present invention is applied as data continuity information.
  • FIG. 94A is a diagram for explaining a method of obtaining the mixture ratio.
  • FIG. 94B is a diagram for explaining how to obtain the mixture ratio.
  • FIG. 94C is a diagram for explaining how to obtain the mixture ratio.
  • FIG. 95 is a flowchart illustrating a process of detecting the mixture ratio as data continuity.
  • FIG. 96 is a flowchart for explaining the addition processing to the normal equation.
  • FIG. 97A is a diagram showing an example of the distribution of the mixing ratio of the thin lines.
  • FIG. 97B is a diagram illustrating a distribution example of the mixing ratio of the thin lines. '
  • FIG. 98A is a diagram illustrating a distribution example of the mixing ratio of the binary wedge.
  • FIG. 98B is a diagram illustrating a distribution example of the mixture ratio of binary edges.
  • FIG. 99 is a diagram illustrating linear approximation of the mixture ratio.
  • FIG. 10 OA is a diagram for explaining a method of obtaining the motion of an object as data continuity information.
  • FIG. 10OB illustrates a method of obtaining the motion of an object as data continuity information.
  • FIG. 101A is a diagram for explaining a method of obtaining the motion of an object as data continuity information.
  • FIG. 101B is a diagram for explaining a method of obtaining the motion of an object as data continuity information.
  • FIG. 102A is a diagram for explaining a method of obtaining a mixture ratio due to the motion of an object as data continuity information.
  • FIG. 102B is a diagram for explaining a method of obtaining a mixture ratio due to the motion of an object as data continuity information. ⁇
  • FIG. 102C is a diagram for explaining a method of obtaining the mixture ratio due to the motion of the object as data continuity information.
  • FIG. 103 is a diagram illustrating linear approximation of the mixture ratio when the mixture ratio due to the motion of the object is obtained as the data continuity information.
  • FIG. 104 is a diagram illustrating a conventional process of extracting a class tap.
  • FIG. 105 is a view for explaining the process of extracting class taps in the image processing apparatus according to the present invention.
  • FIG. 106 is a view for explaining the determination of the position of the pixel extracted as a class tap based on the stationarity of data.
  • FIG. 107 is a view for explaining the determination of the position of the pixel extracted as a class tap based on the stationarity of data.
  • FIG. 108 is a diagram illustrating a process of extracting a class tap in the image processing device according to the present invention.
  • FIG. 109 is a diagram illustrating an example of an input image.
  • FIG. 110 is a diagram showing an image that is the basis of an input image.
  • FIG. 11 is a diagram showing an image generated by the conventional classification adaptive processing.
  • FIG. 112 is a diagram showing an image generated when the corresponding pixel and the center pixel are always the same.
  • FIG. 11 is a diagram showing an image generated by the image processing device according to the present invention.
  • FIG. 114 is a diagram illustrating an example of the input image.
  • FIG. 115 is a diagram showing an image that is the basis of an input image.
  • FIG. 116 is a diagram showing an image generated by the conventional classification adaptive processing.
  • FIG. 117 is a diagram illustrating an image generated when the corresponding pixel and the center pixel are always the same.
  • FIG. 118 is a diagram showing an image generated by the image processing device according to the present invention.
  • FIG. 119 is a block diagram showing the configuration of an embodiment of the learning device according to the present invention.
  • FIG. 120 is a flowchart illustrating the learning process.
  • FIG. 121 is a block diagram showing another configuration of the embodiment of the image processing apparatus according to the present invention.
  • FIG. 122 illustrates the pixel of interest.
  • FIG. 123 is a diagram for explaining an arrangement of pixels provided in the image sensor and an area corresponding to a pixel of a horizontally doubled image.
  • FIG. 124 is a diagram illustrating pixel values of pixels corresponding to light incident on regions a to r.
  • FIG. 125 is a diagram illustrating an example of an output image including a prediction value obtained by the pixel value prediction unit, where the relationship of Expression (53) is not established.
  • FIG. 126 is a diagram illustrating an example of an output image in which the relationship of Expression (53) is not established and the prediction value of the pixel value prediction unit is replaced with the prediction value of the pixel value prediction unit.
  • FIG. 127 is a flowchart for explaining the image creation process.
  • FIG. 128 is a diagram illustrating a pixel of interest when a time-density image is created.
  • FIG. 129 illustrates the relationship between the target pixel y a ), the target pixel y ( 2 ), and the corresponding pixel ⁇ ⁇ ⁇ (5) that includes the target pixel y ⁇ and the target pixel y (2) in the time direction.
  • FIG. FIG. 130 is a block diagram showing a configuration of an embodiment of the learning device.
  • FIG. 13 is a flowchart illustrating the learning process.
  • FIG. 13 is a block diagram showing an example of the configuration of a personal computer. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 5 is a block diagram showing a configuration of an embodiment of the image processing apparatus according to the present invention.
  • the image processing device whose configuration is shown in Fig. 5 acquires an input image, creates and outputs an image with twice the resolution in the horizontal direction and twice the resolution in the vertical direction of the input image. .
  • an SD image as an example of an input image is input, data continuity is detected from the input SD image, and based on the detected data continuity,
  • the HD image is created by applying the classification adaptive processing to the SD image. The stationarity of the data will be described later.
  • this image processing apparatus has a data continuity detection unit 1 ⁇ 1, a class tap extraction unit 102, a feature value detection unit 103, a class classification unit 104, a coefficient memory 105, a prediction tap It is composed of an extraction unit 106 and a pixel value prediction unit 107.
  • the input image that is input to the image processing device and is the object of spatial resolution creation is a data continuity detection unit 101, a class tap extraction unit 102, a feature detection unit 103, and prediction. This is supplied to the tap extraction unit 106.
  • the data continuity detection unit 101 detects data continuity from the input image and sends data continuity information indicating the detected continuity to the class tap extraction unit 102 and the predicted tap extraction unit 106. Supply.
  • the data continuity information includes, for example, a direction (an angle or a tilt in a time direction and a spatial direction) of a pixel region having data continuity (hereinafter, also referred to as a direction of data continuity). Details of the configuration of the data continuity detecting unit 101 will be described later.
  • the class tap extracting unit 102 sequentially sets one of the HD pixels of the HD image to be obtained by the class classification adaptive processing as a target pixel.
  • the class tap 'extracting unit 102 extracts and extracts a plurality of peripheral pixels of the input image corresponding to the target pixel.
  • a plurality of peripheral pixels of the input image are set as class taps. That is, the class tap extracting unit 102 extracts, from the input image, a class tap used for class classification of the pixel of interest based on the continuity of the data detected by the data continuity detecting unit 101. The class tap thus output is output to the feature detection unit 103.
  • the class tap extracting unit 102 extracts a plurality of pixels spatially or temporally close to the position of the pixel of interest from the input image that has been input.
  • a tap is output to the feature detection unit 103.
  • the data continuity detection unit 101, the class tap extraction unit 102, and the prediction tap extraction unit 106 have a built-in frame memory (not shown) at the front of each
  • the SD image input to the processing unit is temporarily stored, for example, in frame (or field) units.
  • the data continuity detecting unit 1 ⁇ 1 the class tap extracting unit 102, and the predictive tap extracting unit 106 switch the input image of a plurality of frames to the built-in frame memory by bank switching.
  • the processing can be performed in real time.
  • the data continuity detection unit 101, the class tap extraction unit 102, and the prediction tap extraction unit 106 the data continuity detection unit 101, the class tap
  • Each of the extraction unit 102 and the prediction tap extraction unit 106 can immediately read the requested frame, and can execute the processing at higher speed.
  • the image processing apparatus has one frame memory on the input side, stores input images of a plurality of frames by bank switching, and stores the stored input images in a data continuity detecting unit 101, a class tap extracting unit 1 0 2 and prediction tap extraction unit 106 It may be supplied.
  • one frame memory is sufficient, and the image processing device can have a simpler configuration.
  • the class tap extraction unit 102 determines that the pixel of interest is 3 ⁇ 3 in the horizontal X vertical direction that is close to the position of the pixel of interest. A pixel is extracted from an input image to be a class tap. Thus, the cluster tap extracting unit 102 supplies the extracted class tap to the feature amount detecting unit 103.
  • the feature amount detection unit 103 detects a feature amount from the class tap or the input image, and supplies the detected feature amount to the class classification unit 104.
  • the feature amount detection unit 103 detects a motion vector of a pixel of the input image based on the class tap or the input image, and uses the detected motion vector as a feature amount to set the class classification unit 103.
  • Supply 4 Further, for example, the feature amount detection unit 103 detects a spatial or temporal change (activity) of a pixel value of a plurality of pixels of the class tap or the input image based on the cluster tap or the input image, The detected change in pixel value is supplied to the classifying unit 104 as a feature amount.
  • the feature amount detection unit 103 detects a gradient of a spatial change of a pixel value of a plurality of pixels of the class tap or the input image based on the class tap or the input image, and detects the detected pixel value.
  • the slope of the change is supplied to the classifying unit 104 as a feature amount.
  • the feature detection unit 103 supplies the class tap to the class classification unit 104 separately from the feature.
  • the class categorizing unit 104 classifies the pixel of interest into one of one or more classes based on the feature amount or the class tap from the feature amount detecting unit 103, and obtains the resulting attention.
  • the class code corresponding to the pixel class is supplied to the coefficient memory 105 and the prediction tap extracting unit 106.
  • the classification unit 104 The class tap from the class tap extracting unit 102 is subjected to 1-bit ADRC (Adaptive Dynamic Range Coding) processing, and the resulting ADRC code is used as a class code.
  • ADRC Adaptive Dynamic Range Coding
  • the pixel values that make up the class tap are requantized to K bits. That is, from Kakue pixel value forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. Therefore, when the class tap is subjected to 1-bit ADRC processing, each pixel value forming the cluster tap is set to 1 bit. Then, in this case, a bit sequence obtained by arranging the 1-bit values of the respective pixel values constituting the class tap in a predetermined order is output as an ADRC code.
  • class classification by, for example, regarding pixel values constituting a class tap as a component of a vector and quantizing the vector by vector quantization.
  • the classifying unit 104 outputs a fixed class code regardless of the supplied class tap.
  • the class classification unit 104 uses the feature amount from the feature amount detection unit 103 as a class code as it is. Further, for example, the class classification unit 104 orthogonally transforms a plurality of feature amounts from the feature amount detection unit 103 and sets the obtained value as a class code.
  • the class classification unit 104 combines (combines) a class code based on a class tap and a class code based on a feature value, generates a final class code, and generates a final class code.
  • a typical class code is supplied to the coefficient memory 105 and the prediction tap extracting unit 106.
  • the coefficient memory 105 stores the teacher data, which is an HD pixel of an HD image, which is an example of an output image, which serves as a learning teacher, and the student, which is a pixel value of an SD image which is an example of an input image, which serves as a learning student. It stores tap coefficients obtained by learning the relationship with the data for each of one or more classes. Then, when the class code of the pixel of interest is supplied from the class classification unit 104, the coefficient memory 105 reads out the tap coefficient stored at the address corresponding to the class code, thereby obtaining the pixel of interest.
  • the tap coefficients of the class are obtained and supplied to the pixel value prediction unit 107.
  • the details of the method of learning the tap coefficient stored in the coefficient memory 105 will be described later.
  • the prediction tap extraction unit 106 extracts a plurality of peripheral pixels of the input image corresponding to the target pixel based on the data continuity detected by the data continuity detection unit 101, and extracts the extracted input.
  • a plurality of peripheral pixels of the image are set as prediction taps. That is, the prediction tap extraction unit 106 determines the pixel value based on the class code supplied from the data continuity class classification unit 104 of the data detected by the data continuity detection unit 101.
  • the prediction unit 107 extracts, from the input image, prediction taps used for obtaining (the predicted value of) the pixel of interest, and supplies the extracted prediction taps to the pixel value prediction unit 107.
  • the prediction tap extraction unit 106 extracts a plurality of pixel values spatially or temporally close to the position of the pixel of interest from the input image based on the stationarity of the data, thereby calculating the prediction tap. And supplies it to the pixel value prediction unit 107.
  • the prediction tap extracting unit 106 determines that the pixel of interest is 3 ⁇ 3 in the horizontal X vertical direction from the position of the pixel of interest based on the continuity of the data detected by the data continuity detecting unit 101. Are extracted from the input image as a prediction tap.
  • the pixel value used as a class tap and the pixel value used as a prediction tap may be the same or different. That is, the class tap and the prediction tap can be configured (generated) independently of each other. Further, the pixel value used as the prediction tap may be different for each class or may be the same.
  • the tap structure of the cluster tap prediction tap is not limited to 33 pixel values. 4 001607
  • the pixel value prediction unit 107 includes a tap coefficient w or w 2) for the class of the pixel of interest supplied from the coefficient memory 105, and a prediction tap (from the prediction tap extraction unit 106).
  • the pixel value of interest (the predicted value of the target pixel y) is predicted by performing the product-sum operation shown in equation (1) using X x 2 , Pixel value.
  • the pixel value prediction unit 107 outputs an HD image composed of the pixel values calculated as described above as an output image.
  • the image processing apparatus having the configuration shown in FIG. 5 can create a higher-resolution output image corresponding to an input image that has been input, and output the created output image.
  • step S101 the data continuity detecting unit 101 executes a process of detecting continuity.
  • the data continuity detecting unit 101 detects the continuity of the data included in the input image, and outputs data continuity information indicating the continuity of the detected data to the clustering extracting unit 102 and the This is supplied to the prediction tap extraction unit 106.
  • the data constancy detection unit 101 detects the direction of data constancy from the input image.
  • Real-world events phenomena
  • Real-world events with dimensions of space, time, and mass are acquired by sensors and digitized.
  • Real-world events include light (image), sound, pressure, temperature, mass, concentration, light / darkness, or smell.
  • Real-world events are distributed in spatio-temporal directions.
  • a real-world image is the distribution of real-world light intensity in the spatiotemporal direction.
  • real-world events that can be obtained by the sensor are converted into data by the sensor. It can be said that the sensor obtains information indicating the real world event. That is, the sensor converts information indicating a real-world event into data. It can be said that a signal, which is information indicating a real-world event (phenomenon) having dimensions of space, time, and mass, is acquired by a sensor and converted into data.
  • a signal which is information indicating a real-world event (phenomenon) having dimensions of space, time, and mass, is acquired by a sensor and converted into data.
  • a signal that is information indicating events in the real world.
  • a signal that is information indicating a real-world event is simply referred to as a real-world signal.
  • a signal includes a phenomenon or an event, and includes a signal that the transmitting side does not intend.
  • the data (detection signal) output from the sensor is information obtained by projecting information indicating events in the real world to a lower-dimensional space-time than in the real world.
  • data that is image data of a moving image is information obtained by projecting a three-dimensional spatial and temporal image of the real world onto a two-dimensional spatial and temporal spatio-temporal image. is there.
  • the data is digital data, the data is rounded according to the sampling unit.
  • the data is analog data, a part of the information is deleted from the data according to the dynamic range by a power or limiter that compresses the information.
  • a signal which is information indicating a real-world event having a predetermined dimension
  • data detection signal
  • the data includes significant information for estimating signals that are information indicating real-world events (phenomena). .
  • information having a stationarity included in data is used as significant information for estimating a signal which is information of the real world.
  • Stationarity is a newly defined concept.
  • real world events include certain features in the direction of a predetermined dimension.
  • a shape, a pattern, or a color is continuous or a pattern such as a shape, a pattern, or a color is repeated in a space direction or a time direction.
  • information indicating events in the real world includes certain features in the direction of a predetermined dimension.
  • a linear object such as a thread, a string, or a rope has a constant cross-sectional shape at an arbitrary position in the longitudinal direction, that is, a constant in the longitudinal direction.
  • the constant feature in the spatial direction that the cross-sectional shape is the same at an arbitrary position in the length direction arises from the feature that the linear object is long. Therefore, the image of the linear object has a certain feature in the longitudinal direction, that is, in the spatial direction, that the cross-sectional shape is the same at an arbitrary position in the longitudinal direction.
  • a single-color object which is a tangible object extending in the spatial direction
  • an image of a single-color object which is a tangible object extending in the spatial direction
  • the signal in the real world has a certain characteristic in the direction of a predetermined dimension.
  • continuity such a feature that is fixed in the direction of the predetermined dimension is called continuity.
  • the continuity of a real-world (real-world) signal refers to a characteristic of a signal indicating a real-world (real-world) event that is constant in a predetermined dimension.
  • the stationarity corresponding to the stationarity of the real-world signal Contains. It can be said that the data includes the continuity projected from the continuity of the real-world signal. However, as described above, since part of the real-world information is missing in the data output from the sensor, a part of the stationarity contained in the real-world (real-world) signal is missing from the data. would.
  • data includes some of the stationarity of the real-world (real-world) signal stationarity as the data stationarity.
  • the continuity of data is a feature of data that is constant in a predetermined dimension.
  • the stationarity of data possessed by data is used as significant information for estimating a signal that is information indicating an event in the real world.
  • the stationarity in the space direction or the time direction is used.
  • the image sensor captures an image of an object (object) in the real world, and outputs image data obtained as a result of the capture in units of one frame. That is, the image sensor acquires a real-world signal, which is light reflected by an object in the real world, and outputs data.
  • an image sensor outputs 30 frames of image data per second.
  • the exposure time of the image sensor can be set to 1/30 seconds.
  • the exposure time is a period from the time when the image sensor starts converting the incident light into electric charges to the time when the conversion of the incident light into electric charges ends.
  • the exposure time is also referred to as a shutter time.
  • FIG. 7 shows a charge coupled device (CCD) or complementary device (CMOS).
  • CCD charge coupled device
  • CMOS complementary device
  • FIG. 3 is a diagram illustrating an example of pixel arrangement on an image sensor such as a metal-oxide semiconductor (Sensor) sensor.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image displayed by the image data.
  • One detection element corresponding to one pixel is arranged on the image sensor.
  • one detection element outputs one pixel value corresponding to one pixel constituting image data.
  • the position of the detector element in the spatial direction X corresponds to the horizontal position on the image displayed by the image data
  • the position of the detector element in the spatial direction Y (Y coordinate) is determined by the image data.
  • the distribution of light intensity in the real world has a spread in three-dimensional spatial and temporal directions, but image sensors acquire real-world light in two-dimensional spatial and temporal directions. Generates data that expresses the distribution of light intensity in two-dimensional spatial and temporal directions.
  • the detection element which is a CCD, converts light input to the light receiving surface (light receiving area) (detection area) into electric charges for a period corresponding to the shutter time, and converts the converted electric charges.
  • Light is real-world information (signal) whose intensity is determined by its position in three-dimensional space and time. The distribution of light intensity in the real world is based on three-dimensional positions x, y, and z, and time t.
  • the amount of electric charge stored in the detector element which is a CCD, is almost proportional to the intensity of light incident on the entire light-receiving surface, which has a two-dimensional spatial extent, and the time the light is incident. .
  • the detection element adds the electric charge converted from the light incident on the entire light receiving surface to the already accumulated electric charge in a period corresponding to the shutter time.
  • the detection element integrates light incident on the entire light receiving surface having a two-dimensional spatial spread for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. . It can be said that the detection element has an integrating effect on space (light receiving surface) and time (Shutter time).
  • each pixel value output from the image sensor detects a certain part of the real world information (signal) that has a temporal and spatial spread, It has a value projected onto a one-dimensional space, which is the result of integration in the spatial direction of the light receiving surface of the output element.
  • the pixel value of one pixel is represented by integration of F (x, y, t).
  • F (x, y, t) is a function representing the distribution of light intensity on the light receiving surface of the detection element.
  • the pixel value P is represented by Expression (9).
  • Xl is the spatial coordinate (X coordinate) of the left boundary of the light receiving surface of the detection element. Is the spatial coordinate (X coordinate) of the right boundary of the light receiving surface of the detection element.
  • yi is the spatial coordinate (Y coordinate) of the upper boundary of the light receiving surface of the detection element.
  • y 2 is the lower boundary spatial coordinates of the light-receiving surface of the detecting element (Y-coordinate). Is the time at which the conversion of the incident light into charges has started. t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the gain of the pixel value of the image data output from the image sensor is corrected, for example, for the entire frame.
  • Each pixel value of the image data is an integral value of the light incident on the light receiving surface of each detection element of the image sensor, and among the light incident on the image sensor, light in the real world that is smaller than the light receiving surface of the detection element. Is hidden by the pixel value as an integral value.
  • the waveform of a signal expressed with reference to a predetermined dimension is also simply referred to as a waveform.
  • the real world image is integrated in the spatial direction and the temporal direction in units of pixels, a part of the continuity of the real world image is lost in the image data, and the real world image is lost. Only the other part of the stationarity is included in the image data.
  • the image data may include stationarity that has changed from the stationarity of the real-world image.
  • FIG. 9 is a diagram illustrating the relationship between light incident on the detection elements corresponding to the pixels D to F and the pixel value.
  • F (x) in FIG. 9 is an example of a function that represents the distribution of light intensity in the real world with the coordinate X in the spatial direction X in space (on the detection element) as a variable.
  • F (x) is an example of a function that represents the distribution of light intensity in the real world when it is constant in the spatial direction Y and the time direction.
  • L represents the length in the spatial direction X of the light receiving surface of the detection element corresponding to the pixels D to F.
  • the pixel value of one pixel is represented by the integral of F (x).
  • the pixel value P of the pixel E is represented by Expression (10).
  • Xl is the spatial coordinate in the spatial direction X of the left boundary of the light receiving surface of the detection element corresponding to the pixel E.
  • x 2 is a spatial coordinate in the spatial direction X of the right side boundary of the light receiving surface of the detecting element corresponding to the pixel E.
  • FIG. 10 is a diagram illustrating the relationship between the passage of time, the light incident on the detection element corresponding to one pixel, and the pixel value.
  • F (t) in FIG. 10 is a function that represents the distribution of light intensity in the real world with time t as a variable.
  • F (t) is an example of a function that represents the distribution of light intensity in the real world when it is constant in the spatial direction Y and the spatial direction X.
  • t s indicates the shirt time.
  • Frame # n-1 is a frame temporally before frame #n
  • frame +1 is a frame temporally subsequent to frame #n. That is, frame ttn-1, frame #n, and frame # n + l are displayed in the order of frame #n_l, frame #n, and frame # n + l. 2004/001607
  • the shirt time t s and the frame interval are the same.
  • the pixel value of one pixel is represented by the integral of F (t).
  • the pixel value P of the pixel in frame #n is represented by Expression (11).
  • Equation (11) is the time at which the conversion of incident light into charge has begun.
  • t 2 is the time at which the conversion of the incident light into charges has been completed.
  • the integration effect in the spatial direction by the sensor is simply referred to as the spatial integration effect
  • the integration effect in the time direction by the sensor is simply referred to as the time integration effect
  • the space integration effect or the time integration effect is simply referred to as an integration effect.
  • FIG. 11 is a diagram showing an image of a linear object (for example, a thin line) in the real world, that is, an example of the distribution of light intensity.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the position on the right side in the figure is the spatial direction, which is another direction of the spatial direction of the image.
  • FIG. 12 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG.
  • FIG. 13 is a schematic diagram of the image data shown in FIG.
  • FIG. 13 is a linear shape with a diameter shorter than the length L of the light-receiving surface of each pixel, which extends in a direction deviated from the pixel arrangement (vertical or horizontal arrangement of pixels) of the image sensor.
  • FIG. 2 is a schematic diagram of image data obtained by capturing an image of an object by an image sensor. When the image data shown in FIG. 13 is acquired, the image incident on the image sensor is the image of the linear object in the real world in FIG.
  • the upper position in the drawing indicates the pixel value
  • the upper right position in the drawing indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the drawing Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 13 corresponds to the direction of the level in FIG. 11, and the spatial direction X and the spatial direction Y in FIG. 13 are the same as the directions in FIG.
  • the linear object When an image of a linear object whose diameter is shorter than the length of the light receiving surface of each pixel is captured by the image sensor, the linear object is schematically represented in the image data obtained as a result of the imaging, for example, It is represented by a plurality of arcs (kamaboko-shaped) of a predetermined length that are arranged diagonally.
  • Each arc shape is almost the same.
  • One arc shape is formed vertically on one row of pixels or horizontally on one row of pixels.
  • one arc shape in FIG. 13 is formed on one column of pixels vertically.
  • the stationarity of the image of a linear object in the real world is that the same shape of an arc, which is formed on one row of pixels vertically or on the rows of pixels horizontally, has the same shape. It can be said that it has changed to the stationarity of arranging at regular intervals.
  • FIG. 14 is a diagram showing an example of a real-world image of an object having a single color and a straight edge, which is a color different from the background, that is, an example of the distribution of light intensity.
  • the upper position in the figure indicates the light intensity (level)
  • the upper right position in the figure indicates the position in the spatial direction X, which is one direction in the spatial direction of the image.
  • the position on the right in the middle indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • a real-world image of an object having a straight edge with a color different from that of the background has a predetermined stationarity. That is, the image shown in Fig. 14 is located at any position in the edge length direction.
  • the cross-sectional shape level change with respect to position change in the direction perpendicular to the edge
  • FIG. 15 is a diagram showing an example of pixel values of image data obtained by actual imaging corresponding to the image shown in FIG. As shown in FIG. 15, since the image data is composed of pixel values in units of pixels, the image data has a step shape.
  • FIG. 16 is a schematic diagram of the image data shown in FIG.
  • FIG. 16 is a single-color, linear edge that has a different color from the background, with the edge extending in a direction deviating from the pixel arrangement (vertical or horizontal arrangement) of the image sensor.
  • FIG. 3 is a schematic diagram of image data obtained by capturing an image of a real world having an object by an image sensor. When the image data shown in Fig. 16 is acquired, the image incident on the image sensor has a color different from the background shown in Fig. 14 and has a single-color, linear edge. It is an image of the real world.
  • the upper position in the figure indicates the pixel value
  • the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image
  • the right position in the figure Indicates the position in the spatial direction Y, which is another direction in the spatial direction of the image.
  • the direction indicating the pixel value in FIG. 16 corresponds to the direction of the level in FIG. 14, and the spatial direction X and the spatial direction Y in FIG. 16 are the same as the directions in FIG.
  • the linear edge is schematically represented as For example, a plurality of pawls of a predetermined length, which are arranged diagonally
  • Each claw shape is almost the same shape.
  • One claw shape is formed vertically on one row of pixels or horizontally on one row of pixels. For example, in FIG. 16, one claw shape is formed vertically on one column of pixels.
  • a real-color image of an object having a single color and a linear edge having a color different from the background is included.
  • the continuity that the cross-sectional shape is the same at any position along the edge length is lost.
  • it is a color that is different from the background The continuity of a real-world image of an object with a shape-like edge was that the same shape of a claw formed vertically on one row of pixels or horizontally on one row of pixels It can be said that it has changed to the stationarity of arranging at regular intervals.
  • the continuity detecting unit 101 detects such continuity of the data included in the data as the input image, for example.
  • the data continuity detection unit 101 detects the continuity of data by detecting an angle (slope) in the spatial direction indicating the same arc-shaped or the same claw-shaped arrangement.
  • the data continuity detection unit 101 detects data continuity by detecting angles (movements) in the spatial direction and the temporal direction, which indicate how similar shapes are arranged in the spatial direction and the temporal direction. I do.
  • a portion of data obtained by projecting a real-world image of an object having a single color and a straight edge, which is a color different from the background is also referred to as a binary edge.
  • FIG. 17 is a block diagram showing the configuration of the data continuity detecting unit 101. As shown in FIG. 17
  • the data continuity detection unit 101 shown in FIG. 17 detects a change in the pixel value of the pixel of interest, which is the pixel of interest, in the spatial direction of the input image, that is, the activity in the spatial direction of the input image.
  • a set of pixels consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction is provided for each of the angle with respect to the target pixel and the reference axis.
  • the correlation between the extracted and extracted pixel sets is detected, and the continuity angle of the data with respect to the reference axis in the input image is detected based on the correlation.
  • the data continuity angle refers to the angle formed by the reference axis and the direction of a predetermined dimension of the data, in which certain characteristics appear repeatedly.
  • Repetitive appearance of a certain feature refers to, for example, a change in a value with respect to a change in position in data, that is, a case where the cross-sectional shape is the same.
  • the reference axis is, for example, the axis indicating the spatial direction X (the horizontal direction of the screen) or the spatial direction.
  • An axis indicating Y (vertical direction of the screen) can be used.
  • the input image is supplied to the activity detecting unit 401 and the data selecting unit 402.
  • the activity detector 401 detects a change in pixel value of the input image in the spatial direction, that is, the activity in the spatial direction, and outputs activity information indicating the detection result to the data selector 402 and the stationary direction derivation. Supply to part 404.
  • the activity detection unit 401 detects a change in the pixel value in the horizontal direction of the screen and a change in the pixel value in the vertical direction of the screen, and detects the detected change in the pixel value in the horizontal direction and the detected change in the vertical direction. By comparing the change in the pixel value, the change in the pixel value in the horizontal direction is greater than the change in the pixel value in the vertical direction, or the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction. It is detected whether the change of the pixel value with respect to is large.
  • the activity detection unit 401 indicates whether the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, which is the result of the detection, or By comparison, activity information indicating that the change in pixel value in the vertical direction is large is supplied to the data selection unit 402 and the stationary direction derivation unit 404.
  • one row of pixels in the vertical direction has an arc shape (kamaboko shape).
  • a claw shape is formed, and the arc shape or the claw shape is repeatedly formed in a direction closer to vertical. That is, if the change in the pixel value in the horizontal direction is large compared to the change in the pixel value in the vertical direction, the standard axis is assumed to be the axis indicating the spatial direction X.
  • the sex angle is any value between 45 degrees and 90 degrees.
  • the change in the pixel value in the vertical direction is greater than the change in the pixel value in the horizontal direction, for example, an arc or nail shape is formed in one row of pixels in the horizontal direction, and the arc or nail shape is horizontal. It is formed repeatedly in a direction closer to the direction. That is, compared to the pixel value change in the horizontal direction, If the change in pixel value is large, assuming that the reference axis is the axis that indicates the spatial direction X, the continuity angle of the data with respect to the reference axis in the input image can be any value from 0 to 45 degrees It is.
  • the activity detection unit 401 extracts, from the input image, a block composed of nine 3 ⁇ 3 pixels centered on the pixel of interest, as shown in FIG.
  • the activity detection unit 401 calculates a sum of pixel value differences for vertically adjacent pixels and a sum of pixel value differences for horizontally adjacent pixels.
  • the sum of the differences between the pixel values of horizontally adjacent pixels, hdiff is obtained by equation (12).
  • Equations (12) and (13) P indicates the pixel value, i indicates the horizontal position of the pixel, and j indicates the vertical position of the pixel.
  • Activity detection unit 4 0 1 compares the difference between the sum v dif f of pixel values for pixels adjacent to the sum h diff and vertical difference between the pixel values of pixels adjacent to the calculated lateral input image
  • the range of the continuity angle of the data with respect to the reference axis may be determined. That is, in this case, the activity detection unit 401 determines whether the shape indicated by the change in the pixel value with respect to the position in the spatial direction is repeatedly formed in the horizontal direction or the vertical direction. I do. For example, the change in the pixel value in the horizontal direction for an arc formed on one row of pixels in the horizontal direction is larger than the change in the pixel value in the vertical direction.
  • the change in the pixel value in the vertical direction for the arc is greater than the change in the pixel value in the horizontal direction, and the direction of data continuity, that is, the determination of certain characteristics of the input image that is data It can be said that the change in the dimension direction is smaller than the change in the direction orthogonal to the data continuity.
  • the difference in the direction orthogonal to the direction of data continuity (hereinafter also referred to as the unsteady direction) is large.
  • the activity detector 4 0 1 pixel values of have pixels Nitsu adjacent to sum h dif f and vertical difference between the pixel values of pixels adjacent to the calculated lateral Comparing the sum of the differences v diff , if the sum of the differences between the pixel values of the horizontally adjacent pixels h diff is large, the continuity angle of the data with respect to the reference axis is between 45 degrees and 1 35 determines that the value of either time, if the difference sum v di ff of the pixel values for the pixels adjacent in the vertical is large, the continuity of the angle of the data of the reference axis as a reference, 0 ° to 4 It is determined to be any value of 5 degrees or any value of 135 degrees to 180 degrees.
  • the activity detecting unit 410 supplies activity information indicating the result of the determination to the data selecting unit 402 and the steady direction deriving unit 404.
  • the activity detector 401 extracts a block of any size, such as a block consisting of 5 ⁇ 5 25 pixels or a block consisting of 7 ⁇ 7 49 pixels, and detects activity. can do.
  • the data selection unit 402 selects the pixel of interest from the pixels of the input image in order, and based on the activity information supplied from the activity detection unit 401, for each angle with respect to the pixel of interest and the reference axis, A plurality of pixel sets consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted.
  • the angle of data continuity is 45 to 135 degrees.
  • the data selector 402 selects one row in the vertical direction for each predetermined angle in the range of 45 degrees to 135 degrees with respect to the pixel of interest and the reference axis. A plurality of pixel sets consisting of a number of pixels are extracted.
  • the angle of data continuity is 0 to 45 degrees or 1 3 Any value between 5 degrees and 180 degrees, select data
  • the unit 402 has a predetermined number of rows in a horizontal direction for each predetermined angle in the range of 0 to 45 degrees or 135 to 180 degrees with respect to the pixel of interest and the reference axis. Extract multiple sets of pixels consisting of pixels.
  • the data selection unit 402 sets the pixel of interest and the reference For each predetermined angle in the range of 45 degrees to 135 degrees with respect to the axis, a plurality of pixel sets consisting of a predetermined number of pixels in one column in the vertical direction are extracted.
  • the data selection unit 402 A set of pixels consisting of a predetermined number of pixels in a row in the horizontal direction at predetermined angles in the range of 0 to 45 degrees or 135 to 180 degrees with respect to the target pixel and the reference axis. Is extracted multiple times.
  • the data selection unit 402 supplies a plurality of sets of the extracted pixels to the error estimation unit 403.
  • the error estimator 403 detects the correlation of the pixel set for each angle with respect to a plurality of sets including the extracted pixels.
  • the error estimator 403 calculates the pixel value of the pixel at the corresponding position in the set of pixels for a plurality of sets of pixels having a predetermined number of pixels in one column in the vertical direction corresponding to one angle. Detect correlation. The error estimator 403 detects the correlation between the pixel values of the pixels at the corresponding positions in the set, for a plurality of sets of pixels consisting of a predetermined number of pixels in one row in the horizontal direction corresponding to one angle. .
  • the error estimating unit 403 supplies correlation information indicating the detected correlation to the stationary direction deriving unit 404.
  • the error estimating unit 4003 calculates, as the value indicating the correlation, the pixel value of the pixel of the set including the pixel of interest supplied from the data selecting unit 402 and the pixel value of the pixel at the corresponding position in the other set.
  • the sum of the absolute values of the differences is calculated, and the sum of the absolute values of the differences is supplied to the stationary direction deriving unit 404 as correlation information.
  • the stationary direction deriving unit 404 is based on the correlation information supplied from the error estimating unit 403, and the data based on the reference axis in the input image corresponding to the continuity of the missing real-world optical signal.
  • the stationary direction deriving unit 404 detects an angle with respect to the set of pixels having the strongest correlation as an angle of data continuity, Data indicating the angle with respect to the detected set of pixels having the strongest correlation is output as stationarity information.
  • FIG. 21 is a block diagram showing a more detailed configuration of the data continuity detector 101 shown in FIG.
  • the data selection section 402 includes a pixel selection section 4111- 1 to a pixel selection section 4111-L.
  • the error estimating section 4003 includes an estimation error calculating section 4112-1 to an estimation error calculating section 4122_L.
  • the stationary direction deriving unit 4 04 includes a minimum error angle selecting unit 4 13.
  • Each of the pixel selection units 4 1 1 1 1 1 to 4 1 1 1 to 4 1 1 1 L sets a straight line having a different predetermined angle that passes through the pixel of interest with the axis indicating the spatial direction X as a reference axis.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs, and a predetermined number of pixels above the pixel of interest, And a predetermined number of pixels below the target pixel and the target pixel are selected as a set of pixels.
  • the pixel selection units 4111 to 1 to 4111 L determine the pixel of interest from the pixels belonging to one vertical column of pixels to which the pixel of interest belongs. Nine pixels are selected as a set of pixels as the center.
  • one square (one square) in a grid shape indicates one pixel.
  • a circle shown at the center indicates a target pixel.
  • the pixel selecting unit 4 1 1 1 1 to the pixel selecting unit 4 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs, and one vertical pixel column to the left. Select the pixel closest to the set straight line.
  • the lower left circle of the target pixel indicates an example of the selected pixel.
  • the pixel selection units 4111_1 to 4111-L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs and one vertical column of pixels to the left. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection units 4 1 1-1 to 4 1 1 1 L include one vertical column of pixels to which the pixel of interest belongs, and one vertical column on the left. Nine pixels are selected as a set of pixels, centering on the pixel closest to the straight line, from the pixels belonging to the pixel row of.
  • the L is a pixel belonging to one vertical column of pixels to which the pixel of interest belongs and a second vertical column of pixels to the left. Then, the pixel closest to the straight line set for each is selected. In FIG. 22, the leftmost circle shows an example of the selected pixel. Then, the pixel selection units 4 1 1 1 1 to 4 1 1 1 L are assigned to the vertical one column of pixels to which the pixel of interest belongs and the second vertical one column of pixels to the left. As a set of pixels, a predetermined number of pixels belonging to the selected pixel, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected.
  • the pixel selection units 4111-1-1 through 4111-L are arranged in a vertical column of pixels to which the pixel of interest belongs, and a second vertical column on the left side. Then, from the pixels belonging to one pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • the pixel selection units 4 1 1-1 to 4 1 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs and one vertical pixel column to the right. Select the pixel closest to the set straight line.
  • the pixel of interest The upper right circle shows an example of the selected pixel.
  • the pixel selection units 4 1 1-1 to 4 1 1 L are pixels corresponding to one vertical column of pixels to which the pixel of interest belongs and one vertical column of pixels to the right. Then, a predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection units 4 1 1-1 to 4 1 1-L are each composed of one vertical column of the pixel to which the pixel of interest belongs and one vertical column on the right.
  • Nine pixels are selected as a set of pixels, centering on the pixel closest to the straight line, from the pixels belonging to the pixel row of.
  • the pixel selection unit 4 1 1 1 1 1 to pixel selection unit 4 1 1—L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs and the second vertical column of pixels to the right. Then, the pixel closest to the straight line set for each is selected. In FIG. 22, the circle on the far right indicates an example of the pixel selected in this manner.
  • the pixel selectors 4 1 1 1 1 to 4 1 _L belong to one vertical column of pixels to which the pixel of interest belongs and the second vertical column of pixels to the right. A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selectors 4 1 1 1 1 to 4 1 1 1 L are arranged on the right side of one vertical column of pixels to which the pixel of interest belongs. Then, from the pixels belonging to one pixel column, nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
  • each of the pixel selection units 4111-1-1 through 4111-L selects five sets of pixels.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 to L select a set of pixels at different angles (straight lines set to each other). For example, the pixel selection unit 4 1 1 1 1 selects a set of pixels for 45 degrees, the pixel selection unit 4 1 1-2 selects a set of pixels for 47.5 degrees, Pixel selection section 4 1 1 1 3 is about 50 degrees Select a set of pixels.
  • the pixel selection unit 411 1 1 to pixel selection unit 4 11 1 L select a set of pixels at an angle of 2.5 degrees from 52.5 degrees to 135 degrees every 2.5 degrees.
  • the number of sets of pixels can be any number such as, for example, three or seven, and does not limit the present invention. Further, the number of pixels selected as one set can be an arbitrary number such as, for example, 5 or 13 and does not limit the present invention.
  • the pixel selection units 4111 to 1 to 411-L can select a set of pixels from a predetermined range of pixels in the vertical direction.
  • the pixel selection units 4111_1 to 4111-L are composed of 121 pixels vertically (60 pixels upward and 60 pixels downward with respect to the pixel of interest). ), Select a set of pixels.
  • the data continuity detecting unit 101 can detect the data continuity angle up to 88.09 degrees with respect to the axis indicating the spatial direction X.
  • the pixel selection unit 411_1 supplies the selected pixel pair to the estimation error calculation unit 4112_1, and the pixel selection unit 4111_1 converts the selected pixel pair to the estimation error calculation unit. 4 1 2-2 Similarly, each of the pixel selection units 4 1 1 1 3 to 4 1 1 1 L to the pixel selection unit 4 1 1 1 L Supply to each of L.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are used for a plurality of sets supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are used as a value indicating the correlation from any one of the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L
  • the sum of the supplied absolute values of the differences between the pixel values of the set of pixels including the target pixel and the pixel values of the corresponding positions in the other sets is calculated.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L are supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1 L. .
  • Note Based on the pixel values of the set of pixels including the pixel of interest and the pixel values of the set of pixels belonging to one vertical column of pixels to the left of the pixel of interest, The difference is calculated, and the absolute value of the pixel value difference is calculated in order from the upper pixel so that the pixel value difference of the second pixel from the top is calculated, and further, the absolute value of the calculated difference is calculated. Calculate the sum.
  • the estimation error calculation section 4 1 2-1 to the estimation error calculation section 4 1 2-L include the pixel of interest supplied from any of the pixel selection sections 4 1 1 1 1 to 4 1 1 1 L Based on the pixel values of the set of pixels and the pixel values of the set of pixels belonging to the second vertical column of pixels to the left of the pixel of interest, the difference between the pixel values in Calculate the absolute value and calculate the sum of the absolute values of the calculated differences.
  • the estimation error calculation unit 4 1 2-1 to the estimation error calculation unit 4 1 2-L are supplied from any of the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L.
  • the difference between the pixel value of the uppermost pixel based on the pixel value of the set of pixels including the pixel and the pixel value of the set of pixels belonging to one vertical pixel row to the right of the pixel of interest is calculated.
  • the estimation error calculation unit 4 1 2—1 to the estimation error calculation unit 4 1 2—L are configured to calculate the pixel of interest supplied from any of the pixel selection units 4 1 1 1 1 to 4 1 1—L. Based on the pixel values of the set of pixels included and the pixel values of the set of pixels that belong to the second vertical column of pixels to the right of the pixel of interest, the pixel values in order from the pixel above The absolute value of the difference is calculated, and the sum of the absolute values of the calculated differences is calculated.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L add all the sums of the absolute values of the pixel value differences calculated in this way and calculate the absolute value of the pixel value differences. Calculate the sum.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the estimation error calculators 4 1 2-1 to 4 1 2-L supply the sum of the absolute values of the calculated differences between the pixel values to the minimum error angle selector 4 13.
  • the estimation error calculation units 4 1 2-1 to 4 1 2-L are not limited to the sum of the absolute values of the pixel value differences, but may be based on the sum of the squares of the pixel value differences or the pixel values. Other values, such as the calculated correlation coefficient, can be calculated as the correlation value.
  • the minimum error angle selection unit 413 is configured to detect the missing real-world light based on the correlation detected by the estimation error calculation units 41-2-1 to 41-2L for different angles. The angle of continuity of the data with respect to the reference axis in the input image corresponding to the continuity of the signal image is detected. That is, the minimum error angle selection unit 413 is the strongest based on the correlation detected by the estimation error calculation units 4122_1 to 412-L for different angles. By selecting a correlation and using the angle at which the selected correlation is detected as the continuity angle of the data relative to the reference axis, the angle of continuity of the data relative to the reference axis in the input image Is detected.
  • the minimum error angle selection unit 413 is the minimum error sum of the absolute values of the pixel value differences supplied from the estimation error calculation units 412-1 to 412-L.
  • Select the sum of The minimum error angle selection unit 4 13 is a pixel belonging to the second vertical column of pixels on the left side with respect to the pixel of interest for the selected set of pixels for which the sum has been calculated, Refers to the position of the pixel closest to the straight line and the position of the pixel that belongs to the second vertical pixel column on the right side of the pixel of interest and that is closest to the straight line .
  • the minimum error angle selection unit 4 13 obtains the vertical distance S between the position of the reference pixel and the position of the pixel of interest. As shown in FIG. 23, the minimum error angle selection unit 413 uses the reference axis in the input image, which is the image data, corresponding to the stationarity of the missing real-world optical signal from Equation (14). An angle ⁇ of stationarity of the data with respect to an axis indicating a certain spatial direction X is detected.
  • the processing of the pixel selection unit 4 11 1 L will be described.
  • the pixel selection unit 4 1 1 1 1 to the pixel selection unit 4 1 1 1 L set a straight line at a predetermined angle that passes through the pixel of interest with the axis indicating the spatial direction X as a reference axis, and the horizontal to which the pixel of interest belongs Then, a predetermined number of pixels to the left of the pixel of interest, a predetermined number of pixels to the right of the pixel of interest, and a pixel of interest belonging to one pixel column are selected as a set of pixels.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the upper side. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
  • L is a pixel belonging to one horizontal pixel column to which the pixel of interest belongs, and a second horizontal pixel column to the second upper pixel column. Then, the pixel closest to the straight line set for each is selected. Then, the pixel selection units 4 1 1 _ 1 to 4 1 1 1 L belong to the pixel row of the first row next to the pixel to which the pixel of interest belongs, and belong to the pixel row of the second horizontal row to the top A predetermined number of pixels to the left of the selected pixel, a predetermined number of pixels to the right of the selected pixel, and a selected pixel are selected as a set of pixels.
  • the pixel selection units 4 1 1-1 to 4 11 _L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the lower side. Select the pixel closest to the set straight line.
  • the pixel selection units 4 1 1 1 1 to 4 1 1 L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one horizontal row of pixels to the lower side. A predetermined number on the left side of the selected pixel And a predetermined number of pixels to the right of the selected pixel, and the selected pixel are selected as a set of pixels.
  • the pixel selection unit 4 1 1 1 1 to pixel selection unit 4 1 1 1 L is a pixel belonging to the second horizontal row of pixels of the first horizontal row of pixels to which the pixel of interest belongs. Then, the pixel closest to the straight line set for each is selected. And the pixel selection section
  • 4 1 1 1 1 1 to pixel selection unit 4 1 1 ⁇ L are pixels belonging to the second horizontal row of pixels of the one horizontal row of pixels to which the pixel of interest belongs, and A predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and pixels selected in parallel are selected as a set of pixels.
  • each of the pixel selection units 4111-1-1 through 4111-L selects five sets of pixels.
  • the pixel selection units 4111 to 1 through 4111-L select a set of pixels at different angles.
  • the pixel selection unit 4 1 1—1 selects a pixel set for 0 degrees
  • the pixel selection unit 4 1 1—2 selects a pixel set for 2.5 degrees
  • 4 1 1 1 3 selects a set of pixels for 5 degrees.
  • the pixel selection section 4 11 1 _ 1 to the pixel selection section 4 11 1 L are from 7.5 degrees to 45 degrees and 1 3
  • the pixel selection unit 411_1 supplies the selected pixel set to the estimation error calculation unit 4112-1, and the pixel selection unit 4111_1 converts the selected pixel set to the estimation error calculation unit. 4 1 2-2 Similarly, each of the pixel selection units 4 1 1 _ 3 to 4 1 1 1 L converts the set of selected pixels to an estimation error calculation unit 4 1 2-3 to an estimation error calculation unit 4 1 2
  • the estimation error calculation unit 4 1 2 _ 1 to the estimation error calculation unit 4 1 2—L are the pixel selection unit 4 1
  • the estimation error calculation sections 4 1 2-1 to 4 1-2 -L supply information indicating the detected correlation to the minimum error angle selection section 4 13.
  • the minimum error angle selector 4 13 is based on the correlations detected by the estimation error calculators 4 1 2-1 to 4 1 2-L. Detects the continuity angle of the data in the input image corresponding to the gender, based on the reference axis.
  • step S 101 detects the continuity of data. The processing will be described.
  • step S401 the activity detector 401 and the data selector
  • Step 402 selects a target pixel, which is a target pixel, from the input image.
  • the activity detection unit 401 and the data selection unit 402 select the same target pixel.
  • the activity detection unit 401 and the data selection unit 402 select a pixel of interest from the input image in raster scan order.
  • the activity detection unit 401 detects an activity for the target pixel. For example, the activity detection unit 401 detects the difference between the pixel values of pixels arranged in the vertical direction and the difference between the pixel values of pixels arranged in the horizontal direction in a block composed of a predetermined number of pixels around the pixel of interest. , Detect activity.
  • the activity detection unit 410 detects activity in the spatial direction with respect to the target pixel, and supplies activity information indicating the detection result to the data selection unit 402 and the stationary direction derivation unit 404.
  • the data selection unit 402 selects a predetermined number of pixels centered on the target pixel as a set of pixels from the column of pixels including the target pixel.
  • the data selection unit 402 is a pixel belonging to one vertical or horizontal pixel row to which the target pixel belongs, and a predetermined number of pixels above or to the left of the target pixel, and a target pixel.
  • a predetermined number of pixels on the lower side or the right side and the target pixel are selected as a set of pixels.
  • the data selection unit 402 determines a predetermined number of images for each angle in a predetermined range based on the activity detected in the processing in step S402.
  • a predetermined number of pixels are selected from the elementary column as a set of pixels. For example, the data selection unit 402 sets a straight line passing through the pixel of interest using the axis indicating the spatial direction X as a reference axis, having an angle in a predetermined range, and Select pixels that are one or two rows apart in the vertical or vertical direction and are closest to the straight line, and a predetermined number of pixels above or to the left of the selected pixel, and below or below the selected pixel. A predetermined number of pixels on the right side and selected pixels closest to the line are selected as a set of pixels.
  • the data selection unit 402 selects a set of pixels for each angle.
  • the data selection unit 402 supplies the selected pixel set to the error estimation unit 403.
  • the error estimator 403 calculates a correlation between a set of pixels centered on the target pixel and a set of pixels selected for each angle. For example, the error estimator 403 calculates, for each angle, the sum of the absolute value of the difference between the pixel value of the pixel of the group including the target pixel and the pixel value of the pixel at the corresponding position in the other group.
  • the continuity angle of the data may be detected based on the mutual correlation of a set of pixels selected for each angle.
  • the error estimating unit 403 supplies information indicating the calculated correlation to the stationary direction deriving unit 404.
  • step S ⁇ b> 406 the stationary direction deriving unit 404 uses the correlation calculated in the processing of step S ⁇ b> 405 to determine the position of the pixel set having the strongest correlation, Detects the continuity angle of the data with respect to the reference axis in the input image, which is the image data, corresponding to the continuity of the optical signal. For example, the stationary direction deriving unit 404 selects the minimum sum of the absolute values of the pixel value differences, and determines the data continuity from the position of the set of pixels for which the selected sum was calculated. Detect angle 0 of
  • the stationary direction deriving unit 404 outputs data continuity information indicating the continuity angle of the detected data.
  • step S407 the data selection unit 402 determines whether or not processing of all pixels has been completed, and when it is determined that processing of all pixels has not been completed, Returning to step S401, the target pixel is selected from the pixels not yet selected as the target pixel, and the above-described processing is repeated.
  • step S407 If it is determined in step S407 that the processing of all pixels has been completed, the processing ends.
  • the data continuity detecting unit 101 can detect the continuity angle of the data with respect to the reference axis in the image data, which corresponds to the missing continuity of the optical signal in the real world. it can.
  • the data detection unit 101 shown in FIG. 17 detects the activity in the spatial direction of the input image with respect to the target pixel, which is the target pixel, of the target frame, which is the target frame. According to the detected activity, the angle of the pixel of interest relative to the reference axis in the spatial direction, and the motion vector, for each of the frames of interest or the temporally preceding or following frame of interest, , A plurality of pixel pairs each consisting of a predetermined number of pixels in one column in the vertical direction or one column in the horizontal direction are extracted, a correlation between the extracted pixel pairs is detected, and based on the correlation, an input image is extracted. In this case, the continuity angle of the data in the time direction and the spatial direction may be detected.
  • the data selection unit 402 determines, based on the detected activity, an angle with respect to the pixel of interest and a reference axis in the spatial direction, and a motion vector. Extract a set of pixels consisting of a predetermined number of pixels in one row vertically or one row horizontally from each of frame #n, frame # n-1 and frame # n + l .
  • the frame #n_l is a frame temporally before the frame #n
  • the frame # n + l is a frame temporally after the frame #n. That is, frame t-l, frame #n, and frame ⁇ + l are displayed in the order of frame # ⁇ -1, frame # ⁇ , and frame ⁇ + l.
  • the error estimating unit 403 detects the correlation of the pixel set for each of one angle and one motion vector for a plurality of sets of extracted pixels.
  • Stationary direction derivation unit 4 0 4 detects the continuity angle of the temporal and spatial data in the input image corresponding to the continuity of the missing real-world optical signal based on the correlation of the set of pixels, and outputs the data indicating the angle. Output stationarity information.
  • FIG. 26 is a block diagram showing another more detailed configuration of the data continuity detector 101 shown in FIG.
  • the same portions as those shown in FIG. 21 are denoted by the same reference numerals, and description thereof will be omitted.
  • the data selection section 402 includes a pixel selection section 4 2 1-1 to a pixel selection section 4 2 1-L.
  • the error estimator 4003 includes an estimation error calculator 422-1 to an estimation error calculator 422 L.
  • a set of pixels consisting of a number of pixels corresponding to the angle range is extracted, and a set of numbers corresponding to the angle range is extracted.
  • the set of correlations is detected, and the continuity angle of the data with respect to the reference axis in the input image is detected based on the detected correlation.
  • the pixel selection units 4 2 1-1 to 4 2 1 1 L The processing will be described.
  • a set of pixels consisting of a fixed number of pixels does not depend on the angle of the set straight line.
  • data is extracted from a number of pixels corresponding to the set angle range of the straight line. Are extracted.
  • a set of pixels is extracted by the number corresponding to the range of the angle of the set straight line.
  • the pixel selection units 4 2 1-1 to 4 2 1-L pass through the pixel of interest with the axis indicating the spatial direction X in the range of 45 degrees to 135 degrees passing through the pixel of interest.
  • the pixel selection units 4 2 1 1 1 to 4 2 1 1 L are pixels belonging to one vertical pixel column to which the pixel of interest belongs, and correspond to the range of the angle of the straight line set for each pixel.
  • the number of pixels above and below the pixel of interest and the number of pixels of interest are selected as a set of pixels.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1—L are located at a predetermined distance in the horizontal direction based on the pixel with respect to one vertical pixel row to which the pixel of interest belongs. And the pixels that belong to one vertical column of pixels on the right side and that are closest to the straight line set for each pixel are selected. , The number of pixels above the selected pixel, the number of pixels below the selected pixel, and the number of selected pixels as a set of pixels according to the range of the angle of the set straight line .
  • the pixel selection units 42-1-1 to 42-1-L select a number of pixels according to the set angle range of the straight line as a set of pixels.
  • the pixel selection unit 4 2 1-1 to the pixel selection unit 4 2 1-1 L select a set of pixels according to the set range of the angle of the straight line.
  • the image of the thin line when an image of a thin line located at an angle of about 45 degrees with respect to the spatial direction X and having the same width as the width of the detection area of the detection element is captured by the sensor, the image of the thin line is in the space direction. It is projected on the data so that an arc shape is formed in three pixels arranged in one row in Y.
  • the sensor captures an image of a thin line, which is located almost perpendicular to the spatial direction X and has the same width as the width of the detection area of the detection element, the image of the thin line is It is projected onto the data so that a large number of pixels in a row form an arc shape.
  • the set of pixels includes the same number of pixels
  • the thin line is located at an angle of approximately 45 degrees with respect to the spatial direction X
  • the number of pixels on which the image of the thin line is projected is small in the set of pixels. And the resolution will be reduced.
  • the thin line is located almost perpendicular to the spatial direction X, the pixel on which the fine line image is projected in the set of pixels
  • the processing is executed for some of the pixels, and the accuracy may be reduced.
  • the pixel selection units 4 2 1-1 to 4 2 1 1 L are set such that the straight line to be set is 45 degrees with respect to the spatial direction X so that the pixels on which the thin line images are projected are almost equal.
  • the angle is closer to the pixel angle, the number of pixels included in each pixel set is reduced, and the number of pixel sets is increased. Pixels and pixel sets are selected such that the number of pixels included in is increased and the number of pixel sets is reduced.
  • the pixel selection units 4 2 1-1 to 4 2 1-L have a set straight line angle of 45 degrees or more and 6 3.
  • one pixel vertically extends from the pixel of interest to the center of the pixel of interest.
  • One pixel is selected as a set of pixels, and the pixels belonging to one vertical pixel column on the left side and right side within 5 pixels in the horizontal direction with respect to the pixel of interest are Each of the five pixels is selected as a pixel set.
  • the pixel selection units 4 2 1-1 to 4 2 1 _ L Select a set of 11 pixels, each consisting of 5 pixels.
  • the pixel selected as the pixel closest to the set straight line is located 5 to 9 pixels vertically away from the target pixel.
  • the number of columns indicates the number of columns of pixels to which a pixel is selected as a pixel set on the left or right side of the target pixel.
  • the number of pixels in one column is determined by the number of pixels selected as a set of pixels from the column of one column vertically or the column on the left or right side of the pixel of interest.
  • the pixel selection range indicates the vertical position of the selected pixel as the pixel closest to the set straight line with respect to the target pixel. As shown in FIG.
  • the pixel selection unit 4 2 1 1 From this, the five pixels centered on the pixel of interest are selected as a set of pixels, and one vertical column of pixels on the left and right sides within 5 pixels in the horizontal direction with respect to the pixel of interest. From the pixels belonging to the column, each of the five pixels is selected as a pixel set. That is, the pixel selection unit 4 2 1 1 1 selects a set of 11 pixels, each including 5 pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 5 pixels vertically away from the pixel of interest .
  • squares represented by dotted lines represent one pixel
  • squares represented by solid lines represent a set of pixels.
  • the coordinates of the target pixel in the spatial direction X are set to 0, and the coordinates of the target pixel in the spatial direction Y are set to 0.
  • the hatched squares indicate the target pixel or the pixel closest to the set straight line.
  • squares represented by bold lines indicate a set of pixels selected around the target pixel.
  • the pixel selection unit 4 2 1-2 is arranged so that the pixel in the vertical From the column of, the five pixels centered on the pixel of interest are selected as a set of pixels, and the pixels of one column vertically on the left and right sides within 5 pixels in the horizontal direction with respect to the pixel of interest From the pixels belonging to the column, each of the five pixels is selected as a pixel set. That is, the pixel selection unit 4 2 1-2 selects a set of 11 pixels, each consisting of 5 pixels, from the input image. In this case, of the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 9 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 21 -1 to the pixel selection unit 4 21 1 ⁇ L have an angle of the set straight line of 63.4 degrees or more. 1.6 degrees not yet
  • the target pixel is within the full range (the range indicated by B in FIGS. 28 and 29)
  • seven pixels centered on the target pixel are taken out of one vertical column of the target pixel.
  • the pixel selection units 4 2 1-1 to 4 2 1-L From the image, select a set of nine pixels, each consisting of seven pixels. In this case, the vertical position of the pixel closest to the set straight line is 8 pixels to 11 pixels with respect to the target pixel.
  • the pixel selection unit 4 2 1-3 vertically shifts the pixel of interest by one column with respect to the target pixel. From the column of, seven pixels centered on the pixel of interest are selected as a set of pixels, and the pixels of one column on the left and right sides that are within 4 pixels in the horizontal direction with respect to the pixel of interest are selected. Each of the seven pixels is selected as a pixel set from the pixels belonging to the column. That is, the pixel selection unit 4 2 1-3 selects a set of nine pixels, each consisting of seven pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 8 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 2 1-4 vertically extends one column with respect to the target pixel. From the pixel column of, select seven pixels centered on the pixel of interest as a set of pixels, and one column vertically and horizontally on the left and right within 4 pixels from the pixel of interest. Each of the seven pixels is selected as a pixel set from the pixels belonging to the pixel column of. That is, the pixel selection unit 4 2 1-4 selects a set of nine pixels, each consisting of seven pixels, from the input image. In this case, the closest to the set straight line Among the selected pixels, the pixel farthest from the pixel of interest is located 11 pixels away from the pixel of interest in the vertical direction.
  • the pixel selection unit 42-11-1 to the pixel selection unit 421_L have an angle of the set straight line of 71.6 degrees or more.
  • the pixel of interest is shifted vertically from one pixel column to the center of the pixel of interest.
  • One pixel is selected as a set of pixels, and the pixels belonging to one vertical pixel column on the left side and right side within a distance of 3 pixels or less from the pixel of interest are 9 pixels each.
  • One pixel is selected as a set of pixels.
  • the pixel selection unit 4 2 1-1 to pixel selection unit 4 2 1-L From, select a set of 7 pixels, each consisting of 9 pixels.
  • the vertical position of the pixel closest to the set straight line is 9 pixels to 11 pixels with respect to the target pixel.
  • the pixel selection unit 4221 _ 5 From the column of, the nine pixels centered on the pixel of interest are selected as a set of pixels, and the pixels of one column vertically and on the left and right sides within 3 pixels in the horizontal direction with respect to the pixel of interest Nine pixels are selected as a set of pixels from the pixels belonging to the column. That is, the pixel selection section 4 2 1-5 selects a set of seven pixels, each consisting of nine pixels, from the input image. In this case, of the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 9 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 21 1-6 vertically extends one column with respect to the pixel of interest. From the column of pixels, select nine pixels centered on the pixel of interest as a set of pixels, and set the left and right sides vertically within 3 pixels from the pixel of interest. 1 row Nine pixels are selected as a set of pixels from the pixels belonging to the pixel column. That is, the pixel selection section 4 2 1-6 selects a set of seven pixels, each consisting of nine pixels, from the input image. In this case, of the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located at a position vertically 11 pixels away from the pixel of interest. It is in.
  • the pixel selection unit 4 21-1 to the pixel selection unit 4 2 1-L are set so that the angle of the set straight line is 76.0 degrees or more.
  • the pixel of interest is shifted from one vertical column of pixels to the center of the pixel of interest.
  • One pixel is selected as a set of pixels, and the pixels belonging to one vertical pixel column on the left and right sides that are within 2 pixels in the horizontal direction with respect to the target pixel are each 1 1 Pixel is selected as a set of pixels.
  • the pixel selection units 4 2 1-1 to 4 2 1-L Select a set of five pixels, each consisting of 11 pixels.
  • the vertical position of the pixel closest to the set straight line is 8 to 50 pixels with respect to the target pixel.
  • the pixel selection unit 4221 _ 7 From the column of, select the 11 pixels centered on the pixel of interest as a set of pixels, and the pixels in the vertical column on the left and right sides within 2 pixels horizontally from the pixel of interest From each of the pixels belonging to the column, 11 pixels are selected as a set of pixels. That is, the pixel selection unit 4 2 1-7 selects a set of five pixels, each consisting of 11 pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 8 pixels vertically away from the pixel of interest .
  • the pixel selection unit 4 2 1-8 vertically extends one column with respect to the pixel of interest. Pixel of From the columns, 11 pixels centered on the pixel of interest are selected as a set of pixels, and one row of pixels on the left and right sides that are within 2 pixels horizontally from the pixel of interest. From each of the pixels belonging to the column, select 11 pixels as a set of pixels. That is, the pixel selection unit 4 2 1-8 selects a set of 5 pixels each consisting of 11 pixels from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is located 50 pixels vertically away from the pixel of interest. It is in.
  • the pixel selection units 4 2 1-1 to 4 2 1 -L each include a predetermined number of pixels corresponding to the angle range and a predetermined number of pixels corresponding to the angle range. Select the set of
  • the pixel selection unit 4 2 1-1 supplies the selected pixel pair to the estimation error calculation unit 4 2 2-1, and the pixel selection unit 4 2 1-2 converts the selected pixel pair to the estimation error calculation unit 4 2 2— 2
  • each of the pixel selection units 4 2 1-3 to 4 2 1-L converts the selected pixel set into an estimation error calculation unit 4 2 2-3 to an estimation error calculation unit 4 2 2 — Supply to each of L.
  • the estimation error calculation unit 4 2 2-1 to the estimation error calculation unit 4 2 2-L include a plurality of sets supplied from any of the pixel selection units 4 2 1 1 1 to 4 2 1 1 L.
  • the correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation unit 4 2 2 1 1 to the estimation error calculation unit 4 2 2-L are the pixel of interest supplied from any of the pixel selection units 4 2 1-1 to 4 2 1-L.
  • the sum of the absolute value of the difference between the pixel value of the pixel set including the pixel set and the pixel value of the pixel at the corresponding position in the other pixel set is calculated. Divide the calculated sum by the number of included pixels. Dividing the calculated sum by the number of pixels included in the group other than the group including the pixel of interest indicates the correlation because the number of pixels selected varies depending on the angle of the set straight line. This is to normalize the value.
  • the estimation error calculation units 4 2 2-1 to 4 2 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • the estimation error calculator 4 2 2-1 to the estimated error calculating section 4 2 2-L supply the sum of the absolute values of the normalized pixel value differences to the minimum error angle selecting section 4 13.
  • the processing of the pixel selection unit 4 2 1-L will be described.
  • the pixel selection unit 4 2 1-1 to the pixel selection unit 4 2 1-L have a range of 0 to 45 degrees or 135 to 180 degrees, with an axis indicating the spatial direction X as a reference axis, Straight lines passing through the pixel of interest and having different angles are set.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1—L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs, and are numbers corresponding to the angle range of the set straight line.
  • the pixel on the left side of the pixel of interest, the pixel on the right side of the pixel of interest, and the pixel of interest are selected as a set of pixels.
  • the pixel selecting unit 4 2 1 1 1 to the pixel selecting unit 4 2 1-L are located at a predetermined distance in the vertical direction based on the pixel with respect to one horizontal row of pixels to which the pixel of interest belongs. And a pixel belonging to a row of pixels on the lower side, which is closest to the set straight line, and selects a pixel on the side of the selected pixel from a row on the side of the selected pixel. Pixels to the left of the selected pixel, pixels to the right of the selected pixel, and selected pixels are selected as a set of pixels according to the range of the set angle of the straight line.
  • the pixel selection units 42-1-1 to 42-1-L select a number of pixels according to the set angle range of the straight line as a set of pixels.
  • the pixel selection unit 4 2 1 1 1 to the pixel selection unit 4 2 1-L select a set of pixels in a number according to the set range of the angle of the straight line.
  • the pixel selection unit 4 2 1-1 supplies the selected pixel pair to the estimation error calculation unit 4 2 2-1, and the pixel selection unit 4 2 1-2 converts the selected pixel pair to the estimation error calculation unit 4 2 2-2 Similarly, each of the pixel selection sections 4 2 1 1 to 3 to the pixel selection section 4 2 1 -L converts the selected set of pixels into an estimation error calculation section 4 2 2-3 to an estimation error calculation section 4 2 2 1 Supply to each of L.
  • the estimation error calculation unit 4 2 2 _ 1 to the estimation error calculation unit 4 2 2 -L are used for the plurality of sets supplied from any of the pixel selection units 4 2 1 1 1 to 4 2 1 1 L. The correlation of the pixel value of the pixel at the corresponding position is detected.
  • the estimation error calculation units 4 2 2-1 to 4 2 2-L supply information indicating the detected correlation to the minimum error angle selection unit 4 13.
  • step S 101 detects the continuity of data. The processing will be described.
  • step S421 and step S422 are the same as the processing of step S401 and step S402, and a description thereof will be omitted.
  • the data selecting unit 402 selects a pixel of interest from the pixel row including the pixel of interest for each angle within a predetermined range with respect to the activity detected in step S 422.
  • the number of pixels defined for the range of angles at the center is selected as a set of pixels.
  • the data selection unit 402 is a pixel that belongs to one vertical or horizontal pixel row to which the pixel of interest belongs, and has a number of pixels determined by the angle range with respect to the angle of the straight line to be set.
  • the pixel above or to the left of the pixel of interest, the pixel below or to the right of the pixel of interest, and the pixel of interest are selected as a set of pixels.
  • step S424 the data selection unit 402 determines, for each of a predetermined range of angles based on the activity detected in the processing of step S422, a predetermined number of angles for the angle range. From a row of pixels, a set number of pixels is selected as a set of pixels for a range of angles. For example, the data selection unit 402 sets a straight line passing through the pixel of interest with an axis having a predetermined range and an axis indicating the spatial direction X as a reference axis, and the horizontal or vertical direction with respect to the pixel of interest.
  • a pixel that is a predetermined distance away from the range of the angle of the straight line to be set and that is closest to the straight line is selected, and the pixel above or to the left of the selected pixel with respect to the range of the angle of the straight line to be set is selected.
  • a number of pixels, and a number of pixels below or to the right of the selected pixel for the range of angles of the straight line to be set, and The pixel closest to the selected line is selected as a set of pixels.
  • the data selection unit 402 selects a set of pixels for each angle.
  • the data selection unit 402 supplies the selected pixel set to the error estimation unit 403.
  • the error estimator 403 calculates a correlation between a set of pixels centered on the target pixel and a set of pixels selected for each angle. For example, the error estimator 403 calculates the sum of the absolute value of the difference between the pixel value of the pixel of the group including the target pixel and the pixel value of the pixel at the corresponding position in the other group, and calculates The correlation is calculated by dividing the sum of the absolute values of the pixel value differences by the number of pixels that belong.
  • the continuity angle of the data may be detected based on the mutual correlation of a set of pixels selected for each angle.
  • the error estimating unit 403 supplies information indicating the calculated correlation to the stationary direction deriving unit 404.
  • steps S 426 and S 427 is the same as the processing in steps S 406 and S 407, and a description thereof will be omitted.
  • the data continuity detecting unit 101 more accurately calculates the continuity angle of the data with respect to the reference axis in the image data corresponding to the continuity of the missing real-world optical signal. Detection can be performed with higher accuracy.
  • the data constancy detector 101 whose configuration is shown in Fig. 26, has a larger number of pixels on which a fine line image is projected, especially when the data constancy angle is around 45 degrees. Since the correlation of can be evaluated, the continuity angle of the data can be detected with higher accuracy.
  • the pixel of interest which is the pixel of interest, in the spatial direction of the input image
  • An activity is detected, and an angle based on the detected pixel and the reference axis in the spatial direction is determined based on the detected activity, and, for each motion vector, a frame of interest and a frame temporally preceding or succeeding the frame of interest. From each of them, a set of pixels consisting of one row in the vertical direction or one row in the horizontal direction and a fixed number of pixels for the spatial angle range is defined for the spatial angle range.
  • the correlation between the extracted pixel sets may be detected, and the continuity angle of the data in the time direction and the spatial direction in the input image may be detected based on the correlation.
  • FIG. 39 is a block diagram showing still another configuration of the data continuity detecting unit 101.
  • the target pixel which is the target pixel
  • the target pixel is a block consisting of a predetermined number of pixels, centered on the target pixel, and a target pixel.
  • a plurality of blocks each consisting of a predetermined number of pixels around the pixel are extracted, the correlation between the block around the pixel of interest and the surrounding blocks is detected, and the reference axis in the input image is determined based on the correlation.
  • the angle of data continuity based on is detected.
  • the data selection unit 4 41 selects a pixel of interest from the pixels of the input image in order, and a block consisting of a predetermined number of pixels centered on the pixel of interest, and a predetermined number of pixels around the pixel of interest. A plurality of blocks are extracted, and the extracted blocks are supplied to the error estimating unit 442.
  • the data selection unit 441 generates a block of 5 ⁇ 5 pixels centered on the pixel of interest, and a 5 ⁇ 5 X pixel from the periphery of the pixel of interest for each predetermined angle range with respect to the pixel of interest and the reference axis. Extract two blocks of 5 pixels.
  • the error estimator 442 detects the correlation between the block around the pixel of interest and the blocks around the pixel of interest, supplied from the data selector 441, and calculates the correlation information indicating the detected correlation. It is supplied to the stationary direction deriving unit 4 4 3.
  • the error estimator 4 4 2 includes, for each angle range, a block of 5 ⁇ 5 pixels centered on the pixel of interest, and two blocks of 5 ⁇ 5 pixels corresponding to one angle range. For, the correlation between pixel values is detected.
  • the continuity direction deriving unit 443 calculates the missing real-world optical signal from the position of the block around the pixel of interest, which has the strongest correlation.
  • the stationary direction deriving unit 4443 has the strongest correlation with a block consisting of 5 X 5 pixels centered on the pixel of interest. The angle range for two blocks of X5 pixels is detected as the data continuity angle, and data continuity information indicating the detected angle is output.
  • FIG. 40 is a block diagram showing a more detailed configuration of the data continuity detector 101 shown in FIG.
  • the data selection unit 441 includes a pixel selection unit 461-1 to a pixel selection unit 4611-L.
  • the error estimating unit 4 42 includes an estimation error calculating unit 4 62-1 to an estimation error calculating unit 4 62 1 L.
  • the stationary direction deriving unit 443 includes a minimum error angle selecting unit 463.
  • the data selection unit 4441 is provided with a pixel selection unit 461-1 to a pixel selection unit 4611-18.
  • the error estimating unit 442 includes an estimated error calculating unit 462-1 through an estimated error calculating unit 462-2-8.
  • Each of the pixel selection unit 461-1 to the pixel selection unit 4611-L is a block composed of a predetermined number of pixels centered on the pixel of interest, and a predetermined block based on the pixel of interest and the reference axis. Extract two blocks consisting of a predetermined number of pixels corresponding to the angle range of.
  • FIG. 41 is a diagram illustrating an example of a block of 5 ⁇ 5 pixels extracted by the pixel selection units 461-1 to 461-L.
  • the center position in FIG. 41 indicates the position of the pixel of interest.
  • the block of 5 ⁇ 5 pixels is an example, and the number of pixels included in a block does not limit the present invention.
  • the pixel selection unit 46-1-1 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and also selects 0 ° to 18.4 °, 16 ° to 161.6 °. Extracts a block of 5 x 5 pixels (indicated by A in Fig. 41) centered on the pixel located 5 pixels to the right of the pixel of interest corresponding to the range of 180.0 degrees The pixel of interest is shifted by 5 pixels to the left and the center of the pixel is a 5x5 pixel Extract the lock (indicated by A 'in Fig. 41). The pixel selection section 46-1-1 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation section 4621-2.
  • the pixel selection unit 4 6 1-2 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts a block of the pixel of interest corresponding to the range of 18.4 degrees to 33.7 degrees. Then, a block of 5 X 5 pixels (indicated by B in Fig. 41) centering on the pixel at the position shifted 10 pixels to the right and 5 pixels to the upper side is extracted. A block of 5 X 5 pixels (indicated by B 'in Fig. 41) is extracted, centering on the pixel at the position shifted 10 pixels to the left and 5 pixels down.
  • the pixel selection unit 461-2 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation unit 462-2.
  • the pixel selection unit 4 6 1 ⁇ 3 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts a block of the pixel of interest corresponding to the range of 33.7 degrees to 56.3 degrees. Then, extract a block of 5 X 5 pixels (shown by C in Fig. 41) centering on the pixel at the position shifted by 5 pixels to the right and 5 pixels to the upper side. Then, a block of 5 X 5 pixels (shown by C 'in Fig. 41) is extracted, centering on the pixel at the position shifted 5 pixels downward.
  • the pixel selection unit 46-1-3 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation unit 4622-3.
  • the pixel selection unit 4 6 1-4 extracts a block of 5 ⁇ 5 pixels centering on the pixel of interest, and extracts a block of the pixel of interest corresponding to the range of 56.3 degrees to 71.6 degrees. Then, a 5 ⁇ 5 pixel block (indicated by D in FIG. 41) centering on the pixel at the position shifted by 5 pixels to the right and 10 pixels to the upper side is extracted. Extract a block of 5 X 5 pixels (indicated by D 'in Fig. 41) centering on the pixel at the position shifted 5 pixels to the left and 10 pixels down.
  • the pixel selection unit 461-4 supplies the extracted three blocks of 5 ⁇ 5 pixels to the estimation error calculation unit 462-4.
  • the pixel selector 4 6 1-5 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts the block of interest from 71.6 degrees to 108.4 degrees.
  • a block of 55 pixels (indicated by E in Fig. 41) is extracted, centered on the pixel at the position shifted 5 pixels upward, and the position shifted 5 pixels downward with respect to the target pixel Extract a 5 x 5 pixel block (indicated by E 'in Fig. 41) centered on the pixel at.
  • the pixel selection unit 461-5 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 4622_5.
  • the pixel selection unit 4 6 1-6 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts the pixel of interest corresponding to the range from 108.4 to 123.7 degrees. Then, a 5 x 5 pixel block (indicated by F in Fig. 41) centered on the pixel at the position shifted by 5 pixels to the left and 10 pixels to the top is extracted as the pixel of interest. On the other hand, a block of 5 X 5 pixels (indicated by F 'in Fig. 41) is extracted, centering on the pixel at the position shifted 5 pixels to the right and 10 pixels down.
  • the pixel selection unit 461-6 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-2-6.
  • the pixel selection unit 4 6 1-7 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and extracts the pixel of interest corresponding to the range of 12.7 to 14.3 degrees. Then, a 5 ⁇ 5 pixel block (indicated by G in Fig. 41) is extracted, centered on the pixel at the position shifted 5 pixels to the left and 5 pixels to the upper side. Then, a block of 5 X 5 pixels (indicated by G 'in Fig. 41) is extracted, centering on the pixel at the position shifted 5 pixels to the right and 5 pixels down.
  • the pixel selection unit 461-7 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-2-7.
  • the pixel selection unit 4 6 1-8 extracts a block of 5 ⁇ 5 pixels centered on the pixel of interest, and the pixel of interest corresponding to the range of 14.6. Then, a block of 5 X 5 pixels (indicated by H in Fig. 41) centered on the pixel at the position shifted 10 pixels to the left and 5 pixels to the top is extracted as the pixel of interest On the other hand, a block of 5 X 5 pixels (indicated by H 'in Fig. 41) is extracted, centering on the pixel at the position shifted 10 pixels to the right and 5 pixels down.
  • the pixel selection unit 461-8 supplies the extracted three blocks of 5 x 5 pixels to the estimation error calculation unit 462-2-8.
  • a target block a block composed of a predetermined number of pixels centered on the target pixel is referred to as a target block.
  • a block composed of a predetermined number of pixels corresponding to a range of a predetermined angle based on the target pixel and the reference axis is referred to as a reference blotter.
  • the pixel selection units 461-1 to 461-8 are provided with, for example, a block of interest and a reference block from a range of 25 ⁇ 25 pixels around the pixel of interest. Is extracted.
  • the estimation error calculation unit 4 62-1 to the estimation error calculation unit 4 62 _L are the target block and the two references supplied from the pixel selection units 4 6 1-1 to 4 6 1-L.
  • the correlation with the block is detected, and correlation information indicating the detected correlation is supplied to the minimum error angle selection unit 463.
  • the estimation error calculation unit 4622_1 includes a block of interest composed of 5 ⁇ 5 pixels centered on the pixel of interest, 0 ° to 18.4 °, and 161.6 ° to 180 °.
  • the pixels included in the block of interest for the 5 ⁇ 5 pixel reference block centered on the pixel located 5 pixels to the right with respect to the pixel of interest extracted corresponding to the 0 degree range The absolute value of the difference between the pixel value of and the pixel value of the pixel included in the reference block is calculated.
  • the estimation error calculation unit 462-2-1 calculates the pixel value based on the position where the center pixel of the block of interest and the center pixel of the reference block overlap.
  • the position of the block of interest with respect to the reference block is either 2 pixels on the left or 2 pixels on the right, and 2 pixels on the upper side. Calculate the absolute value of the difference between the pixel values of the pixels at the position where they overlap when one of the two pixels is moved downward. That is, the absolute value of the difference between the pixel values of the pixels at the corresponding positions in the 25 types of positions of the target block and the reference block is calculated.
  • the range consisting of the relatively moved target block and the reference block is 9 ⁇ 9 pixels.
  • squares indicate pixels, A indicates a reference block, and B indicates an attention block.
  • a bold line indicates a target pixel. That is, FIG. 42 is a diagram showing an example in which the target block moves two pixels to the right and one pixel to the upper side with respect to the reference block.
  • the estimation error calculation unit 462-1-1 includes a target block composed of 5 ⁇ 5 pixels centered on the target pixel, and 0 to 18.4 degrees and 161.6 to 180 degrees. Pixels included in the block of interest with reference to the 5 x 5 pixel reference block centered on the pixel 5 pixels to the left of the pixel of interest extracted corresponding to the 0 degree range The absolute value of the difference between the pixel value of and the pixel value of the pixel included in the reference block is calculated.
  • the estimation error calculation unit 462-2-1 finds the sum of the calculated absolute values of the differences, and supplies the sum of the absolute values of the differences to the minimum error angle selection unit 463 as correlation information indicating the correlation. Pay.
  • the estimation error calculation unit 4 62-2 includes two reference blocks of 5 X 5 pixels extracted corresponding to a target block of 5 X 5 pixels and a range of 18.4 degrees to 33.7 degrees. Calculate the absolute value of the pixel value difference between the block and the block, and calculate the sum of the calculated absolute values of the differences.
  • the estimation error calculator 462-1 supplies the sum of absolute values of the calculated differences to the minimum error angle selector 463 as correlation information indicating the correlation.
  • each of the estimation error calculation sections 4 62-3 to 4 62-8 includes a block of interest composed of 5 ⁇ 5 pixels and an extracted block corresponding to a range of a predetermined angle.
  • the absolute value of the difference between the pixel values of the two reference blocks of X5 pixels is calculated, and the sum of the absolute values of the calculated differences is calculated.
  • Each of the estimation error calculation unit 4 62-3 to the estimation error calculation unit 4 62-8 supplies the sum of the absolute values of the calculated differences to the minimum error angle selection unit 4 63 as correlation information indicating the correlation. I do.
  • the minimum error angle selection unit 463 is the sum of the absolute values of the pixel value differences as the correlation information supplied from the estimation error calculation units 462-1 to 462-2-8. Two references from the position of the reference block showing the strongest correlation and the smallest value The angle with respect to the block is detected as the data continuity angle, and data continuity information indicating the detected angle is output.
  • the approximation function f (x) that approximates the real-world signal is approximated by an n-dimensional one-dimensional polynomial, the approximation function f (x) can be expressed by equation (15).
  • Equation (15) If the waveform of the real-world signal approximated by the approximation function f (x) has a constant slope (angle) with respect to the spatial direction Y, X in equation (15) is defined as x + ry.
  • equation (16) the approximation function (x, y) that approximates the real-world signal is expressed. f (x, y) w 0 (x + ry) n + w-, (x + ry) n_1 + ... + w n (x + ry) + w n
  • indicates the ratio of the change in the position in the spatial direction X to the change in the position in the spatial direction Y.
  • r is also referred to as a shift amount.
  • FIG. 43 shows that when the distance in the spatial direction X between the position of the target pixel and the straight line having the angle ⁇ is set to 0, that is, when the straight line passes through the target pixel, the positions of the pixels around the target pixel and the angle
  • FIG. 9 is a diagram illustrating a distance in a spatial direction X from a straight line having ⁇ .
  • the position of the pixel is the position of the center of the pixel.
  • the distance between the position and the straight line is When the position is on the left side of the line, it is indicated by a negative value. When the position is on the right side of the line, it is indicated by a positive value.
  • the position of the pixel adjacent to the right side of the target pixel that is, the position where the coordinate X in the spatial direction X increases by 1 and the distance in the spatial direction X between the straight line having the angle ⁇ is 1, and the distance to the left of the target pixel is
  • the distance in the spatial direction X between the position of an adjacent pixel that is, the position at which the coordinate X in the spatial direction X decreases by 1 and the straight line having the angle of 0 is -1.
  • the distance in the spatial direction X between the position of the pixel adjacent above the target pixel, that is, the position at which the coordinate y in the spatial direction Y increases by 1, and the straight line having the angle ⁇ is -r, and the distance below the target pixel is The distance in the spatial direction X between the position of the adjacent pixel, that is, the position where the coordinate y in the spatial direction Y decreases by 1 and the straight line having the angle ⁇ is r.
  • FIG. 44 is a diagram illustrating a relationship between the shift amount and the angle e.
  • FIG. 45 is a diagram illustrating a distance in the spatial direction X between a position of a pixel around the target pixel and a straight line passing through the target pixel and having an angle of 0 with respect to the shift amount.
  • the one-dot chain line rising to the right shows the distance in the spatial direction X between the position of the pixel adjacent to the lower side of the target pixel and the straight line with respect to the shift amount r
  • the one-dot chain line falling to the left shows Spatial direction between the position of the pixel adjacent above the pixel of interest and the straight line with respect to the shift amount r
  • the two-dot chain line that rises to the right indicates the distance in the spatial direction X between the position of the pixel located one pixel to the left and two pixels below the target pixel and the straight line with respect to the shift amount r.
  • the two-dot chain line at the lower left indicates the distance in the spatial direction X between the position of the pixel located one pixel to the right and two pixels above the pixel of interest with respect to the shift amount r.
  • the three-dot chain line rising to the right indicates the distance in the spatial direction X between the position of the pixel located one pixel below and one pixel left of the target pixel and the straight line with respect to the shift amount r.
  • the three-dot chain line at the lower left indicates the distance in the spatial direction X between the position of the pixel located one pixel above and one pixel to the right of the target pixel and the straight line with respect to the shift amount. From Fig. 45, the pixel with the smallest distance for the shift amount r can be seen.
  • the distance from the pixel adjacent above the target pixel or the pixel adjacent below the target pixel to the straight line is the minimum. That is, when the angle ⁇ is 71.6 degrees to 90 degrees, the distance from the pixel adjacent above the target pixel and the pixel adjacent below the target pixel to the straight line is the minimum.
  • one pixel is located two pixels above and one pixel to the right of the target pixel, and one pixel is located two pixels below the target pixel.
  • the distance from the pixel on the left to the straight line is the smallest. That is, when the angle 0 is 56.3 degrees to 71.6 degrees, the pixel located two pixels above the pixel of interest and one pixel to the right and two pixels below the pixel of interest The distance from the pixel located one pixel to the left to the straight line is the smallest.
  • the shift amount r is 2Z3 to 1
  • the pixel located one pixel above and one pixel to the right of the target pixel, and one pixel below the target pixel and one pixel below the target pixel
  • the distance from the pixel on the left to the straight line is the smallest. That is, the angle
  • the pixel located one pixel above and one pixel to the right of the pixel of interest, and one pixel below and one pixel left of the pixel of interest The distance from the pixel located at to the straight line is the smallest.
  • the distance in the spatial direction X between the reference block and the straight line can be considered.
  • Figure 46 shows a reference block that passes through the pixel of interest and has the smallest distance from the straight line at angle 0 with respect to the axis in the spatial direction X.
  • a through H and A 'through H' in FIG. 46 show the reference blocks of A through H and A 'through H' in FIG.
  • the distance between the straight line and the reference blocks B and B ' is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference block of B and B 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference block of B and B'. Therefore, it can be said that the data stationarity angle is in the range of 18.4 degrees to 33.7 degrees.
  • the data stationarity angle is in the range of 56.3 degrees to 71.6 degrees.
  • the distance between the straight line and the reference blocks of E and E ' is the smallest of the distances in the spatial direction X to each of the two. Therefore, in reverse, when the block of interest and the reference block of E and E 'have the strongest correlation, certain features repeatedly appear in the direction connecting the block of interest and the reference block of E and E'. Therefore, it can be said that the data stationarity angle is in the range of 71.6 degrees to 108.4 degrees.
  • the distance between the straight line and the reference blocks of F and F ' is the smallest of the distances in the spatial direction X to each of them. Therefore, in reverse, when the block of interest and the reference block of F and F 'have the strongest correlation, a certain feature repeatedly appears in the direction connecting the block of interest and the reference block of F and F'. Therefore, it can be said that the continuity angle of the data is in the range of 108.4 degrees to 123.7 degrees.
  • the data continuity detection unit 101 can detect the continuity angle of the data based on the correlation between the target block and the reference block.
  • the data continuity detection unit 101 shown in FIG. 39 may output the data continuity angle range as data continuity information.
  • a representative value indicating the range may be output as data continuity information.
  • the median of the angle range of the data continuity can be used as the representative value.
  • the data continuity detection unit 101 shown in FIG. 39 uses the correlation of the reference block around the reference block having the strongest correlation to determine the range of the continuity angle of the detected data. It is possible to double the resolution of 1 Z 2, that is, the continuity angle of the detected data.
  • the minimum error angle selector 463 when the correlation between the block of interest and the reference blocks of E and E 'is the strongest, the minimum error angle selector 463, as shown in FIG. Compare the correlation of the reference block 'with the reference block of F and F' for the block of interest. If the correlation of the reference block of D and D 'to the block of interest is stronger than the correlation of the reference block of F and F' to the block of interest, the minimum error angle selector 4 6 3 Set the angle from 71.6 degrees to 90 degrees. In this case, the minimum error angle selection unit 463 may set 81 degrees as a representative value for the angle of data continuity.
  • the minimum error The angle selector 463 sets the data continuity angle in the range from 90 degrees to 108.4 degrees. Also, in this case, the minimum error angle selection unit 463 may set the angle of data steadiness to be a representative value of 99 degrees.
  • the minimum error angle selection unit 463 can perform the same process to set the stationary angle range of the data to be detected to 1Z2 for other angle ranges.
  • the method described with reference to FIG. 47 is also referred to as a simple 16-direction detection method.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 39 can detect the data continuity angle with a narrower range by simple processing.
  • step S101 the data continuity detection unit 101 shown in FIG. 39 and configured to detect the continuity of data corresponding to the processing in step S101. The processing will be described.
  • step S444 the data selection unit 441 selects a target pixel, which is a target pixel, from the input image. For example, the data selection unit 441 selects a target pixel from the input image in the raster scan order.
  • step S444 the data selection unit 441 selects a target block consisting of a predetermined number of pixels centered on the target pixel. For example, the data selection unit 441 selects a target block consisting of 5 ⁇ 5 pixels centered on the target pixel.
  • step S444 the data selection unit 441 selects a reference block including a predetermined number of pixels at a predetermined position around the target pixel. For example, the data selection unit 441 sets the center of a pixel at a predetermined position on the basis of the size of the target pin for each predetermined angle range based on the target pixel and the reference axis. Select a reference block consisting of 5 pixels.
  • the data selection unit 44 1 supplies the block of interest and the reference block to the error estimation unit 4 42.
  • step S444 the error estimating unit 4442 sets the target block and the reference block corresponding to the angle range for each predetermined angle range based on the target pixel and the reference axis. Calculate the correlation with the lock.
  • the error estimating unit 442 supplies correlation information indicating the calculated correlation to the stationary direction deriving unit 443.
  • step S445 the stationary direction deriving unit 4443, with respect to the block of interest, starts from the position of the reference block having the strongest correlation, Detects the continuity angle of the data with respect to the reference axis in the image.
  • the stationary direction deriving unit 443 outputs data continuity information indicating the continuity angle of the detected data.
  • step S446 the data selection unit 441 determines whether or not processing of all pixels has been completed. If it is determined that processing of all pixels has not been completed, step S4 4. Return to step 1, select the target pixel from the pixels that have not yet been selected as the target pixel, and repeat the above processing.
  • step S446 If it is determined in step S446 that processing of all pixels has been completed, the processing ends.
  • the data continuity detecting unit 101 shown in FIG. 39 has a simpler processing, and is based on the reference axis in the image data corresponding to the continuity of the missing real-world optical signal. It is possible to detect the angle of the continuity of the set data.
  • the data continuity detection unit 101 whose configuration is shown in Fig. 39 is used to detect the data continuity angle using the pixel values of pixels in a relatively narrow range in the input image. Therefore, even if the input image contains noise or the like, it is possible to more accurately detect the continuity angle of the data.
  • the data detection unit 101 shown in FIG. 39 has a predetermined number of pixels from the frame of interest, which is the pixel of interest, of the frame of interest. And a plurality of blocks around the pixel of interest, each consisting of a predetermined number of pixels, and a frame temporally preceding or following the frame of interest. , A block consisting of a predetermined number of pixels, centered on the pixel at the position corresponding to the pixel of interest, and a pixel of interest A plurality of blocks each consisting of a predetermined number of pixels around the pixel at the position corresponding to the pixel are extracted, and the correlation between the block centering on the pixel of interest and the spatially or temporally neighboring blocks is extracted. Based on the detection and the correlation, the continuity angle of the data in the time direction and the spatial direction in the input image may be detected.
  • the data selection unit 441 selects a pixel of interest from frame #n, which is the frame of interest, in order, and a predetermined number of pixels centered on the pixel of interest from frame #n.
  • a block composed of pixels and a plurality of blocks composed of a predetermined number of pixels around the target pixel are extracted.
  • the data selection unit 441 includes, from each of the frame and frame # n + l, a block composed of a predetermined number of pixels centered on the pixel corresponding to the position of the pixel of interest, and a pixel of interest
  • a plurality of blocks consisting of a predetermined number of pixels around the pixel at the position corresponding to the position are extracted.
  • the data selection unit 441 supplies the extracted block to the error estimation unit 442.
  • the error estimator 442 detects the correlation between the block centered on the pixel of interest supplied from the data selector 441 and the surrounding blocks in space or time, and calculates the detected correlation.
  • the correlation information shown is supplied to the stationary direction deriving unit 4 43.
  • the continuity direction deriving unit 443 detects the missing real-world optical signal from the position of the spatially or temporally neighboring block with the strongest correlation. Detects the continuity angle of the data in the time and space directions in the input image corresponding to the continuity of the signal, and outputs data continuity information indicating the angle.
  • the data continuity detecting unit 101 can execute a process of detecting data continuity based on the component signals of the input image.
  • FIG. 50 is a block diagram illustrating a configuration of a data continuity detecting unit 101 that executes a process of detecting data continuity based on a component signal of an input image.
  • Each of the data continuity detectors 481-1 through 481-3 has the same configuration as the above-described or later-described data continuity detector 101, and is a component signal of the input image.
  • the above-described or later-described processing is executed for each of the processing targets.
  • the data continuity detector 481-1 detects the continuity of the data based on the first component signal of the input image, and determines information indicating the continuity of the data detected from the first component signal.
  • Supply to part 4 82 For example, the data continuity detecting section 481-1 detects the data continuity based on the luminance signal of the input image, and determines information indicating the continuity of the data detected from the luminance signal.
  • Supply 2
  • the data continuity detector 481-2 detects data continuity based on the second component signal of the input image and determines information indicating the continuity of the data detected from the second component signal. Supply to part 4 82.
  • the data continuity detection unit 481-1-2 detects data continuity based on the I signal, which is a color difference signal of the input image, and determines information indicating the continuity of the detected data from the I signal. Supply to part 4 82.
  • the data continuity detector 481--3 detects the continuity of the data based on the third component signal of the input image and determines information indicating the continuity of the data detected from the third component signal Supply to part 4 82.
  • the data continuity detection unit 481-1-2 detects data continuity based on the Q signal, which is a color difference signal of the input image, and determines information indicating the continuity of the detected data from the Q signal.
  • the deciding unit 482 is based on the information indicating the continuity of the data detected from each component signal, which is supplied from the data continuity detecting units 481 _ 1 to 481 13, based on the input image. Detects the stationarity of the final data and outputs data stationarity information indicating the stationarity of the detected data.
  • the decision unit 482 2 calculates the largest data continuity of the continuity of the data detected from each component signal supplied from the data continuity detection units 481-1 to 481-3. Is the continuity of the final data.
  • the determination unit 482 is the minimum of the continuity of data detected from each component signal supplied from the data continuity detection units 481-1 to 481-3. Let the stationarity of the data be the final stationarity of the data.
  • the determining unit 482 2 determines the continuity of the data detected from each component signal supplied from the data continuity detecting units 481-1 to 481-13. Let the average be the stationarity of the final data.
  • the decision unit 482 2 determines the median (median value) of the continuity of the data detected from each component signal, which is supplied from the data continuity detectors 481-1 to 481-3, as final data.
  • the stationarity may be set as follows.
  • the determination unit 482 2 detects data detected from each component signal supplied from the data continuity detection units 481-1 to 481-13 based on an externally input signal.
  • the stationarity of the data specified by the signal input from the outside is defined as the stationarity of the final data.
  • the deciding unit 482 is configured to determine a predetermined data continuity from among the continuity of the data detected from each component signal supplied from the data continuity detecting units 481-1 to 481-3. May be used as the final data continuity.
  • the determining unit 482 is based on the error obtained in the process of detecting the continuity of the data of each component signal supplied from the data continuity detecting units 481-1 to 481-3. Alternatively, the stationarity of the final data may be determined. The error found in the process of detecting data continuity will be described later.
  • FIG. 51 is a diagram illustrating another configuration of the data continuity detecting unit 101 that executes processing for detecting data continuity based on a component signal of an input image.
  • the component processing unit 4991 generates one signal based on the component signal of the input image and supplies the signal to the data continuity detecting unit 492. For example, the component processing unit 4991 generates a signal composed of the sum of the component signal values by adding the value of each component signal of the input image to the pixel at the same position on the screen.
  • the component processing unit 4991 averages the pixel value of each component signal of the input image for the pixel at the same position on the screen, thereby obtaining a signal composed of the average value of the pixel values of the component signal.
  • Generate The data continuity detector 492 detects the continuity of the data in the input image based on the signal supplied from the component processor 491, and indicates the continuity of the detected data. Output information.
  • the data continuity detection unit 492 has the same configuration as the above-described or data continuity detection unit 101 described below, and performs the above-described processing on the signal supplied from the component processing unit 491, Alternatively, a process described later is executed.
  • the data continuity detecting unit 101 detects the continuity of the data of the input image based on the component signal, and thus can more accurately detect the data even if the input image includes noise or the like. Can be detected.
  • the data continuity detecting unit 101 detects the continuity of the data of the input image based on the component signal, thereby more accurately detecting the continuity angle (slope), the mixture ratio, or the data continuity of the data. Can be detected.
  • the component signal is not limited to the luminance signal and the color difference signal, and may be a component signal of another system such as an RGB signal or a YUV signal.
  • the continuity of the data corresponding to the continuity of the missing real-world optical signal of the image data in which the real-world optical signal is projected and part of the continuity of the real-world optical signal is missing If the optical signal is estimated by detecting the angle with respect to the reference axis and estimating the continuity of the missing real-world optical signal based on the detected angle, thus, more accurate and more accurate processing results can be obtained.
  • a predetermined number of optical signals of the real world are projected, and a predetermined number of images are obtained for each angle with respect to the pixel of interest and the reference axis of the image data in which part of the continuity of the real world optical signals is missing.
  • a plurality of pixel sets, each of which is a set of pixels, is extracted, and a correlation between pixel values of pixels at corresponding positions in the plurality of sets extracted for each angle is detected, and based on the detected correlation, Detects the angle of data continuity with respect to the reference axis in the image data corresponding to the continuity of the missing real-world optical signal, and detects the data continuity of the detected image data with respect to the reference axis. Based on the angle of the missing real world If the optical signal is estimated by estimating the continuity of the optical signal in the field, it will be possible to obtain more accurate and more accurate processing results for real-world events. .
  • FIG. 52 is a block diagram showing still another configuration of the data continuity detecting unit 101. As shown in FIG.
  • a real-world optical signal is projected, and this is a pixel of interest of image data in which a part of the continuity of the real-world optical signal is missing.
  • a region corresponding to the pixel of interest is selected, and a frequency based on the correlation value is set for a pixel whose correlation value between the pixel value of the pixel of interest and the pixel value of a pixel belonging to the selected region is equal to or greater than a threshold value.
  • the frequency of the pixels belonging to the area is detected, and the regression line is detected based on the detected frequency, so that the continuity of the image data corresponds to the continuity of the missing real-world optical signal. Is detected.
  • the frame memory 501 stores the input image in frame units, and supplies the stored pixel values of the pixels constituting the frame to the pixel acquisition unit 502.
  • the frame memory 501 stores the current frame of the input image on one page, and the pixel value of the pixel of the previous (past) frame relative to the current frame stored on another page. Is supplied to the pixel acquisition unit 502, and at the time of switching the frame of the input image, by switching the page, the pixel value of the pixel of the frame of the input image as a moving image is supplied to the pixel acquisition unit 502. can do.
  • the pixel acquisition unit 502 selects a pixel of interest, which is the pixel of interest, based on the pixel value of the pixel supplied from the frame memory 501, and a predetermined number corresponding to the selected pixel of interest. Is selected. For example, the pixel acquisition unit 502 selects a region including 5 ⁇ 5 pixels centered on the pixel of interest.
  • the size of the region selected by the pixel acquisition unit 502 does not limit the present invention.
  • the pixel acquisition unit 502 acquires the pixel values of the pixels in the selected area, and supplies the pixel values of the pixels in the selected area to the frequency detection unit 503.
  • the frequency detection unit 503 determines the pixel value of the pixel of interest and the pixel values of the pixels belonging to the selected region.
  • a frequency based on the correlation value is set for a pixel having a correlation value equal to or greater than the threshold value, thereby detecting the frequency of the pixel belonging to the area.
  • the frequency detection unit 503 supplies the detected frequency to the regression line calculation unit 504.
  • the regression line calculation unit 504 calculates a regression line based on the frequency supplied from the frequency detection unit 503. For example, the regression line calculation unit 504 calculates a regression line based on the frequency supplied from the frequency detection unit 503. In addition, for example, the regression line calculation unit 504 calculates a regression line that is a predetermined curve based on the frequency supplied from the frequency detection unit 503. The regression line calculation unit 504 supplies the calculated regression line and calculation result parameters indicating the result of the calculation to the angle calculation unit 505. The calculation results indicated by the calculation parameters include fluctuations and covariations described later.
  • the angle calculation unit 505 is based on the regression line, which is represented by the calculation result parameter supplied from the regression line calculation unit 504, and is based on the regression line and corresponds to the stationarity of the missing real-world optical signal. Detects the continuity of the data of the input image which is data. For example, the angle calculation unit 505, based on the regression line indicated by the calculation result parameter supplied from the regression line calculation unit 504, corresponds to the input signal corresponding to the continuity of the missing real-world optical signal. Detects the continuity angle of the data with respect to the reference axis in the image. The angle calculation unit 505 outputs data continuity information indicating the continuity angle of the data with respect to the reference axis in the input image.
  • a circle indicates one pixel, and a double circle indicates a target pixel.
  • the circle color indicates the approximate pixel value of the pixel, and the lighter color indicates the larger pixel value. For example, black indicates a pixel value of 30 and white indicates a pixel value of 120.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 52 detects that a straight line extends obliquely to the upper right when an input image including the pixels shown in FIG. 53 is input.
  • FIG. 54 is a diagram in which the pixel values of the pixels shown in FIG. 53 are represented by numerical values. The circle indicates one pixel, and the number inside the circle indicates the pixel value.
  • the pixel value of the pixel of interest is 120
  • the pixel value of the pixel above the pixel of interest is 100
  • the pixel value of the pixel below the pixel of interest is 100
  • the pixel value of the pixel on the left side of the target pixel is 80
  • the pixel value of the pixel on the right side of the target pixel is 80
  • the pixel value of the lower left pixel of the target pixel is 100
  • the pixel value of the upper right pixel of the target pixel is 100.
  • the pixel value of the upper left pixel of the target pixel is 30 and the pixel value of the lower right pixel of the target pixel is 30.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 52 draws a regression line A as shown in FIG. 55 from the input image shown in FIG.
  • FIG. 56 is a diagram illustrating a relationship between a change in pixel value and a regression line A with respect to a position of a pixel in the spatial direction in an input image.
  • the pixel value of the pixel in the region having the data continuity changes, for example, in a mountain range as shown in FIG.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 52 draws a regression line A by the least squares method using the pixel values of the pixels in the region having data continuity as weights.
  • the regression line A obtained by the data continuity detecting unit 101 represents the continuity of the data around the pixel of interest.
  • the angle of the continuity of the data with respect to the reference axis in the input image is represented by the angle ⁇ between the regression line A and the axis indicating the spatial direction X which is the reference axis. Is detected by finding.
  • the frequency detection unit 503 is, for example, an area composed of 9 pixels in the spatial direction X and 5 pixels in the spatial direction Y, centered on the pixel of interest, supplied from the pixel acquisition unit 502, for a total of 45 pixels.
  • the frequency corresponding to the coordinates of the pixel belonging to the area is detected from the pixel value of the pixel.
  • the frequency detecting unit 503 detects the frequency of the coordinates (Xi, yj ) belonging to the area by calculating the frequency by the operation represented by the equation (17).
  • Th indicates a threshold.
  • i indicates the order of pixels in the spatial direction X in the region, and l ⁇ i ⁇ k.
  • j indicates the order of pixels in the spatial direction Y in the region, and l ⁇ j ⁇ l.
  • k indicates the number of pixels in the space direction X in the region
  • 1 indicates the number of pixels in the space direction Y in the region.
  • K is 9 and 1 is 5.
  • FIG. 58 is a diagram illustrating an example of a region acquired by the pixel acquiring unit 502.
  • the dotted square indicates one pixel.
  • the region is composed of 9 pixels centered on the pixel of interest in the spatial direction X and 5 pixels centered on the pixel of interest in the spatial direction Y, and the coordinates (x, When y) is (0,0), the coordinates (x, y) of the upper left pixel of the region are (-4,2), and the coordinates (x, y) of the upper right pixel of the region are ( 4, 2), the coordinates (X, y) of the lower left pixel of the region are (-4, -2), and the coordinates (x, y) of the lower right pixel of the region are (4, 2). -2).
  • the pixel order i in the spatial direction X of the pixel on the left side of the region is 1 and the pixel order i in the spatial direction X of the pixel on the right side of the region is 9.
  • the pixel order j of the pixel in the spatial direction Y is 1 and the pixel order j of the upper pixel of the region in the spatial direction Y is 5.
  • the frequency detection unit 503 calculates the absolute value of the difference between the pixel value of the pixel of interest and the pixel value of the pixel belonging to the region as the correlation value. Is projected in the input image, not only in the area having data continuity in the input image, but also in the real world image of an object having a single color and a straight edge that is different from the background. It is possible to detect the frequency indicating the feature of the spatial change of the pixel value in the region having the continuity of the binary edge data in the image.
  • the frequency detection unit 503 may detect the frequency based on not only the absolute value of the difference of the pixel from the pixel value but also another correlation value such as a phase relationship number.
  • the exponential function is applied in order to make the frequency greatly different from the pixel value difference, and another function may be applied.
  • the threshold Th can be an arbitrary value.
  • the threshold Th can be set to 30.
  • the frequency detection unit 503 sets the frequency based on the correlation value to the pixel whose correlation value with the pixel value of the pixel belonging to the selected region is equal to or larger than the threshold value, thereby obtaining the pixel belonging to the region.
  • the frequency of is detected.
  • the frequency detection unit 503 detects the frequency, of the coordinates ( Xi , yj ) belonging to the area, by calculating the frequency by the operation represented by Expression (18).
  • Equation (20) The sum of the frequencies Li and j in the spatial direction X is expressed by Equation (20).
  • the frequency L 5 , 3 of the coordinates of the pixel of interest is 3
  • the frequency L M of the coordinates of the pixel above the pixel of interest is 1
  • the frequency L M of the pixel on the upper right of the pixel of interest is
  • the frequency L e , 4 of the coordinate is 4
  • the frequency L 65 of the coordinates of the pixel that is two pixels above and one pixel to the right of the pixel of interest is 2 and that for the pixel of interest
  • the frequency L 7 , 5 of the coordinates of the pixel two pixels above and two pixels to the right is three.
  • power L 5, 2 coordinates of the lower side of the pixel of the pixel of interest is 2
  • the frequency L 4, 3 coordinates of the left pixels of the pixel of interest is 1, the lower left side of the pixel of interest
  • the frequency L 4 , 2 of the coordinate of the pixel is 3
  • the frequency L 3 , 2 of the coordinate of the pixel which is one pixel lower and two pixels to the left of the pixel of interest is 2, and is 2
  • the frequency L 3 i of the coordinates of the pixel two pixels below and two pixels to the left is 4
  • the frequency of the coordinates of the other pixels in the region shown in FIG. 58 is 0, and the description of the frequency of 0 is omitted in FIG.
  • the sum qi of the frequencies in the spatial direction Y is 0 because the frequencies L where i is 1 are all 0, and 3 ⁇ 4 is 0 since the frequencies L where i is 2 are all 0. It is 0.
  • q 3 is 6 because the frequencies L 3 and 2 are 2 and the frequency L 3il is 4.
  • q 4 is 4, q 5 is 6, q 6 is 6, q 7 is 3, 3 ⁇ 4 is 0, q 9 is 0.
  • the sum of the frequencies in the spatial direction X is 4 because the frequency L 3il is 4.
  • h 2 is 7 because the frequencies L 3 and 2 are 2, the frequencies L 4 and 2 are 3, and the frequencies L 5 and 2 are 2.
  • h 3 is 4, h 4 is 5, h 5 is 5.
  • T x which is the sum of qq 9 ⁇ , is 1 4.
  • the slope a and the intercept.b can be obtained by the least squares method as follows,
  • the regression line calculation unit 504 calculates the regression line by executing the calculation represented by Expression (29) and Expression (30).
  • the angle calculation unit 505 converts the slope a of the regression line into an angle ⁇ ⁇ ⁇ ⁇ with respect to the axis in the spatial direction X, which is the reference axis, by the calculation shown in Expression (31).
  • the regression line calculation unit 504 can obtain the slope a by the equation (33) by the least square method.
  • the pixel acquisition unit 502 selects a target pixel from pixels that have not yet been set as the target pixel. For example, the pixel acquisition unit 502 selects a pixel of interest in raster scan order.
  • the pixel acquiring unit 502 acquires a pixel value of a pixel included in an area centered on the target pixel, and supplies the acquired pixel value to the frequency detecting unit 503. For example, the pixel acquisition unit 502 selects a region including 9 ⁇ 5 pixels centered on the pixel of interest, and acquires the pixel value of a pixel included in the region.
  • the frequency detection unit 503 detects the frequency by converting the pixel value of the pixel included in the area into the frequency. For example, the frequency detection unit 503 converts a pixel value into a frequency j by an operation shown in Expression (17). In this case, the pixel value of the pixel in the region is converted to frequency so that the frequency. Is done. The frequency detection unit 503 supplies the converted frequency to the regression line calculation unit 504.
  • step S504 the regression line calculation unit 504 obtains a regression line based on the frequency supplied from the frequency detection unit 503. For example, the regression line calculation unit 504 obtains a regression line based on the frequency supplied from the frequency detection unit 503. More specifically, the regression line calculation unit 504 obtains a regression line by executing the calculation represented by Expression (29) and Expression (30). The regression line calculation unit 504 supplies a calculation result parameter indicating the regression line, which is the calculated result, to the angle calculation unit 505.
  • step S505 the angle calculation unit 505 calculates the angle of the regression line with respect to the reference axis, thereby obtaining the continuity of the image data corresponding to the continuity of the missing real-world optical signal. Is detected. For example, the angle calculation unit 505 converts the slope a of the regression line into an angle ⁇ with respect to the axis in the spatial direction X, which is the reference axis, by the calculation shown in Expression (31). The angle calculator 505 outputs data continuity information indicating the angle of the regression line with respect to the reference axis.
  • the angle calculator 505 may output data continuity information indicating the inclination a.
  • step S506 the pixel acquisition unit 502 determines whether or not processing of all pixels has been completed, and when it is determined that processing of all pixels has not been completed, step S506 Returning to 501, the target pixel is selected from the pixels not yet selected as the target pixel, and the above processing is repeated.
  • step S506 If it is determined in step S506 that processing of all pixels has been completed, the processing ends.
  • the data continuity detecting unit 101 shown in FIG. 52 has a continuity of data with respect to the reference axis in image data corresponding to the continuity of the missing real-world optical signal. Sex angles can be detected.
  • the data continuity detecting unit 101 having the configuration shown in FIG. 52 can obtain an angle equal to or smaller than a pixel based on the pixel value of the pixel in a relatively narrow area.
  • the real-world optical signal is projected, and a region corresponding to the target pixel, which is the target pixel of the image data in which part of the continuity of the real-world optical signal is missing, is selected.
  • a frequency based on the correlation value for a pixel whose correlation value between the pixel value of the pixel and the pixel value of the pixel belonging to the selected region is equal to or greater than a threshold value, the frequency of the pixel belonging to the region is detected.
  • the stationarity of the image data corresponding to the stationarity of the missing real-world optical signal is detected, and the stationarity of the detected image data is detected. If the optical signal is estimated by estimating the continuity of the missing optical signal in the real world based on, a more accurate and more accurate processing result can be obtained for the real world event. To be able to become.
  • the data continuity detecting unit 101 shown in FIG. 52 calculates the pixel value of a pixel belonging to a predetermined area for the attention frame to which the pixel of interest belongs and the frames temporally before and after the frame of interest. Then, if the regression plane is calculated based on the frequency, the continuity angle of the data in the time direction can be detected together with the continuity angle of the data in the spatial direction.
  • FIG. 60 shows the configuration of another embodiment of the data continuity detecting unit 101.
  • the data continuity detecting unit 101 in FIG. 60 includes a data selecting unit 701, a data adding unit 720, and a stationary direction deriving unit 703.
  • the data selection unit 701 selects each pixel of the input image as a target pixel, selects pixel value data of a pixel corresponding to each target pixel, and outputs the selected pixel value data to the data adding unit 702.
  • the data addition unit 702 performs an addition operation in the least squares method based on the data input from the data selection unit 701, and outputs the addition operation result to the steady direction deriving unit 703. I do.
  • the addition operation by the data addition unit 720 is an operation in a term of a summation used in an operation of a least square method described later, and the operation result is a characteristic of image data for detecting an angle of stationarity.
  • the stationary direction deriving unit 703 determines the stationary direction, that is, the angle from the reference axis having the data continuity (for example, a thin line or 2) based on the addition operation result input from the data adding unit 720. (The slope or direction of the value edge, etc.) and outputs this as data continuity information.
  • FIG. 61 an outline of an operation of detecting continuity (direction or angle) in the data continuity detecting unit 101 will be described.
  • FIGS. 61 and 62 the portions corresponding to those in are denoted by the same reference numerals, and the description thereof will be omitted below as appropriate.
  • a real-world signal for example, an image
  • a sensor for example, a lens or a low pass filter (LPF)
  • an optical system 141 for example, comprising a lens or a low pass filter.
  • CCD Charge Coupled Device
  • CMOS complementary metal-oxide-semiconductor
  • the sensor is composed of, for example, an element having an integral characteristic such as a CCD or a CMOS.
  • an image obtained from the data output from the sensor is different from an image in the real world (a difference from an image in the real world occurs).
  • the data continuity detection unit 101 approximates the real world using an approximation formula using a model 705, and based on the approximation formula, Is extracted.
  • the model 705 is represented by, for example, N variables. More precisely, Model 705 approximates (describes) real-world signals.
  • the data continuity detector 101 extracts M data 706 from the data in order to predict the model 705. As a result, the model 705 is bound by the stationarity of the data.
  • the model 705 represents a real-world event that has a stationarity (a constant feature in the direction of a given dimension) that causes data stationarity of the data when acquired by the sensor. Approximate information (signal)).
  • stationarity a constant feature in the direction of a given dimension
  • N a constant feature in the direction of a given dimension
  • the model 705 represented by the N variables is predicted from the M data 706. be able to.
  • the data continuity detection unit 101 predicts a model 705 that approximates (describes) the real world (signal), thereby detecting data continuity included in a signal that is real world information, for example, It is derived as the direction of thin lines or binary edges (inclination or the angle between the axis and a predetermined direction) and outputs it as data continuity information.
  • a model 705 that approximates (describes) the real world (signal)
  • the data continuity detection unit 101 predicts a model 705 that approximates (describes) the real world (signal), thereby detecting data continuity included in a signal that is real world information, for example, It is derived as the direction of thin lines or binary edges (inclination or the angle between the axis and a predetermined direction) and outputs it as data continuity information.
  • the data selection unit 701 includes a horizontal / vertical determination unit 711 and a data acquisition unit 712.
  • the horizontal / vertical determination unit 711 determines whether the angle of the thin line of the input image with respect to the horizontal direction is a thin line close to the horizontal direction or a thin line close to the vertical direction based on the pixel value difference between the pixel of interest and its surrounding pixels. The determination is made, and the result of the determination is output to the data acquisition unit 712 and the data addition unit 702, respectively.
  • the horizontal-vertical determination unit 711 determines the horizontal pixel of the difference between the pixel of interest and the pixel adjacent to the pixel of interest (the difference in pixel value between pixels).
  • the sum of the difference (activity) between the pixels (hdiff) between the pixels in the vertical direction and the difference (vdiff) of the sum of the differences (activity) between the pixels in the vertical direction is calculated. It is determined whether it is large or the sum of differences between horizontally adjacent pixels is large.
  • each square indicates a pixel, and the pixel at the center in the figure is a pixel of interest.
  • the difference between the pixels indicated by the dotted arrows in the figure is the difference between the pixels in the horizontal direction, and the sum thereof is indicated by hdiff. Furthermore, the difference between the pixels indicated by the solid arrows in the figure is the difference between the pixels in the vertical direction, and the sum is indicated by vdiff.
  • the horizontal / vertical determination unit 7 11 1 If (hdiff-vdiff) is positive, the change in pixel value (activity) between pixels in the horizontal direction is greater than in the vertical direction, so that the angle with respect to the horizontal direction is 0 (as shown in Figure 65). 0 degrees ⁇ 0 ⁇ 180 degrees), 45 degrees ⁇ 0 ⁇ 5 degrees, that is, it is determined that the pixel belongs to a thin line with an angle close to the vertical direction.
  • the horizontal / vertical determination unit 7111 includes a counter (not shown) for identifying each pixel of the input image, and is used as needed.
  • the thin line is close to the vertical direction by comparing the sum of the pixel value differences between the vertical and horizontal pixels in the range of 3 pixels ⁇ 3 pixels with the target pixel as the center.
  • the direction of the thin line may be determined using a similar method using a larger number of pixels.
  • the determination may be made based on a block having a larger number of pixels, such as 5 pixels ⁇ 5 pixels or 7 pixels ⁇ 7 pixels.
  • the data acquisition unit 712 based on the determination result of the direction of the thin line input from the horizontal / vertical determination unit 711, is a block unit composed of a plurality of pixels arranged in the horizontal direction corresponding to the target pixel, or The pixel values are read (acquired) and read (acquired) in units of blocks of a plurality of pixels arranged in the vertical direction.
  • the data of the maximum value and the minimum value of the pixel value from the pixels included in the block having the predetermined number of pixels are output to the data adding unit 702 together with the difference data between the pixels adjacent in the direction of the determination result.
  • a block of a plurality of pixels acquired by the data acquisition unit 7 12 corresponding to the pixel of interest is referred to as an acquisition block (the acquisition block is, for example, shown in FIG. 78 described later).
  • the acquisition block is, for example, shown in FIG. 78 described later.
  • Out of multiple pixels note the pixels with black squares. If it is an eye pixel, there are a total of 15 pixels for the upper and lower 3 pixels and the left and right 1 pixel).
  • the difference adding section 7 2 1 of the data adding section 7 0 2 detects the difference data input from the data selecting section 7 0 1, and outputs the data from the horizontal / vertical determination section 7 1 1 of the data selecting section 7 0 1. Based on the input horizontal or vertical judgment result, the addition process necessary for the solution of the least squares method described later is executed, and the addition result is output to the stationary direction deriving unit 703 I do. More specifically, the difference data of the pixel value between the pixel i and the pixel (i + 1) adjacent to each other in the determination direction by the horizontal / vertical determination unit 7111 among a plurality of pixels is defined as yi, If the acquisition block corresponding to is composed of n pixels, the difference adding unit 7 2 1 is used for each horizontal or vertical direction.
  • the MaxMin acquisition unit 722 is a block set for each pixel included in the acquisition block corresponding to the target pixel input from the data selection unit 701 (hereinafter, referred to as a dynamic range block.
  • a dynamic range block Of the pixels of the acquisition block shown in FIG. 78 described later, for example, for pixel pixl2, three pixels above and below pixel pixl2, indicated by a dynamic range block B1, surrounded by a solid black line Is the total of 7 pixels))
  • the dynamic range Dri the dynamic range block corresponding to the ith pixel in the acquisition block
  • the difference addition unit 7 23 detects the dynamic range Dri input from the MaxMin acquisition unit 7 22 and the difference data input from the data selection unit 7 01, and based on the detected dynamic range Dri and the difference data. Then, add the value obtained by multiplying the dynamic range Dri and the difference data yi for each of the horizontal and vertical directions input from the horizontal / vertical determination unit 711 of the data selection unit 701, and calculate the calculation result. Output to the normal direction deriving unit 703. In other words, the performance output by the difference addition The calculation result is y 1 x Dr 1 + y 2 x Dr 2 + y 3 X Dr 3 + ⁇ ⁇ 'for each horizontal or vertical direction.
  • the stationary direction calculating unit 731 of the stationary direction deriving unit 7 03 generates a thin line based on the horizontal or vertical adding operation result input from the data adding unit 7 02. Calculates the angle (direction) and outputs the calculated angle as stationarity information.
  • a method of calculating the direction of the thin line (the inclination or angle of the thin line) will be described.
  • the thin line (the white line in the figure, which rises to the right and in an oblique direction) is actually shown in Fig. 66B. It is displayed as follows. In other words, in the real world, as shown in Fig. 66C, the image is bounded by two types of levels: the thin line level (the lightly shaded area in Fig. 66C) and the background level. Then, there is no other level. In contrast, in the image captured by the sensor, that is, the image captured in pixel units, the background level and the fine line level are spatially mixed due to the integration effect, as shown in Fig. 66B.
  • the resulting pixel is an image in which blocks composed of a plurality of pixels arranged in the vertical direction are repeatedly arranged in the fine line direction such that the ratio (mixing ratio) changes in a constant pattern.
  • each square cell indicates one pixel of the CCD, and the length of each side is d_CCD.
  • the squares are the minimum pixel value corresponding to the background level in the grid-filled area, and the other hatched areas are the pixel values as the diagonal density decreases. (The white square without the diagonal lines is the maximum pixel value).
  • the image of the real world is represented by the horizontal axis and the vertical axis by the level as shown in Fig. 67B.
  • the area of the corresponding portion on the image is shown, the relationship between the area corresponding to the background in the image and the area of the portion corresponding to the thin line on the image is shown.
  • the pixels where the background level and the thin line level are arranged vertically are mixed in the pixels of the background level.
  • the background level is changed as shown in Figure 68B.
  • the vertical axis is the number of pixels, but since the area of one pixel is (d_CCD) 2 , the relationship between the pixel value level and the number of pixels in FIG. It can be said that the relationship between the distribution of the level and the area is the same.
  • the same result is obtained as shown in FIG. 69B even in a portion (image of 31 pixels ⁇ 31 pixels) surrounded by a white line in the actual image of FIG. 69A.
  • the background part shown in Fig. 69A (the part that looks black in Fig. 69A) has a low pixel value level (the pixel value is around 20) as shown in Fig. 69B.
  • a large number of pixels are distributed, and these small changes form an image of the background area.
  • the portion where the pixel value level is not low in FIG. 69B that is, the pixels in which the pixel value level is distributed in the vicinity of 40 to 160 is in the spatial mixed area where the thin line image is formed. These pixels belong to a small number of pixels for each pixel value, but are distributed over a wide range of pixel values.
  • each level of the background and the thin line in the image of the real world changes as shown in FIG. 70B when viewed in the direction of the arrow (Y coordinate direction) shown in FIG. 7OA, for example.
  • the background area from the starting point of the arrow to the thin line has a relatively low background level
  • the thin line area has a high level of the fine line, and returns to the background area through the thin line area.
  • the background level is low.
  • a pulse-like waveform having a high level only in the thin line region is obtained.
  • the pixel on the spatial direction X X1 in Fig. 7A corresponding to the direction of the arrow in OA in Fig.
  • FIG. 71A black circle in Fig. 71A
  • Fig. 71B The relationship between the pixel value of the pixel indicated by) and the spatial direction Y of that pixel is shown in Fig. 71B. Will be able to In FIG. 71A, a thin line on the image of the real world is shown between two white lines rising to the right.
  • the waveform indicating the level change near the thin line in the image of the real world is a pulse-like waveform
  • the waveform indicating the change in the pixel value of the image captured by the sensor is a mountain-shaped waveform. It becomes.
  • the level of the image in the real world should have a waveform as shown in Fig. 70 ⁇ , but the image taken by the sensor is shown in Fig. 71 1. As can be seen, the change is distorted and the waveform is different from the real world image (real world information is missing).
  • the level of the background part on the left side of the figure is B1
  • the level of the background part on the right side of the figure is B2
  • the level of the thin line is L
  • the mixing ratio of the thin line is W
  • the horizontal direction of the thin line The parameters are set by setting the angle to 0 to 0, modeling is performed, a function that approximately represents the real world is set, and an approximate function that approximately represents the real world is obtained by obtaining each parameter. Find the direction of the thin line (inclination or angle with respect to the reference axis) from the approximation function.
  • the width of the thin line is one pixel or more.
  • a pixel existing at a position on a thin line in the real world has a level closest to the level of the thin line, and the pixel value decreases as the distance from the thin line in the vertical direction (the direction of the spatial direction Y) increases
  • the pixel value of the pixel existing at a position not in contact with the thin line area, that is, the pixel of the background area has the pixel value of the background level.
  • the pixel value of the pixel existing at the position straddling the thin line region and the background region is a pixel value obtained by mixing the pixel value B of the background level and the pixel value L of the thin line level with a mixture ratio Of. .
  • the data acquisition unit 712 extracts a pixel of an acquisition block corresponding to the pixel of interest, and a pixel constituting the extracted acquisition block.
  • a dynamic range block is extracted, and a pixel having a maximum pixel value and a pixel having a minimum pixel value among the pixels constituting the dynamic range block are extracted.
  • FIG. 75A the pixels of the dynamic range block corresponding to the predetermined pixels in the acquisition block (pixels pix 4 in which one square in the figure has a square with a black solid line) are shown. example For example, if pixels pixl to 7 surrounded by black solid lines in the figure are extracted, the real-world image corresponding to each pixel is as shown in Fig. 75B. .
  • a portion occupying approximately 1/8 of the area on the left is a background region
  • a portion occupying approximately 7Z8 on the right is a thin line region.
  • the entire area of the pixel pix 2 is a thin line area.
  • a portion occupying approximately 7/8 of the area on the left is a thin line region
  • a portion occupying an area of 1/8 on the right is a thin line region.
  • a portion occupying approximately 2/3 of the area on the left is a thin line territory
  • a portion occupying approximately 1/3 of the area on the right is a background region.
  • the portion occupying the area of approximately 1Z3 on the left is a thin line region, and the portion occupying approximately 2Z3 on the right is the background region.
  • the portion occupying the area of approximately 1Z8 on the left is a thin line region, and the portion occupying approximately 7Z8 on the right is a background region.
  • the entire pixel pix 7 is a background area.
  • the pixel values of each pixel pix 1 to 7 of the dynamic range block shown in FIG. 75B were obtained by mixing the background level and the thin line level at a mixing ratio corresponding to the ratio of the area of the thin line region to the area of the background region. It becomes a pixel value. That is, the mixing ratio of the background level and the foreground level is approximately 1: 7 for pixel pixl, approximately 0: 1 for pixel pix2, approximately 1: 7 for pixel pix3, and approximately 1: 2 for pixel pix4. Pixel 5 is approximately 2: 1, pixel pix 6 is approximately 7: 1, and pixel pix 7 is approximately 1: 0.
  • the pixel value of each pixel of the extracted pixels pix 1 to 7 of the dynamic range block is the highest in the pixel pix 2, followed by the pixels pix l, 3, and thereafter, the pixel pix 4 in the descending order of the pixel value , 5, 6, and 7. Therefore, in the case shown in FIG. 75B, the maximum value is the pixel value of the pixel pix2, and the minimum value is the pixel value of the pixel pix7. Also, as shown in FIG. 76A, the direction of the thin line is a direction in which the pixels having the maximum pixel value are continuous, and the direction in which the pixel having the maximum value is arranged is the direction of the thin line. It becomes.
  • the gradient G fl indicating the direction of the thin line is the ratio of the change in the spatial direction Y (the change in distance) to the unit distance in the spatial direction X, so that in the case shown in FIG.
  • the distance in the spatial direction Y relative to the distance of one pixel in the spatial direction X in the figure is the gradient G fl .
  • the change in the pixel value of each of the spatial directions XO to X2 with respect to the spatial direction Y is such that a mountain-shaped waveform is repeated at a predetermined interval in each spatial direction X.
  • the thin line is the direction in which the pixels having the maximum value are continuous, so that the interval S in the spatial direction Y that is the maximum value in each spatial direction X is represented by the gradient G of the thin line. becomes fl . That is, as shown in FIG. 76C , the amount of change in the vertical direction with respect to the distance of one pixel in the horizontal direction is the gradient G fl .
  • d_y indicates the difference in pixel value between pixels in the spatial direction Y.
  • the larger the gradient G fl in the spatial direction the closer the thin line becomes to a vertical one, so that the mountain-shaped waveform becomes an isosceles triangular waveform with a large base, and conversely, the gradient S The smaller the is, the smaller isosceles triangular waveform at the bottom.
  • the larger the gradient G fl is, the smaller the difference d_y of the pixel value between the pixels in the spatial direction Y is, and the smaller the gradient S is, the larger the difference d ⁇ y of the pixel value between the pixels in the spatial direction Y is.
  • equation ( 35 ) is a function of one variable with the gradient G fl as a variable, the (vertical) difference d—y of the pixel value between neighboring pixels and the maximum value for the target pixel and , Can be obtained by using one set of the difference (L-B) of the minimum values.
  • a dynamic range block is extracted for each pixel of the extraction block corresponding to the pixel of interest, a dynamic range Dr is obtained from the maximum value and the minimum value, and a dynamic range Dr is obtained for each pixel of the extraction block.
  • the extraction block is composed of three pixels in the spatial direction Y and three pixels in the spatial direction X of the pixel of interest (the square pixel drawn with a black solid line in the figure). May be a total of 15 pixels for the left and right pixels.
  • the horizontal / vertical determination unit 711 Therefore, in this case, it is determined that the pixel is in the vertical direction. Therefore, as shown in Fig. 78, the dynamics of 3 pixels each in the vertical direction (the spatial direction Y) including the pixel pixl l are included. Assuming that there are 7 pixels in the range of the range block B1, the maximum and minimum pixel values of the pixels of the dynamic range block B1 are obtained, and further obtained from the maximum and minimum values.
  • the dynamic range is assumed to be the dynamic range Dr 11.
  • the dynamic range Dr 12 is similarly obtained from the seven pixels of the dynamic range block B 2 in FIG.
  • the gradient G fl is statistically obtained using the least squares method based on the combination of the 18 pixel differences d_y i in the extraction block and the corresponding dynamic range Dr i.
  • the one-variable least-squares method solves, for example, the slope G fl of a straight line composed of the predicted values Dri_c, which minimizes the distance to all the measured values indicated by the black dots shown in FIG. 79. is there. Therefore, the slope S is obtained from the relationship represented by the above equation (35) by the following method.
  • the dynamic range Dri_c can be obtained by substituting the difference d_yi between the pixels of the extracted block into the above equation (36). Therefore, the relationship of the following equation (37) is satisfied for each pixel.
  • Dri_c G fl X d_yi
  • the difference d_yi is the difference in pixel value between pixels in the spatial direction Y of each pixel i (for example, a pixel adjacent to pixel i in the upward or downward direction).
  • Pixel between pixels Dri_c is the dynamic range obtained when equation (70) holds for pixel i.
  • the least-squares method here is based on the actual measurement of pixel i obtained by the method described with reference to FIGS. 75A and 75B and the dynamic range Dr i-c of pixel i of the extracted block.
  • the gradient G fl at which the sum of squares of differences Q with the dynamic range Dri_r, which is the value, is minimized in all pixels in the image is obtained. Therefore, the sum of squared differences Q is obtained by the following equation (38).
  • Equation (39) Since G fl at which the force S and 0 takes the minimum value of the sum of squared differences Q shown in FIG. 80, G fl min takes the value obtained when Equation (39) becomes 0. By expanding the equation, the gradient G fl is obtained by the following equation (40).
  • the target pixel is a pixel on a thin line in which the angle ⁇ when the horizontal direction is the reference axis is in the range of 45 degrees ⁇ ⁇ ⁇ 135 degrees.
  • the pixel of interest is a pixel on a thin line close to the horizontal direction, where the angle ⁇ of the thin line with respect to the reference axis with respect to the horizontal direction is 0 degree ⁇ 0 ⁇ 45 degrees, or 135 degrees 108 degrees
  • the difference in pixel value between pixels adjacent to pixel i is the difference d_x i in pixel values between pixels adjacent in the horizontal direction, and similarly, the maximum pixel value from a plurality of pixels corresponding to pixel i.
  • the pixels of the dynamic range block to be extracted are also selected from a plurality of pixels existing in the horizontal direction with respect to the pixel i.
  • the processing in this case since the relationship between the horizontal direction and the vertical direction in the above description is merely interchanged, the description thereof is omitted.
  • an angle corresponding to the inclination of the binary edge can be obtained by the same method.
  • the edge portion in the image (in the figure, the character "10" drawn in white on a black flag) (Hereinafter, the edge portion on the image composed of the binary levels is also referred to as a binary edge, as described above) is actually displayed as shown in FIG. 81B. That is, in the real world, as shown in Figure 81C, in the image, the first level (the level of the flag ground) and the second level (the level of the characters (the density of the The boundary consisting of two levels, that is, light shaded area))) is formed, and there are no other levels.
  • the first level the level of the flag ground
  • the second level the level of the characters (the density of the The boundary consisting of two levels, that is, light shaded area)
  • an image captured by the sensor that is, an image captured in pixel units, as shown in FIG.
  • a pixel consisting of a plurality of pixels arranged in the vertical direction such that the pixels in which the first level and the second level are spatially mixed change the ratio (mixing ratio) in a fixed pattern.
  • the first-level pixels are arranged and a part where the second-level pixels are arranged, bordering on an area where the pixels are repeatedly arranged in the direction in which the edge is formed. It becomes an image.
  • the position at which the pixel value increases is shifted in the positive direction of the spatial direction Y, and increases to the maximum pixel value via the point P1 in the figure.
  • the change in the pixel value in the spatial direction Y in the spatial direction X-X2 decreases via the point P2 in the figure further shifted in the positive direction of the spatial direction Y, and the maximum pixel value Becomes the minimum value.
  • the same tendency is observed in the part surrounded by the white line in the actual image.
  • the background part (the part which looks black in Fig. 83A) is As shown by B, a large number of pixels having a low pixel value (pixel value near 90) is distributed, and the portion with little change forms an image of the background region.
  • the portion of FIG. 83B where the pixel values are not low that is, the pixels whose pixel values are distributed in the vicinity of 100 to 200, belong to the space mixed region of the character region and the background region.
  • maximum pixel value near 386.
  • a model for approximately describing the real world from the data of the image obtained by the sensor is set.
  • a real-world image is set as shown in Fig. 85. That is, the level of the background part on the left side of the figure is V1, the level of the character part on the right side of the figure is V2, the mixture ratio between pixels near the binary edge is ⁇ , and the angle of the edge with respect to the horizontal direction is ⁇ .
  • a function that approximately expresses the real world is obtained by setting a model, modeling it, and setting a function that approximately represents the real world. Tilt or angle with respect to the reference axis).
  • the slope indicating the direction of the edge is the ratio of the change in the space direction ⁇ (change in distance) to the unit distance in the space direction X, and in the case shown in FIG.
  • the distance in the spatial direction Y relative to the distance of one pixel in the spatial direction X is the slope.
  • the change of the pixel value in each of the spatial directions XO to X2 with respect to the spatial direction Y is such that a similar waveform is repeated at a predetermined interval in each spatial direction X as shown in FIG.
  • an edge indicates a similar change in pixel value (in this case, a change from a minimum value to a maximum value, a change in pixel value in a predetermined spatial direction ⁇ ).
  • the data continuity detection unit 101 shown in FIG. 63 detects the angle corresponding to the thin line inclination and the angle corresponding to the edge inclination as the data continuity information by the same processing. can do. Therefore, in the following, the gradient is referred to as the gradient G f , collectively including the gradient of the thin line and the gradient of the binary edge.
  • the gradient G fl in the equations ( 38 ) to (40) described above may be G fe , and as a result, the gradient G fl is assumed to be replaced with the gradient G f .
  • step S701 the horizontal / vertical determination unit 7111 initializes a counter T for identifying each pixel of the input image.
  • step S702 the horizontal / vertical determination section 7111 executes data extraction processing necessary for subsequent processing.
  • step S711 the horizontal / vertical determination unit 711 of the data selection unit 701, for each pixel of interest T, as described with reference to FIG. Calculates the sum hdiff of pixel value differences (activity) between horizontally adjacent 9 pixels in the angular direction and the sum vdiff of pixel value differences (activities) of vertically adjacent pixels. And then the difference
  • the horizontal / vertical determination unit 711 1 determines whether the target pixel has a thin line with the reference axis or a binary edge when the horizontal direction is the reference axis. Assuming that the angle S is 0 degree ⁇ 0 ⁇ 45 degrees, or 135 degrees to 180 degrees, it is regarded as a thin line close to the horizontal direction or a pixel near the edge, and the extraction block to be used is horizontal The determination result corresponding to the direction is output to the data acquisition unit 712 and the data addition unit 702.
  • step S712 the data acquisition unit 712 extracts the pixels of the extraction block corresponding to the horizontal or vertical determination result input from the horizontal / vertical determination unit 711 for the pixel of interest. . That is, for example, as shown in FIG. 78, a total of 21 pixels of (3 pixels in the horizontal direction) ⁇ and (7 pixels in the vertical direction) are extracted and stored as an extraction block with the pixel of interest at the center. .
  • step S711 the data acquisition unit 712 extracts the pixels of the dynamic range block corresponding to the direction corresponding to the determination result of the horizontal / vertical determination unit 711 for each pixel of the extraction block. And remember. That is, as described above with reference to FIG. 78, for example, for the pixel pix 11 of the extracted block, the determination result of the horizontal / vertical determination unit 7 11 1 is in the vertical direction in this case.
  • the acquisition unit 7 12 vertically extracts the dynamic range block B 1, and similarly, the pixel pixl 2 extracts the dynamic range block B 2.
  • the dynamic range block is similarly extracted for other extraction blocks.
  • step S703 the data adding unit 702 executes a process of adding a value necessary for each term of the operation of the normal equation (here, equation (74)).
  • step S 721 the difference adding unit 7 2 1 extracts the data stored in the data acquisition unit 7 1 2 according to the determination result of the horizontal / vertical determination unit 7 1 1 of the data selection unit 7 0 1.
  • the difference between the pixel values of the blocks is calculated (detected), and then squared (square) and added. That is, when the determination result of the horizontal / vertical determination unit 7111 is the vertical direction, the difference adding unit 7221 obtains the difference between the pixel values of the pixels of the extraction block between the vertically adjacent pixels. , And then add squared. Similarly, When the determination result of the horizontal / vertical determination unit 711 is in the horizontal direction, the difference adding unit 721 calculates the difference in pixel value between pixels adjacent in the horizontal direction for each pixel of the extraction block. Square and add. As a result, the difference adding unit 7 2 1 generates and stores the sum of squares of the difference of the term that is the denominator of the above equation (40).
  • Step S 722 the MaxMin acquisition unit 722 acquires the maximum value and the minimum value of the pixel values of the pixels included in the dynamic range block stored in the data acquisition unit 712, and In, a dynamic range is obtained (detected) from the difference between the maximum value and the minimum value, and is output to the difference adding unit 723. That is, in the case of a 7-pixel dynamic range block composed of pixels pixl to 7 as shown in FIG. 75B, the pixel value of pix2 is detected as the maximum value and the pixel of pix7 is the minimum value. , And these differences are obtained as a dynamic range.
  • step S 724 the difference addition unit 723 sets the horizontal / vertical determination unit 711 of the data selection unit 701 among the pixels of the extraction block stored in the data acquisition unit 712. The difference of the pixel value between the pixels adjacent to each other in the direction corresponding to the judgment result is obtained (detected), and the value obtained by multiplying the dynamic range inputted from the MaxMin acquisition unit 722 is added.
  • the difference adding unit 721 generates and stores the sum of the terms that are the numerator of the above-described equation (40).
  • step S704 the difference addition unit 7221 determines the difference between the pixel values of all the pixels of the extraction block (the difference between the pixel values in the direction corresponding to the determination result of the horizontal / vertical determination unit 711). It is determined whether or not the differences between the pixels of the extraction block have been added. For example, if it is determined that the differences between the pixels of all the pixels of the extraction block have not been added, the processing is performed in step S7. Returning to 02, the subsequent processing is repeated. That is, the processes of steps S702 to S704 are repeated until it is determined that the difference between the pixel values of all the pixels of the extraction block has been added.
  • step S704 If it is determined in step S704 that the difference between the pixel values of all the pixels of the extraction block has been added, then in step S705, the difference adding units 7 2 1 and 7 2 3 outputs the addition result stored by itself to the stationary direction deriving unit 703.
  • step S706 the stationary direction calculation unit 731 performs horizontal-vertical determination among the pixels of the acquisition block input from the difference addition unit 721 of the data addition unit 720.
  • the angle indicating the direction of the stationarity (the angle indicating the inclination of the thin line or the binary edge), which is the data stationarity information of the pixel of interest, is statistically calculated using the least squares method. And output.
  • step S707 the data acquisition unit 712 determines whether or not processing has been performed on all pixels of the input image, and for example, processing has not been performed on all pixels of the input image. That is, if it is determined that the information on the angle of the thin line or the binary edge has not been output for all the pixels of the input image, the counter T is incremented by 1 in step S708, and the processing is performed. Return to step S702. That is, the processes of steps S702 to S708 are repeated until the pixel to be processed in the input image is changed and the processing is performed on all the pixels of the input image.
  • the change of the pixel by the counter T may be, for example, a raster scan or the like, or may change sequentially according to other rules.
  • step S709 the data acquisition unit 712 determines whether there is a next input image. If it is determined that there is a next input image, the process returns to step S701, and the subsequent processes are repeated. If it is determined in step S709 that there is no next input image, the process ends.
  • the angle of the thin line or the binary edge is detected and output as the continuity information.
  • the angle of the thin line or edge obtained by the statistical processing substantially matches the angle of the thin line or the binary edge obtained by using the correlation. That is, for the image in the range surrounded by the white line of the image shown in Fig. 91A, the change in the inclination in the spatial direction Y on the predetermined horizontal coordinate on the thin line is shown in Fig. 91B.
  • the angles (black triangles in the figure) almost coincide with each other on the coordinates in the spatial direction Y near the thin line.
  • the change in the inclination in the spatial direction Y on the predetermined horizontal coordinate on the binary edge is shown in Fig. 92B
  • the degree black circle in the figure
  • the angles of the binary edges (black triangles in the figure) obtained by are almost identical on the coordinates in the spatial direction Y near the thin line.
  • the space direction Y 376 (near) to 3888 (near) is the coordinates on the thin line.
  • the 63 uses a correlation using a block consisting of predetermined pixels when calculating the angle of a thin line or a binary edge as data continuity. Unlike this, the information indicating the inclination of a thin line or a binary edge (here, the angle with the horizontal direction as the reference axis) can be statistically obtained using the information around each pixel. As seen in the method used, there is no switching according to the range of the predetermined angle, so all thin lines or binary Since the inclination angle of the edge can be obtained by the same processing, the processing can be simplified.
  • the data continuity detecting unit 101 has been described as an example in which the thin line or the angle formed by the binary edge with the predetermined reference axis is output as continuity information.
  • the stationary direction calculation unit 731 of the stationary direction derivation unit 73 of the data continuity detection unit 101 should calculate the thin line obtained by the least squares method or the gradient G f of the binary edge. May be directly output as the stationarity information.
  • the dynamic range Dri_r has been calculated as being required for each pixel of the extraction block, but this dynamic range can be obtained by setting the dynamic range block sufficiently large. That is, by setting many pixels of interest using many pixels around them, the maximum and minimum pixel values of the pixels in the image should always be selected. Therefore, the dynamic range Dri_r does not calculate for each pixel of the extraction block, but calculates the dynamic range obtained from the maximum and minimum values of the pixels in the extraction block or in the image data as a fixed value. You may.
  • the angle 0 (slope G f ) of the thin line may be obtained by adding only the pixel value difference between pixels.
  • the arithmetic processing can be further simplified, and the processing can be performed at high speed.
  • the difference between the data continuity detection unit 101 in FIG. 93 and the data continuity detection unit 101 in FIG. 63 is that the data addition unit 702 and the continuity direction derivation unit 703 are different. Instead, a data adding section 751 and a mixture ratio deriving section 761 are provided.
  • the MaxMin acquisition unit 752 of the data addition unit 751 performs the same processing as the MaxMin acquisition unit 722 of Fig. 63, except that the maximum value of the pixel value of each pixel of the dynamic range block is The minimum value is obtained, the difference between the maximum value and the minimum value (dynamic range) is obtained, and the calculated value is output to the adding sections 735 and 755, and the maximum value is output to the difference calculating section 754.
  • the addition unit 753 squares the value input from the MaxMin acquisition unit, adds up all the pixels of the extraction block, obtains the sum, and outputs the sum to the mixture ratio derivation unit 761 .
  • the difference calculation unit 754 obtains a difference between the maximum value of the corresponding dynamic range block for each pixel of the acquisition block of the data acquisition unit 712 and outputs the difference to the addition unit 755.
  • the addition unit 755 includes, for each pixel of the acquisition block, the difference (dynamic range) between the maximum value and the minimum value input from the MaxMin acquisition unit 752, and the acquisition block input from the difference calculation unit 754. Is multiplied by the difference between the pixel value of each pixel and the maximum value of the corresponding dynamic range block to obtain the sum, and outputs the sum to the mixture ratio deriving unit 761.
  • the mixture ratio calculation unit 762 of the mixture ratio derivation unit 761 calculates the mixture ratio of the pixel of interest by the least square method based on the values input from the addition units 753 and 755 of the data addition unit. It is obtained statistically and output as data continuity information.
  • the range between the white lines in FIG. 94B indicates the position corresponding to the thin line region.
  • the pixel value M of this pixel should be an intermediate color between the pixel value B corresponding to the level of the background area and the pixel value L corresponding to the level of the thin line area.
  • the pixel value P s Is the ratio of the area of the background area to the area of the thin line area, and the levels should be mixed.
  • the pixel value P s is expressed by the following equation (42).
  • the pixel value must exist at a position that straddles the area of the first pixel value (pixel value B) and the area of the second pixel value (pixel value L).
  • the pixel value L can be replaced by the maximum pixel value Max, and the pixel value B is It can be replaced with the minimum pixel value. Therefore, the mixing ratio is
  • the mixing ratio of 0 / is the dynamic range of the dynamic range block (corresponding to (Mi n -Max)) for the pixel of interest, the pixel of interest, and the dynamic range block.
  • the mixture ratio ⁇ ' is statistically obtained by the least square method.
  • Equation (45) is a one-variable least squares equation similar to equation (36) described above. That is, in Equation (36), the gradient G f was obtained by the least square method, but here, the mixture ratio 0? Is obtained. Therefore, the mixture ratio is obtained statistically by solving the normal equation represented by the following equation (46).
  • step S731 the horizontal / vertical determination unit 7111 initializes a counter U for identifying each pixel of the input image.
  • step S732 the horizontal / vertical determination unit 7111 executes a process of extracting data necessary for subsequent processing. Note that the processing in step S732 is the same as the processing described with reference to the flowchart in FIG. 89, and a description thereof will be omitted.
  • step S733 the data adding unit 751 executes a process of adding a value necessary for each term of the operation of the normal equation (here, equation (46)).
  • step S751 the MaxMin acquisition unit 752 acquires the maximum value and the minimum value of the pixel values of the pixels included in the dynamic range block stored in the data acquisition unit 712, and calculates the minimum value among them. Output to the difference calculation unit 754.
  • step S752 the MaxMin acquisition unit 752 obtains a dynamic range from the difference between the maximum value and the minimum value, and outputs the dynamic range to the difference addition units 753, 755.
  • step S753 the adding unit 753 adds the dynamic range (Max-Min) input from the MaxMin obtaining unit 752 to the square. That is, the addition unit 753 generates a value corresponding to the denominator of the above equation (46) by addition.
  • step S754 the difference calculation unit 754 calculates the difference between the maximum value of the dynamic range block input from the MaxMin acquisition unit 752 and the pixel value of the pixel currently being processed in the extraction block. Then, it is output to the adding section 7 5 5.
  • the adding unit 7555 includes the dynamic range input from the MaxMin obtaining unit 752 and the pixel of the pixel currently being processed, input from the difference calculating unit 754. The value is multiplied by the difference between the maximum value of the pixels in the dynamic range block and added. That is, the adding section 7555 generates a value corresponding to the term of the numerator of the above equation (46).
  • the data adding unit 751 executes the calculation of each term of the above equation (46) by the adding process.
  • the description returns to the flowchart of FIG.
  • step S734 the difference addition unit 7221 determines whether addition has been completed for all pixels of the extraction block, and for example, performs addition processing for all pixels of the extraction block. If it is determined that has not been completed, the process returns to step S732, and the subsequent processes are repeated. That is, the processing of steps S732 to S734 is repeated until it is determined that the addition processing has been completed for all pixels of the extraction block.
  • step S734 If it is determined in step S734 that the addition has been completed for all the pixels of the extracted block, then in step S735, the addition units 735, 755 store the information by themselves. The result of the addition is output to the mixture ratio deriving unit 761.
  • step S 736 the mixture ratio calculation unit 762 of the mixture ratio derivation unit 760 1 outputs the dynamics input from the addition units 735, 755 of the data addition unit 715. Based on the sum of the square of the clean range and the sum of the dynamic range and the difference between the pixel value of each pixel of the extracted block and the maximum value of the dynamic range block, the above equation (46) is used. By solving the normal equation shown above, the mixture ratio, which is the data continuity information of the pixel of interest, is statistically calculated using the least squares method and output.
  • step S 737 the data acquisition unit 7 12 determines whether or not processing has been performed on all pixels of the input image, and for example, processing has not been performed on all pixels of the input image. That is, when it is determined that the mixture ratio has not been output for all the pixels of the input image, the counter U is incremented by one in step S738, and the process returns to step S732. .
  • steps S732 to S736 is repeated until the pixel to be processed in the input image is changed and the mixture ratio is calculated for all the pixels of the input image.
  • the change of the pixel by the counter U may be, for example, a raster scan or the like, or may change sequentially according to other rules. If it is determined in step S7337 that the processing has been performed on all the pixels of the input image, in step S739, the data acquisition unit 7122 determines whether there is a next input image, If it is determined that there is a next input image, the process returns to step S731, and the subsequent processes are repeated.
  • step S739 If it is determined in step S739 that there is no next input image, the process ends.
  • the mixture ratio of each pixel is detected and output as the stationarity information.
  • the change in the mixture ratio in each of the successive spatial directions X is the change in the pixel value that changes with the mixture ratio (the change in the pixel value shown in Figure 72 ⁇ ) This is a change similar to that shown above, and it is understood that the mixture ratio of the pixels near the fine line is accurately expressed because the periodicity is continuous.
  • the change in the mixture ratio of the binary edge is the same as the change in the pixel value that changes with the mixture ratio (the change in the pixel value shown in Figure 84 ⁇ ). This is almost the same as the above, and it is understood that the mixture ratio of the pixel values in the vicinity of the binary edge is accurately represented because the pixel values are periodically continuous.
  • the mixture ratio of each pixel can be statistically obtained as data continuity information by the least square method. Further, the pixel value of each pixel can be directly generated based on the mixture ratio.
  • the change in the mixture ratio has a stationarity, and if the change in the mixture ratio is approximated by a linear one, the relationship expressed by the following equation (47) is established.
  • m indicates the gradient when the mixing ratio changes with respect to the spatial direction Y
  • n corresponds to the intercept when the mixing ratio changes linearly. It is. That is, as shown in FIG. 99, the straight line indicating the mixture ratio is a straight line indicating the boundary between the pixel value B corresponding to the level of the background area and the level L corresponding to the level of the thin line. In this case, The amount of change in the mixture ratio when traveling a unit distance in the spatial direction Y is the slope m.
  • Equation (49) m in the first term indicates the spatial gradient of the mixture ratio, and the second term indicates the intercept of the mixture ratio. Therefore, a normal equation can be generated and found for m and n in the above equation (49) using the least square method of two variables.
  • the slope m of the mixture ratio because one whose aforementioned thin lines and binary Ejji slope (gradient G f above mentioned), advance, using the method described above, thin lines, or binary Ejji gradient G After finding f , the slope is substituted into equation (49) to obtain a function of one variable for the intercept term, and by the least square method of one variable as in the above method You may ask for it.
  • the data continuity detection unit 101 that detects the thin line in the spatial direction or the angle (inclination) of the binary edge or the mixture ratio as the data continuity information has been described. It may correspond to an angle in the space direction obtained by replacing any of the axes in the space (spatial directions X, Y) with the axis in the time direction (frame direction) ⁇ . That is, the one corresponding to the angle obtained by replacing any of the axes in space (space directions X and Y) with the axis in the time direction (frame direction) T is the motion vector of the object. (In the direction of the vector).
  • the portion corresponding to the thin line in the figure shows the trajectory of the movement of the object. Therefore, in FIG. 10OA, the inclination of the thin line in the time direction T indicates the direction in which the object moves (the angle indicating the motion of the object) (equivalent to the direction of the motion vector). Therefore, in the real world, in the frame at a predetermined time indicated by the arrow in FIG. 10A, the part that becomes the trajectory of the object becomes the (color) level of the object as shown in FIG. The other part becomes a pulse-like waveform connected to the background level.
  • the distribution of pixel values of each pixel of the frame at times T1 to T3 is as follows.
  • a mountain-shaped waveform is formed in each of the spatial directions Y.
  • This relationship can be considered to be similar to the relationship in the spatial directions X and Y described with reference to FIGS. 71A and 71B. Therefore, if the object is moving in the frame direction T, the direction of the motion vector of the object is determined by the same method as the information of the inclination of the thin line or the angle (inclination) of the binary edge described above. It can also be obtained as data continuity information.
  • the frame direction T the frame direction T
  • each cell is a shirt time that forms an image of one frame.
  • each pixel value is obtained corresponding to the movement of the object in the spatial direction Y on the frame corresponding to 1.
  • the pixel value of the pixel surrounded by the solid black line is, as shown in FIG. 102C, the background level and the object level corresponding to the motion of the object. Is the pixel value that is mixed at the mixing ratio in the frame direction.
  • the level O of the object and the level B of the background can be linearly approximated by a mixture ratio S in the frame direction (time direction). This relationship is similar to the linear approximation of the mixture ratio in the spatial direction described with reference to FIG.
  • the mixing ratio in the time (frame) direction can be obtained as data continuity information by the same method as the mixing ratio in the spatial direction.
  • one of the frame direction and the spatial direction may be selected to obtain the stationary angle or the direction of the motion vector.
  • the mixing ratio and ⁇ may be determined. It may be determined selectively.
  • the real-world optical signal is projected, the area corresponding to the pixel of interest in the image data in which part of the continuity of the real-world optical signal is missing, and the missing area in the selected area is selected. Detects a feature for detecting the angle of the continuity of the image data corresponding to the continuity of the optical signal in the real world with respect to the reference axis, statistically detects the angle based on the detected feature, and detects the detected image.
  • the optical signal is estimated by estimating the stationarity of the missing real-world optical signal based on the angle of the data stationarity with respect to the reference axis, the stationarity angle (direction of the motion vector) , Or (space-time) mixing ratio.
  • the data continuity detecting unit 101 detects the continuity of the data corresponding to the continuity of the optical signal in the real world of a plurality of peripheral pixels of the input image corresponding to the target pixel.
  • the continuity of the data detected by the data continuity detection unit 101 is a part of the continuity of the real world image included in the input image, Or, it is a stationarity that has changed from the stationarity of the real-world signal.
  • the data continuity detecting unit 101 detects data continuity by detecting an angle (inclination) in the spatial direction, which indicates a similar arrangement of shapes.
  • the data continuity information can be used as a feature amount indicating a feature of data.
  • step S102 the class tap extracting unit 102 selects a target pixel that is a target HD pixel of the HD image to be created.
  • the class tap extracting unit 102 extracts a plurality of peripheral pixels of the input image corresponding to the target pixel based on the continuity of the data detected by the data continuity detecting unit 101, and extracts the extracted input.
  • a plurality of peripheral pixels of the image are set as class taps.
  • the class tap is supplied to the feature amount detection unit 103, and the procedure proceeds to step S103.
  • the class tap extracting unit 102 inputs a plurality of pixel values that are spatially or temporally close to the position of the pixel of interest based on the continuity of the data detected by the data continuity detecting unit 101.
  • the class tap extracting unit 102 extracts a plurality of peripheral pixels of the input image corresponding to the target pixel based on the data continuity. The processing will be described.
  • Figure 104 is a diagram illustrating the conventional process of extracting class taps based on the motion vector V in the classification and adaptive processing, which creates a high-resolution image frame in the temporal direction. is there.
  • Frame # 1 is the next frame after frame # 0, that is, the frame temporally after frame # 0.
  • the frame of interest is placed between frame # 0 and frame # 1.
  • black circles indicate target pixels, and white circles indicate peripheral pixels to be extracted.
  • the motion vector V corresponding to the target pixel is detected, the detected motion vector V passes through the target pixel, the starting point is located at frame # 0, and the ending point is located at frame # It is arranged to be located at 1. Then, the pixel x (2) located at the start point of the arranged motion vector V and the pixel x (5) located at the end point of the arranged motion vector V are extracted as class taps.
  • the pixel ⁇ and the pixel x (3) of the frame # 0 adjacent to the pixel ⁇ (2) are extracted as a class tap, and the frame ⁇ ⁇ ⁇ ⁇ adjacent to the pixel x (5) is extracted.
  • Pixel x (4) and pixel x (6) of # 1 are extracted as class taps.
  • FIG. 105 is a diagram for explaining the process of extracting class taps based on the direction C of data continuity in the image processing apparatus of the present invention.
  • the unit of the pixel is based on the pixel in the input image.
  • the coordinate value in the spatial direction Y increases (plus side)
  • the coordinate value in the spatial direction Y decreases (minus side).
  • the coordinate values in the spatial direction X increase (plus side)
  • the coordinate values in the spatial direction X decrease (minus side).
  • the amount of change in the spatial direction Y with respect to the distance of one pixel in the spatial direction X is 325 pixels.
  • a pixel x (5 ) of 0.25 pixels in the spatial direction X and 0.75 pixels in the spatial direction Y, Pixels in the spatial direction X-0.25 pixels in the spatial direction Y + 0.25 pixels in the spatial direction X "), and pixels in the spatial direction X 0.25 pixels and the spatial direction Y in 1.75 pixels X ( 6) is extracted as a class tap.
  • the pixel x (2) of +0.75 pixel in the spatial direction and +2.75 pixel in the spatial direction Y and +0.75 pixel in the spatial direction X with respect to the pixel of interest belonging to the area having data continuity.
  • a pixel X (8 ) of one-1.25 pixels in the spatial direction X and _3.75 pixels in the spatial direction Y, and one pixel in the spatial direction X 1. 25 pixels and 1.75 pixels x (7 ) in spatial direction Y, and 1.25 pixels in spatial direction X and 1.75 pixels in spatial direction Y 4.75 pixels X (9) are extracted as cluster types Is done.
  • an X mark indicates an HD pixel
  • a circle mark indicates an SD pixel
  • the positions of a pixel in the spatial direction X and b pixel in the spatial direction Y from a predetermined reference position such as the target pixel are represented by (a, b).
  • the positions of three peripheral pixels that are adjacent in the spatial direction Y and six peripheral pixels that are adjacent to the three peripheral pixels in the spatial direction X are determined in advance as a reference.
  • the reference position of the peripheral pixel can be arbitrarily determined, such as every other pixel in the spatial direction X or every other pixel in the spatial direction ⁇ ⁇ .
  • the corresponding pixel is located within a range of 0.25 to +0.25 pixels in the spatial direction X and 0.25 to +0.25 pixels in the spatial direction ⁇ ⁇ ⁇ ⁇ with respect to the target pixel.
  • the center pixel may or may not be the same as the corresponding pixel. That is, the center pixel is not necessarily the same as the corresponding pixel.
  • positions of a target pixel HD pixel yi is, based on the corresponding pixel x u (one 0.25 + 0.25) when it is, the corresponding pixel X u or et space a pixel chi 12 position of one pixel in the direction X, the distance in the spatial direction X of the pixel of interest is 1.25 pixel, that is, 5Z4 pixel.
  • the spatial direction from the pixel of interest y i Input pixel that is 1.25 pixels in X and 1.25 pixels in spatial direction Y (distance 1.25 in spatial direction X multiplied by 1.25 and distance 1.25)
  • input pixels x 6 are selected as class taps.
  • an input pixels aligned in a row in the input pixel x 6 in the spatial direction Y the input pixels at the predetermined position as a class tap for the input pixel x 6 Selected.
  • the input pixel chi 3 and the input pixel chi 9 adjacent in the spatial direction Y to the input pixel x 6 selected is selected as a class tap.
  • a position of 1.25 pixels in the spatial direction X from the pixel of interest and 2.50 pixels in the spatial direction Y (distance 2.50 obtained by multiplying the distance 1.25 in the spatial direction X by the slope 2 2.50)
  • the input pixel closest to, for example, input pixel x 3 is selected as a class tap.
  • an input pixels aligned in a row in the spatial direction Y to the input pixel x 3 the input pixel is in place as a class tap for the input pixel x 3 Selected.
  • an input pixel adjacent to the selected input pixel # 3 in the spatial direction Y is selected.
  • the target position of a target pixel HD pixel yi is the corresponding picture element x u with respect to (one 0.2 5 + 0.2 5), so the corresponding pixel x u
  • the distance in the spatial direction X from the pixel yi is 0.25 pixels, that is, 1,4 pixels.
  • the amount of change in the spatial direction Y in the spatial direction X with respect to the distance of one pixel in the spatial direction X in the spatial direction X is 2 pixels (when the slope of the data continuity is 2), as shown in FIG. Is 0.25 pixels in the spatial direction X from the pixel of interest yi, and 0.50 pixels in the spatial direction Y (the distance 0 obtained by multiplying the distance 0.25 in the spatial direction X by the slope 2)
  • the input pixel closest to the position of .50 for example, the input pixel Xll, is selected as the center pixel.
  • an input pixel x 8 and the input pixel x 14 adjacent in the spatial direction Y is selected input pixel selected.
  • the corresponding pixel and the center pixel are the same pixel.
  • the amount of change in the spatial direction Y in the spatial direction X with respect to the distance of one pixel in the spatial direction X is 3.25 pixels (when the slope of the data continuity is 3.25).
  • the slope in the spatial direction X is 0.25. . the nearest input pixel to a position of the second distance obtained 5 by multiplying the 0.8 1 2 5), for example, the input pixel x 14 as the center pixel, is selected.
  • the input pixel x u and the input pixel X 17 adjacent to the selected input pixel x 14 in the spatial direction Y are selected.
  • the corresponding pixel and the center pixel are different pixels.
  • the spatial direction from the target pixel y 2 Input pixels that are 0.75 pixels in X and 0.75 pixels in spatial direction Y (distance 0.75 obtained by multiplying distance 0.75 in spatial direction X by slope 1)
  • input pixel x 9 is selected as a class tap.
  • an input pixels aligned in a row in the input pixel chi 9 in the spatial direction Y the input pixels at the predetermined position as a class tap for the input pixel X 9 Selected.
  • the input pixel X 6 and input pixel X 12 adjacent in the spatial direction ⁇ is selected in the input pixel chi 9 selected.
  • the amount of change in the spatial direction X in the spatial direction ⁇ ⁇ ⁇ ⁇ with respect to the distance of one pixel in the spatial direction X in the spatial direction of the data is 2 pixels (when the slope of the data continuity is 2), as shown in FIG. , 0.75 pixels in the spatial direction X from the pixel of interest y 2 , 1.50 pixels in the spatial direction Y (the distance obtained by multiplying 0.75 in the spatial direction X by the slope 2 is 1.50)
  • the input pixel closest to the position for example, input pixel x 6 is selected as a class tap.
  • an input pixels aligned in a row in the input pixel chi 6 in the spatial direction Y the input pixels at the predetermined position as a class tap for the input pixel chi 6 Selected.
  • the input pixel X 3 and input pixel X 9 adjacent in the spatial direction ⁇ is selected in the input pixel chi 6 selected.
  • peripheral pixels having data continuity can be selected as class taps.
  • peripheral pixels having common features are selected as class taps, so that the class can be more appropriately classified.
  • the direction of the continuity of the data in the spatiotemporal direction is detected, and the class of the spatiotemporal direction is determined based on the detected direction of the continuity of the data in the spatiotemporal direction. Taps can be extracted.
  • FIG. 108 shows a class tap in the spatiotemporal direction based on the direction C of continuity of data in the spatiotemporal direction detected by the data continuity detecting unit 101 in the image processing apparatus of the present invention.
  • FIG. 9 is a diagram for explaining the extraction process.
  • the number of pixels in one spatial direction of the output image is twice that of the input image, and the number of frames per unit time of the output image is twice.
  • the past time corresponds to the position on the left side in the figure
  • the future time corresponds to the position on the right side in the figure.
  • the coordinate values in the spatial direction increase (positive side)
  • the coordinate values in the spatial direction decrease (minus side).
  • F— 2 F is the same F.
  • F and F 2 and F 3 indicate frames of the output image.
  • the amount of change in the spatial direction with respect to the distance of one frame in the time direction with respect to the input image is 3.25 pixels.
  • a pixel of interest (indicated by a black circle in the figure) belonging to an area having data continuity
  • a pixel of one 0.25 frame in the time direction and one 1.75 pixel in the spatial direction ⁇ (6) Are extracted as class taps.
  • Pixels x (3) of +1.75 pixels in the 75 frames and the spatial direction are extracted as class taps.
  • the pixel in the time direction is 1.25 frames and the pixel in the space direction is 1.3.75 pixels x (8 ), and the pixel in the time direction is 1.2.
  • a pixel x (7 ) of 12.75 pixels in 5 frames and spatial direction and a pixel X (9) of 12.75 pixels in temporal direction and 14.7 frames in spatial direction are extracted as cluster types. Is done.
  • the process of extracting class taps in the spatio-temporal direction based on the slope of the stationarity of the data in the spatio-temporal direction is based on the process described with reference to FIGS. 106 and 107. The description is omitted because it is the same as the one replaced in the time direction.
  • step S103 the feature amount detection unit 103 detects a feature amount from the input image or the class tap, and supplies the detected feature amount to the class classification unit 104.
  • the class tap is supplied to the classifying section 104, and the process proceeds to step S104.
  • step S104 the classifying unit 104 assigns the target pixel to one of one or more classes based on the feature amount or the class tap supplied from the feature amount detecting unit 103.
  • the class classification is performed, and the resulting class code representing the class of the pixel of interest is supplied to the coefficient memory 105 and the prediction tap extracting unit 106, and the process proceeds to step S105.
  • step S105 the prediction tap extracting unit 106 determines a plurality of peripheral pixels of the input image corresponding to the target pixel based on the continuity of the data detected by the data continuity detecting unit 101. A plurality of peripheral pixels of the extracted input image are used as prediction taps.
  • the process of extracting prediction taps by the prediction tap extraction unit 106 is the same as the process of the class tap extraction unit 102, and a detailed description thereof will be omitted.
  • peripheral pixels having data continuity can be selected as prediction taps. Accordingly, neighboring pixels having common features are selected as prediction taps, so that pixel values can be predicted more accurately or more accurately.
  • the predictive tap extracting unit 106 includes a predictive tap extracting unit 106 that determines whether or not the data stationarity detected by the data constancy detecting unit 101 and the class supplied from the classifying unit 104. Based on the code, a plurality of pixel values that are spatially or temporally close to the position of the pixel of interest are extracted from the input image as prediction taps, and prediction taps are generated. The prediction tap is supplied to the pixel value prediction unit 107, and the procedure proceeds to Step S106.
  • step S106 the coefficient memory 105 reads out the prediction coefficient (tap coefficient) stored in the address corresponding to the class code supplied from the classifying unit 104, thereby The prediction coefficient of the pixel class is obtained, the prediction coefficient is supplied to the pixel value prediction unit 107, and the process proceeds to step S107.
  • step S 107 the pixel value prediction unit 107 performs an adaptive process on the basis of the feature amount detected by the feature amount detection unit 103, and extracts the pixel value by the prediction tap extraction unit 106. (Predicted value of) the pixel of interest from the plurality of peripheral pixels thus obtained, and the process proceeds to step S108. That is, in step S107, the pixel value prediction unit 107 uses the prediction tap from the prediction tap extraction unit 106 and the prediction coefficient (tap coefficient) from the coefficient memory 105. Then, the calculation shown in equation (1) is performed to predict (the predicted value of) the pixel of interest.
  • step S108 the class tap extracting unit 102 determines whether there is a pixel that is not the pixel of interest yet among the pixels of the frame of interest in the HD image, and determines that there is an existing pixel. Then, the process returns to step S102, and the same processing is repeated thereafter. Also, in step S108, when it is determined that there is no pixel that is not the pixel of interest among the pixels of the frame of interest, that is, when all the HD pixels constituting the frame of interest are predicted Then, the pixel value prediction unit 107 outputs an output image including the predicted pixels, and the process ends.
  • the image processing apparatus shown in FIG. 5 can generate an output image with higher resolution from an input image and output the generated output image.
  • FIGS. 109 to 118 are diagrams illustrating examples of processing results of the image processing apparatus according to the present invention.
  • FIG. 109 is a diagram illustrating an example of an input image.
  • FIG. 110 is a diagram illustrating an image that is a source of an input image. That is, the pixel value of the input image shown in FIG. 109 was calculated from the average of the pixel values of the four pixels of the image shown in FIG.
  • FIG. 11 is a diagram showing an image generated by applying the conventional classification adaptive processing to the input image shown in FIG.
  • FIG. 9 is a diagram illustrating an image generated by extracting a class tap and a prediction tap, classifying the class tap, and applying an adaptive process.
  • FIG. 113 is a diagram showing an image generated from the input image shown in FIG. 109 by the image processing device shown in FIG.
  • Fig. 113 shows that the slope of the data continuity is detected from the input image, and the class tap is used so that the corresponding pixel and the center pixel are appropriately different based on the steadiness of the data.
  • FIG. 4 is a diagram illustrating an image generated by extracting prediction taps, classifying the prediction taps, and applying adaptive processing.
  • FIG. 114 is a diagram illustrating another example of the input image.
  • FIG. 115 is a diagram showing an image that is the basis of the input image shown in FIG. That is, the pixel value of the input image shown in FIG. 114 was calculated from the average of the pixel values of the four pixels of the image shown in FIG.
  • FIG. 116 is a diagram showing an image generated by applying the conventional classification adaptive processing to the input image shown in FIG.
  • FIG. 117 detects the slope of the data continuity from the input image shown in FIG. 114, and based on the slope of the data continuity, makes the corresponding pixel and the center pixel always the same.
  • FIG. 11 is a diagram illustrating an image generated by extracting a cluster tap and a prediction tap, classifying the extracted tap, and applying an adaptive process.
  • FIG. 118 is a diagram showing an image generated from the input image shown in FIG. 114 by the image processing device shown in FIG. That is, Fig. 118 shows that the slope of the data continuity is detected from the input image, the class tap and the prediction are performed so that the corresponding pixel and the center pixel are appropriately different from each other based on the slope of the data continuity.
  • FIG. 11 is a diagram illustrating an image generated by extracting taps, classifying the taps, and applying adaptive processing.
  • the image generated from the input image by the image processing device shown in FIG. 5 is a smoother image compared to the image generated by applying the conventional classification adaptive processing, and the original image It can be seen that the image is closer to.
  • the image of the moire portion by the two lines can be almost completely restored.
  • FIG. 119 is a block diagram showing a configuration of an embodiment of a learning device that performs learning for obtaining a tap coefficient for each class stored in the coefficient memory 105 of FIG.
  • an HD image as an image (teacher image) for learning tap coefficients is input to the learning device in FIG.
  • the input image input to the learning device is supplied to a student image generation unit 801 and a teacher pixel extraction unit 809.
  • the student image generation unit 8001 generates an SD image, which is a student image, from the input image (teacher image) that has been input, and supplies the SD image to the image memory 8002.
  • the student image generation unit 800 obtains the average value of the pixel values of four HD pixels adjacent to each other in the horizontal or vertical direction of the HD image as the teacher image and sets the average value as the pixel value of the SD image.
  • An SD image as a student image corresponding to the HD image as the teacher image is generated.
  • the SD image needs to have an image quality corresponding to the SD image to be processed by the image processing apparatus in FIG.
  • the image memory 802 temporarily stores an SD image as a student image from the student image generating unit 801.
  • tap coefficients are generated using SD images as student data.
  • the data continuity detection unit 803 detects and detects data continuity from the student image stored in the image memory 802 in the same manner as in the data continuity detection unit 101 in FIG.
  • Data stationarity information indicating stationarity is supplied to the class tap extracting section 804 and the prediction tap extracting section 807.
  • the details of the configuration of the data continuity detecting section 803 are the same as those of the data continuity detecting section 101, and therefore description thereof is omitted.
  • the class tap extraction unit 800 outputs an HD image as a teacher image corresponding to the SD image that is the student image stored in the image memory 800.
  • One of the pixels included in is sequentially set as a target pixel.
  • the cluster-top extracting unit 804 Based on the continuity of the data detected by the data continuity detecting unit 804, the cluster-top extracting unit 804 generates a plurality of student images stored in the image memory 802 corresponding to the pixel of interest. The surrounding pixels of the extracted student image are extracted as class taps. That is, the class tap extracting unit 804 uses the data continuity detected by the data continuity detecting unit 803 to determine the class tap for the pixel of interest based on the continuity of the data. Extracted from the This is supplied to the detector 805.
  • the class tap extracting unit 804 generates a class tap having the same tap structure as that generated by the class tap extracting unit 102 in FIG.
  • the feature amount detection unit 805 performs the same processing as the feature amount detection unit 103 in FIG. 5, and performs the student image supplied from the image memory 802 or the class tap supplied from the cluster tap extraction unit 804. , And supplies the detected feature amount to the class classification unit 806.
  • the feature amount detection unit 805 uses the SD image supplied from the image memory 802 or the class tap supplied from the class tap extraction unit 804 to calculate the motion vector of the pixel of the SD image.
  • the detected motion vector is supplied to the class classification unit 806 as a feature value.
  • the feature amount detection unit 805 detects a spatial or temporal change in pixel values of a plurality of pixels of the SD image or the class tap based on the SD image or the class tap, and detects the detected pixel.
  • the change in the value is supplied to the class classification unit 806 as a feature value.
  • the feature amount detection unit 805 can output a plurality of class taps or SD images.
  • the gradient of the spatial change of the pixel value of the pixel is detected, and the detected gradient of the change of the pixel value is supplied to the classifying unit 806 as a feature amount.
  • the feature amount detection unit 805 can determine the Laplacian, Sobel, or variance of the pixel value as the feature amount, similarly to the feature amount detection unit 103. That is, the feature value detection unit 805 detects the same feature value as the feature value detection unit 103 in FIG.
  • the feature amount detection unit 805 supplies the class tap to the class classification unit 806 separately from the feature amount.
  • the classifying unit 806 is configured in the same manner as the classifying unit 104 in FIG. 5, and based on the feature amount or the class tap from the feature amount detecting unit 805, any one of one or more classes.
  • the target pixel is classified into the class of the target pixel, and a class code representing the class of the target pixel is supplied to the prediction tap extracting unit 807 and the learning memory 8110.
  • the prediction tap extraction unit 807 is configured in the same manner as the prediction tap extraction unit 106 in FIG. 5, and corresponds to the pixel of interest based on the data continuity detected by the data continuity detection unit 803. Then, a plurality of peripheral pixels of the student image are extracted, and the plurality of peripheral pixels of the extracted student image are used as prediction taps.
  • the prediction tap extracting unit 807 determines the pixel of interest based on the stationarity of the data detected by the data stationarity detecting unit 803 and the class code supplied from the classifying unit 806.
  • the prediction tap is extracted from the SD image stored in the image memory 802, and is supplied to the addition operation unit 808.
  • the prediction tap extraction unit 807 generates a prediction tap having the same tap structure as that generated by the prediction tap extraction unit 106 in FIG.
  • the teacher pixel extraction unit 809 extracts a pixel of interest as teacher data (teacher pixel) from the input image (HD image) as the teacher image, and adds the extracted teacher data to the addition operation unit 808. Supply. That is, the teacher pixel extracting unit 809 takes the input HD image as the learning image, for example, as it is as the teacher data.
  • the HD image obtained by the image processing device in FIG. 5 corresponds to the image quality of the HD image used as the teacher data in the learning device in FIG.
  • the addition operation unit 808 and the normal equation operation unit 8111 use the teacher data serving as the pixel of interest and the prediction tap supplied from the prediction tap extraction unit 807 to calculate the teacher data and the student data. Is learned for each class indicated by the class code supplied from the class classification unit 806, thereby obtaining a tap coefficient for each class.
  • the addition operation unit 808 calculates the prediction tap (SD pixel) supplied from the prediction tap extraction unit 807 and the HD pixel which is the teacher data serving as the target pixel. Add (8).
  • the addition unit 808 uses the SD pixels x n and k as the student data constituting the prediction tap, and calculates the multiplication (x n , k x n ', k ) and summation ( ⁇ ). Further, the addition operation unit 808 uses the SD pixels x n and k as the student data constituting the prediction tap and the HD pixels y k which are the teacher data serving as the pixel of interest, and calculates the equation (8). In the vector on the right side, SD pixels x n and k and HD pixels y k
  • the addition operation unit 808 sets the normal equation corresponding to equation (8) for each class by performing the above addition using all the pixels of the HD image as the teacher data as the pixel of interest.
  • the normal equation is supplied to the learning memory 8110.
  • the learning memory 8100 stores a normal equation corresponding to the equation (8) supplied from the addition operation unit 808 and having SD pixels as student data and HD pixels as teacher data.
  • the normal equation calculation unit 811 obtains the normal equation of the equation (8) for each class from the learning memory 810, and solves the normal equation by, for example, the sweeping out method (by learning for each class). Then, the tap coefficient for each class is calculated and output.
  • the addition operation unit 808 and the normal equation operation unit 811 learn prediction means for predicting a pixel of interest from a plurality of extracted peripheral pixels for each detected feature amount.
  • the prediction means is a specific means for predicting a target pixel from a plurality of peripheral pixels.
  • the prediction means 107 or the pixel value prediction section 107 whose operation is defined by a tap coefficient for each class is specified. This refers to the processing in 07.
  • Learning the prediction means for predicting a target pixel from a plurality of peripheral pixels means, for example, enabling (constructing) a prediction means for predicting a target pixel from a plurality of peripheral pixels.
  • learning the prediction means for predicting a target pixel from a plurality of peripheral pixels means, for example, obtaining a tap coefficient for each class.
  • the processing in the pixel value prediction unit 107 or the pixel value prediction unit 107 is specifically specified, and the pixel value prediction unit 107 is realized or the pixel value prediction is performed. This is because the processing in the unit 107 can be executed.
  • the coefficient memory 8 12 stores the tap coefficient for each class output by the normal equation operation unit 8 11.
  • the student image generation unit 8001 acquires an input image for learning (teacher image), which is, for example, an HD image, and thins out pixels to obtain, for example, an SD image. Generate a student image that is an image. For example, the student image generation unit 8001 obtains the average value of the pixel values of four HD pixels adjacent to each other in the horizontal direction or the vertical direction of the HD image, and determines the average value as the pixel value of the SD image. Generate SD images. The SD image is supplied to the image memory 802.
  • step S802 the data continuity detection unit 803 determines the continuity of data from the student image stored in the image memory 802, as in the data continuity detection unit 101 of FIG. And supplies data continuity information indicating the detected continuity to the class tap extraction unit 804 and the prediction tap extraction unit 807, and the process proceeds to step S803.
  • step S802 The details of the processing for detecting the data continuity in step S802 are the same as the processing in step S101, and a detailed description thereof will be omitted.
  • step S803 the class tap extracting unit 804 selects one of the HD pixels of the HD image as the teacher data that has not been set as the target pixel yet as the target pixel.
  • a plurality of peripheral pixels of the student image stored in the image memory 802 are extracted, and the plurality of peripheral pixels of the extracted student image are used as class taps.
  • the class tap extracting unit 804 uses the data continuity detected by the data continuity detecting unit 803 to determine the class tap of the pixel of interest based on the continuity of the SD stored in the image memory 802. It is extracted from the image and supplied to the feature amount detection unit 805. The class tap extracting unit 804 supplies the class tap to the feature amount detecting unit 805, and the process proceeds to step S804.
  • step S804 the feature amount detection unit 805 sets the feature amount detection unit 10 in FIG.
  • step S805 the classifying unit 806 uses the feature amount or the class tap from the feature amount detecting unit 805 in the same manner as in the case of the classifying unit 1 ⁇ 4 in FIG.
  • the target pixel is classified into any one of the one or more classes, and a class code representing the class of the target pixel is supplied to the prediction tap extracting unit 807 and the learning memory 8100, and the step S Proceed to 8 06.
  • step S806 the prediction tap extraction unit 807 determines the continuity of the data detected by the data continuity detection unit 803, as in the prediction tap extraction unit 106 of FIG. Based on this, a plurality of peripheral pixels of the student image corresponding to the target pixel are extracted, and the plurality of peripheral pixels of the extracted student image are used as prediction taps. That is, the prediction tap extraction unit 807 determines the pixel of interest based on the class code supplied from the continuity class classification unit 806 of the data detected by the data continuity detection unit 803. The corresponding prediction tap is extracted from the SD image as the student image stored in the image memory 802, supplied to the adding operation unit 808, and the process proceeds to step S807.
  • step S807 the teacher pixel extraction unit 809 extracts a pixel of interest, that is, a teacher pixel (teacher data) that is an HD pixel from the input image, and adds the extracted teacher pixel to the addition unit 808. Supply and go to step S808.
  • step S808 the addition operation unit 808 includes the prediction tap (student data) supplied from the prediction tap extraction unit 807 and the teacher pixel (supplied from the teacher pixel extraction unit 809). (8) for the teacher data) Then, the normal equation into which the student data and the teacher data are added is stored in the learning memory 810, and the process proceeds to step S809.
  • step S809 the cluster map extraction unit 804 determines whether or not there is any HD pixel of the HD image as the teacher data that has not yet been set as the target pixel, that is, all target pixels. It is determined whether the addition has been completed. If it is determined in step S809 that there is an HD pixel of the HD image as the teacher data that is not the pixel of interest yet, the process returns to step S803, and the same processing is repeated. It is.
  • step S809 if it is determined that none of the HD pixels of the HD image as the teacher data is the pixel of interest, that is, the addition of all target pixels has been completed, Proceeding to 8110, the normal equation calculation unit 811 determines that the tap coefficients are still obtained from the normal equation of equation (8) obtained for each class by the addition in the previous step S808.
  • the prediction coefficients (tap Is obtained and supplied to the coefficient memory 8 1 2.
  • the coefficient memory 812 stores the prediction coefficient (tap coefficient) of the predetermined class supplied from the normal equation operation unit 811 for each class, and proceeds to step S811.
  • step S808 and step S810 for each feature detected by the feature detector 805, a pixel of interest is extracted from the plurality of peripheral pixels extracted by the prediction tap extractor 807.
  • the prediction means for prediction is learned.
  • step S811 the normal equation calculation unit 811 determines whether the calculation of the prediction coefficients of all classes has been completed, and determines that the calculation of the prediction coefficients of all classes has not been completed. Then, the process returns to step S810, and the process of obtaining the prediction coefficient of the next class is repeated.
  • step S811 If it is determined in step S811 that the calculation of the prediction coefficients of all the classes has been completed, the process ends.
  • the prediction coefficients for each class stored in the coefficient memory 812 are stored in the coefficient memory 105 in the image processing apparatus in FIG.
  • FIG. 121 is a block diagram showing another configuration of the embodiment of the image processing apparatus according to the present invention.
  • the image processing apparatus shown in FIG. 121 acquires an input image, and obtains an image having twice the resolution in the horizontal direction of the screen (hereinafter, referred to as a horizontal double-density image). ) Is created and output.
  • an SD image which is an example of an input image
  • the continuity of data is detected from the input SD image
  • the continuity of the detected data is determined.
  • the pixels of the horizontal double-density image hereinafter referred to as horizontal double-density pixels
  • the continuity of the data is not used.
  • horizontal double-density pixels are created by performing the classification adaptive processing on the SD image.
  • the integration characteristic of the horizontal double-density pixel created based on the data continuity with respect to the SD image is determined, and based on the determination result, the horizontal double-density pixel created based on the data continuity and the horizontal double-density pixel are created.
  • One of the horizontal double-density pixels created without utilizing the stationarity of the data is selected, and an output image that is a horizontal double-density image is synthesized with the selected horizontal double-density pixels. Is output. That is, in the image processing apparatus shown in FIG.
  • the input image is composed of a data continuity detector 901, a class tap extractor 902, a feature detector 903, a predictive tap extractor 906, an integral characteristic determiner 908, and a class tap extractor 9 10, the feature amount detection unit 911, and the prediction tap extraction unit 914.
  • the data continuity detection unit 901 detects the continuity of the data from the input image, and sends data continuity information indicating the detected continuity to the class tap extraction unit 902 and the predicted tap extraction unit 906. Supply.
  • the data continuity information includes, for example, a direction (an angle or an inclination in a time direction and a spatial direction) of a pixel region having data continuity (hereinafter, also referred to as a direction of data continuity).
  • the data continuity detecting section 9101 has the same configuration as the data continuity detecting section 101, and a detailed description thereof will be omitted.
  • the processing of detecting data continuity by the data continuity detecting unit 901 is the same as that in the case of the data continuity detecting unit 101, and therefore the description thereof is omitted.
  • the class tap extracting section 902 sequentially sets one of the horizontal double-density pixels of the horizontal double-density image to be obtained by the class classification adaptive processing as a target pixel. Then, based on the stationarity of the data detected by the data stationarity detecting section 901, the class tap extracting section 92 extracts and extracts a plurality of peripheral pixels of the input image corresponding to the target pixel. A plurality of peripheral pixels of the input image are set as class taps. That is, the cluster extraction unit 902 extracts, from the input image, a class tap used for class classification of the pixel of interest based on the continuity of the data detected by the data continuity detection unit 901. And outputs the extracted class taps to the feature amount detection unit 903.
  • the class tap extracting unit 902 extracts a plurality of pixels spatially or temporally close to the position of the pixel of interest from the input image that has been input. This is a tap and output to the feature amount detection unit 903.
  • the data continuity detection unit 101, the class tap extraction unit 902, and the prediction tap extraction unit 906 are composed of the data continuity detection unit 101, the class tap extraction unit 102, and the prediction A frame memory can be provided as in the tap extraction unit 106.
  • one frame memory may be provided on the input side.
  • the class tap extracting unit 902 determines that the pixel of interest is 3 ⁇ 3 in the horizontal X vertical direction near the position of the pixel of interest. A pixel is extracted from an input image to be a class tap. The class tap extracting unit 902 supplies the extracted class tap to the feature amount detecting unit 903.
  • the process of cluster tap extraction by the cluster tap extraction unit 102 is the same as that in the case of the class tap extraction unit 102, and a detailed description thereof will be omitted.
  • the feature amount detection unit 903 detects a feature amount from the cluster tap or the input image supplied from the class tap extraction unit 902, and supplies the detected feature amount to the class classification unit 904.
  • the feature amount detecting unit 903 detects a motion vector of a pixel of the input image, and detects the detected motion vector. Is supplied to the class classification unit 904 as a feature amount. Also, for example, the feature amount detection unit 903 detects a spatial or temporal change (activity) of pixel values of a plurality of pixels of the cluster tap or the input image based on the class tap or the input image. Then, the detected change in the pixel value is supplied to the class classification unit 904 as a feature amount.
  • the feature amount detecting unit 903 changes the spatial values of the pixel values of a plurality of pixels of the class tap or the input image. Is detected, and the detected gradient of the change in pixel value is supplied to the classifying unit 904 as a feature amount.
  • the feature amount detection unit 903 supplies the class tap to the class classification unit 904 separately from the feature amount.
  • the classifying unit 904 classifies the pixel of interest into one of one or more classes based on the feature amount or the class tap from the feature amount detecting unit 903, and obtains the resulting attentional value.
  • the class code corresponding to the pixel class is stored in the coefficient memory.
  • the class classification unit 904 generates a class code by the same process as that of the class classification unit 104, and thus a detailed description thereof is omitted.
  • the coefficient memory 905 stores teacher data, which is a horizontal double-density pixel of a horizontal double-density image, which is an example of an output image, which serves as a learning teacher, and pixels of an SD image, which is an example of an input image, which serves as a learning student. It stores tap coefficients obtained by learning the relationship with student data as values for each of one or more classes.
  • the coefficient memory 905 reads out the tap coefficient stored in the address corresponding to the class code, and The tap coefficient of the pixel class is obtained and supplied to the pixel value prediction unit 907.
  • the tap coefficients stored in the coefficient memory 905 are learned by the learning apparatus shown in FIG. 119 or the learning process described with reference to the flowchart of FIG.
  • a horizontal double-density image is input as an input image to the learning apparatus shown in FIG. 119, and the student image generation unit 81 generates an SD image from the horizontal double-density image.
  • an SD image is generated from the horizontal double-density image that is the input image.
  • the prediction tap extraction unit 906 extracts a plurality of peripheral pixels of the input image corresponding to the target pixel based on the continuity of the data detected by the data continuity detection unit 901 and extracts the extracted input.
  • a plurality of peripheral pixels of the image are set as prediction taps. That is, the prediction tap extraction unit 906 performs the pixel value prediction unit based on the continuity of the data detected by the data continuity detection unit 901 and the class code supplied from the class classification unit 904.
  • a prediction tap used to obtain a (predicted value of) the pixel of interest is extracted from the input image, and the extracted prediction tap is supplied to the pixel value prediction unit 907.
  • the prediction tap extracting unit 906 extracts a plurality of pixel values at positions spatially or temporally close to the position of the pixel of interest from the input image based on the stationarity of the data, thereby calculating the prediction tap. And supplies it to the pixel value prediction unit 907.
  • the prediction tap extraction unit 906 determines that the target pixel is 3 ⁇ 3 in the horizontal X vertical direction near the position of the target pixel based on the continuity of the data detected by the data continuity detection unit 901. Are extracted from the input image as a prediction tap.
  • the pixel value used as a class tap and the pixel value used as a prediction tap may be the same or different. That is, the class tap and the prediction tap can be configured (generated) independently of each other. Further, the pixel value used as the prediction tap may be different for each class or may be the same.
  • the tap structure of the class tap and the prediction tap is not limited to 3 ⁇ 3 pixel values.
  • the process of extracting prediction taps by the prediction tap extraction unit 906 is performed by the prediction tap extraction unit
  • the pixel value prediction unit 907 includes tap coefficients W l , w 2 , ... For the class of the pixel of interest supplied from the coefficient memory 9705 and prediction taps ( the pixel values constituting) X l, x 2, using the ⁇ ⁇ ⁇ , by performing product sum computation shown in equation (1) predicts a target pixel y (predicted value), this, The pixel value of the horizontal double density pixel.
  • the pixel value prediction unit 907 supplies the calculated pixel value of the horizontal double-density pixel to the integration characteristic determination unit 908 and the image synthesis unit 909.
  • the class tap extracting unit 92 sets the pixel y ⁇ and the pixel y (2) that are included in the spatial direction in the corresponding pixel X (5) of the input image, as shown in FIG.
  • the prediction unit 907 predicts the pixel value of the pixel of interest y (1) and the pixel value of the pixel of interest y (2) shown in FIG. 122, and calculates the pixel value of the predicted pixel of interest y ⁇ and the pixel of interest y
  • the pixel value of (2) is supplied to the integration characteristic determination unit 908 and the image synthesis unit 909.
  • the integration characteristic determination unit 908 includes a first prediction value of a first pixel of interest predicted by the pixel value prediction unit 907 and a first prediction value predicted by the pixel value prediction unit 907.
  • a second predicted value of a second pixel of interest of the output image spatially adjacent to the pixel, and an input disposed at a position that includes at least the first pixel of interest and the second pixel of interest in the spatial direction The relationship between the image and the pixel value of the corresponding pixel is detected.
  • the integration characteristic determination unit 908 determines the predicted value of the pixel of interest y (1) , the predicted value of the pixel of interest y (2) , and the pixel of interest y (1) shown in FIG.
  • the relationship between the pixel y (2) and the corresponding pixel x (5) of the input image arranged at a position encompassing in the space direction is detected.
  • a pixel of interest y (1), the target pixel y (2), the relationship between corresponding pixels x (5) is described including a pixel of interest y (1) and the target pixel y (2) in the spatial direction .
  • FIG. 123 is a diagram corresponding to FIG. 7, illustrating the arrangement of pixels provided in the image sensor which is a CCD and the area corresponding to the pixels of the horizontal double-density image.
  • a to I indicate individual pixels.
  • the regions a to r are light receiving regions in which each of the pixels A to I is vertically halved. When the width of the light receiving area of the pixels A to I is 2L, the width of the areas a to r is L.
  • the image processing apparatus shown in FIG. 121 calculates the pixel values of the pixels corresponding to the regions a to r.
  • FIG. 124 is a diagram illustrating pixel values of pixels corresponding to light incident on regions g to 1.
  • F (x) in Fig. 124 is an example of a function that represents the distribution of light intensity in the real world, with the coordinate X in the spatial direction X in space (on the detection element) as a variable.
  • the pixel value of one pixel is represented by the uniform integral of F (x)
  • the pixel value Y1 of the pixel corresponding to the region i is represented by the equation (50)
  • the region j is represented by
  • the pixel value Y2 of the corresponding pixel is represented by equation (5 1)
  • the pixel value Y3 of the pixel E is represented by equation (5 2).
  • Equations (50) to (52) xl, x2, and x3 are the spatial coordinates of the boundaries of the light receiving area of the pixel E, the area i, and the area j.
  • Y1 and Y2 are respectively the horizontal double-density pixels of the horizontal double-density image with respect to the SD image, which the image processing device of FIG.
  • Equation (5 2) Y3 corresponds to the pixel values Y1 and Y2 of the horizontal doubled pixel of the horizontal doubled image.
  • the integration characteristic determination unit 908 calculates the predicted value of the pixel of interest y (1) shown in FIG. the predicted value of y (2), for a pixel of interest y (1) Oyopi corresponding pixels of the target pixel y (2) an input image that is disposed encompassing position location in the spatial direction X (5), the formula ( 5 3) Determine whether or not. If equation (53) is satisfied, it can be said that the predicted value of the target pixel y (1) and the predicted value of the target pixel y (2) are correct.
  • the integration characteristic determination unit 908 calculates the pixel value of the pixel of interest y (1) supplied from the pixel value prediction unit 907 from the pixel value of the corresponding pixel x (5) of the input image. The predicted value of) and the pixel value of predicted pixel y (2) (predicted value) are subtracted. The integration characteristic determination unit 908 compares the result of the subtraction with a predetermined threshold.
  • the integral characteristic determination unit 908 determines that the relationship of Expression (5 3) holds, and when the result of the subtraction is equal to or greater than the threshold value, the expression (5 3) Judge that the relationship is not established.
  • the integration characteristic determination unit 908 supplies the integration characteristic determination information indicating the result of the determination to the image synthesis unit 909.
  • the threshold value may be stored in advance in the integration characteristic determination unit 908, or may be supplied to the integration characteristic determination unit 908 from outside.
  • the class tap extracting unit 910 sequentially sets one of the horizontal double-density pixels of the horizontal double-density image to be obtained by the class classification adaptive processing as a target pixel.
  • the class tap extracting unit 910 sets a pixel set as a target pixel by the class tap extracting unit 902 as a target pixel. That is, the class tap extracting section 9110 and the class tap extracting section 9102 use the same pixel as the target pixel.
  • the class tap extracting unit 9110 extracts a plurality of peripheral pixels of the input image corresponding to the target pixel, and sets the plurality of peripheral pixels of the extracted input image as class taps. That is, the class tap extracting unit 9110 extracts a class tap used for class classification of the target pixel from the input image, and outputs the extracted class tap to the feature amount detecting unit 911.
  • the class tap extracting unit 910 extracts a plurality of pixels spatially or temporally close to the position of the pixel of interest from the input image that is input, thereby forming a class tap. 1 Output to 1.
  • the class tap extraction unit 910 and the prediction tap extraction unit 914 can be provided with a frame memory as in the case of the cluster extraction unit 102 and the prediction tap extraction unit 106.
  • the cluster extraction unit 910 determines that the pixel of interest y (1 ) is 3 ⁇ 3 pixels X ′′) to x ( 9) is extracted as a class tap by extracting it from the input image.
  • the class tap extracting unit 9110 supplies the extracted class tap to the feature amount detecting unit 911.

Description

明細
画像処理装置および方法、 学習装置および方法、 記録媒体、 並びにプログラム 技術分野
本発明は、 画像処理装置および方法、 学習装置および方法、 記録媒体、 並びに プログラムに関し、 特に、 より高解像度の画像を創造する画像処理装置および方 法、 学習装置および方法、 記録媒体、 並びにプログラムに関する。 背景技術
本件出願人は、 例えば、 画像の画質等の向上その他の画像の変換を行う画像処 理として、 クラス分類適応処理を、 先に提案している。
クラス分類適応処理は、 クラス分類処理と適応処理とからなり、 クラス分類処 理によって、 画像のデータを、 その性質に基づいてクラス分けし、 各クラスごと に適応処理を施すものであり、 適応処理とは、 以下のような手法の処理である。 即ち、 適応処理では、 例えば、 低画質または標準画質の画像 (以下、 適宜、 S D (Standard Defini tion)画像という) 力 所定のタップ係数 (以下、 適宜、 予 測係数とも称する) を用いてマッピング (写像) されることにより、 高画質の画 像 (以下、 適宜、 H D (Hi gh Definition)画像という) に変換される。
いま、 このタップ係数を用いてのマッピング方法として、 例えば、 線形 1次結 合モデルを採用することとすると、 H D画像を構成する画素 (以下、 適宜、 H D 画素という) (の画素値) yは、 S D画像を構成する画素 (以下、 適宜、 S D画 素という) から、 H D画素を予測するための予測タップとして抽出される複数の S D画素と、 タップ係数とを用いて、 次の線形 1次式 (線形結合) によって求め られる。 y=∑wnxn
n= l
• · · ( 1 ) JP2004/001607
2
但し、 式 (1) において、 xnは、 HD画素 yについての予測タップを構成す る、 n番目の SD画像の画素の画素値を表し、 wnは、 n番目の SD画素 (の画 素値) と乗算される n番目のタップ係数を表す。 なお、 式 (1) では、 予測タツ プが、 N個の SD画素 Xl, x2, ' ' · , xNで構成されるものとしてある。 ここで、 HD画素の画素値 yは、 式 ( 1 ) に示した線形 1次式ではなく、 2次 以上の高次の式によって求めるようにすることも可能である。
いま、 第 kサンプルの HD画素の画素値の真値を ykと表すとともに、 式
(1) によって得られるその真値 ykの予測値を yk'と表すと、 その予測誤差 ek は、 次式で表される。
• · · (2)
式 (2) の予測値 yk,は、 式 (1) にしたがって求められるため、 式 (2) の yk'を、 式 (1) にしたがって置き換えると、 次式が得られる。
Figure imgf000004_0001
■ · ■ (3)
但し、 式 (3) において、 xn,kは、 第 kサンプルの HD画素についての予測 タップを構成する n番目の SD画素を表す。
式 (3) の予測誤差 ekを 0とするタップ係数 wnが、 HD画素を予測するのに 最適なものとなるが、 すべての HD画素について、 そのようなタップ係数 wnを 求めることは、 一般には困難である。
そこで、 タップ係数 wnが最適なものであることを表す規範として、 例えば、 最小自乗法を採用することとすると、 最適なタップ係数 wnは、 統計的な誤差と しての、 例えば、 次式で表される自乗誤差の総和 Eを最小にすることで求めるこ とができる。
Figure imgf000004_0002
• · · (4)
伹し、 式 (4) において、 Kは、 HD画素 ykと、 その HD画素 ykについての 予測タップを構成する SD画素 x,,k, ■ ■ ■, xN,kとのセットのサンプ ル数を表す。
式 (4) の自乗誤差の総和 Eを最小 (極小) にするタップ係数 wnは、 その総 和 Eをタップ係数 wnで偏微分したものを 0とするものであり、 従って、 次式を 満たす必要がある。
Figure imgf000005_0001
(n12β。。,
• · · (5) そこで、 上述の式 (3) をタップ係数 wnで偏微分すると、 次式が得られる。
H — ,¾ — ···,¾=— , ( ,U
• ■ · (6) 式 (5) と (6) から、 次式が得られる。
k k k
.ekxi,k=0,∑ekx2,k=0, ''-∑ekXN,k=0
k=1 k=1 k=1
■ ■ ■ (7) 式 (7) の ekに、 式 (3) を代入することにより、 式 (7) は、 式 (8) に 示す正規方程式で表すことができる。
,kYk)
kVk
Figure imgf000006_0001
(8) 式 (8) の正規方程式は、 HD画素 ykと SD画素 xn,kのセットを、 ある程度 の数だけ用意することで、 求めるべきタップ係数 wnの数と同じ数だけたてるこ とができ、 従って、 式 (8) を解くことで (伹し、 式 (8) を解くには、 式
(8) において、 タップ係数 wnにかかる左辺の行列が正則である必要がある) 、 最適なタップ係数 wnを求めることができる。 なお、 式 (8) を解くにあたって は、 例えば、 掃き出し法 (Gauss-Jordanの消去法) などを採用することが可能 C、ある。
以上のように、 多数の HD画素 yi, y2) · ■ ·, yKを、 タップ係数の k学習 の教師となる教師データとするとともに、 各 HD画素 ykについての予測タップ を構成する SD画素 Xl,k, x2ik, · ■ ·, xN,kを、 タップ係数の学習の生徒と なる生徒データとして、 式 (8) を解くことにより、 最適なタップ係数 wnを求 める学習を行っておき、 さらに、 そのタップ係数 wnを用い、 式 (1) により、 SD画像を、 HD画像にマッピング (変換) するのが適応処理である。
以下、 タップ係数は、 予測係数とも称する。
なお、 適応処理は、 SD画像には含まれていないが、 HD画像に含まれる成分 が再現される点で、 例えば、 単なる補間処理等とは異なる。 即ち、 適応処理では、 式 (1 ) だけを見る限りは、 いわゆる補間フィルタを用いての補間処理と同一で あるが、 その補間フィルタのタップ係数に相当するタップ係数 wnが、 教師デー タとしての H D画像と生徒データとしての S D画像とを用いての学習により求め られるため、 H D画像に含まれる成分を再現することができる。 このことから、 適応処理は、 いわば画像の創造 (解像度想像) 作用がある処理ということができ る。
ここで、 タツプ係数 wnの学習では、 教師データ yと生徒データ Xとの組み合 わせとして、 どのようなものを採用するかによって、 各種の変換を行うタップ係 数 wnを求めることができる。
即ち、 例えば、 教師データ yとして、 H D画像を採用するとともに、 生徒デー タ として、 その H D画像にノイズやぼけを付加した S D画像を採用した場合に は、 画像を、 そのノイズやぼけを除去した画像に変換するタップ係数 wnを得る ことができる。 また、 例えば、 教師データ yとして、 H D画像を採用するととも に、 生徒データ Xとして、 その H D画像の解像度を劣化させた S D画像を採用し た場合には、 画像を、 その解像度を向上させた画像に変換するタップ係数 wnを 得ることができる。 さらに、 例えば、 教師データ yとして、 画像を採用するとと もに、 生徒データ Xとして、 その画像を D C T (Di screte Cos ine Transform) 変換した D C T係数を採用した場合には、 D C Τ係数を画像に変換するタップ係 数 wnを得ることができる。
次に、 クラス分類適応処理を実行する、 従来の画像処理装置の構成を説明する。 図 1は、 クラス分類適応処理により、 S D画像である入力画像から、 H D画像 である出力画像を創造する、 従来の画像処理装置の構成を説明するブロック図で める。
図 1に構成を示す画像処理装置において、 入力画像は、 クラスタップ抽出部 1 1および予測タップ抽出部 1 5に供給される。
クラスタップ抽出部 1 1は、 注目している画素 (以下、 注目画素とも称する) に対応する、 所定の画素であるクラスタップを入力画像から抽出し、 抽出したク ラスタップを入力画像と共に特徴量検出部 1 2に供給する。 特徴量検出部 1 2は、 クラスタップ抽出部 1 1を介して供給された入力画像から、 注目画素に対応する 画像の特徴量を検出し、 クラスタップと共に検出した特徴量をクラス分類部 1 3 に供給する。 画像の特徴量とは、 動き、 またはフレーム内の画素値の変化などを いう。
クラス分類部 1 3は、 特徴量検出部 1 2から供給されたクラスタップおょぴ特 徴量を基に、 注目画素をクラス分けし、 クラス分けの結果を示すクラスコードを 係数メモリ 1 4および予測タップ抽出部 1 5に供給する。
係数メモリ 1 4は、 クラス分類部 1 3から供給されたクラスコードを基に、 注 目画素のクラスに対応するタップ係数を画素値演算部 1 6に供給する。
予測タップ抽出部 1 5は、 クラス分穎部 1 3から供給されたクラスコードを基 に、 注目画素に対応して、 所定の予測タップを入力画像から抽出する。 予測タツ プ抽出部 1 5は、 抽出した予測タップを画素値演算部 1 6に供給する。
画素値予測部 1 6は、 予測タップ抽出部 1 5カゝら供給された予測タップぉよび 係数メモリ 1 4から供給されたタップ係数から、 式 (1 ) に示す演算により、 H D画像の注目画素の画素値を予測する。 画素値予測部 1 6は、 H D画像の全ての 画素を順次注目画素として予測された画素値からなる H D画像を出力する。
図 2は、 クラス分類適応処理により、 S D画像である入力画像から、 H D画像 である出力画像を創造する、 従来の画像処理装置による画像の創造の処理を説明 するフローチヤ一トである。
ステップ S 1 1において、 クラスタップ抽出部 1 1は、 S D画像である入力画 像から、 選択された注目画素に対応するクラスタップを抽出する。 ステップ S 1 2において、 特徴量検出部 1 2は、 入力画像から、 注目画素に対応する特徴量を 検出する。
ステップ S 1 3において、 クラス分類部 1 3は、 ステップ S 1 1の処理により 抽出されたクラスタップ、 およびステップ S 1 2の処理により検出された特徴量 を基に、 注目画素のクラスを分類する。
ステップ S 1 4において、 予測タップ抽出部 1 5は、 ステップ S 1 3の処理に よるクラスの分類の結果に対応して、 入力画像から、 注目画素に対応する予測タ ップを抽出する。 ステップ S 1 5において、 係数メモリ 1 4は、 ステップ S 1 3 の処理によるクラスの分類の結果に対応して、 予め記憶している予測係数のなか から、 分類されたクラスに対応する予測係数を読み出す。
ステップ S 1 6において、 画素値予測部 1 6は、 ステップ S 1 4の処理で抽出 された予測タップ、 およびステップ S 1 5の処理で読み出された予測係数を基に、 適応処理により注目画素に対応する画素値を予測する。
ステップ S 1 7において、 画像処理装置は、 全ての画素について予測が終了し たか否かを判定し、 全ての画素について予測が終了していないと判定された場合、 次の画素を注目画素として、 ステップ S 1 1に戻り、 クラスの分類およぴ適応の 処理を繰り返す。
ステップ S 1 7において、 全ての画素について予測が終了したと判定された場 合、 処理は終了する。
図 3は、 S D画像である入力画像から H D画像である出力画像を創造するクラ ス分類適応処理に使用される予測係数を生成する、 従来の画像処理装置の構成を 説明するブロック図である。
図 3に示す画像処理装置に入力される入力画像は、 H D画像である教師画像で あり、 生徒画像生成部 3 1および教師画素抽出部 3 8に供給される。 教師画像に 含まれる画素 (の画素値) は、 教師データとして使用される。
生徒画像生成部 3 1は、 入力された H D画像である教師画像から、 画素を間引 いて、 教師画像に対応する S D画像である生徒画像を生成し、 生成した生徒画像 を画像メモリ 3 2に供給する。
画像メモリ 3 2は、 生徒画像生成部 3 1から供給された S D画像である生徒画 像を記憶し、 記憶している生徒画像をクラスタップ抽出部 3 3および予測タップ 抽出部 3 6に供給する。
クラスタップ抽出部 3 3は、 注目画素を順次選択し、 選択された注目画素に対 応して生徒画像からクラスタツプを抽出し、 生徒画像と共に抽出されたクラスタ ップを特徴量検出部 3 4に供給する。 特徴量検出部 3 4は、 注目画素に対応して、 生徒画像から特徴量を検出し、 検出された特徴量をクラスタップと共にクラス分 類部 3 5に供給する。
クラス分類部 3 5は、 特徴量検出部 3 4から供給されたクラスタップぉよび特 徴量を基に、 注目画素のクラスを分類し、 分類されたクラスを示すクラスコード を予測タップ抽出部 3 6および学習メモリ 3 9に供給する。
予測タップ抽出部 3 6は、 クラス分類部 3 5から供給されたクラスコードを基 に、 画像メモリ 3 2から供給された生徒画像から、 分類されたクラスに対応する 予測タップを抽出して、 抽出した予測タップを足し込み演算部 3 7に供給する。 教師画素抽出部 3 8は、 教師データ、 すなわち、 教師画像の注目画素を抽出し て、 抽出した教師データを足し込み演算部 3 7に供給する。
足し込み演算部 3 7は、 式 (8 ) の正規方程式に、 H D画素である教師データ および S D画素である予測タップを足し込み、 教師データおょぴ予測タップを足 し込んだ正規方程式を学習メモリ 3 9に供給する。
学習メモリ 3 9は、 クラス分類部 3 5から供給されたクラスコードを基に、 足 し込み演算部 3 7から供給された正規方程式をクラス毎に記憶する。 学習メモリ 3 9は、 クラス毎に記憶している、 教師データおよび予測タップが足し込まれた 正規方程式を正規方程式演算部 4 0に供給する。
正規方程式演算部 4 0は、 学習メモリ 3 9から供給された正規方程式を掃き出 し法により解いて、 クラス毎に予測係数を求める。 正規方程式演算部 4 0は、 ク ラス毎の予測係数を係数メモリ 4 1に供給する。
係数メモリ 4 1は、 正規方程式演算部 4 0から供給された、 クラス毎の予測係 数を記憶する。
図 4は、 S D画像である入力画像から H D画像である出力画像を創造するクラ ス分類適応処理に使用される予測係数を生成する、 従来の画像処理装置による学 習の処理を説明するフローチャートである。
ステップ S 3 1において、 生徒画像生成部 3 1は、 教師画像である入力画像か ら生徒画像を生成する。 ステップ S 3 2において、 クラスタップ抽出部 3 3は、 注目画素を順次選択し、 選択された注目画素に対応するクラスタツプを生徒画像 から抽出する。
ステップ S 3 3において、 特徴量検出部 3 4は、 生徒画像から、 注目画素に対 応する特徴量を検出する。 ステップ S 3 4において、 クラス分類部 3 5は、 ステ ップ S 3 2の処理により抽出されたクラスタップ、 およびステップ S 3 3の処理 により検出された特徴量を基に、 注目画素のクラスを分類する。
ステップ S 3 5において、 予測タップ抽出部 3 6は、 ステップ S 3 4の処理に より分類されたクラスを基に、 注目画素に対応する予測タップを生徒画像から抽 出する。
ステップ S 3 6において、 教師画素抽出部 3 8は、 教師画像である入力画像か ら注目画素、 すなわち教師画素 (教師データ) を抽出する。
ステップ S 3 7において、 足し込み演算部 3 7は、 ステップ S 3 5の処理で抽 出された予測タップ、 およびステップ S 3 6の処理で抽出された教師画素 (教師 データ) を正規方程式に足し込む演算を実行する。
ステップ S 3 8において、 画像処理装置は、 教師画像の全画素について足し込 みの処理が終了したか否かを判定し、 全画素について足し込みの処理が終了して いないと判定された場合、 ステップ S 3 2に戻り、 まだ注目画素とされていない 画素を注目画素として、 予測タップおよび教師画素を抽出して、 正規方程式に足 し込む処理を繰り返す。
ステップ S 3 8において、 教師画像の全画素について足し込みの処理が終了し たと判定された場合、 ステップ S 3 9に進み、 正規方程式演算部 4 0は、 予測タ ップおよび教師画素が足し込まれた正規方程式を演算して、 予測係数を求める。 ステップ S 4 0において、 画像処理装置は、 全クラスの予測係数を演算したか 否かを判定し、 全クラスの予測係数を演算していないと判定された場合、 ステツ プ S 3 9に戻り、 正規方程式を演算して、 予測係数を求める処理を繰り返す。 ステップ S 4 0において、 全クラスの予測係数を演算したと判定された場合、 処理は終了する。 また、 特開平 9一 7 4 5 4 3号公報において、 入力画像のレベル分布パターン に基づいて、 入力画像をクラス分類するだけでなく、 入力画像の動きに基づいて、 入力画像をクラス分類して、 クラスコードを発生していることが開示されている。
しかしながら、 画像データのデータの定常性を考慮した画像処理はこれまで考 えられ.ていなかった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 データの定常性を利用 して、 より正確で、 より精度の高い処理結果を得ることができるようにすること を目的とする。
本発明の画像処理装置は、 高質画像データ内の第 1の注目画素に対応する、 入 力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に対応す る画像データの第 1の定常性を検出し、 第 1の注目画素に時間的または空間的に 隣接する高質画像データ内の第 2の注目画素に対応する、 入力画像データ内の複 数の第 2の周辺画素の、 現実世界の光信号の定常性に対応する画像データの第 2 の定常性を検出する画像データ定常性検出手段と、 画像データ定常性検出手段に より検出された画像データの第 1の定常性に基づいて、 第 1の注目画素に対応す る、 入力画像データ内の複数の第 3の周辺画素を抽出し、 画像データ定常性検出 手段により検出された画像データの第 2の定常性に基づいて、 第 2の注目画素に 対応する、 入力画像データ内の複数の第 4の周辺画素を抽出する第 1の抽出手段 と、 画像データ定常性検出手段により検出された画像データの第 1の定常性に基 づいて、 第 1の注目画素に対応する、 入力画像データ内の複数の第 5の周辺画素 を抽出し、 画像データ定常性検出手段により検出された画像データの第 2の定常 性に基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の第 6の周 辺画素を抽出する第 2の抽出手段と、 第 1の抽出手段により抽出された複数の第 3の周辺画素の第 1の特徴量を検出し、 第 1の抽出手段により抽出された複数の 第 4の周辺画素の第 2の特徴量を検出する第 1の特徴量検出手段と、 第 1の特徴 4 001607
11
量検出手段により検出された第 1の特徴量に基づいて、 第 2の抽出手段により抽 出された複数の第 5の周辺画素から第 1の注目画素を予測し、 第 1の特徴量検出 手段により検出された第 2の特徴量に基づいて、 第 2の抽出手段により抽出され た複数の第 6の周辺画素から第 2の注目画素を予測し、 第 1の注目画素の第 1の 予測値および第 2の注目画素の第 2の予測値を出力する第 1の予測手段と、 第 1 の予測手段により予測された第 1の注目画素の第 1の予測値と、 第 1の予測手段 により予測された第 2の注目画素の第 2の予測値と、 少なくとも第 1の注目画素 と第 2の注目画素とを時間方向または空間方向に対して包含する位置に配される 入力画像データ内の対応画素の画素値との関係を検出し、 検出結果に応じて第 1 の予測手段から出力される第 1の注目画素の第 1の予測値および第 2の注目画素 の第 2の予測値を選択的に出力する選択出力手段とを含むことを特徴とする。 画像処理装置は、 高質画像データ内の第 1の注目画素に対応する、 入力画像デ ータ内の複数の第 7の周辺画素を抽出し、 高質画像データ内の第 2の注目画素に 対応する、 入力画像データ内の複数の第 8の周辺画素を抽出する第 3の抽出手段 と、 第 1の注目画素に対応する、 入力画像データ内の複数の第 9の周辺画素を抽 出し、 第 2の注目画素に対応する、 入力画像データ内の複数の第 1 0の周辺画素 を抽出する第 4の抽出手段と、 第 3の抽出手段により抽出された複数の第 7の周 辺画素の第 3の特徴量を検出し、 第 3の抽出手段により抽出された複数の第 8の 周辺画素の第 4の特徴量を検出する第 2の特徴量検出手段と、 第 2の特徴量検出 手段により検出された第 3の特徴量に基づいて、 第 4の抽出手段により抽出され た複数の第 9の周辺画素から第 1の注目画素を予測し、 第 2の特徴量検出手段に より検出された第 4の特徴量に基づいて、 第 4の抽出手段により抽出された複数 の第 1 0の周辺画素から第 2の注目画素を予測し、 第 1の注目画素の第 3の予測 値および第 2の注目画素の第 4の予測値を出力する第 2の予測手段とをさらに設 け、 選択出力手段は、 第 1の予測手段により予測された第 1の注目画素の第 1の 予測値と、 第 1の予測手段により予測された第 2の注目画素の第 2の予測値と、 入力画像データの対応画素の画素値との関係を検出し、 検出結果に応じて第 1の 予測値と第 2の予測値とからなる予測値の第 1の組および第 3の予測値と第 4の 予測値とからなる予測値の第 2の組のうちいずれか一方を選択的に出力するよう にすることができる。
選択出力手段は、 対応画素の画素値から、 第 1の注目画素の第 1の予測値およ ぴ第 2の注目画素の第 2の予測値を引き算した結果の絶対値が、 所定の閾値未満 であるとき、 第 1の予測値と第 2の予測値とからなる予測値の第 1の組を選択的 に出力するようにすることができる。
本発明の画像処理方法は、 高質画像データ内の第 1の注目画素に対応する、 入 力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に対応す る画像データの第 1の定常性を検出し、 第 1の注目画素に時間的または空間的に 隣接する高質画像データ内の第 2の注目画素に対応する、 入力画像データ内の複 数の第 2の周辺画素の、 現実世界の光信号の定常性に対応する画像データの第 2 の定常性を検出する画像データ定常性検出ステップと、 画像データ定常性検出ス テツプにおいて検出された画像データの第 1の定常性に基づいて、 第 1の注目画 素に対応する、 入力画像データ内の複数の第 3の周辺画素を抽出し、 画像データ 定常性検出ステップにおいて検出された画像データの第 2の定常性に基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の第 4の周辺画素を抽出す る第 1の抽出ステップと、 画像データ定常性検出ステップにおいて検出された画 像データの第 1の定常性に基づいて、 第 1の注目画素に対応する、 入力画像デー タ内の複数の第 5の周辺画素を抽出し、 画像データ定常性検出ステップにおいて 検出された画像データの第 2の定常性に基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の第 6の周辺画素を抽出する第 2の抽出ステップと、 第 1の抽出ステップにおいて抽出された複数の第 3の周辺画素の第 1の特徴量を検 出し、 第 1の抽出ステップにおいて抽出された複数の第 4の周辺画素の第 2の特 徴量を検出する特徴量検出ステップと、 特徴量検出ステップにおいて検出された 第 1の特徴量に基づいて、 第 2の抽出ステップにおいて抽出された複数の第 5の 周辺画素から第 1の注目画素を予測し、 特徴量検出ステップにおいて検出された 第 2の特徴量に基づいて、 第 2の抽出ステップにおいて抽出された複数の第 6の 周辺画素から第 2の注目画素を予測し、 第 1の注目画素の第 1の予測値および第 2の注目画素の第 2の予測値を出力する予測ステツプと、 予測ステツプにおいて 予測された第 1の注目画素の第 1の予測値と、 予測ステップにおいて予測された 第 2の注目画素の第 2の予測値と、 少なくとも第 1の注目画素と第 2の注目画素 とを時間方向または空間方向に対して包含する位置に配される入力画像データ内 の対応画素の画素値との関係を検出し、 検出結果に応じて第 1の注目画素の第 1 の予測値および第 2の注目画素の第 2の予測値を選択的に出力する選択出カステ ップとを含むことを特徴とする。
本発明の第 1の記録媒体のプログラムは、 高質画像データ内の第 1の注目画素 に対応する、 入力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の 定常性に対応する画像データの第 1の定常性を検出し、 第 1の注目画素に時間的 または空間的に隣接する高質画像データ内の第 2の注目画素に対応する、 入力画 像データ内の複数の第 2の周辺画素の、 現実世界の光信号の定常性に対応する画 像データの第 2の定常性を検出する画像データ定常性検出ステップと、 画像デー タ定常性検出ステップにおいて検出された画像データの第 1の定常性に基づいて、 第 1の注目画素に対応する、 入力画像データ内の複数の第 3の周辺画素を抽出し、 画像データ定常性検出ステップにおいて検出された画像データの第 2の定常性に 基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の第 4の周辺画 素を抽出する第 1の抽出ステップと、 画像データ定常性検出ステップにおいて検 出された画像データの第 1の定常性に基づいて、 第 1の注目画素に対応する、 入 力画像データ内の複数の第 5の周辺画素を抽出し、 画像データ定常性検出ステツ プにおいて検出された画像データの第 2の定常性に基づいて、 第 2の注目画素に 対応する、 入力画像データ内の複数の第 6の周辺画素を抽出する第 2の抽出ステ ップと、 第 1の抽出ステップにおいて抽出された複数の第 3の周辺画素の第 1の 特徴量を検出し、 第 1の抽出ステップにおいて抽出された複数の第 4の周辺画素 の第 2の特徴量を検出する特徴量検出ステップと、 特徴量検出ステップにおいて 検出された第 1の特徴量に基づいて、 第 2の抽出ステップにおいて抽出された複 数の第 5の周辺画素から第 1の注目画素を予測し、 特徴量検出ステップにおいて 検出された第 2の特徴量に基づいて、 第 2の抽出ステップにおいて抽出された複 数の第 6の周辺画素から第 2の注目画素を予測し、 第 1の注目画素の第 1の予測 値および第 2の注目画素の第 2の予測値を出力する予測ステップと、 予測ステツ プにおいて予測された第 1の注目画素の第 1の予測値と、 予測ステップにおいて 予測された第 2の注目画素の第 2の予測値と、 少なくとも第 1の注目画素と第 2 の注目画素とを時間方向または空間方向に対して包含する位置に配される入力画 像データ内の対応画素の画素値との関係を検出し、 検出結果に応じて第 1の注目 画素の第 1の予測値および第 2の注目画素の第 2の予測値を選択的に出力する選 択出力ステップとを含むことを特徴とする。
本発明の第 1のプログラムは、 コンピュータに、 高質画像データ内の第 1の注 目画素に対応する、 入力画像データ内の複数の第 1の周辺画素の、 現実世界の光 信号の定常性に対応する画像データの第 1の定常性を検出し、 第 1の注目画素に 時間的または空間的に隣接する高質画像データ内の第 2の注目画素に対応する、 入力画像データ内の複数の第 2の周辺画素の、 現実世界の光信号の定常性に対応 する画像データの第 2の定常性を検出する画像データ定常性検出ステップと、 画 像データ定常性検出ステップにおいて検出された画像データの第 1の定常性に基 づいて、 第 1の注目画素に対応する、 入力画像データ内の複数の第 3の周辺画素 を抽出し、 画像データ定常性検出ステップにおいて検出された画像データの第 2 の定常性に基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の第 4の周辺画素を抽出する第 1の抽出ステップと、 画像データ定常性検出ステップ において検出された画像データの第 1の定常性に基づいて、 第 1の注目画素に対 応する、 入力画像データ内の複数の第 5の周辺画素を抽出し、 画像データ定常性 検出ステップにおいて検出された画像データの第 2の定常性に基づいて、 第 2の 注目画素に対応する、 入力画像データ内の複数の第 6の周辺画素を抽出する第 2 の抽出ステップと、 第 1の抽出ステップにおいて抽出された複数の第 3の周辺画 素の第 1の特徴量を検出し、 第 1の抽出ステップにおいて抽出された複数の第 4 の周辺画素の第 2の特徴量を検出する特徴量検出ステップと、 特徴量検出ステツ プにおいて検出された第 1の特徴量に基づいて、 第 2の抽出ステップにおいて抽 出された複数の第 5の周辺画素から第 1の注目画素を予測し、 特徴量検出ステツ プにおいて検出された第 2の特徴量に基づいて、 第 2の抽出ステップにおいて抽 出された複数の第 6の周辺画素から第 2の注目画素を予測し、 第 1の注目画素の 第 1の予測値および第 2の注目画素の第 2の予測値を出力する予測ステップと、 予測ステップにおいて予測された第 1の注目画素の第 1の予測値と、 予測ステツ プにおいて予測された第 2の注目画素の第 2の予測値と、 少なくとも第 1の注目 画素と第 2の注目画素とを時間方向または空間方向に対して包含する位置に配さ れる入力画像データ内の対応画素の画素値との関係を検出し、 検出結果に応じて 第 1の注目画素の第 1の予測値おょぴ第 2の注目画素の第 2の予測値を選択的に 出力する選択出力ステップとを実行させることを特徴とする。
本発明の学習装置は、 高質画像データ内の注目画素に対応する入力画像データ 内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に対応する画像データ の定常性を検出する画像データ定常性検出手段と、 画像データ定常性検出手段に より検出された画像データの定常性に基づいて、 高質画像データ内の注目画素に 対応する、 入力画像データ内の複数の第 2の周辺画素を抽出する第 1の抽出手段 と、 画像データ定常性検出手段により検出された画像データの定常性に基づいて、 注目画素に対応する、 入力画像データ內の複数の第 3の周辺画素を抽出する第 2 の抽出手段と、 第 1の抽出手段により抽出された複数の第 2の周辺画素の特徴量 を検出する特徴量検出手段と、 特徴量検出手段により検出された特徴量毎に、 第 2の抽出手段により抽出された複数の第 3の周辺画素から注目画素を予測するた めの予測手段を学習する学習手段とを含むことを特徴とする。
本発明の学習方法は、 高質画像データ内の注目画素に対応する入力画像データ 内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に対応する画像データ の定常性を検出する画像データ定常性検出ステップと、 画像データ定常性検出ス テツプにおいて検出された画像データの定常性に基づいて、 高質画像データ内の 注目画素に対応する、 入力画像データ内の複数の第 2の周辺画素を抽出する第 1 の抽出ステップと、 画像データ定常性検出ステップにおいて検出された画像デー タの定常性に基づいて、 注目画素に対応する、 入力画像データ内の複数の第 3の 周辺画素を抽出する第 2の抽出ステップと、 第 1の抽出ステップにおいて抽出さ れた複数の第 2の周辺画素の特徴量を検出する特徴量検出ステップと、 特徴量検 出ステップにおいて検出された特徴量毎に、 第 2の抽出ステップにおいて抽出さ れた複数の第 3の周辺画素から注目画素を予測するための予測手段を学習する学 習ステップとを含むことを特徴とする。
本発明の第 2の記録媒体のプログラムは、 高質画像データ内の注目画素に対応 する入力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に 対応する画像データの定常性を検出する画像データ定常性検出ステツプと、 画像 データ定常性検出ステップにおいて検出された画像データの定常性に基づいて、 高質画像データ内の注目画素に対応する、 入力画像データ内の複数の第 2の周辺 画素を抽出する第 1の抽出ステップと、 画像データ定常性検出ステップにおいて 検出された画像データの定常性に基づいて、 注目画素に対応する、 入力画像デー タ内の複数の第 3の周辺画素を抽出する第 2の抽出ステップと、 第 1の抽出ステ ップにおいて抽出された複数の第 2の周辺画素の特徴量を検出する特徴量検出ス テツプと、 特徴量検出ステップにおいて検出された特徴量毎に、 第 2の抽出ステ ップにおいて抽出された複数の第 3の周辺画素から注目画素を予測するための予 測手段を学習する学習ステップとを含むことを特徴とする。
本発明の第 2のプログラムは、 コンピュータに、 高質画像データ内の注目画素 に対応する入力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の定 常性に対応する画像データの定常性を検出する画像データ定常性検出ステップと、 画像データ定常性検出ステップにおいて検出された画像データの定常性に基づい て、 高質画像データ内の注目画素に対応する、 入力画像データ内の複数の第 2の 周辺画素を抽出する第 1の抽出ステップと、 画像データ定常性検出ステップにお 4 001607
17
いて検出された画像データの定常性に基づいて、 注目画素に対応する、 入力画像 データ内の複数の第 3の周辺画素を抽出する第 2の抽出ステップと、 第 1の抽出 ステップにおいて抽出された複数の第 2の周辺画素の特徴量を検出する特徴量検 出ステップと、 特徴量検出ステップにおいて検出された特徴量毎に、 第 2の抽出 ステップにおいて抽出された複数の第 3の周辺画素から注目画素を予測するため の予測手段を学習する学習ステップとを実行させることを特徴とする。
画像処理装置は、 独立した装置であっても良いし、 画像処理を行うブロックで あっても良い。
学習装置は、 独立した装置であっても良いし、 学習の処理を行うプロックであ つても良い。
高質画像データ内の第 1の注目画素に対応する、 入力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に対応する画像データの第 1の定常 性が検出され、 第 1の注目画素に時間的または空間的に隣接する高質画像データ 内の第 2の注目画素に対応する、 入力画像データ内の複数の第 2の周辺画素の、 現実世界の光信号の定常性に対応する画像データの第 2の定常性が検出され、 検 出された画像データの第 1の定常性に基づいて、 第 1の注目画素に対応する、 入 力画像データ内の複数の第 3の周辺画素が抽出され、 検出された画像データの第 2の定常性に基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の 第 4の周辺画素が抽出され、 検出された画像データの第 1の定常性に基づいて、 第 1の注目画素に対応する、 入力画像データ内の複数の第 5の周辺画素が抽出さ れ、 検出された画像データの第 2の定常性に基づいて、 第 2の注目画素に対応す る、 入力画像データ内の複数の第 6の周辺画素が抽出され、 抽出された複数の第 3の周辺画素の第 1の特徴量が検出され、 抽出された複数の第 4の周辺画素の第 2の特徴量が検出され、 検出された第 1の特徴量に基づいて、 抽出された複数の 第 5の周辺画素から第 1の注目画素が予測され、 検出された第 2の特徴量に基づ いて、 抽出された複数の第 6の周辺画素から第 2の注目画素が予測され、 第 1の 注目画素の第 1の予測値および第 2の注目画素の第 2の予測値が出力され、 予測 された第 1の注目画素の第 1の予測値と、 予測された第 2の注目画素の第 2の予 測値と、 少なくとも第 1の注目画素と第 2の注目画素とを時間方向または空間方 向に対して包含する位置に配される入力画像データ内の対応画素の画素値との関 係が検出され、 検出結果に応じて第 1の注目画素の第 1の予測値および第 2の注 目画素の第 2の予測値が選択的に出力される。
高質画像データ内の注目画素に対応する入力画像データ内の複数の第 1の周辺 画素の、 現実世界の光信号の定常性に対応する画像データの定常性が検出され、 検出された画像データの定常性に基づいて、 高質画像データ内の注目画素に対応 する、 入力画像データ内の複数の第 2の周辺画素が抽出され、 検出された画像デ ータの定常性に基づいて、 注目画素に対応する、 入力画像データ内の複数の第 3 の周辺画素が抽出され、 抽出された複数の第 2の周辺画素の特徴量が検出され、 検出された特徴量毎に、 抽出された複数の第 3の周辺画素から注目画素を予測す るための予測手段が学習される。 図面の簡単な説明
図 1は、 従来の画像処理装置の構成を説明するプロック図である
図 2は、 従来の画像の創造の処理を説明するフローチヤ一トである。
図 3は、 予測係数を生成する、 従来の画像処理装置の構成を説明するブロック 図である。
図 4は、 従来の学習の処理を説明するフローチャートである。
図 5は、 本発明に係る画像処理装置の一実施の形態の構成を示すプロック図で ある。
図 6は、 より高解像度の出力画像を創造する画像創造処理を説明するフ口ーチ ヤートである。
図 7は、 イメージセンサ上の画素の配置の例を説明する図である。
図 8は、 CCDである検出素子の動作を説明する図である。 図 9は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値との 関係を説明する図である。
図 1 0は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。
図 1 1は、 実世界の線状の物の画像の例を示す図である。
図 1 2は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 3は、 画像データの模式図である。
図 1 4は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界の画像の例を示す図である。
図 1 5は、 実際の撮像により得られた画像データの画素値の例を示す図である。 図 1 6は、 画像データの模式図である。
図 1 7は、 データ定常性検出部の構成を示すブロック図である。
図 1 8は、 データの定常性を有する入力画像におけるアクティビティを説明す る図である。
図 1 9は、 アクティビティを検出するためのプロックを説明する図である。 図 2 0は、 ァクティビティに対するデータの定常性の角度を説明する図である。 図 2 1は、 データ定常性検出部のより詳細な構成を示すプロック図である。 図 2 2は、 画素の組を説明する図である。
図 2 3は、 画素の組の位置とデータの定常性の角度との関係を説明する図であ る。
図 2 4は、 データの定常性の検出の処理を説明するフローチヤ一トである。 図 2 5は、 時間方向および空間方向のデータの定常性の角度を検出するとき、 抽出される画素の組を示す図である。
図 2 6は、 データ定常性検出部のより詳細な他の構成を示すプロック図である。 図 2 7は、 設定された直線の角度の範囲に応じた数の画素からなる画素の組を 説明する図である。
図 2 8は、 設定された直線の角度の範囲を説明する図である。 図 2 9は、 設定された直線の角度の範囲と、 画素の組の数、 および画素の組毎 の画素の数を説明する図である。
図 3 0は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 3 1は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 3 2は、 画素の組の数おょぴ画素の組毎の画素の数を説明する図である。 図 3 3は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 3 4は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 3 5は、 画素の組の数および画秦の組毎の画素の数を説明する図である。 図 3 6は、 画素の組の数おょぴ画素の組毎の画素の数を説明する図である。 図 3 7は、 画素の組の数および画素の組毎の画素の数を説明する図である。 図 3 8は、 データの定常性の検出の処理を説明するフローチャートである。 図 3 9は、 データ定常性検出部のさらに他の構成を示すブロック図である。 図 4 0は、 データ定常性検出部のより詳細な構成を示すブロック図である。 図 4 1は、 ブロックの例を説明する図である。
図 4 2は、 注目プロックと参照ブロックとの、 画素値の差分の絶対値の算出の 処理を説明する図である。
図 4 3は、 注目画素の周辺の画素の位置と、 角度 Θ を有する直線との空間方 向 Xの距離を説明する図である。
図 4 4は、 シフ ト量 と角度 0 との関係を示す図である。
図 4 5は、 シフ ト量 に対する、 注目画素の周辺の画素の位置と、 注目画素 を通り、 角度 0 を有する直線との空間方向 Xの距離を示す図である。
図 4 6は、 注目画素を通り、 空間方向 Xの軸に対して角度 Θ の直線との距離 が最小の参照プロックを示す図である。
図 4 7は、 検出するデータの定常性の角度の範囲を 1 / 2にする処理を説明す る図である。
図 4 8は、 デ一タの定常性の検出の処理を説明するフローチヤ一トである。 図 4 9は、 間方向および空間方向のデータの定常性の角度を検出するとき、 抽 出されるプロックを示す図である。
図 5 0は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の処 理を実行するデータ定常性検出部の構成を示すプロック図である。
図 5 1は、 入力画像のコンボーネント信号を基に、 データの定常性の検出の処 理を実行するデータ定常性検出部の構成を示すプロック図である。
図 5 2は、 データ定常性検出部のさらに他の構成を示すブロック図である。 図 5 3は、 入力画像における、 基準軸を基準としたデータの定常性の角度を説 明する図である。
図 5 4は、 入力画像における、 基準軸を基準としたデータの定常性の角度を説 明する図である。
図 5 5は、 入力画像における、 基準軸を基準としたデータの定常性の角度を説 明する図である。
図 5 6は、 入力画像における、 画素の空間方向の位置に対する、 画素値の変化 と、 回帰直線との関係を示す図である。
図 5 7は、 回帰直線 Aと、 例えば、 基準軸である空間方向 Xを示す軸との角度 を説明する図である。
図 5 8は、 領域の例を示す図である。
図 5 9は、 図 5 2で構成が示されるデータ定常性検出部による、 データの定常 性の検出の処理を説明するフローチャートである。
図 6 0は、 本発明を適用した細線、 または、 2値エッジの角度をデータ定常性 情報として検出するデータ定常性検出部の構成を示すプロック図である。
図 6 1は、 データ定常性情報の検出方法を説明する図である。
図 6 2は、 データ定常性情報の検出方法を説明する図である。
図 6 3は、 図 6 0のデータ定常性検出部のより詳細な構成を示す図である。 図 6 4は、 水平 ·垂直判定処理を説明する図である。
図 6 5は、 水平 ·垂直判定処理を説明する図である。 図 6 6 Aは、 現実世界の細線とセンサにより撮像される細線の関係を説明する 図である。
図 6 6 Bは、 現実世界の細線とセンサにより撮像される細線の関係を説明する 図である。
図 6 6 Cは、 現実世界の細線とセンサにより撮像される細線の関係を説明する 図である。
図 6 7 Aは、 現実世界の画像の細線と背景の関係を説明する図である。
図 6 7 Bは、 現実世界の画像の細線と背景の関係を説明する図である。
図 6 8 Aは、 センサにより撮像された画像の細線と背景の関係を説明する図で ある。
図 6 8 Bは、 センサにより撮像された画像の細線と背景の関係を説明する図で ある。
図 6 9 Aは、 センサにより撮像された画像の細線と背景の関係の例を説明する 図である。
図 6 9 Bは、 センサにより撮像された画像の細線と背景の関係の例を説明する 図である。
図 7 O Aは、 現実世界の画像の細線と背景の関係を説明する図である。
図 7 0 Bは、 現実世界の画像の細線と背景の関係を説明する図である。
図 7 1 Aは、 センサにより撮像された画像の細線と背景の関係を説明する図で ある。
図 7 1 Bは、 センサにより撮像された画像の細線と背景の関係を説明する図で ある。
図 7 2 Aは、 センサにより撮像された画像の細線と背景の関係の例を説明する 図である。
図 7 2 Bは、 センサにより撮像された画像の細線と背景の関係の例を説明する 図である。
図 7 3は、 細線の角度を求めるためのモデルを示す図である。 図 7 4は、 細線の角度を求めるためのモデルを示す図である。
図 7 5 Aは、 注目画素に対応するダイナミックレンジブ口ックの画素値の最大 値と最小値を説明する図である。
図 7 5 Bは、 注目画素に対応するダイナミックレンジブロックの画素値の最大 値と最小値を説明する図である。
図 7 6 Aは、 細線の角度の求め方を説明する図である。
図 7 6 Bは、 細線の角度の求め方を説明する図である。
図 7 6 Cは、 細線の角度の求め方を説明する図である。
図 7 7は、 細線の角度の求め方を説明する図である。
図 7 8は、 抽出ブロックとダイナミックレンジプロックを説明する図である。 図 7 9は、 最小自乗法の解法を説明する図である。
図 8 0は、 最小自乗法の解法を説明する図である。
図 8 1 Aは、 2値エッジを説明する図である。
図 8 1 Bは、 2値エッジを説明する図である。
図 8 1 Cは、 2値エッジを説明する図である。
図 8 2 Aは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 8 2 Bは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 8 3 Aは、 センサにより撮像された画像の 2値エッジの例を説明する図であ る。
図 8 3 Bは、 センサにより撮像された画像の 2値エッジの例を説明する図であ る。
図 8 4 Aは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 8 4 Bは、 センサにより撮像された画像の 2値エッジを説明する図である。 図 8 5は、 2値ェッジの角度を求めるためのモデルを示す図である。
図 8 6 Aは、 2値エッジの角度を求める方法を説明する図である。
図 8 6 Bは、 2値ェッジの角度を求める方法を説明する図である。
図 8 6 Cは、 2値エッジの角度を求める方法を説明する図である。 図 8 7は、 2値エッジの角度を求める方法を説明する図である。
図 8 8は、 細線、 または、 2値エッジの角度をデータ定常性と検出する処理を 説明するフローチヤ一トである。
図 8 9は、 データ抽出処理を説明するフローチヤ一トである。
図 9 0は、 正規方程式への足し込み処理を説明するフローチャートである。 図 9 1 Aは、 本発明を適用して求めた細線の傾きと、 相関を用いて求めた細線 の角度とを比較する図である。
図 9 I Bは、 本発明を適用して求めた細線の傾きと、 相関を用いて求めた細線 の角度とを比較する図である。
図 9 2 Aは、 本発明を適用して求めた 2値エッジの傾きと、 相関を用いて求め た細線の角度とを比較する図である。
図 9 2 Bは、 本発明を適用して求めた 2値エッジの傾きと、 相関を用いて求め た細線の角度とを比較する図である。
図 9 3は、 本発明を適用した混合比をデータ定常性情報として検出するデータ 定常性検出部の構成を示すプロック図である。
図 9 4 Aは、 混合比の求め方を説明する図である。
図 9 4 Bは、 混合比の求め方を説明する図である。
図 9 4 Cは、 混合比の求め方を説明する図である。
図 9 5は、 混合比をデータ定常性と検出する処理を説明するフローチヤ一トで ある。
図 9 6は、 正規方程式への足し込み処理を説明するフローチヤ一トである。 図 9 7 Aは、 細線の混合比の分布例を示す図である。
図 9 7 Bは、 細線の混合比の分布例を示す図である。 '
図 9 8 Aは、 2値ェッジの混合比の分布例を示す図である。
図 9 8 Bは、 2値エッジの混合比の分布例を示す図である。
図 9 9は、 混合比の直線近似を説明する図である。 図 1 0 O Aは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 0 O Bは、 物体の動きをデータ定常性情報として求める方法を説明する図 1め 。
図 1 0 1 Aは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 0 1 Bは、 物体の動きをデータ定常性情報として求める方法を説明する図 である。
図 1 0 2 Aは、 物体の動きによる混合比をデータ定常性情報として求める方法 を説明する図である。
図 1 0 2 Bは、 物体の動きによる混合比をデータ定常性情報として求める方法 を説明する図である。 ·
図 1 0 2 Cは、 物体の動きによる混合比をデータ定常性情報として求める方法 を説明する図である。
図 1 0 3は、 物体の動きによる混合比をデータ定常性情報として求める際の混 合比の直線近似を説明する図である。
図 1 0 4は、 従来のクラスタップの抽出の処理を説明する図である。
図 1 0 5は、 本発明に係る画像処理装置におけるクラスタップの抽出の処理を 説明する図である。
図 1 0 6は、 データの定常性に基づく、 クラスタップとして抽出される画素の 位置の決定を説明する図である。
図 1 0 7は、 データの定常性に基づく、 クラスタップとして抽出される画素の 位置の決定を説明する図である。
図 1 0 8は、 本発明に係る画像処理装置におけるクラスタップの抽出の処理を 説明する図である。
図 1 0 9は、 入力画像の例を示す図である。
図 1 1 0は、 入力画像の元になつた画像を示す図である。 図 1 1 1は、 従来のクラス分類適応処理により生成された画像を示す図である。 図 1 1 2は、 対応画素と中心画素とが常に同じになるようにした場合に、 生成 された画像を示す図である。
図 1 1 3は、 本宪明に係る画像処理装置により生成された画像を示す図である。 図 1 1 4は、 入力画像の例を示す図である。
図 1 1 5は、 入力画像の元になつた画像を示す図である。
図 1 1 6は、 従来のクラス分類適応処理により生成された画像を示す図である。 図 1 1 7は、 対応画素と中心画素とが常に同じになるようにした場合に、 生成 された画像を示す図である。
図 1 1 8は、 本発明に係る画像処理装置により生成された画像を示す図である。 図 1 1 9は、 本発明に係る学習装置の一実施の形態の構成を示すブロック図で める。
図 1 2 0は、 学習処理を説明するフローチャートである。
図 1 2 1は、 本発明に係る画像処理装置の一実施の形態の他の構成を示すプロ ック図である。
図 1 2 2は、 注目画素を説明する図である。
図 1 2 3は、 イメージセンサに設けられている画素の配置、 および水平倍密画 像の画素に対応する領域を説明する図である。
図1 2 4は、 領域 a乃至 rに入射される光に対応する画素の画素値を説明す る図である。
図 1 2 5は、 式 (5 3 ) の関係が成立していない、 画素値予測部による予測値 を含む出力画像の例を示す図である。
+ 図 1 2 6は、 式 (5 3 ) の関係が成立していない、 画素値予測部による予測値 を、 画素値予測部による予測値に置き換えた出力画像の例を示す図である。
図 1 2 7は、 画像の創造の処理を説明するフローチャートである。
図 1 2 8は、 時間倍密画像を創造する場合における、 注目画素を説明する図で める。 図 1 2 9は、 注目画素 y a)と、 注目画素 y (2)と、 注目画素 y ωおよび注目画素 y (2)を時間方向に包含する対応画素 χ (5)との関係について説明する図である。 図 1 3 0は、 学習装置の一実施の形態の構成を示すプロック図である。
図 1 3 1は、 学習処理を説明するフローチャートである。
図 1 3 2は、 パーソナルコンピュータの構成の例を示すブロック図である。 発明を実施するための最良の形態
図 5は、 本発明に係る画像処理装置の一実施の形態の構成を示すプロック図で ある。 図 5に構成を示す画像処理装置は、 入力画像を取得し、 入力された入力画 像に対して、 画面の水平方向に 2倍および垂直方向に 2倍の解像度の画像を創造 して出力する。
図 5に示す画像処理装置においては、 例えば、 入力画像の一例である S D画像 が入力され、 入力された S D画像からデータの定常性が検出され、 検出されたデ ータの定常性を基に、 S D画像に対して、 クラス分類適応処理が施されることに より、 H D画像が創造される。 データの定常性については、 後述する。
すなわち、 この画像処理装置は、 データ定常性検出部 1 ◦ 1、 クラスタップ抽 出部 1 0 2、 特徴量検出部 1 0 3、 クラス分類部 1 0 4、 係数メモリ 1 0 5、 予 測タップ抽出部 1 0 6、 および画素値予測部 1 0 7から構成される。
画像処理装置に入力された、 空間解像度の創造の対象となる入力画像は、 デー タ定常性検出部 1 0 1、 クラスタップ抽出部 1 0 2、 特徴量検出部 1 0 3、 およ び予測タップ抽出部 1 0 6に供給される。
データ定常性検出部 1 0 1は、 入力画像からデータの定常性を検出して、 検出 した定常性を示すデータ定常性情報をクラスタップ抽出部 1 0 2および予測タッ プ抽出部 1 0 6に供給する。 データ定常性情報は、 例えば、 データの定常性を有 する画素の領域の方向 (時間方向および空間方向の角度または傾き) (以下、 デ ータの定常性の方向とも称する。 ) を含む。 データ定常性検出部 1 0 1の構成の 詳細は、 後述する。 クラスタップ抽出部 1 0 2は、 クラス分類適応処理により求めようとする H D 画像の H D画素のうちの 1つを、 順次、 注目画素とする。 そして、 クラスタップ' 抽出部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に 基いて、 注目画素に対応する、 入力画像の複数の周辺画素を抽出し、 抽出した入 力画像の複数の周辺画素をクラスタップとする。 すなわち、 クラスタップ抽出部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に基づい て、 注目画素についてのクラス分類に用いるクラスタップを、 入力画像から抽出 し、 抽出したクラスタップを特徴量検出部 1 0 3に出力する。
例えば、 クラスタップ抽出部 1 0 2は、 データの定常性に基づいて、 注目画素 の位置から空間的または時間的に近い位置にある複数の画素を、 入力された入力 画像から抽出することによりクラスタップとし、 特徴量検出部 1 0 3に出力する。 なお、 データ定常性検出部 1 0 1、 クラスタップ抽出部 1 0 2、 およぴ予測タ ップ抽出部 1 0 6は、 それぞれの内部の前段に、 図示せぬフレームメモリを内蔵 し、 画像処理装置に入力された S D画像を、 例えば、 フレーム (またはフィール ド) 単位で一時記憶する。 本実施の形態では、 データ定常性検出部 1 ◦ 1、 クラ スタップ抽出部 1 0 2、 および予測タップ抽出部 1 0 6は、 内蔵しているフレー ムメモリに、 複数フレームの入力画像を、 バンク切換によって記憶することがで きるようになつており、 これにより、 画像処理装置に入力される入力画像が動画 であっても、 その処理をリアルタイムで行うことができるようになつている。 この場合、 データ定常性検出部 1 0 1、 クラスタップ抽出部 1 0 2、 および予 測タップ抽出部 1 0 6のそれぞれにフレームメモリを設けることにより、 データ 定常性検出部 1 0 1、 クラスタップ抽出部 1 0 2、 および予測タップ抽出部 1 0 6のそれぞれが、 要求するフレームを即座に読み出すことができるようになり、 より高速に処理を実行することができるようになる。
また、 画像処理装置は、 入力側に 1つのフレームメモリを設け、 複数フレーム の入力画像を、 バンク切換によって記憶し、 記憶した入力画像を、 データ定常性 検出部 1 0 1、 クラスタップ抽出部 1 0 2、 および予測タップ抽出部 1 0 6に供 給するようにしてもよい。 この場合、 1つのフレームメモリで足り、 画像処理装 置をより簡単な構成とすることができる。
例えば、 クラスタップ抽出部 1 0 2は、 データ定常性検出部 1 0 1により検出 されたデータの定常性に基づいて、 注目画素について、 注目画素の位置から近い 横 X縦が 3 X 3個の画素を入力画像から抽出することによりクラスタップとする。 このように、 クラスタツプ抽出部 1 0 2は、 抽出されたクラスタップを、 特徴 量検出部 1 0 3に供給する。
特徴量検出部 1 0 3は、 クラスタップまたは入力画像から特徴量を検出して、 検出した特徴量をクラス分類部 1 0 4に供給する。
例えば、 特徴量検出部 1 0 3は、 クラスタップまたは入力画像を基に、 入力画 像の画素の動きべク トルを検出して、 検出した動きべクトルを特徴量としてクラ ス分類部 1 0 4に供給する。 また、 例えば、 特徴量検出部 1 0 3は、 クラスタツ プまたは入力画像を基に、 クラスタップまたは入力画像の複数の画素の画素値の 空間的または時間的な変化 (アクティビティ) を検出して、 検出した画素値の変 化を特徴量としてクラス分類部 1 0 4に供給する。
さらに、 例えば、 特徴量検出部 1 0 3は、 クラスタップまたは入力画像を基に、 クラスタップまたは入力画像の複数の画素の画素値の空間的な変化の傾きを検出 して、 検出した画素値の変化の傾きを特徴量としてクラス分類部 1 0 4に供給す る。
なお、 特徴量として、 画素値の、 ラプラシアン、 ソーベル、 または分散などを 採用することができる。
特徴量検出部 1 0 3は、 特徴量とは別に、 クラスタップをクラス分類部 1 0 4 に供給する。
クラス分類部 1 0 4は、 特徴量検出部 1 0 3からの特徴量またはクラスタップ に基づいて、 1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類 し、 その結果得られる注目画素のクラスに対応するクラスコードを、 係数メモリ 1 0 5と予測タップ抽出部 1 0 6とに供給する。 例えば、 クラス分類部 1 0 4は、 クラスタップ抽出部 1 0 2からのクラスタップを、 1ビット ADRC (Adapt ive Dynamic Range Coding)処理し、 その結果得られる ADRCコードを、 クラスコー ドとする。
なお、 Kビット ADRC処理においては、 クラスタップを構成する入力画像の画 素値の最大値 MAXと最小値 MINが検出され、 DR=MAX- MINを、 局所的なダイナミ ックレンジとし、 このダイナミックレンジ DRに基づいて、 クラスタップを構成 する画素値が Kビットに再量子化される。 即ち、 クラスタップを構成する各画 素値から、 最小値 MINが減算され、 その減算値が DR/2Kで除算 (量子化) される。 従って、 クラスタップが、 1ビッ ト ADRC処理された場合には、 そのクラスタツ プを構成する各画素値は 1ビットとされることになる。 そして、 この場合、 以上 のようにして得られる、 クラスタップを構成する各画素値についての 1ビットの 値を、 所定の順番で並べたビット列が、 ADRCコードとして出力される。
ただし、 クラス分類は、 その他、 例えば、 クラスタップを構成する画素値を、 ベタ トルのコンポーネントとみなし、 そのべク トルをべク トル量子化すること等 によって行うことも可能である。 また、 クラス分類としては、 1クラスのクラス 分類を行うことも可能である。 この場合、 クラス分類部 1 0 4は、 どのようなク ラスタップが供給されても、 固定のクラスコードを出力するものとなる。
また、 例えば、 クラス分類部 1 0 4は、 特徴量検出部 1 0 3からの特徴量を、 そのままクラスコードとする。 さらに、 例えば、 クラス分類部 1 0 4は、 特徴量 検出部 1 0 3からの複数の特徴量を、 直交変換して、 得られた値をクラスコード とする。
例えば、 クラス分類部 1 0 4は、 クラスタップを基にしたクラスコ一ド、 およ び特徴量を基にしたクラスコードを結合し (合成し) 、 最終的なクラスコードを 生成して、 最終的なクラスコードを係数メモリ 1 0 5と予測タップ抽出部 1 0 6 とに供給する。
なお、 クラスタップを基にしたクラスコード、 および特徴量を基にしたクラス コードのいずれか一方を、 最終的なクラスコードとするようにしてもよい。 係数メモリ 1 0 5は、 学習の教師となる、 出力画像の一例である H D画像の H D画素である教師データと、 学習の生徒となる、 入力画像の一例である S D画像 の画素値である生徒データとの関係を、 1以上のクラスごとに学習することによ り得られたタップ係数を記憶している。 そして、 係数メモリ 1 0 5は、 クラス分 類部 1 0 4から注目画素のクラスコードが供給されると、 そのクラスコードに対 応するアドレスに記憶されているタップ係数を読み出すことにより、 注目画素の クラスのタップ係数を取得し、 画素値予測部 1 0 7に供給する。 なお、 係数メモ リ 1 0 5に記憶されるタツプ係数の学習方法についての詳細は、 後述する。 予測タップ抽出部 1 0 6は、 データ定常性検出部 1 0 1により検出されたデー タの定常性に基づいて、 注目画素に対応する、 入力画像の複数の周辺画素を抽出 し、 抽出した入力画像の複数の周辺画素を予測タップとする。 すなわち、 予測タ ップ抽出部 1 0 6は、 データ定常性検出部 1 0 1により検出されたデータの定常 性おょぴクラス分類部 1 0 4から供給されるクラスコードを基に、 画素値予測部 1 0 7において注目画素 (の予測値) を求めるのに用いる予測タップを入力画像 から抽出し、 抽出した予測タップを画素値予測部 1 0 7に供給する。
例えば、 予測タップ抽出部 1 0 6は、 データの定常性に基づいて、 注目画素の 位置から空間的または時間的に近い位置にある複数の画素値を、 入力画像から抽 出することにより予測タップとし、 画素値予測部 1 0 7に供給する。 例えば、 予 測タップ抽出部 1 0 6は、 データ定常性検出部 1 0 1により検出されたデータの 定常性に基づいて、 注目画素について、 注目画素の位置から近い横 X縦が 3 X 3 個の画素を、 入力画像から抽出することにより予測タップとする。
なお、 クラスタップとする画素値と、 予測タップとする画素値とは、 同一であ つても、 異なるものであってもよい。 即ち、 クラスタップと予測タップは、 それ ぞれ独立に構成 (生成) することが可能である。 また、 予測タップとする画素値 は、 クラス毎に異なるものであっても、 同一であってもよい。
なお、 クラスタツプゃ予測タップのタップ構造は、 3 3個の画素値に限定さ れるものではない。 4 001607
32
画素値予測部 1 0 7は、 係数メモリ 1 0 5から供給される、 注目画素のクラス についてのタップ係数 wい w2 ) · ■ · と、 予測タップ抽出部 1 0 6からの予測 タップ (を構成する画素値) Xい x 2, · ■ ■ とを用いて、 式 ( 1 ) に示した積 和演算を行うことにより、 注目画素 y (の予測値) を予測し、 これを、 H D画素 の画素値とする。 画素値予測部 1 0 7は、 このように演算された画素値からなる H D画像を出力画像として出力する。
以上のように、 図 5に構成を示す画像処理装置は、 入力された入力画像に対応 する、 より高解像度の出力画像を創造して、 創造した出力画像を出力することが できる。
次に、 図 6のフローチャートを参照して、 図 5の画像処理装置が行う、 入力画 像からより高解像度の出力画像を創造する画像創造処理について説明する。 ステップ S 1 0 1において、 データ定常性検出部 1 0 1は、 定常性の検出の処 理を実行する。 データ定常性検出部 1 0 1は、 入力画像に含まれているデータの 定常性を検出して、 検出したデータの定常性を示すデータ定常性情報をクラスタ ップ抽出部 1 0 2およぴ予測タップ抽出部 1 0 6に供給する。 例えば、 データ定 常性検出部 1 0 1は、 入力画像からデータの定常性の方向を検出する。
ここで、 データの定常性、 データ定常性検出部 1 0 1の構成、 およびデータの 定常性の抽出の処理について、 具体的に説明する。
まず、 センサによって射影されたデータである入力画像について説明する。 空間、 時間、 および質量の次元を有する実世界の事象 (現象) は、 センサによ り取得され、 データ化される。 実世界の事象とは、 光 (画像) 、 音声、 圧力、 温 度、 質量、 濃度、 明るさ/暗さ、 またはにおいなどをいう。 実世界の事象は、 時 空間方向に分布している。 例えば、 実世界の画像は、 実世界の光の強度の時空間 方向の分布である。
センサに注目すると、 空間、 時間、 および質量の次元を有する実世界の事象の うち、 センサが取得可能な、 実世界の事象が、 センサにより、 データに変換され る。 センサによって、 実世界の事象を示す情報が取得されるとも言える。 すなわち、 センサは、 実世界の事象を示す情報を、 データに変換する。 空間、 時間、 および質量の次元を有する実世界の事象 (現象) を示す情報である信号が センサにより取得され、 データ化されるとも言える。
以下、 実世界における、 画像、 音声、 圧力、 温度、 質量、 濃度、 明るさ/暗さ、 またはにおいなどの事象の分布を、 実世界の事象を示す情報である信号とも称す る。 また、 実世界の事象を示す情報である信号を、 単に、 実世界の信号とも称す る。 本明細書において、 信号は、 現象おょぴ事象を含み、 送信側に意思がないも のも含むものとする。
センサから出力されるデータ (検出信号) は、 実世界の事象を示す情報を、 実 世界に比較して、 より低い次元の時空間に射影して得られた情報である。 例えば、 動画像の画像データであるデータは、 実世界の 3次元の空間方向および時間方向 の画像が、 2次元の空間方向、 および時間方向からなる時空間に射影されて得ら れた情報である。 また、 例えば、 データがデジタルデータであるとき、 データは、 サンプリングの単位に応じて、 丸められている。 データがアナログデータである とき、 データにおいて、 ダイナミックレンジに応じて、 情報が圧縮されているカ またはリミッタなどにより、 情報の一部が削除されている。
このように、 所定の次元を有する実世界の事象を示す情報である信号をデータ (検出信号) に射影することにより、 実世界の事象を示す情報の一部が欠落する。 すなわち、 センサが出力するデータにおいて、 実世界の事象を示す情報の一部が 欠落している。
しかしながら、 射影により実世界の事象を示す情報の一部が欠落しているもの の、 データは、 実世界の事象 (現象) を示す情報である信号を推定するための有 意情報を含んでいる。
本発明においては、 実世界の情報である信号を推定するための有意情報として、 データに含まれる定常性を有する情報を利用する。 定常性は、 新たに定義する概 念である。 T酒 04/001607
34
ここで、 実世界に注目すると、 実世界の事象は、 所定の次元の方向に一定の特 徴を含む。 例えば、 実世界の物体 (有体物) において、 空間方向または時間方向 に、 形状、 模様、 若しくは色彩などが連続するか、 または形状、 模様、 若しくは 色彩などのパターンが繰り返す。
従って、 実世界の事象を示す情報には、 所定の次元の方向に一定の特徴が含ま れることになる。
より具体的な例を挙げれば、 糸、 紐、 またはロープなどの線状の物体は、 長さ 方向の任意の位置において、 断面形状が同じであるという長さ方向、 すなわち空 間方向に一定の特徴を有する。 長さ方向の任意の位置において、 断面形状が同じ であるという空間方向に一定の特徴は、 線状の物体が長いという特徴から生じる。 従って、 線状の物体の画像は、 長さ方向の任意の位置において、 断面形状が同 じであるという長さ方向、 すなわち空間方向に一定の特徴を有している。
また、 空間方向に広がりを有する有体物である、 単色の物体は、 部位にかかわ らず、 同一の色を有するという空間方向に一定の特徴を有していると言える。 同様に、 空間方向に広がりを有する有体物である、 単色の物体の画像は、 部位 にかかわらず、 同一の色を有するという空間方向に一定の特徴を有している。 このように、 実世界 (現実世界) の事象は、 所定の次元の方向に一定の特徴を 有しているので、 実世界の信号は、 所定の次元の方向に一定の特徴を有する。 本明細書において、 このような所定の次元の方向に一定の特徴を定常性と称す る。 実世界 (現実世界) の信号の定常性とは、 実世界 (現実世界) の事象を示す 信号が有している、 所定の次元の方向に一定の特徴をいう。
実世界 (現実世界) には、 このような定常性が無数に存在する。
次に、 データに注目すると、 データは、 センサにより、 所定の次元を有する実 世界の事象を示す情報である信号が射影されたものであるので、 実世界の信号の 定常性に対応する定常性を含んでいる。 データは、 実世界の信号の定常性が射影 された定常性を含んでいるとも言える。 しかしながら、 上述したように、 センサが出力するデータにおいて、 実世界の 情報の一部が欠落しているので、 データから、 実世界 (現実世界) の信号に含ま れる定常性の一部が欠落してしまう。
換言すれば、 データは、 データの定常性として、 実世界 (現実世界) の信号の 定常性の中の、 一部の定常性を含む。 データの定常性とは、 データが有している、 所定の次元の方向に一定の特徴である。
本発明においては、 実世界の事象を示す情報である信号を推定するための有意 情報として、 データが有する、 データの定常性が利用される。
なお、 本発明においては、 実世界の事象を示す情報である信号の次元の、 長さ (空間) 、 時間、 および質量のうち、 空間方向または時間方向の定常性が利用さ れる。
次に、 図 7乃至図 1 0を参照して、 画像の空間的時間的な積分について説明す る。
イメージセンサは、 現実世界の対象物 (ォブジュク ト) を撮像し、 撮像の結果 得られた画像データを 1フレーム単位で出力する。 すなわち、 イメージセンサは、 実世界の対象物で反射された光である、 実世界の信号を取得し、 デ タを出力す る。
例えば、 イメージセンサは、 1秒間に 3 0フレームからなる画像データを出力 する。 この場合、 イメージセンサの露光時間は、 1 / 3 0秒とすることができる。 露光時間は、 イメージセンサが入射された光の電荷への変換を開始してから、 入 射された光の電荷への変換を終了するまでの期間である。 以下、 露光時間をシャ ッタ時間とも称する。
図 7は、 CCD (Charge Coupl ed Device) または CMOS (Comp lementary
Metal-Oxi de Semi conductor) センサなどのィメ一ジセンサ上の画素の配置の 例を説明する図である。 図 7中において、 A乃至 Iは、 個々の画素を示す。 画素 は、 画像データにより表示される画像に対応する平面上に配置されている。 1つ の画素に対応する 1つの検出素子は、 イメージセンサ上に配置されている。 ィメ ージセンサが実世界の画像を撮像するとき、 1つの検出素子は、'画像データを構 成する 1つの画素に対応する 1つの画素値を出力する。 例えば、 検出素子の空間 方向 Xの位置 (X座標) は、 画像データにより表示される画像上の横方向の位置 に対応し、 検出素子の空間方向 Yの位置 (Y座標) は、 画像データにより表示さ れる画像上の縦方向の位置に対応する。
実世界の光の強度の分布は、 3次元の空間方向および時間方向に広がりを有す るが、 イメージセンサは、 2次元の空間方向およぴ時間方向で、 実世界の光を取 得し、 2次元の空間方向および時間方向の光の強度の分布を表現するデータを生 成する。
図 8で示されるように、 例えば、 CCDである検出素子は、 シャツタ時間に対応 する期間、 受光面 (受光領域) (検出領域) に入力された光を電荷に変換して、 変換された電荷を蓄積する。 光は、 3次元の空間上の位置、 および時刻により、 強度が決定される実世界の情報 (信号) である。 実世界の光の強度の分布は、 3 次元の空間上の位置 x, y、 および z、 並びに時刻 tを変数とする
関数 F (x,y,z,t)で表すことができる。
CCDである検出素子に蓄積される電荷の量は、 2次元の空間上の広がりを有す る受光面の全体に入射された光の強さと、 光が入射されている時間にほぼ比例す る。 検出素子は、 シャツタ時間に対応する期間において、 受光面の全体に入射さ れた光から変換された電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツタ時間に対応する期間、 2次元の空間上の広がりを有する受 光面の全体に入射される光を積分して、 積分された光に対応する量の電荷を蓄積 する。 検出素子は、 空間 (受光面) および時間 (シャツタ時間) に対して、 積分 効果があるとも言える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電圧 値はさらにデジタルデータなどの画素値に変換されて、 データとして出力される。 従って、 イメージセンサから出力される個々の画素値は、 実世界の情報 (信号) の時間的空間的に広がりを有するある部分を、 シャツタ時間の時間方向および検 出素子の受光面の空間方向について積分した結果である、 1次元の空間に射影し た値を有する。
すなわち、 1つの画素の画素値は、 F (x, y, t)の積分で表される。 F (x, y, t)は、 検出素子の受光面における、 光の強度の分布を表す関数である。 例えば、 画素値 Pは、 式 (9 ) で表される。 F (x, , t) dxd dt
Figure imgf000039_0001
- · · ( 9 )
式 (9 ) において、 Xlは、 検出素子の受光面の左側の境界の空間座標 (X座 標) である。 は、 検出素子の受光面の右側の境界の空間座標 (X座標) である。 式 (9 ) において、 yiは、 検出素子の受光面の上側の境界の空間座標 (Y座標) である。 y2は、 検出素子の受光面の下側の境界の空間座標 (Y座標) である。 ま た、 は、 入射された光の電荷への変換を開始した時刻である。 t2は、 入射され た光の電荷への変換を終了した時刻である。
なお、 実際には、 イメージセンサから出力される画像データの画素値は、 例え ばフレーム全体として、 そのゲインが補正されている。
画像データの各画素値は、 イメージセンサの各検出素子の受光面に入射した光 の積分値であり、 イメージセンサに入射された光のうち、 検出素子の受光面より も微小な実世界の光の波形は、 積分値としての画素値に隠されてしまう。
以下、 本明細書において、 所定の次元を基準として表現される信号の波形を単 に波形とも称する。
このように、 実世界の画像は、 画素を単位として、 空間方向および時間方向に 積分されてしまうので、 画像データにおいては、 実世界の画像の定常性の一部が 欠落し、 実世界の画像の定常性の他の一部のみが画像データに含まれることにな る。 または、 画像データには、 実世界の画像の定常性から変化してしまった定常 性が含まれることがある。 積分効果を有するイメージセンサにより撮像された画像の、 空間方向の積分効 果についてさらに説明する。
図 9は、 画素 D乃至画素 Fに対応する検出素子に入射される光と、 画素値との 関係を説明する図である。 図 9の F (x)は、 空間上 (検出素子上) の空間方向 X の座標 Xを変数とする、 実世界の光の強度の分布を表す関数の例である。 言い 換えれば、 F (x)は、 空間方向 Yおよび時間方向に一定である場合の、 実世界の 光の強度の分布を表す関数の例である。 図 9において、 Lは、 画素 D乃至画素 F に対応する検出素子の受光面の空間方向 Xの長さを示す。
1つの画素の画素値は、 F (x)の積分で表される。 例えば、 画素 Eの画素値 P は、 式 (1 0 ) で表される。
X1 F (x) dx
• · · ( 1 0 )
式 (1 0 ) において、 Xlは、 画素 Eに対応する検出素子の受光面の左側の境界 の空間方向 Xの空間座標である。 x2は、 画素 Eに対応する検出素子の受光面の右 側の境界の空間方向 Xの空間座標である。
同様に、 積分効果を有するイメージセンサにより撮像された画像の、 時間方向 の積分効果についてさらに説明する。
図 1 0は、 時間の経過と、 1つの画素に対応する検出素子に入射される光と、 画素値との関係を説明する図である。 図 1 0の F (t)は、 時刻 tを変数とする、 実世界の光の強度の分布を表す関数である。 言い換えれば、 F (t)は、 空間方向 Yおよび空間方向 Xに一定である場合の、 実世界の光の強度の分布を表す関数の 例である。 tsは、 シャツタ時間を示す。
フレーム #n- 1は、 フレーム #nに対して時間的に前のフレームであり、 フレー ム +1は、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレ —ム ttn- 1、 フレーム #n、 およぴフレーム #n+lは、 フレーム #n_l、 フレーム #n、 およびフレーム #n+lの順で表示される。 2004/001607
39
なお、 図 1 0で示される例において、 シャツタ時間 tsとフレーム間隔とが同 一である。
1つの画素の画素値は、 F (t)の積分で表される。 例えば、 フレーム #nの画素 の画素値 Pは、 式 (1 1 ) で表される。
Figure imgf000041_0001
• · · ( 1 1 )
式 ( 1 1 ) において、 は、 入射された光の電荷への変換を開始した時刻であ る。 t2は、 入射された光の電荷への変換を終了した時刻である。
以下、 センサによる空間方向の積分効果を単に空間積分効果と称し、 センサに よる時間方向の積分効果を単に時間積分効果と称する。 また、 空間積分効果また は時間積分効果を単に積分効果とも称する。
次に、 積分効果を有するイメージセンサにより取得されたデータに含まれるデ ータの定常性の例について説明する。
図 1 1は、 実世界の線状の物 (例えば、 細線) の画像、 すなわち光の強度の分 布の例を示す図である。 図 1 1において、 図中の上側の位置は、 光の強度 (レべ ル) を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 X の位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向
Yの位置を示す。
実世界の線状の物の画像には、 所定の定常性が含まれる。 すなわち、 図 1 1で 示される画像は、 長さ方向の任意の位置において、 断面形状 (長さ方向に直交す る方向の位置の変化に対するレベルの変化) が同じであるという定常性を有する。 図 1 2は、 図 1 1で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。
図 1 3は、 図 1 2に示す画像データの模式図である。
図 1 3で示される模式図は、 イメージセンサの画素の並び (画素の縦または横 の並び) とずれた方向に延びる、 各画素の受光面の長さ Lよりも短い径の線状 の物の画像を、 イメージセンサで撮像して得られた画像データの模式図である。 図 1 3で示される画像データが取得されたときにィメージセンサに入射された画 像は、 図 1 1の実世界の線状の物の画像である。
図 1 3において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 3における画素 値を示す方向は、 図 1 1におけるレベルの方向に対応し、 図 1 3における空間方 向 X、 および空間方向 Yは、 図 1 1における方向と同じである。
各画素の受光面の長さしょりも短い径の線状の物の画像を、 イメージセンサ で撮像した場合、 撮像の結果得られる画像データにおいて、 線状の物は、 模式的 に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さの円弧形状 (かまぼこ型) で 表される。 各円弧形状は、 ほぼ同じ形状である。 1つの円弧形状は、 縦に 1列の 画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 3における 1 つの円弧形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 イメージセンサで撮像されて取得された画像データにお いては、 実世界の線状の物の画像が有していた、 長さ方向の任意の位置において、 空間方向 Yにおける断面形状が同じであるという定常性が失われている。 また、 実世界の線状の物の画像が有していた定常性は、 縦に 1列の画素の上、 または横 にェ列の画素の上に形成された、 同じ形状である円弧形状が一定の間隔で並ぶと いう定常性に変化していると言える。
図 1 4は、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世 界の画像、 すなわち光の強度の分布の例を示す図である。 図 1 4において、 図中 の上側の位置は、 光の強度 (レベル) を示し、 図中の右上側の位置は、 画像の空 間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空 間方向の他の方向である空間方向 Yの位置を示す。
背景とは異なる色の、 直線状の縁を有する物の実世界の画像には、 所定の定常 性が含まれる。 すなわち、 図 1 4で示される画像は、 縁の長さ方向の任意の位置 において、 断面形状 (縁に直交する方向の位置の変化に対するレベルの変化) 力 s 同じであるという定常性を有する。
図 1 5は、 図 1 4で示される画像に対応する、 実際の撮像により得られた画像 データの画素値の例を示す図である。 図 1 5で示されるように、 画像データは、 画素を単位とした画素値からなるので、 階段状になる。
図 1 6は、 図 1 5に示す画像データの模式図である。
図 1 6で示される模式図は、 イメージセンサの画素の並び (画素の縦または横 の並び) とずれた方向に縁が延びる、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界の画像を、 ィメージセンサで撮像して得られた画像デ 一タの模式図である。 図 1 6で示される画像データが取得されたときにイメージ センサに入射された画像は、 図 1 4で示される、 背景とは異なる色であって、 単 色の、 直線状の縁を有する物の実世界の画像である。
図 1 6において、 図中の上側の位置は、 画素値を示し、 図中の右上側の位置は、 画像の空間方向の一方向である空間方向 Xの位置を示し、 図中の右側の位置は、 画像の空間方向の他の方向である空間方向 Yの位置を示す。 図 1 6における画素 値を示す方向は、 図 1 4におけるレベルの方向に対応し、 図 1 6における空間方 向 X、 および空間方向 Yは、 図 1 4における方向と同じである。
背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界の画像を、 イメージセンサで撮像した場合、 撮像の結果得られる画像データにおいて、 直線 状の縁は、 模式的に、 例えば、 斜めにずれて並ぶ、 複数の所定の長さのつめ
(pawl) 形状で表される。 各つめ形状は、 ほぼ同じ形状である。 1つのつめ形 状は、 縦に 1列の画素の上、 または横に 1列の画素の上に形成される。 例えば、 図 1 6において、 1つのつめ形状は、 縦に 1列の画素の上に形成される。
このように、 例えば、 ィメージセンサで撮像されて取得された画像データにお いては、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界の 画像が有していた、 縁の長さ方向の任意の位置において、 断面形状が同じである という定常性が失われている。 また、 背景とは異なる色であって、 単色の、 直線 状の縁を有する物の実世界の画像が有していた定常性は、 縦に 1列の画素の上、 または横に 1列の画素の上に形成された、 同じ形状であるつめ形状が一定の間隔 で並ぶという定常性に変化していると言える。
データ。定常性検出部 1 0 1は、 このような、 例えば、 入力画像であるデータが 有するデータの定常性を検出する。 例えば、 データ定常性検出部 1 0 1は、 同じ 円弧形状の並び方または同じつめ形状の並び方を示す、 空間方向の角度 (傾き) を検出することにより、 データの定常性を検出する。
また、 例えば、 データ定常性検出部 1 0 1は、 空間方向および時間方向の同様 の形状の並び方を示す、 空間方向および時間方向の角度 (動き) を検出すること により、 データの定常性を検出する。
以下、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界の 画像がセンサにより射影されたデ一タの部分を 2値ェッジとも称する。
図 1 7は、 データ定常性検出部 1 0 1の構成を示すプロック図である。
図 1 7に構成を示すデータ定常性検出部 1 0 1においては、 注目している画素 である注目画素について、 入力画像の空間方向に対する画素値の変化、 すなわち 入力画像の空間方向のアクティビティが検出され、 検出されたァクティビティに 応じて、 注目画素および基準軸を基準とした角度毎に、 垂直方向に 1列または水 平方向に 1列の所定の数の画素からなる画素の組が、 複数抽出され、 抽出された 画素の組の相関が検出され、 相関に基づいて、 入力画像における、 基準軸を基準 としたデータの定常性の角度が検出される。
データの定常性の角度とは、 基準軸と、 データが有している、 一定の特徴が繰 り返し現れる所定の次元の方向とがなす角度をいう。 一定の特徴が繰り返し現れ るとは、 例えば、 データにおける位置の変化に対する値の変化、 すなわち断面形 状が同じである場合などをいう。
基準軸は、 例えば、 空間方向 Xを示す軸 (画面の水平方向) 、 または空間方向
Yを示す軸 (画面の垂直方向) などとすることができる。 入力画像は、 ァクティビティ検出部 4 0 1およびデータ選択部 4 0 2に供給さ れる。
ァクティビティ検出部 4 0 1は、 入力画像の空間方向に対する画素値の変化、 すなわち空間方向のァクティビティを検出して、 検出した結果を示すァクテイビ ティ情報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
例えば、 ァクティビティ検出部 4 0 1は、 画面の水平方向に対する画素値の変 化、 および画面の垂直方向に対する画素値の変化を検出し、 検出された水平方向 に対する画素値の変化および垂直方向に対する画素値の変化を比較することによ り、 垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化 が大きいか、 または水平方向に対する画素値の変化に比較して、 垂直方向に対す る画素値の変化が大きいかを検出する。
アクティビティ検出部 4 0 1は、 検出の結果である、 垂直方向に対する画素値 の変化に比較して、 水平方向に対する画素値の変化が大きいことを示すか、 また は水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化が 大きいことを示すアクティビティ情報をデータ選択部 4 0 2および定常方向導出 部 4 0 4に供給する。
垂直方向に対する画素値の変化に比較して、 水平方向に対する画素値の変化が 大きい場合、 例えば、 図 1 8で示されるように、 垂直方向に 1列の画素に円弧形 状 (かまぼこ型) またはつめ形状が形成され、 円弧形状またはつめ形状が垂直に より近い方向に繰り返して形成されている。 すなわち、 垂直方向に対する画素値 の変化に比較して、 水平方向に対する画素値の変化が大きい場合、 基準軸を空間 方向 Xを示す軸とすると、 入力画像における、 基準軸を基準としたデータの定常 性の角度は、 4 5度乃至 9 0度のいずれかの値である。
水平方向に対する画素値の変化に比較して、 垂直方向に対する画素値の変化が 大きい場合、 例えば、 水平方向に 1列の画素に円弧形状またはつめ形状が形成さ れ、 円弧形状またはつめ形状が水平方向により近い方向に繰り返して形成されて いる。 すなわち、 水平方向に対する画素値の変化に比較して、 垂直方向に対する 画素値の変化が大きい場合、 基準軸を空間方向 Xを示す軸とすると、 入力画像に おける、 基準軸を基準としたデータの定常性の角度は、 0度乃至 4 5度のいずれ かの値である。
例えば、 アクティビティ検出部 4 0 1は、 図 1 9で示される、 注目画素を中心 とした 3 X 3の 9つの画素からなるブロックを入力画像から抽出する。 ァクティ ビティ検出部 4 0 1は、 縦に隣接する画素についての画素値の差分の和、 および 横に隣接する画素についての画素値の差分の和を算出する。 横に隣接する画素に ついての画素値の差分の和 hdi ffは、 式 (1 2 ) で求められる。
hdiff=∑ (Pi+ - Ρ^) · · ■ ( 1 2 )
同様に、 縦に隣接する画素についての画素値の差分の和 vdiffは、 式 (1 3 ) で求められる。
Figure imgf000046_0001
式 (1 2 ) および式 (1 3 ) において、 Pは、 画素値を示し、 iは、 画素の横 方向の位置を示し、 jは、 画素の縦方向の位置を示す。
アクティビティ検出部 4 0 1は、 算出された横に隣接する画素についての画素 値の差分の和 hdiffおよび縦に隣接する画素についての画素値の差分の和 vdif fを 比較して、 入力画像における、 基準軸を基準としたデータの定常性の角度の範囲 を判定するようにしてもよい。 すなわち、 この場合、 アクティビティ検出部 4 0 1は、 空間方向の位置に対する画素値の変化で示される形状が水平方向に繰り返 して形成されているか、 垂直方向に繰り返して形成されているかを判定する。 例えば、 横に 1列の画素上に形成された円弧についての横方向の画素値の変化 は、 縦方向の画素値の変化に比較して大きく、 横に 1列の画素上に形成された円 弧についての縦方向の画素値の変化は、 横方向の画素値の変化に比較して大きく、 データの定常性の方向、 すなわち、 データである入力画像が有している、 一定の 特徴の所定の次元の方向の変化は、 データの定常性に直交する方向の変化に比較 して小さいと言える。 言い換えれば、 データの定常性の方向の差分に比較して、 データの定常性の方向に直交する方向 (以下、 非定常方向とも称する) の差分は 大きい。
例えば、 図 2 0に示すように、 アクティビティ検出部 4 0 1は、 算出された横 に隣接する画素についての画素値の差分の和 hdif fおよび縦に隣接する画素につ いての画素値の差分の和 vdiffを比較して、 横に瞵接する画素についての画素値 の差分の和 hdiffが大きい場合、 基準軸を基準としたデータの定常性の角度が、 4 5度乃至 1 3 5度のいずれかの値であると判定し、 縦に隣接する画素について の画素値の差分の和 vdi ffが大きい場合、 基準軸を基準としたデータの定常性の 角度が、 0度乃至 4 5度のいずれかの値、 または 1 3 5度乃至 1 8 0度のいずれ かの値であると判定する。
例えば、 アクティビティ検出部 4 0 1は、 判定の結果を示すアクティビティ情 報をデータ選択部 4 0 2および定常方向導出部 4 0 4に供給する。
なお、 アクティビティ検出部 4 0 1は、 5 X 5の 2 5の画素からなるブロック、 または 7 X 7の 4 9の画素からなるプロックなど、 任意の大きさのプロックを抽 出して、 アクティビティを検出することができる。
データ選択部 4 0 2は、 入力画像の画素から注目画素を順に選択し、 ァクティ ビティ検出部 4 0 1から供給されたアクティビティ情報を基に、 注目画素および 基準軸を基準とした角度毎に、 垂直方向に 1列または水平方向に 1列の所定の数 の画素からなる画素の組を、 複数抽出する。
例えば、 アクティビティ情報が垂直方向に対する画素値の変化に比較して、 水 平方向に対する画素値の変化が大きいことを示しているとき、 データの定常性の 角度が、 4 5度乃至 1 3 5度のいずれかの値なので、 データ選択部 4 0 2は、 注 目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。
ァクティビティ情報が水平方向に対する画素値の変化に比較して、 垂直方向に 対する画素値の変化が大きいことを示しているとき、 データの定常性の角度が、 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれかの値なので、 データ選択 部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度 乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素からな る画素の組を、 複数抽出する。
また、 例えば、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値で あることを、 アクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注 目画素および基準軸を基準とした 4 5度乃至 1 3 5度の範囲の所定の角度毎に、 垂直方向に 1列の所定の数の画素からなる画素の組を、 複数抽出する。
データの定常性の角度が 0度乃至 4 5度または 1 3 5度乃至 1 8 0度のいずれ かの値であることを、 ァクティビティ情報が示しているとき、 データ選択部 4 0 2は、 注目画素および基準軸を基準とした 0度乃至 4 5度または 1 3 5度乃至 1 8 0度の範囲の所定の角度毎に、 水平方向に 1列の所定の数の画素からなる画素 の組を、 複数抽出する。
データ選択部 4 0 2は、 抽出した画素からなる複数の組を誤差推定部 4 0 3に 供給する。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 角度毎に、 画 素の組の相関を検出する。
例えば、 誤差推定部 4 0 3は、 1つの角度に対応する、 垂直方向に 1列の所定 の数の画素からなる画素の複数の組について、 画素の組における対応する位置の 画素の画素値の相関を検出する。 誤差推定部 4 0 3は、 1つの角度に対応する、 水平方向に 1列の所定の数の画素からなる画素の複数の組について、 組における 対応する位置の画素の画素値の相関を検出する。
誤差推定部 4 0 3は、 検出した相関を示す相関情報を定常方向導出部 4 0 4に 供給する。 誤差推定部 4 0 3は、 相関を示す値として、 データ選択部 4 0 2から 供給された、 注目画素を含む組の画素の画素値と、 他の組における対応する位置 の画素の画素値の差分の絶対値の和を算出し、 差分の絶対値の和を相関情報とし て定常方向導出部 4 0 4に供給する。 定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関情報に基づい て、 欠落した実世界の光信号の定常性に対応する、 入力画像における、 基準軸を 基準としたデータの定常性の角度を検出し、 角度を示すデータ定常性情報を出力 する。 例えば、 定常方向導出部 4 0 4は、 誤差推定部 4 0 3から供給された相関 情報に基づいて、 データの定常性の角度として、 最も相関の強い画素の組に対す る角度を検出し、 検出された最も相関の強い画素の組に対する角度を示すデータ 定常性情報を出力する。
以下の説明において、 適宜、 0度乃至 9 0度の範囲 (いわゆる第 1象限) のデ ータの定常性の角度を検出するものとして説明する。
図 2 1は、 図 1 7に示すデータ定常性検出部 1 0 1のより詳細な構成を示すブ 口ック図である。
データ選択部 4 0 2は、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lを含 む。 誤差推定部 4 0 3は、 推定誤差算出部 4 1 2 - 1乃至推定誤差算出部 4 1 2 _ Lを含む。 定常方向導出部 4 0 4は、 最小誤差角度選択部 4 1 3を含む。 まず、 アクティビティ情報で示される、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値であるときの画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1 —Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を基 準軸として、 注目画素を通る、 それぞれ異なる所定の角度の直線を設定する。 画 素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の 画素の列に属する画素であって、 注目画素の上側の所定の数の画素、 および注目 画素の下側の所定の数の画素、 並びに注目画素を画素の組として選択する。 例えば、 図 2 2で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列に属する画素から、 注目画素を 中心として 9つの画素を画素の組として選択する。
図 2 2において、 マス目状の 1つの四角 ( 1つのマス目) は、 1つの画素を示 す。 図 2 2において、 中央に示す丸は、 注目画素を示す。 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 図 2 2において、 注目画素の 左下側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1 _ 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の 組として選択する。
例えば、 図 2 2で示されるように、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側の縦に 1列の画素の列 に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を画素の 組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 左側に 2つめの縦に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 図 2 2において、 最 も左側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つ めの縦に 1列の画素の列に属する画素であって、 選択された画素の上側の所定の 数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画 素を画素の組として選択する。
例えば、 図 2 2で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 左側に 2つめの縦に 1列の 画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素 を画素の組として選択する。
画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1 列の画素の列の、 右側の縦に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 図 2 2において、 注目画素の 右上側の丸は、 選択された画素の例を示す。 そして、 画素選択部 4 1 1— 1乃至 画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列に厲する画素であって、 選択された画素の上側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選択された画素を画素の 組として選択する。
例えば、 図 2 2で示されるように、 画素選択部 4 1 1 - 1乃至画素選択部 4 1 1— Lは、 注目画素が属する縦に 1列の画素の列の、 右側の縦に 1列の画素の列 に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素を画素の 組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1— Lは、 注目画素が属する縦に 1 列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 図 2 2において、 最 も右側の丸は、 このように選択された画素の例を示す。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1 _ Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 選択された画素の上 側の所定の数の画素、 および選択された画素の下側の所定の数の画素、 並びに選 択された画素を画素の組として選択する。
例えば、 図 2 2で示されるように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する縦に 1列の画素の列の、 右側に 2つめの縦に 1列の 画素の列に属する画素から、 直線に最も近い位置の画素を中心として 9つの画素 を画素の組として選択する。
このように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lは、 互いに異なる角度 (に設 定された直線) についての、 画素の組を選択する。 例えば、 画素選択部 4 1 1一 1は、 4 5度についての、 画素の組を選択し、 画素選択部 4 1 1 - 2は、 4 7 . 5度についての、 画素の組を選択し、 画素選択部 4 1 1一 3は、 5 0度について の、 画素の組を選択する。 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 5 2 . 5度から 1 3 5度までの、 2 . 5度毎の角度についての、 画素の組を選択 する。
なお、 画素の組の数は、 例えば、 3つ、 または 7つなど、 任意の数とすること ができ、 本発明を限定するものではない。 また、 1つの組として選択された画素 の数は、 例えば、 5つ、 または 1 3など、 任意の数とすることができ、 本発明を 限定するものではない。
なお、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1 - Lは、 縦方向に所定の範 囲の画素から、 画素の組を選択するようにすることができる。 例えば、 画素選択 部 4 1 1 _ 1乃至画素選択部 4 1 1—Lは、 縦方向に 1 2 1個の画素 (注目画素 に対して、 上方向に 6 0画素、 下方向に 6 0画素) から、 画素の組を選択する。 この場合、 データ定常性検出部 1 0 1は、 空間方向 Xを示す軸に対して、 8 8 . 0 9度まで、 データの定常性の角度を検出することができる。
画素選択部 4 1 1 _ 1は、 選択した画素の組を推定誤差算出部 4 1 2 _ 1に供 給し、 画素選択部 4 1 1 _ 2は、 選択した画素の組を推定誤差算出部 4 1 2 - 2 に供給する。 同様に、 画素選択部 4 1 1一 3乃至画素選択部 4 1 1一 Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 1 2 _ 3乃至推定誤差算出部 4 1 2 _ Lのそれぞれに供給する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 例えば、 推定誤差算出部 4 1 2 — 1乃至推定誤差算出部 4 1 2— Lは、 相関を示す値として、 画素選択部 4 1 1 一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む組の 画素の画素値と、 他の組における対応する位置の画素の画素値の差分の絶対値の 和を算出する。
より具体的には、 推定誤差算出部 4 1 2 - 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注 目画素を含む組の画素の画素値と、 注目画素の左側の縦に 1列の画素の列に属す る画素からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算出 し、 上から 2番目の画素の画素値の差分を算出するように、 上の画素から順に画 素値の差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を算出す る。 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素を含む 組の画素の画素値と、 注目画素の左に 2つめの縦に 1列の画素の列に属する画素 からなる組の画素の画素値とを基に、 上の画素から順に画素値の差分の絶対値を 算出して、 算出された差分の絶対値の和を算出する。
そして、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選 択部 4 1 1一 1乃至画素選択部 4 1 1一 Lのいずれかから供給された、 注目画素 を含む組の画素の画素値と、 注目画素の右側の縦に 1列の画素の列に属する画素 からなる組の画素の画素値とを基に、 最も上の画素の画素値の差分を算出し、 上 から 2番目の画素の画素値の差分を算出するように、 上の画素から順に画素値の 差分の絶対値を算出して、 さらに、 算出された差分の絶対値の和を算出する。 推 定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1—Lのいずれかから供給された、 注目画素を含む組の画 素の画素値と、 注目画素の右に 2つめの縦に 1列の画素の列に属する画素からな る組の画素の画素値とを基に、 上の画素から順に画素値の差分の絶対値を算出し て、 算出された差分の絶対値の和を算出する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 このように算出 された画素値の差分の絶対値の和を全て加算して、 画素値の差分の絶対値の総和 を算出する。
推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 例えば、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 算出された画素値の差分の絶対値 の総和を最小誤差角度選択部 4 1 3に供給する。 なお、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lは、 画素値の 差分の絶対値の和に限らず、 画素値の差分の自乗の和、 または画素値を基にした 相関係数など他の値を相関値として算出するようにすることができる。
最小誤差角度選択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2 — 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基づいて、 欠落した実世界の光信号である画像の定常性に対応する、 入力画像における、 基 準軸を基準としたデータの定常性の角度を検出する。 すなわち、 最小誤差角度選 択部 4 1 3は、 互いに異なる角度についての、 推定誤差算出部 4 1 2 _ 1乃至推 定誤差算出部 4 1 2— Lにおいて検出された相関に基づいて、 最も強い相関を選 択し、 選択された相関が検出された角度を、 基準軸を基準としたデータの定常性 の角度とすることにより、 入力画像における、 基準軸を基準としたデータの定常 性の角度を検出する。
例えば、 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2 - 1乃至推定誤 差算出部 4 1 2— Lから供給された、 画素値の差分の絶対値の総和のうち、 最小 の総和を選択する。 最小誤差角度選択部 4 1 3は、 選択された総和が算出された 画素の組について、 注目画素に対して、 左側に 2つめの縦に 1列の画素の列に属 する画素であって、 直線に最も近い位置の画素の位置、 および、 注目画素に対し て、 右側に 2つめの縦に 1列の画素の列に属する画素であって、 直線に最も近い 位置の画素の位置を参照する。
図 2 2で示されるように、 最小誤差角度選択部 4 1 3は、 注目画素の位置に対 する、 参照する画素の位置の縦方向の距離 Sを求める。 最小誤差角度選択部 4 1 3は、 図 2 3で示すように、 式 (1 4 ) から、 欠落した実世界の光信号の定常 性に対応する、 画像データである入力画像における、 基準軸である空間方向 Xを 示す軸を基準としたデータの定常性の角度 Θ を検出する。
0 =tan_1 (s/2) · ■ ■ ( 1 4 ) 次に、 アクティビティ情報で示される、 データの定常性の角度が 0度乃至 4 5 度および 1 3 5度乃至 1 8 0度のいずれかの値であるときの画素選択部 4 1 1 - 1乃至画素選択部 4 1 1一 Lの処理を説明する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 空間方向 Xを示す軸を基 準軸として、 注目画素を通る、 所定の角度の直線を設定し、 注目画素が属する横 に 1列の画素の列に属する画素であって、 注目画素の左側の所定の数の画素、 お よび注目画素の右側の所定の数の画素、 並びに注目画素を画素の組として選択す る。
画素選択部 4 1 1— 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 上側の横に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 上側 の横に 1列の画素の列に属する画素であって、 選択された画素の左側の所定の数 の画素、 および選択された画素の右側の所定の数の画素、 並びに選択された画素 を画素の組として選択する。
画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列 の、 上側に 2つめの横に 1列の画素の列に属する画素であって、 選択された画素 の左側の所定の数の画素、 および選択された画素の右側の所定の数の画素、 並び に選択された画素を画素の組として選択する。
画素選択部 4 1 1 - 1乃至画素選択部 4 1 1 _ Lは、 注目画素が属する横に 1 列の画素の列の、 下側の横に 1列の画素の列に属する画素であって、 それぞれに 設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1列の画素の列の、 下側 の横に 1列の画素の列に属する画素であって、 選択された画素の左側の所定の数 の画素、 および選択された画素の右側の所定の数の画素、 並びに選択された画素 を画素の組として選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 注目画素が属する横に 1 列の画素の列の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 そ れぞれに設定された直線に最も近い位置の画素を選択する。 そして、 画素選択部
4 1 1一 1乃至画素選択部 4 1 1—Lは、 注目画素が属する横に 1列の画素の列 の、 下側に 2つめの横に 1列の画素の列に属する画素であって、 選択された画素 の左側の所定の数の画素、 およぴ選択された画素の右側の所定の数の画素、 並ぴ に選択された画素を画素の組として選択する。
このように、 画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 それぞれ、 画素の組を 5つ選択する。
画素選択部 4 1 1一 1乃至画素選択部 4 1 1一 Lは、 互いに異なる角度につい ての、 画素の組を選択する。 例えば、 画素選択部 4 1 1— 1は、 0度についての 画素の組を選択し、 画素選択部 4 1 1— 2は、 2 . 5度についての、 画素の組を 選択し、 画素選択部 4 1 1一 3は、 5度についての、 画素の組を選択する。 画素 選択部 4 1 1 _ 1乃至画素選択部 4 1 1一 Lは、 7 . 5度から 4 5度および 1 3
5度から 1 8 0度までの、 2 . 5度毎の角度についての、 画素の組を選択する。 画素選択部 4 1 1 _ 1は、 選択した画素の組を推定誤差算出部 4 1 2— 1に供 給し、 画素選択部 4 1 1 _ 2は、 選択した画素の組を推定誤差算出部 4 1 2 - 2 に供給する。 同様に、 画素選択部 4 1 1 _ 3乃至画素選択部 4 1 1一 Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 1 2— 3乃至推定誤差算出部 4 1 2
- Lのそれぞれに供給する。
推定誤差算出部 4 1 2 _ 1乃至推定誤差算出部 4 1 2— Lは、 画素選択部 4 1
1 - 1乃至画素選択部 4 1 1 _ Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 推定誤差算出部 4 1 2— 1乃至 推定誤差算出部 4 1 2— Lは、 検出された相関を示す情報を、 最小誤差角度選択 部 4 1 3に供給する。 最小誤差角度選択部 4 1 3は、 推定誤差算出部 4 1 2— 1乃至推定誤差算出部 4 1 2— Lにおいて検出された相関に基づいて、 欠落した実世界の光信号である 画像の定常性に対応する、 入力画像における、 基準軸を基準としたデータの定常 性の角度を検出する。
次に、 図 2 4のフローチャートを参照して、 ステップ S 1 0 1の処理に対応す る、 図 1 7で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性 の検出の処理を説明する。
ステップ S 4 0 1において、 ァクティビティ検出部 4 0 1およびデータ選択部
4 0 2は、 入力画像から、 注目している画素である注目画素を選択する。 ァクテ イビティ検出部 4 0 1およびデータ選択部 4 0 2は、 同一の注目画素を選択する。 例えば、 ァクティビティ検出部 4 0 1およびデータ選択部 4 0 2は、 入力画像か ら、 ラスタスキャン順に、 注目画素を選択する。
ステップ S 4 0 2において、 アクティビティ検出部 4 0 1は、 注目画素に対す るアクティビティを検出する。 例えば、 アクティビティ検出部 4 0 1は、 注目画 素を中心とした所定の数の画素からなるブロックの縦方向に並ぶ画素の画素値の 差分および横方向に並ぶ画素の画素値の差分を基に、 ァクティビティを検出する。 ァクティビティ検出部 4 0 1は、 注目画素に対する空間方向のアクティビティ を検出して、 検出した結果を示すァクティビティ情報をデータ選択部 4 0 2およ ぴ定常方向導出部 4 0 4に供給する。
ステップ S 4 0 3において、 データ選択部 4 0 2は、 注目画素を含む画素の列 から、 注目画素を中心とした所定の数の画素を、 画素の組として選択する。 例え ば、 データ選択部 4 0 2は、 注目画素が属する縦または横に 1列の画素の列に属 する画素であって、 注目画素の上側または左側の所定の数の画素、 および注目画 素の下側または右側の所定の数の画素、 並びに注目画素を画素の組として選択す る。
ステップ S 4 0 4において、 データ選択部 4 0 2は、 ステップ S 4 0 2の処理 で検出されたアクティビティを基にした、 所定の範囲の角度毎に、 所定の数の画 素の列から、 それぞれ所定の数の画素を、 画素の組として選択する。 例えば、 デ ータ選択部 4 0 2は、 所定の範囲の角度を有し、 空間方向 Xを示す軸を基準軸と して、 注目画素を通る直線を設定し、 注目画素に対して、 横方向または縦方向に 1列または 2列離れた画素であって、 直線に最も近い画素を選択し、 選択された 画素の上側または左側の所定の数の画素、 および選択された画素の下側または右 側の所定の数の画素、 並びに線に最も近い選択された画素を画素の組として選択 する。 データ選択部 4 0 2は、 角度毎に、 画素の組を選択する。
データ選択部 4 0 2は、 選択した画素の組を誤差推定部 4 0 3に供給する。 ステップ S 4 0 5において、 誤差推定部 4 0 3は、 注目画素を中心とした画素 の組と、 角度毎に選択した画素の組との相関を計算する。 例えば、 誤差推定部 4 0 3は、 角度毎に、 注目画素を含む組の画素の画素値と、 他の組における対応す る位置の画素の画素値の差分の絶対値の和を算出する。
角度毎に選択された、 画素の組の相互の相関を基に、 データの定常性の角度を 検出するようにしてもよい。
誤差推定部 4 0 3は、 算出された相関を示す情報を、 定常方向導出部 4 0 4に 供給する。
ステップ S 4 0 6において、 定常方向導出部 4 0 4は、 ステップ S 4 0 5の処 理で算出された相関を基に、 相関が最も強い画素の組の位置から、 欠落した実世 界の光信号の定常性に対応する、 画像データである入力画像における、 基準軸を 基準としたデータの定常性の角度を検出する。 例えば、 定常方向導出部 4 0 4は、 画素値の差分の絶対値の総和のうち、 最小の総和を選択し、 選択された総和が算 出された画素の組の位置から、 データの定常性の角度 0 を検出する。
定常方向導出部 4 0 4は、 検出したデータの定常性の角度を示すデータ定常性 情報を出力する。
ステップ S 4 0 7において、 データ選択部 4 0 2は、 全ての画素の処理を終了 したか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ス テツプ S 4 0 1に戻り、 まだ注目画素として選択されていない画素から注目画素 を選択して、 上述した処理を繰り返す。
ステップ S 4 0 7において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 データ定常性検出部 1 0 1は、 欠落した実世界の光信号の定常十生 に対応する、 画像データにおける、 基準軸を基準としたデータの定常性の角度を 検出することができる。
なお、 図 1 7で構成が示されるデータ検出部 1 0 1は、 注目しているフレーム である注目フレームの、 注目している画素である注目画素について、 入力画像の 空間方向のアクティビティを検出し、 検出されたアクティビティに応じて、 注目 画素おょぴ空間方向の基準軸を基準とした角度、 並びに動きベクトル毎に、 注目 フレームおょぴ注目フレームの時間的に前または後ろのフレームのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定の数の画素からなる画素の組を、 複 数抽出し、 抽出された画素の組の相関を検出し、 相関に基づいて、 入力画像にお ける、 時間方向および空間方向のデータの定常性の角度を検出するようにしても よい。
例えば、 図 2 5に示すように、 データ選択部 4 0 2は、 検出されたァクテイビ ティに応じて、 注目画素および空間方向の基準軸を基準とした角度、 並びに動き ベクトル毎に、 注目フレームであるフレーム #n、 フレーム #n- 1、 およびフレー ム #n+lのそれぞれから、 垂直方向に 1列または水平方向に 1列の所定の数の画 素からなる画素の組を、 複数抽出する。
フレーム #n_ lは、 フレーム #nに対して時間的に前のフレームであり、 フレー ム #n+lは、 フレーム #nに対して時間的に後のフレームである。 すなわち、 フレ ーム t -l、 フレーム #n、 およびフレーム ίίη+lは、 フレーム #η- 1、 フレーム #η、 およびフレーム ίίη+lの順で表示される。
誤差推定部 4 0 3は、 抽出した画素からなる複数の組について、 1つの角度お よび 1つの動きベク トル毎に、 画素の組の相関を検出する。 定常方向導出部 4 0 4は、 画素の組の相関に基づいて、 欠落した実世界の光信号の定常性に対応する、 入力画像における、 時間方向および空間方向のデータの定常性の角度を検出し、 角度を示すデータ定常性情報を出力する。
図 2 6は、 図 1 7に示すデータ定常性検出部 1 0 1のよ.り詳細な他の構成を示 すブロック図である。 図 2 1に示す場合と同様の部分には、 同一の番号を付して あり、 その説明は省略する。
データ選択部 4 0 2は、 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lを含 む。 誤差推定部 4 0 3は、 推定誤差算出部 4 2 2 - 1乃至推定誤差算出部 4 2 2 一 Lを含む。
図 2 6で示すデータ定常性検出部 1 0 1においては、 角度の範囲に対する数の 画素からなる、 画素の組であって、 角度の範囲に対する数の組が抽出されて、 抽 出された画素の組の相関が検出され、 検出された相関に基づいて、 入力画像にお ける、 基準軸を基準としたデータの定常性の角度が検出される。
まず、 アクティビティ情報で示される、 データの定常性の角度が 4 5度乃至 1 3 5度のいずれかの値であるときの画素選択部 4 2 1 - 1乃至画素選択部 4 2 1 一 Lの処理を説明する。
図 2 7の左側に示すように、 図 2 1で示されるデータ定常性検出部 1 0 1にお いては、 設定された直線の角度によらず、 一定の数の画素からなる画素の組が抽 出されるのに対して、 図 2 6で示されるデータ定常性検出部 1 0 1においては、 図 2 7の右側に示すように、 設定された直線の角度の範囲に応じた数の画素から なる画素の組が抽出される。 また、 図 2 6で示されるデータ定常性検出部 1 0 1 においては、 画素の組が、 設定された直線の角度の範囲に応じた数だけ抽出され る。
画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 4 5度乃至 1 3 5度の範 囲の、 空間方向 Xを示す軸を基準軸として、 注目画素を通る、 それぞれ互いに異 なる所定の角度の直線を設定する。 画素選択部 4 2 1一 1乃至画素選択部 4 2 1一 Lは、 注目画素が属する縦に 1 列の画素の列に属する画素であって、 それぞれに設定された直線の角度の範囲に 応じた数の、 注目画素の上側の画素、 および注目画素の下側の画素、 並びに注目 画素を画素の組として選択する。
画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 注目画素が属する縦に 1 列の画素の列に対して、 画素を基準とした横方向に所定の距離にある、 左側およ び右側の縦に 1列の画素の列に属する画素であって、 それぞれに設定された直線 に最も近い位置の画素を選択し、 選択された画素に対して縦に 1列の画素から、 設定された直線の角度の範囲に応じた数の、 選択された画素の上側の画素、 およ び選択された画素の下側の画素、 並びに選択された画素を画素の組として選択す る。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度の範囲に応じた数の画素を、 画素の組として選択する。 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1一 Lは、 設定された直線の角度の範囲に応じた数の、 画素の組を選択する。
例えば、 空間方向 Xに対してほぼ 4 5度の角度に位置する、 検出素子の検出領 域の幅とほぼ同じ幅の細線の画像がセンサで撮像された場合、 細線の画像は、 空 間方向 Yに 1列に並ぶ 3つの画素に円弧形状が形成されるように、 データに射影 される。 これに対して、 空間方向 Xに対してほぼ垂直に位置する、 検出素子の検 出領域の幅とほぼ同じ幅の細線の画像がセンサで撮像された場合、 細線の画像は、 空間方向 Yに 1列に並ぶ、 多数の画素に円弧形状が形成されるように、 データに 射影される。
画素の組に同じ数の画素が含まれるとすると、 細線が空間方向 Xに対してほぼ 4 5度の角度に位置する場合、 画素の組において、 細線の画像が射影された画素 の数が少なくなり、 分解能が低下することになる。 逆に、 細線が空間方向 Xに対 してほぼ垂直に位置する場合、 画素の組において、 細線の画像が射影された画素 のうちの、 一部の画素について処理が実行されることになり、 正確さが低下する 恐れがある。
そこで、 細線の画像が射影された画素がほぼ同等になるように、 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1一 Lは、 設定する直線が空間方向 Xに対して 4 5 度の角度により近いとき、 それぞれ画素の組に含まれる画素の数を少なく して、 画素の組の数を多く し、 設定する直線が空間方向 Xに対して垂直により近い場合、 それぞれの画素の組に含まれる画素の数を多くして、 画素の組の数を少なくする ように、 画素および画素の組を選択する。
例えば、 図 2 8および図 2 9で示されるように、 画素選択部 4 2 1— 1乃至画 素選択部 4 2 1— Lは、 設定された直線の角度が、 4 5度以上 6 3 . 4度未満の 範囲 (図 2 8およぴ図 2 9において、 Aで示す範囲) にあるとき、 注目画素に対 して、 縦に 1列の画素の列から、 注目画素を中心とした 5つの画素を画素の組と して選択すると共に、 注目画素に対して、 横方向に 5画素以内の距離にある、 左 側おょぴ右側の縦に 1列の画素の列に属する画素から、 それぞれ、 5つの画素を 画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1 _ Lは、 設定された直 線の角度が、 4 5度以上 6 3 . 4度未満の範囲にあるとき、 入力画像から、 それ ぞれ 5つの画素からなる、 1 1の画素の組を選択する。 この場合において、 設定 された直線に最も近い位置の画素として、 選択される画素は、 注目画素に対して、 縦方向に 5画素乃至 9画素離れた位置にある。
図 2 9において、 列の数は、 注目画素の左側または右側の、 画素の組として画 素が選択される画素の列の数を示す。 図 2 9において、 1列の画素の数は、 注目 画素に対して、 縦に 1列の画素の列、 または注目画素の左側または右側の列から、 画素の組として選択される画素の数を示す。 図 2 9において、 画素の選択範囲は、 注目画素に対する、 設定された直線に最も近い位置の画素として、 選択される画 素の縦方向の位置を示す。 図 3 0で示されるように、 例えば、 画素選択部 4 2 1— 1は、 設定された直線 の角度が、 4 5度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注 目画素を中心とした 5つの画素を画素の組として選択すると共に、 注目画素に対 して、 横方向に 5画素以内の距離にある、 左側および右側の縦に 1列の画素の列 に属する画素から、 それぞれ、 5つの画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1一 1は、 入力画像から、 それぞれ 5つの画素からなる、 1 1の 画素の組を選択する。 この場合において、 設定された直線に最も近い位置の画素 として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目 画素に対して、 縦方向に 5画素離れた位置にある。
なお、 図 3 0乃至図 3 7において、 点線で表された四角 (点線で仕切られた 1 つのマス目) は、 1つの画素を示し、 実線で表された四角は、 画素の組を示す。 図 3 0乃至図 3 7において、 注目画素の空間方向 Xの座標を 0とし、 注目画素の 空間方向 Yの座標を 0とした。
また、 図 3 0乃至図 3 7において、 斜線で表された四角は、 注目画素または設 定された直線に最も近い位置の画素を示す。 図 3 0乃至図 3 7において、 太線で 表された四角は、 注目画素を中心として選択された画素の組を示す。
図 3 1で示されるように、 例えば、 画素選択部 4 2 1— 2は、 設定された直線 の角度が、 6 0 . 9度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 5つの画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 5画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 5つの画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 2は、 入力画像から、 それぞれ 5つの画素からなる、 1 1の画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 9画素離れた位置にある。
例えば、 図 2 8および図 2 9で示されるように、 画素選択部 4 2 1 - 1乃至画 素選択部 4 2 1— Lは、 設定された直線の角度が、 6 3 . 4度以上 7 1 . 6度未 満の範囲 (図 2 8および図 2 9において、 Bで示す範囲) にあるとき、 注目画素 に対して、 縦に 1列の画素の列から、 注目画素を中心とした 7つの画素を画素の 組として選択すると共に、 注目画素に対して、 横方向に 4画素以内の距離にある、 左側および'右側の縦に 1列の画素の列に属する画素から、 それぞれ、 7つの画素 を画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1—Lは、 設定された直 線の角度が、 6 3 . 4度以上 7 1 . 6度未満の範囲囲にあるとき、 入力画像から、 それぞれ 7つの画素からなる、 9つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の画素の縦方向の位置は、 注目画素に対して、 8 画素乃至 1 1画素である。
図 3 2で示されるように、 例えば、 画素選択部 4 2 1— 3は、 設定された直線 の角度が、 6 3 . 4度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 7つの画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 4画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 7つの画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 3は、 入力画像から、 それぞれ 7つの画素からなる、 9 つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 8画素離れた位置にある。
また、 図 3 3で示されるように、 例えば、 画素選択部 4 2 1—4は、 設定され た直線の角度が、 7 0 . 0度であるとき、 注目画素に対して、 縦に 1列の画素の 列から、 注目画素を中心とした 7つの画素を画素の組として選択すると共に、 注 目画素に対して、 横方向に 4画素以内の距離にある、 左側および右側の縦に 1列 の画素の列に属する画素から、 それぞれ、 7つの画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 4は、 入力画像から、 それぞれ 7つの画素からな る、 9つの画素の組を選択する。 この場合において、 設定された直線に最も近い 位置の画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画 素は、 注目画素に対して、 縦方向に 1 1画素離れた位置にある。
例えば、 図 2 8および図 2 9で示されるように、 画素選択部 4 2 1 - 1乃至画 素選択部 4 2 1 _ Lは、 設定された直線の角度が、 7 1 . 6度以上 7 6 . 0度未 満の範囲 (図 2 8および図 2 9において、 Cで示す範囲) にあるとき、 注目画素 に対して、 縦に 1列の画素の列から、 注目画素を中心とした 9つの画素を画素の 組として選択すると共に、 注目画素に対して、 横方向に 3画素以内の距離にある、 左側おょぴ右側の縦に 1列の画素の列に属する画素から、 それぞれ、 9つの画素 を画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度が、 7 1 . 6度以上 7 6 . 0度未満の範囲にあるとき、 入力画像から、 それぞれ 9つの画素からなる、 7つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の画素の縦方向の位置は、 注目画素に対して、 9 画素乃至 1 1画素である。
図 3 4で示されるように、 例えば、 画素選択部 4 2 1 _ 5は、 設定された直線 の角度が、 7 1 . 6度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 9つの画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 3画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 9つの画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 5は、 入力画像から、 それぞれ 9つの画素からなる、 7 つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 9画素離れた位置にある。
また、 図 3 5で示されるように、 例えば、 画素選択部 4 2 1— 6は、 設定され た直線の角度が、 7 4 . 7度であるとき、 注目画素に対して、 縦に 1列の画素の 列から、 注目画素を中心とした 9つの画素を画素の組として選択すると共に、 注 目画素に対して、 横方向に 3画素以内の距離にある、 左側おょぴ右側の縦に 1列 の画素の列に属する画素から、 それぞれ、 9つの画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 6は、 入力画像から、 それぞれ 9つの画素からな る、 7つの画素の組を選択する。 この場合において、 設定された直線に最も近い 位置の画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画 素は、 注目画素に対して、 縦方向に 1 1画素離れた位置にある。
例えば、 図 2 8および図 2 9で示されるように、 画素選択部 4 2 1— 1乃至画 素選択部 4 2 1—Lは、 設定された直線の角度が、 7 6 . 0度以上 8 7 . 7度以 下の範囲 (図 2 8および図 2 9において、 Dで示す範囲) にあるとき、 注目画素 に対して、 縦に 1列の画素の列から、 注目画素を中心とした 1 1の画素を画素の 組として選択すると共に、 注目画素に対して、 横方向に 2画素以内の距離にある、 左側および右側の縦に 1列の画素の列に属する画素から、 それぞれ、 1 1の画素 を画素の組として選択する。 すなわち、 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 設定された直線の角度が、 7 6 . 0度以上 8 7 . 7度以下の範囲に あるとき、 入力画像から、 それぞれ 1 1の画素からなる、 5つの画素の組を選択 する。 この場合において、 設定された直線に最も近い位置の画素の縦方向の位置 は、 注目画素に対して、 8画素乃至 5 0画素である。
図 3 6で示されるように、 例えば、 画素選択部 4 2 1 _ 7は、 設定された直線 の角度が、 7 6 . 0度であるとき、 注目画素に対して、 縦に 1列の画素の列から、 注目画素を中心とした 1 1の画素を画素の組として選択すると共に、 注目画素に 対して、 横方向に 2画素以内の距離にある、 左側および右側の縦に 1列の画素の 列に属する画素から、 それぞれ、 1 1の画素を画素の組として選択する。 すなわ ち、 画素選択部 4 2 1— 7は、 入力画像から、 それぞれ 1 1の画素からなる、 5 つの画素の組を選択する。 この場合において、 設定された直線に最も近い位置の 画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素は、 注目画素に対して、 縦方向に 8画素離れた位置にある。
また、 図 3 7で示されるように、 例えば、 画素選択部 4 2 1— 8は、 設定され た直線の角度が、 8 7 . 7度であるとき、 注目画素に対して、 縦に 1列の画素の 列から、 注目画素を中心とした 1 1の画素を画素の組として選択すると共に、 注 目画素に対して、 横方向に 2画素以内の距離にある、 左側および右側の縦に 1列 の画素の列に属する画素から、 それぞれ、 1 1の画素を画素の組として選択する。 すなわち、 画素選択部 4 2 1— 8は、 入力画像から、 それぞれ 1 1の画素からな る、 5の画素の組を選択する。 この場合において、 設定された直線に最も近い位 置の画素として、 選択される画素のうち、 注目画素から最も遠い位置にある画素 は、 注目画素に対して、 縦方向に 5 0画素離れた位置にある。
このように、 画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 それぞれ、 角度の範囲に対応した所定の数の画素からなる、 角度の範囲に対応した所定の数 の画素の組を選択する。
画素選択部 4 2 1— 1は、 選択した画素の組を推定誤差算出部 4 2 2— 1に供 給し、 画素選択部 4 2 1— 2は、 選択した画素の組を推定誤差算出部 4 2 2— 2 に供給する。 同様に、 画素選択部 4 2 1— 3乃至画素選択部 4 2 1— Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 2 2— 3乃至推定誤差算出部 4 2 2 —Lのそれぞれに供給する。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 画素選択部 4 2 1一 1乃至画素選択部 4 2 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。 例えば、 推定誤差算出部 4 2 2 一 1乃至推定誤差算出部 4 2 2— Lは、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lのいずれかから供給された、 注目画素を含む画素の組の画素の画素値と、 他の画素の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、 注目画素を含む画素の組以外の画素の組に含まれる画素の数で、 算出された和を 割り算する。 算出された和を、 注目画素を含む組以外の組に含まれる画素の数で、 割り算するのは、 設定された直線の角度に応じて選択される画素の数が異なるの で、 相関を示す値を正規化するためである。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。 例えば、 推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 正規化された画素値の差分の絶対 値の和を最小誤差角度選択部 4 1 3に供給する。
次に、 アクティビティ情報で示される、 データの定常性の角度が 0度乃至 4 5 度および 1 3 5度乃至 1 8 0度のいずれかの値であるときの画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lの処理を説明する。
画素選択部 4 2 1 - 1乃至画素選択部 4 2 1— Lは、 0度乃至 4 5度または 1 3 5度乃至 1 8 0度の範囲の、 空間方向 Xを示す軸を基準軸として、 注目画素を 通る、 それぞれ互いに異なる所定の角度の直線を設定する。
画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 注目画素が属する横に 1 列の画素の列に属する画素であって、 設定された直線の角度の範囲に応じた数の、 注目画素の左側の画素、 および注目画素の右側の画素、 並びに注目画素を画素の 組として選択する。
画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 注目画素が属する横に 1 列の画素の列に対して、 画素を基準とした縦方向に所定の距離にある、 上側およ び下側の横に 1列の画素の列に属する画素であって、 設定された直線に最も近い 位置の画素を選択し、 選択された画素に対して横に 1列の画素から、 設定された 直線の角度の範囲に応じた数の、 選択された画素の左側の画素、 および選択され た画素の右側の画素、 並びに選択された画素を画素の組として選択する。
すなわち、 画素選択部 4 2 1— 1乃至画素選択部 4 2 1— Lは、 設定された直 線の角度の範囲に応じた数の画素を、 画素の組として選択する。 画素選択部 4 2 1一 1乃至画素選択部 4 2 1— Lは、 設定された直線の角度の範囲に応じた数の、 画素の組を選択する。
画素選択部 4 2 1— 1は、 選択した画素の組を推定誤差算出部 4 2 2 - 1に供 給し、 画素選択部 4 2 1— 2は、 選択した画素の組を推定誤差算出部 4 2 2 - 2 に供給する。 同様に、 画素選択部 4 2 1一 3乃至画素選択部 4 2 1— Lのそれぞ れは、 選択した画素の組を推定誤差算出部 4 2 2— 3乃至推定誤差算出部 4 2 2 一 Lのそれぞれに供給する。 推定誤差算出部 4 2 2 _ 1乃至推定誤差算出部 4 2 2— Lは、 画素選択部 4 2 1一 1乃至画素選択部 4 2 1一 Lのいずれかから供給された、 複数の組における 対応する位置の画素の画素値の相関を検出する。
推定誤差算出部 4 2 2— 1乃至推定誤差算出部 4 2 2— Lは、 検出された相関 を示す情報を、 最小誤差角度選択部 4 1 3に供給する。
次に、 図 3 8のフローチャートを参照して、 ステップ S 1 0 1の処理に対応す る、 図 2 6で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性 の検出の処理を説明する。
ステップ S 4 2 1およぴステツプ S 4 2 2の処理は、 ステップ S 4 0 1および ステップ S 4 0 2の処理と同様なので、 その説明は省略する。
ステップ S 4 2 3において、 データ選択部 4 0 2は、 ステップ S 4 2 2の処理 で検出されたァクティビティに対する所定の範囲の角度毎に、 注目画素を含む画 素の列から、 注目画素を中心とした、 角度の範囲に対して定めた数の画素を、 画 素の組として選択する。 例えば、 データ選択部 4 0 2は、 注目画素が属する縦ま たは横に 1列の画素の列に属する画素であって、 設定する直線の角度に対して、 角度の範囲により定めた数の、 注目画素の上側または左側の画素、 および注目画 素の下側または右側の画素、 並びに注目画素を画素の組として選択する。
ステップ S 4 2 4において、 データ選択部 4 0 2は、 ステップ S 4 2 2の処理 で検出されたアクティビティを基にした、 所定の範囲の角度毎に、 角度の範囲に 対して定めた数の画素の列から、 角度の範囲に対して定めた数の画素を、 画素の 組として選択する。 例えば、 データ選択部 4 0 2は、 所定の範囲の角度を有し、 空間方向 Xを示す軸を基準軸として、 注目画素を通る直線を設定し、 注目画素に 対して、 横方向または縦方向に、 設定する直線の角度の範囲に対して所定の範囲 だけ離れた画素であって、 直線に最も近い画素を選択し、 選択された画素の上側 または左側の、 設定する直線の角度の範囲に対する数の画素、 および選択された 画素の下側または右側の、 設定する直線の角度の範囲に対する数の画素、 並びに 選択された線に最も近い画素を画素の組として選択する。 データ選択部 4 0 2は、 角度毎に、 画素の組を選択する。
データ選択部 4 0 2は、 選択した画素の組を誤差推定部 4 0 3に供給する。 ステップ S 4 2 5において、 誤差推定部 4 0 3は、 注目画素を中心とした画素 の組と、 角度毎に選択した画素の組との相関を計算する。 例えば、 誤差推定部 4 0 3は、 注目画素を含む組の画素の画素値と、 他の組における対応する位置の画 素の画素値の差分の絶対値の和を算出し、 他の組に属する画素の数で、 画素値の 差分の絶対値の和を割り算することにより、 相関を計算する。
角度毎に選択された、 画素の組の相互の相関を基に、 データの定常性の角度を 検出するようにしてもよい。
誤差推定部 4 0 3は、 算出された相関を示す情報を、 定常方向導出部 4 0 4に 供給する。
ステップ S 4 2 6およびステップ S 4 2 7の処理は、 ステップ S 4 0 6および ステップ S 4 0 7の処理と同様なので、 その説明は省略する。
このように、 データ定常性検出部 1 0 1は、 欠落した実世界の光信号の定常性 に対応する、 画像データにおける、 基準軸を基準としたデータの定常性の角度を、 より正確に、 より精度良く検出することができる。 図 2 6に構成を示すデータ定 常性検出部 1 0 1は、 特に、 データの定常性の角度が 4 5度付近である場合にお いて、 細線の画像が射影された、 より多くの画素の相関を評価することができる ので、 より精度良くデータの定常性の角度を検出することができる。
なお、 図 2 6で構成が示されるデータ定常性検出部 1 ◦ 1においても、 注目し ているフレームである注目フレームの、 注目している画素である注目画素につい て、 入力画像の空間方向のアクティビティを検出し、 検出されたアクティビティ に応じて、 注目画素および空間方向の基準軸を基準とした角度、 並びに動きべク トル毎に、 注目フレームおよび注目フレームの時間的に前または後ろのフレーム のそれぞれから、 垂直方向に 1列または水平方向に 1列の、 空間的な角度の範囲 に対して定めた数の画素からなる画素の組を、 空間的な角度の範囲に対して定め た数だけ抽出し、 抽出された画素の組の相関を検出し、 相関に基づいて、 入力画 像における、 時間方向および空間方向のデータの定常性の角度を検出するように してもよい。
図 3 9は、 データ定常性検出部 1 0 1のさらに他の構成を示すプロック図であ る。
図 3 9に構成を示すデータ定常性検出部 1 0 1においては、 注目している画素 である注目画素について、 所定の数の画素からなる、 注目画素を中心としたプロ ックと、 注目画素の周辺の、 それぞれ、 所定の数の画素からなる複数のブロック が抽出され、 注目画素を中心としたプロックと周辺のブロックとの相関が検出さ れ、 相関に基づいて、 入力画像における、 基準軸を基準としたデータの定常性の 角度が検出される。
データ選択部 4 4 1は、 入力画像の画素から注目画素を順に選択し、 注目画素 を中心とした、 所定の数の画素からなるプロック、 および、 注目画素の周辺の、 所定の数の画素からなる複数のプロックを抽出し、 抽出したプロックを誤差推定 部 4 4 2に供給する。
例えば、 データ選択部 4 4 1は、 注目画素を中心とした 5 X 5画素からなるブ ロック、 注目画素の周辺から、 注目画素および基準軸を基準とした所定の角度の 範囲毎に、 5 X 5画素からなる 2つのプロックを抽出する。
誤差推定部 4 4 2は、 データ選択部 4 4 1から供給された、 注目画素を中心と したブロックと、 注目画素の周辺のブロックとの相関を検出して、 検出した相関 を示す相関情報を定常方向導出部 4 4 3に供給する。
例えば、 誤差推定部 4 4 2は、 角度の範囲毎に、 注目画素を中心とした 5 X 5 画素からなるプロックと、 1つの角度の範囲に対応する、 5 X 5画素からなる 2 つのブロックとについて、 画素値の相関を検出する。
定常性方向導出部 4 4 3は、 誤差推定部 4 4 2から供給された相関情報に基づ いて、 相関の最も強い、 注目画素の周辺のブロックの位置から、 欠落した実世界 の光信号の定常性に対応する、 入力画像における、 基準軸を基準としたデータの 定常性の角度を検出し、 角度を示すデータ定常性情報を出力する。 例えば、 定常 方向導出部 4 4 3は、 誤差推定部 4 4 2から供給された相関情報に基づいて、 注 目画素を中心とした 5 X 5画素からなるブロックに対して最も相関の強い、 5 X 5画素からなる 2つのプロックに対する角度の範囲を、 データの定常性の角度と して検出し、 検出された角度を示すデータ定常性情報を出力する。
図 4 0は、 図 3 9に示すデータ定常性検出部 1 0 1のより詳細な構成を示すブ 口ック図である。
データ選択部 4 4 1は、 画素選択部 4 6 1 - 1乃至画素選択部 4 6 1一 Lを含 む。 誤差推定部 4 4 2は、 推定誤差算出部 4 6 2— 1乃至推定誤差算出部 4 6 2 一 Lを含む。 定常方向導出部 4 4 3は、 最小誤差角度選択部 4 6 3を含む。
例えば、 データ選択部 4 4 1には、 画素選択部 4 6 1 - 1乃至画素選択部 4 6 1一 8が設けられる。 例えば、 誤差推定部 4 4 2には、 推定誤差算出部 4 6 2— 1乃至推定誤差算出部 4 6 2— 8が設けられる。
画素選択部 4 6 1 - 1乃至画素選択部 4 6 1一 Lのそれぞれは、 注目画素を中 心とした、 所定の数の画素からなるブロック、 並びに注目画素および基準軸を基 準とした所定の角度の範囲に対応した、 所定の数の画素からなる 2つのプロック を抽出する。
図 4 1は、 画素選択部 4 6 1— 1乃至画素選択部 4 6 1— Lにより抽出される、 5 X 5画素のブロックの例を説明する図である。 図 4 1における中央の位置は、 注目画素の位置を示す。
なお、 5 X 5画素のプロックは、 一例であって、 ブロックに含まれる画素の数 は、 本発明を限定するものではない。
例えば、 画素選択部 4 6 1— 1は、 注目画素を中心とした、 5 X 5画素のプロ ックを抽出すると共に、 0度乃至 1 8 . 4度おょぴ 1 6 1 . 6度乃至 1 8 0 . 0 度の範囲に対応した、 注目画素に対して、 右側に 5画素移動した位置にある画素 を中心とした、 5 X 5画素のブロック (図 4 1中 Aで示す) を抽出し、 注目画素 に対して、 左側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のプ ロック (図 4 1中 A' で示す) を抽出する。 画素選択部 4 6 1— 1は、 抽出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2 - 1に供給する。
画素選択部 4 6 1— 2は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 8. 4度乃至 3 3. 7度の範囲に対応した、 注目画素に対して、 右側に 1 0画素移動し、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のプロック (図 4 1中 Bで示す) を抽出し、 注目画素に対して、 左側に 1 0画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画 素のブロック (図 4 1中 B' で示す) を抽出する。 画素選択部 4 6 1— 2は、 抽 出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2— 2に供給する。 画素選択部 4 6 1— 3は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 3 3. 7度乃至 5 6. 3度の範囲に対応した、 注目画素に対して、 右側に 5画素移動し、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 4 1中 Cで示す) を抽出し、 注目画素に対して、 左側に 5 画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画素の プロック (図 4 1中 C' で示す) を抽出する。 画素選択部 4 6 1— 3は、 抽出し た、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2 - 3に供給する。
画素選択部 4 6 1— 4は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 5 6. 3度乃至 7 1. 6度の範囲に対応した、 注目画素に対して、 右側に 5画素移動し、 上側に 1 0画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 4 1中 Dで示す) を抽出し、 注目画素に対して、 左側に 5画素移動し、 下側に 1 0画素移動した位置にある画素を中心とした、 5 X 5画 素のブロック (図 4 1中 D' で示す) を抽出する。 画素選択部 4 6 1—4は、 抽 出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2— 4に供給する。 画素選択部 4 6 1— 5は、 注目画素を中心とした、 5 X 5画素のプロックを抽 出すると共に、 7 1. 6度乃至 1 0 8. 4度の範囲に対応した、 注目画素に対し て、 上側に 5画素移動した位置にある画素を中心とした、 5 5画素のプロック (図 4 1中 Eで示す) を抽出し、 注目画素に対して、 下側に 5画素移動した位置 にある画素を中心とした、 5 X 5画素のブロック (図 4 1中 E' で示す) を抽出 する。 画素選択部 4 6 1— 5は、 抽出した、 5 X 5画素の 3つのブロックを推定 誤差算出部 4 6 2_ 5に供給する。
画素選択部 4 6 1— 6は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 0 8. 4度乃至 1 2 3. 7度の範囲に対応した、 注目画素に対 して、 左側に 5画素移動し、 上側に 1 0画素移動した位置にある画素を中心とし た、 5 X 5画素のブロック (図 4 1中 Fで示す) を抽出し、 注目画素に対して、 右側に 5画素移動し、 下側に 1 0画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 4 1中 F' で示す) を抽出する。 画素選択部 4 6 1— 6 は、 抽出した、 5 X 5画素の 3つのブロックを推定誤差算出部 4 6 2— 6に供給 する。
画素選択部 4 6 1— 7は、 注目画素を中心とした、 5 X 5画素のブロックを抽 出すると共に、 1 2 3. 7度乃至 1 4 6. 3度の範囲に対応した、 注目画素に対 して、 左側に 5画素移動し、 上側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 4 1中 Gで示す) を抽出し、 注目画素に対して、 右側 に 5画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画 素のブロック (図 4 1中 G' で示す) を抽出する。 画素選択部 4 6 1— 7は、 抽 出した、 5 X 5画素の 3つのブロックを推定誤差算出部 4 6 2— 7に供給する。 画素選択部 4 6 1— 8は、 注目画素を中心とした、 5 X 5画素のプロックを抽 出すると共に、 1 4 6. 3度乃至 1 6 1. 6度の範囲に対応した、 注目画素に対 して、 左側に 1 0画素移動し、 上側に 5画素移動した位置にある画素を中心とし た、 5 X 5画素のプロック (図 4 1中 Hで示す) を抽出し、 注目画素に対して、 右側に 1 0画素移動し、 下側に 5画素移動した位置にある画素を中心とした、 5 X 5画素のブロック (図 4 1中 H' で示す) を抽出する。 画素選択部 4 6 1— 8 は、 抽出した、 5 X 5画素の 3つのプロックを推定誤差算出部 4 6 2— 8に供給 する。 以下、 注目画素を中心とした、 所定の数の画素からなるブロックを注目プロッ クと称する。
以下、 注目画素および基準軸を基準とした所定の角度の範囲に対応した、 所定 の数の画素からなるプロックを参照ブロッタと称する。
このように、 画素選択部 4 6 1 - 1乃至画素選択部 4 6 1 - 8は、 例えば、 注 目画素を中心として、 2 5 X 2 5画素の範囲から、 注目プロックおよび参照ブ口 ックを抽出する。
推定誤差算出部 4 6 2— 1乃至推定誤差算出部 4 6 2 _ Lは、 画素選択部 4 6 1 - 1乃至画素選択部 4 6 1— Lから供給された、 注目ブロックと、 2つの参照 プロックとの相関を検出して、 検出した相関を示す相関情報を最小誤差角度選択 部 4 6 3に供給する。
例えば、 推定誤差算出部 4 6 2 _ 1は、 注目画素を中心とした、 5 X 5画素か らなる注目プロックと、 0度乃至 1 8 . 4度および 1 6 1 . 6度乃至 1 8 0 . 0 度の範囲に対応して抽出された、 注目画素に対して、 右側に 5画素移動した位置 にある画素を中心とした、 5 X 5画素の参照ブロックとについて、 注目プロック に含まれる画素の画素値と、 参照プロックに含まれる画素の画素値との差分の絶 対値を算出する。
この場合において、 推定誤差算出部 4 6 2— 1は、 図 4 2に示されるように、 注目プロックの中央の画素と参照プロックの中央の画素とが重なる位置を基準と して、 画素値の差分の絶対値の算出に、 注目画素の画素値が使用されるように、 参照ブロックに対して、 注目ブロックの位置を、 左側に 2画素乃至右側に 2画素 のいずれか、 上側に 2画素乃至下側に 2画素のいずれか移動させた場合に重なる 位置となる画素の画素値の差分の絶対値を算出する。 すなわち、 注目ブロックと 参照ブロックとの 2 5種類の位置における、 対応する位置の画素の画素値の差分 の絶対値が算出される。 言い換えれば、 画素値の差分の絶対値が算出される場合 において、 相対的に移動される注目ブロックおよび参照プロックとからなる範囲 は、 9 x 9画素である。 図 4 2において、 四角は、 画素を示し、 Aは、 参照ブロックを示し、 Bは、 注 目ブロックを示す。 図 4 2において、 太線は、 注目画素を示す。 すなわち、 図 4 2は、 参照ブロックに対して、 注目ブロックが右側に 2画素、 および上側に 1画 素移動した場合の例を示す図である。
さらに、 推定誤差算出部 4 6 2— 1は、 注目画素を中心とした、 5 X 5画素か らなる注目ブロックと、 0度乃至 1 8 . 4度および 1 6 1 . 6度乃至 1 8 0 . 0 度の範囲に対応して抽出された、 注目画素に対して、 左側に 5画素移動した位置 にある画素を中心とした、 5 X 5画素の参照プロックとについて、 注目ブロック に含まれる画素の画素値と、 参照プロックに含まれる画素の画素値との差分の絶 対値を算出する。
そして、 推定誤差算出部 4 6 2— 1は、 算出された差分の絶対値の和を求めて、 差分の絶対値の和を、 相関を示す相関情報として最小誤差角度選択部 4 6 3に供 給する。
推定誤差算出部 4 6 2— 2は、 5 X 5画素からなる注目ブロックと、 1 8 . 4 度乃至 3 3 . 7度の範囲に対応して抽出された、 5 X 5画素の 2つの参照プロッ クとについて、 画素値の差分の絶対値を算出し、 さらに、 算出された差分の絶対 値の和を算出する。 推定誤差算出部 4 6 2— 1は、 算出された差分の絶対値の和 を、 相関を示す相関情報として最小誤差角度選択部 4 6 3に供給する。
同様に、 推定誤差算出部 4 6 2— 3乃至推定誤差算出部 4 6 2— 8のそれぞれ は、 5 X 5画素からなる注目ブロックと、 所定の角度の範囲に対応して抽出され た、 5 X 5画素の 2つの参照プロックとについて、 画素値の差分の絶対値を算出 し、 さらに、 算出された差分の絶対値の和を算出する。 推定誤差算出部 4 6 2— 3乃至推定誤差算出部 4 6 2— 8のそれぞれは、 算出された差分の絶対値の和を、 相関を示す相関情報として最小誤差角度選択部 4 6 3に供給する。
最小誤差角度選択部 4 6 3は、 推定誤差算出部 4 6 2 - 1乃至推定誤差算出部 4 6 2 - 8から供給された、 相関情報としての画素値の差分の絶対値の和のうち、 最も強い相関を示す、 最小の値が得られた参照プロックの位置から、 2つの参照 プロックに対する角度をデータの定常性の角度として検出し、 検出された角度を 示すデータ定常性情報を出力する。
ここで、 参照ブロックの位置と、 データの定常性の角度の範囲との関係につい て説明する。
実世界の信号を近似する近似関数 f (x) を n次の一次元多項式で近似した場 合、 近似関数 f (x) は、 式 (1 5) で表すことができる。
Figure imgf000077_0001
n .
∑ n- 1
i=0
• · · (1 5)
近似関数 f (x) で近似される実世界の信号の波形が、 空間方向 Yに対して一 定の傾き (角度) を有する場合、 式 (15) における、 Xを x+ryとすることに より得られた式 (16) で、 実世界の信号を近似する近似関数 (x,y) は、 表現 される。 f (x, y) 二 w0(x+ry)n +w-, (x+ry)n_1 +··· +wn (x+ry) +wn
n .
= ∑ Wj (x+ry)n1
i=0
• · · (16)
γ は、 空間方向 Yの位置の変化に対する、 空間方向 Xの位置の変化の割合を 示す。 以下、 : rをシフト量とも称する。
図 43は、 注目画素の位置と、 角度 Θ を有する直線との空間方向 Xの距離を 0としたとき、 すなわち、 注目画素を直線が通るときの、 注目画素の周辺の画素 の位置と、 角度 Θ を有する直線との空間方向 Xの距離を示す図である。 ここで、 画素の位置は、 画素の中心の位置である。 また、 位置と直線との距離は、 位置が 直線に対して左側にあるとき、 負の値で示され、 位置が直線に対して右側にある とき、 正の値で示される。
例えば、 注目画素の右側に隣接する画素の位置、 すなわち空間方向 Xの座標 X が 1増加する位置と、 角度 Θ を有する直線との空間方向 Xの距離は、 1であり、 注目画素の左側に隣接する画素の位置、 すなわち空間方向 Xの座標 Xが 1減少 する位置と、 角度 0 を有する直線との空間方向 Xの距離は、 ー 1である。 注目 画素の上側に隣接する画素の位置、 すなわち空間方向 Yの座標 yが 1増加する 位置と、 角度 θ を有する直線との空間方向 Xの距離は、 - rであり、 注目画素 の下側に隣接する画素の位置、 すなわち空間方向 Yの座標 yが 1減少する位置 と、 角度 ø を有する直線との空間方向 Xの距離は、 rである。
角度 0 が 4 5度を超え、 9 0度未満であり、 シフ ト量 r力 0を超え、 1未 満であるとき、 シフト量 r と角度 θ との間には、
Figure imgf000078_0001
0 の関係式が成り 立つ。 図 4 4は、 シフ ト量 と角度 e との関係を示す図である。
ここで、 シフト量 rの変化に対する、 注目画素の周辺の画素の位置と、 注目 画素を通り、 角度 Θ を有する直線との空間方向 Xの距離の変化に注目する。
図 4 5は、 シフ ト量 に対する、 注目画素の周辺の画素の位置と、 注目画素 を通り、 角度 0 を有する直線との空間方向 Xの距離を示す図である。 図 4 5に おいて、 右上がりの一点鎖線は、 シフ ト量 r に対する、 注目画素の下側に隣接 する画素の位置と直線との空間方向 Xの距離を示し、 左下がりの一点鎖線は、 シ フト量 r に対する、 注目画素の上側に隣接する画素の位置と直線との空間方向
Xの距離を示す。
図 4 5において、 右上がりの二点鎖線は、 シフ ト量 r に対する、 注目画素か ら、 2画素下側で、 1画素左側に位置する画素の位置と直線との空間方向 Xの距 離を示し、 左下がりの二点鎖線は、 シフ ト量 r に対する、 注目画素から、 2画 素上側で、 1画素右側に位置する画素の位置と直線との空間方向 Xの距離を示す。 図 4 5において、 右上がりの三点鎖線は、 シフト量 r に対する、 注目画素か ら、 1画素下側で、 1画素左側に位置する画素の位置と直線との空間方向 Xの距 離を示し、 左下がりの三点鎖線は、 シフト量 に対する、 注目画素から、 1画 素上側で、 1画素右側に位置する画素の位置と直線との空間方向 Xの距離を示す。 図 4 5から、 シフト量 r に対して、 距離が最も小さい画素がわかる。
すなわち、 シフト量 rが 0乃至 1 / 3であるとき、 注目画素の上側に隣接す る画素おょぴ注目画素の下側に隣接する画素から、 直線までの距離が最小である。 すなわち、 角度 Θ が 7 1 . 6度乃至 9 0度であるとき、 注目画素の上側に隣接 する画素および注目画素の下側に隣接する画素から、 直線までの距離が最小であ る。
シフト量 rが 1 Z 3乃至 2 / 3であるとき、 注目画素に対して、 2画素上側 で、 1画素右側に位置する画素、 および注目画素に対して、 2画素下側で、 1画 素左側に位置する画素から、 直線までの距離が最小である。 すなわち、 角度 0 が 5 6 . 3度乃至 7 1 . 6度であるとき、 注目画素に対して、 2画素上側で、 1 画素右側に位置する画素、 および注目画素に対して、 2画素下側で、 1画素左側 に位置する画素から、 直線までの距離が最小である。
また、 シフト量 rが 2 Z 3乃至 1であるとき、 注目画素に対して、 1画素上 側で、 1画素右側に位置する画素、 および注目画素に対して、 1画素下側で、 1 画素左側に位置する画素から、 直線までの距離が最小である。 すなわち、 角度
0 が 4 5度乃至 5 6 . 3度であるとき、 注目画素に対して、 1画素上側で、 1 画素右側に位置する画素、 および注目画素に対して、 1画素下側で、 1画素左側 に位置する画素から、 直線までの距離が最小である。
角度 Θ が 0度から 4 5度までの範囲の直線と画素との関係も、 同様に考える ことができる。
図 4 3に示す画素を、 注目ブロックおよび参照ブロックに置き換えて、 参照ブ 口ックと直線との空間方向 Xの距離を考えることができる。
図 4 6に、 注目画素を通り、 空間方向 Xの軸に対して角度 0 の直線との距離 が最小の参照プロックを示す。 図 46における A乃至 Hおよび A' 乃至 H' は、 図 4 1における A乃至 Hおよ ぴ A' 乃至 H' の参照プロックを示す。
すなわち、 注目画素を通り、 空間方向 Xの軸を基準とした、 0度乃至 1 8. 4 度おょぴ 1 6 1. 6度乃至 1 80. 0度のいずれかの角度 0 を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照ブロックのそれぞれとの空間方向 Xの距離の うち、 直線と Aおよび A ' の参照ブロックとの距離が最小となる。 従って、 逆に 考えれば、 注目ブロックと、 Aおよび A' の参照ブロックとの相関が最も強いと き、 注目ブロックと、 Aおよび A' の参照ブロックとを結ぶ方向に、 一定の特徴 が繰り返し現れているので、 データの定常性の角度は、 0度乃至 1 8. 4度およ び 1 6 1. 6度乃至 1 8 0. 0度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 8. 4度乃至 33. 7度の いずれかの角度 0 を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照プロッ クのそれぞれとの空間方向 Xの距離のうち、 直線と Bおよび B' の参照プロック との距離が最小となる。 従って、 逆に考えれば、 注目プロックと、 Bおよび B' の参照プロックとの相関が最も強いとき、 注目プロックと、 Bおよび B' の参照 プロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常 性の角度は、 1 8. 4度乃至 33. 7度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 3 3. 7度乃至 56. 3度の いずれかの角度 0 を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照ブロッ クのそれぞれとの空間方向 Xの距離のうち、 直線と Cおよび C' の参照ブロック との距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Cおよび C' の参照ブロックとの相関が最も強いとき、 注目プロックと、 Cおよび C' の参照 プロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常 性の角度は、 3 3. 7度乃至 56. 3度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 56. 3度乃至 71. 6度の いずれかの角度 0 を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照ブロッ クのそれぞれとの空間方向 Xの距離のうち、 直線と Dおよび D' の参照ブロック との距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Dおよび D' の参照ブロックとの相関が最も強いとき、 注目ブロックと、 Dおよび D' の参照 プロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの定常 性の角度は、 5 6. 3度乃至 7 1. 6度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 7 1. 6度乃至 108. 4度 のいずれかの角度 Θ を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照プロ ックのそれぞれとの空間方向 Xの距離のうち、 直線と Eおよび E' の参照プロッ クとの距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Eおよび E' の参照ブロックとの相関が最も強いとき、 注目ブロックと、 Eおよび E' の 参照プロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 7 1. 6度乃至 108. 4度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 08. 4度乃至 1 23. 7 度のいずれかの角度 Θ を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照ブ ロックのそれぞれとの空間方向 Xの距離のうち、 直線と Fおよび F' の参照ブロ ックとの距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Fおよび F' の参照ブロックとの相関が最も強いとき、 注目プロックと、 Fおよび F' の 参照プロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 1 08. 4度乃至 1 23. 7度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 23. 7度乃至 146. 3 度のいずれかの角度 0 を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照ブ ロックのそれぞれとの空間方向 Xの距離のうち、 直線と Gおよび G' の参照ブロ ックとの距離が最小となる。 従って、 逆に考えれば、 注目ブロックと、 Gおよび G' の参照プロックとの相関が最も強いとき、 注目プロックと、 Gおよび G' の 参照ブロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 1 23. 7度乃至 146. 3度の範囲にあると言える。
注目画素を通り、 空間方向 Xの軸を基準とした、 1 46. 3度乃至 1 6 1. 6 度のいずれかの角度 Θ を有する直線と、 A乃至 Hおよび A' 乃至 H' の参照ブ ロックのそれぞれとの空間方向 Xの距離のうち、 直線と Hおよび H ' の参照プロ ックとの距離が最小となる。 従って、 逆に考えれば、 注目プロックと、 Hおよび H ' の参照プロックとの相関が最も強いとき、 注目ブロックと、 Hおよび H ' の 参照ブロックとを結ぶ方向に、 一定の特徴が繰り返し現れているので、 データの 定常性の角度は、 1 4 6 . 3度乃至 1 6 1 . 6度の範囲にあると言える。
このように、 データ定常性検出部 1 0 1は、 注目ブロックと参照ブロックとの 相関を基に、 データの定常性の角度を検出することができる。
なお、 図 3 9に構成を示すデータ定常性検出部 1 0 1においては、 データの定 常性の角度の範囲をデータ定常性情報として出力するようにしても良く、 データ の定常性の角度の範囲を示す代表値をデータ定常性情報として出力するようにし ても良い。 例えば、 データの定常性の角度の範囲の中央値を代表値とすることが できる。
さらに、 図 3 9に構成を示すデータ定常性検出部 1 0 1は、 相関が最も強い参 照プロックの周辺の参照プロックの相関を利用することにより、 検出するデータ の定常性の角度の範囲を 1 Z 2に、 すなわち、 検出するデータの定常性の角度の 分解能を 2倍にすることができる。
例えば、 注目ブロックと、 Eおよび E ' の参照プロックとの相関が最も強いと き、 最小誤差角度選択部 4 6 3は、 図 4 7で示されるように、 注目ブロックに対 する、 Dおよび D ' の参照プロックの相関と、 注目ブロックに対する、 Fおよび F ' の参照プロックの相関とを比較する。 注目ブロックに対する、 Dおよび D ' の参照ブロックの相関が、 注目ブロックに対する、 Fおよび F ' の参照ブロック の相関に比較して、 強い場合、 最小誤差角度選択部 4 6 3は、 データの定常性の 角度に、 7 1 . 6度乃至 9 0度の範囲を設定する。 また、 この場合、 最小誤差角 度選択部 4 6 3は、 データの定常性の角度に、 代表値として 8 1度を設定するよ うにしてもよい。
注目ブロックに対する、 Fおよび F ' の参照ブロックの相関が、 注目ブロック に対する、 Dおよび D ' の参照ブロックの相関に比較して、 強い場合、 最小誤差 角度選択部 4 6 3は、 データの定常性の角度に、 9 0度乃至 1 0 8 . 4度の範囲 を設定する。 また、 この場合、 最小誤差角度選択部 4 6 3は、 データの定常性の 角度に、 代表値として 9 9度を設定するようにしてもよい。
最小誤差角度選択部 4 6 3は、 同様の処理で、 他の角度の範囲についても、 検 出するデータの定常性の角度の範囲を 1 Z 2にすることができる。
尚、 図 4 7を参照して説明した手法を、 簡易 1 6方位検出手法とも称する。 このように、 図 3 9に構成を示すデータ定常性検出部 1 0 1は、 簡単な処理で、 より範囲の狭い、 データの定常性の角度を検出することができる。
次に、 図 4 8のフローチャートを参照して、 ステップ S 1 0 1の処理に対応す る、 図 3 9で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性 の検出の処理を説明する。
ステップ S 4 4 1において、 データ選択部 4 4 1は、 入力画像から、 注目して いる画素である注目画素を選択する。 例えば、 データ選択部 4 4 1は、 入力画像 から、 ラスタスキャン順に、 注目画素を選択する。
ステップ S 4 4 2において、 データ選択部 4 4 1は、 注目画素を中心とする所 定の数の画素からなる注目ブロックを選択する。 例えば、 データ選択部 4 4 1は、 注目画素を中心とする 5 X 5画素からなる注目プロックを選択する。
ステップ S 4 4 3において、 データ選択部 4 4 1は、 注目画素の周辺の所定の 位置の所定の数の画素からなる参照ブロックを選択する。 例えば、 データ選択部 4 4 1は、 注目画素および基準軸を基準とした所定の角度の範囲毎に、 注目プロ ックの大きさを基準とした、 所定の位置の画素を中心とする 5 X 5画素からなる 参照プロックを選択する。
データ選択部 4 4 1は、 注目ブロックおよび参照ブロックを誤差推定部 4 4 2 に供給する。
ステップ S 4 4 4において、 誤差推定部 4 4 2は、 注目画素おょぴ基準軸を基 準とした所定の角度の範囲毎に、 注目ブロックと、 角度の範囲に対応した参照ブ ロックとの相関を計算する。 誤差推定部 4 4 2は、 算出された相関を示す相関情 報を定常方向導出部 4 4 3に供給する。
ステップ S 4 4 5において、 定常方向導出部 4 4 3は、 注目ブロックに対して、 相関が最も強い参照プロックの位置から、 欠落した実世界の光信号である画像の 定常性に対応する、 入力画像における、 基準軸を基準としたデータの定常性の角 度を検出する。
定常方向導出部 4 4 3は、 検出したデータの定常性の角度を示すデータ定常性 情報を出力する。
ステップ S 4 4 6において、 データ選択部 4 4 1は、 全ての画素の処理を終了 したか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ス テツプ S 4 4 1に戻り、 まだ注目画素として選択されていない画素から注目画素 を選択して、 上述した処理を繰り返す。
ステップ S 4 4 6において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 図 3 9に構成を示すデータ定常性検出部 1 0 1は、 より簡単な処 理で、 欠落した実世界の光信号の定常性に対応する、 画像データにおける、 基準 軸を基準としたデータの定常性の角度を検出することができる。 また、 図 3 9に 構成を示すデータ定常性検出部 1 0 1は、 入力画像の中の、 比較的狭い範囲の画 素の画素値を使用して、 データの定常性の角度を検出することができるので、 入 力画像にノイズ等が含まれていても、 より正確にデータの定常性の角度を検出す ることができる。
なお、 図 3 9で構成が示されるデータ検出部 1 0 1は、 注目しているフレーム である注目フレームの、 注目している画素である注目画素について、 注目フレー ムから、 所定の数の画素からなる、 注目画素を中心としたブロックと、 注目画素 の周辺の、 それぞれ、 所定の数の画素からなる複数のブロックとを抽出すると共 に、 注目フレームに対して時間的に前または後ろのフレームから、 所定の数の画 素からなる、 注目画素に対応する位置の画素を中心としたプロックと、 注目画素 に対応する位置の画素の周辺の、 それぞれ、 所定の数の画素からなる複数のブロ ックとを抽出し、 注目画素を中心としたプロックと空間的または時間的に周辺の ブロックとの相関を検出し、 相関に基づいて、 入力画像における、 時間方向およ ぴ空間方向のデータの定常性の角度を検出するようにしてもよい。
例えば、 図 4 9に示すように、 データ選択部 4 4 1は、 注目フレームであるフ レーム #n から注目画素を順に選択し、 フレーム #n から、 注目画素を中心とした、 所定の数の画素からなるブロック、 および、 注目画素の周辺の、 所定の数の画素 からなる複数のブロックを抽出する。 また、 データ選択部 4 4 1は、 フレーム およびフレーム #n+lのそれぞれから、 注目画素の位置に対応する位置の画 素を中心とした、 所定の数の画素からなるブロック、 および、 注目画素の位置に 対応する位置の画素の周辺の、 所定の数の画素からなる複数のプロックを抽出す る。 データ選択部 4 4 1は、 抽出したブロックを誤差推定部 4 4 2に供給する。 誤差推定部 4 4 2は、 データ選択部 4 4 1から供給された、 注目画素を中心と したブロックと、 空間的または時間的に周辺のブロックとの相関を検出して、 検 出した相関を示す相関情報を定常方向導出部 4 4 3に供給する。 定常性方向導出 部 4 4 3は、 誤差推定部 4 4 2から供給された相関情報に基づいて、 相関の最も 強い、 空間的または時間的に周辺のブロックの位置から、 欠落した実世界の光信 号の定常性に対応する、 入力画像における、 時間方向および空間方向のデータの 定常性の角度を検出し、 角度を示すデータ定常性情報を出力する。
また、 データ定常性検出部 1 0 1は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の処理を実行することができる。
図 5 0は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の処 理を実行するデータ定常性検出部 1 0 1の構成を示すプロック図である。
データ定常性検出部 4 8 1— 1乃至 4 8 1— 3のそれぞれは、 上述した、 また は後述するデータ定常性検出部 1 0 1と同様の構成を有し、 入力画像のコンポ一 ネント信号のそれぞれを処理の対象として、 上述した、 または後述する処理を実 行する。 データ定常性検出部 4 8 1— 1は、 入力画像の第 1のコンポーネント信号を基 に、 データの定常性を検出し、 第 1のコンポーネント信号から検出されたデータ の定常性を示す情報を決定部 4 8 2に供給する。 例えば、 データ定常性検出部 4 8 1— 1は、 入力画像の輝度信号を基に、 データの定常性を検出し、 輝度信号か ら検出されたデータの定常性を示す情報を決定部 4 8 2に供給する。
データ定常性検出部 4 8 1 - 2は、 入力画像の第 2のコンポーネント信号を基 に、 データの定常性を検出し、 第 2のコンポーネント信号から検出されたデータ の定常性を示す情報を決定部 4 8 2に供給する。 例えば、 データ定常性検出部 4 8 1— 2は、 入力画像の色差信号である I信号を基に、 データの定常性を検出し、 I信号から検出されたデータの定常性を示す情報を決定部 4 8 2に供給する。 データ定常性検出部 4 8 1— 3は、 入力画像の第 3のコンポーネント信号を基 に、 データの定常性を検出し、 第 3のコンポーネント信号から検出されたデータ の定常性を示す情報を決定部 4 8 2に供給する。 例えば、 データ定常性検出部 4 8 1— 2は、 入力画像の色差信号である Q信号を基に、 データの定常性を検出し、 Q信号から検出されたデータの定常性を示す情報を決定部 4 8 2に供給する。 決定部 4 8 2は、 データ定常性検出部 4 8 1 _ 1乃至 4 8 1一 3から供給され た、 各コンポーネント信号から検出されたデータの定常性を示す情報を基に、 入 力画像における最終的なデータの定常性を検出して、 検出したデータの定常性を 示すデータ定常性情報を出力する。
例えば、 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1 _ 3から 供給された、 各コンポーネント信号から検出されたデータの定常性のうち、 最大 のデータの定常性を最終的なデータの定常性とする。 また、 例えば、 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1— 3から供給された、 各コンポ ーネント信号から検出されたデ一タの定常性のうち、 最小のデータの定常性を最 終的なデータの定常性とする。
さらに、 例えば、 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1 一 3から供給された、 各コンポーネント信号から検出されたデータの定常性の平 均値を最終的なデータの定常性とする。 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1— 3から供給された、 各コンポーネント信号から検出された データの定常性のメディアン (中央値) を最終的なデータの定常性とするように してもよい。
また、 例えば、 決定部 4 8 2は、 外部から入力された信号を基に、 データ定常 性検出部 4 8 1— 1乃至 4 8 1一 3から供給された、 各コンポーネント信号から 検出されたデータの定常性のうち、 外部から入力された信号で指定されるデータ の定常性を最終的なデータの定常性とする。 決定部 4 8 2は、 データ定常性検出 部 4 8 1— 1乃至 4 8 1 - 3から供給された、 各コンポーネント信号から検出さ れたデータの定常性のうち、 予め定めたデータの定常性を最終的なデータの定常 性とするようにしてもよい。
なお、 決定部 4 8 2は、 データ定常性検出部 4 8 1— 1乃至 4 8 1— 3から供 給された、 各コンポーネント信号のデータの定常性の検出の処理で求めた誤差を 基に、 最終的なデータの定常性を決定するようにしてもよい。 データの定常性の 検出の処理で求められる誤差については、 後述する。
図 5 1は、 入力画像のコンポーネント信号を基に、 データの定常性の検出の処 理を実行するデータ定常性検出部 1 0 1の他の構成を示す図である。
コンポーネント処理部 4 9 1は、 入力画像のコンポーネント信号を基に、 1つ の信号を生成し、 データ定常性検出部 4 9 2に供給する。 例えば、 コンポーネン ト処理部 4 9 1は、 入力画像の各コンポーネント信号における値を、 画面上で同 じ位置の画素について、 加算することにより、 コンポーネント信号の値の和から なる信号を生成する。
例えば、 コンポーネント処理部 4 9 1は、 入力画像の各コンポ一ネント信号に おける画素値を、 画面上で同じ位置の画素について、 平均することにより、 コン ポーネント信号の画素値の平均値からなる信号を生成する。 データ定常性検出部 4 9 2は、 コンポーネント処理部 4 9 1から供給された、 信号を基に、 入力画像における、 データの定常性を検出し、 検出したデータの定 常性を示すデータ定常性情報を出力する。
データ定常性検出部 4 9 2は、 上述した、 または後述するデータ定常性検出部 1 0 1と同様の構成を有し、 コンポーネント処理部 4 9 1から供給された信号を 対象として、 上述した、 または後述する処理を実行する。
このように、 データ定常性検出部 1 0 1は、 コンポーネント信号を基に、 入力 画像のデータの定常性を検出することにより、 入力画像にノイズなどが含まれて いても、 より正確に、 データの定常性を検出することができる。 例えば、 データ 定常性検出部 1 0 1は、 コンポーネント信号を基に、 入力画像のデータの定常性 を検出することにより、 より正確に、 データの定常性の角度 (傾き) 、 混合比、 またはデータの定常性を有する領域を検出することができる。
なお、 コンポーネント信号は、 輝度信号およぴ色差信号に限らず、 RGB信号、 または YUV信号など他の方式のコンポーネント信号であっても良い。
以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した画像データの、 欠落した現実世界の光信号の定常性に対応するデー タの定常性の、 基準軸に対する角度を検出し、 検出された角度に基づいて、 欠落 した現実世界の光信号の定常性を推定することにより光信号を推定するようにし た場合、 現実世界の事象に対して、 より正確で、 より精度の高い処理結果を得る ことができるようになる。
また、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一部が欠落 した画像データの注目している注目画素および基準軸を基準とした角度毎に、 所 定の数の画素からなる画素の組であって、 複数の組を抽出し、 角度毎に抽出され た、 複数の組における対応する位置の画素の画素値の相関を検出し、 検出された 相関に基づいて、 欠落した現実世界の光信号の定常性に対応する、 画像データに おける、 基準軸を基準としたデータの定常性の角度を検出し、 検出された画像デ ータにおける基準軸に対するデータの定常性の角度に基づいて、 欠落した現実世 界の光信号の定常性を推定することにより光信号を推定するようにした場合、 現 実世界の事象に対して、 より正確で、 より精度の高い処理結果を得ることができ るようになる。
図 5 2は、 データ定常性検出部 1 0 1のさらに他の構成を示すブロック図であ る。
図 5 2に示されるデータ定常性検出部 1 0 1においては、 現実世界の光信号が 射影され、 現実世界の光信号の定常性の一部が欠落した画像データの注目してい る画素である注目画素に対応する領域が選択され、 注目画素の画素値と、 選択さ れた領域に属する画素の画素値との相関値が閾値以上である画素に、 相関値に基 づく度数が設定されることにより、 領域に属する画素の度数が検出され、 検出さ れた度数に基づいて回帰線を検出することにより、 欠落した現実世界の光信号の 定常性に対応する、 画像データのデータの定常性が検出される。
フレームメモリ 5 0 1は、 入力画像をフレーム単位で記憶し、 記憶されている フレームを構成する画素の画素値を画素取得部 5 0 2に供給する。 フレームメモ リ 5 0 1は、 1つのページに入力画像の現在のフレームを記憶し、 他のページに 記憶している、 現在のフレームに対して 1つ前 (過去) のフレームの画素の画素 値を画素取得部 5 0 2に供給し、 入力画像のフレームの切り換えの時刻において、 ページを切り換えることにより、 画素取得部 5 0 2に、 動画である入力画像のフ レームの画素の画素値を供給することができる。
画素取得部 5 0 2は、 フレームメモリ 5 0 1から供給された画素の画素値を基 に、 注目している画素である注目画素を選択し、 選択された注目画素に対応する、 所定の数の画素からなる領域を選択する。 例えば、 画素取得部 5 0 2は、 注目画 素を中心とする 5 X 5画素からなる領域を選択する。
画素取得部 5 0 2が選択する領域の大きさは、 本発明を限定するものではない。 画素取得部 5 0 2は、 選択した領域の画素の画素値を取得して、 選択した領域 の画素の画素値を度数検出部 5 0 3に供給する。 度数検出部 5 0 3は、 画素取得部 5 0 2から供給された、 選択された領域の画 素の画素値を基に、 注目画素の画素値と、 選択された領域に属する画素の画素値 との相関値が閾値以上である画素に、 相関値に基づく度数を設定することにより、 領域に属する画素の度数を検出する。 度数検出部 5 0 3における、 相関値に基づ く度数の設定の処理の詳細は、 後述する。
度数検出部 5 0 3は、 検出した度数を回帰直線演算部 5 0 4に供給する。
回帰直線演算部 5 0 4は、 度数検出部 5 0 3から供給された度数に基づいて、 回帰線を演算する。 例えば、 回帰直線演算部 5 0 4は、 度数検出部 5 0 3から供 給された度数に基づいて、 回帰直線を演算する。 また、 例えば、 回帰直線演算部 5 0 4は、 度数検出部 5 0 3から供給された度数に基づいて、 所定の曲線である 回帰線を演算する。 回帰直線演算部 5 0 4は、 演算された回帰線および演算の結 果を示す演算結果パラメータを角度算出部 5 0 5に供給する。 演算パラメータが 示す演算の結果には、 後述する変動および共変動などが含まれる。
角度算出部 5 0 5は、 回帰直線演算部 5 0 4から供給された演算結果パラメ一 タで示される、 回帰線に基づいて、 欠落した現実世界の光信号の定常性に対応す る、 画像データである入力画像のデータの定常性を検出する。 例えば、 角度算出 部 5 0 5は、 回帰直線演算部 5 0 4から供給された演算結果パラメータで示され る、 回帰直線に基づいて、 欠落した実世界の光信号の定常性に対応する、 入力画 像における、 基準軸を基準としたデータの定常性の角度を検出する。 角度算出部 5 0 5は、 入力画像における、 基準軸を基準としたデータの定常性の角度を示す データ定常性情報を出力する。
図 5 3乃至図 5 5を参照して、 入力画像における、 基準軸を基準としたデータ の定常性の角度について説明する。
図 5 3において、 丸は、 1つの画素を示し、 2重丸は、 注目画素を示す。 丸の 色は、 画素の画素値の概略を示し、 より明るい色は、 より大きい画素値を示す。 例えば、 黒は、 3 0である画素値を示し、 白は、 1 2 0である画素値を示す。 図 5 3で示される画素からなる画像を人間が見た場合、 画像を見た人間は、 斜 め右上方向に直線が伸びていると認識することができる。
図 5 2に構成を示すデータ定常性検出部 1 0 1は、 図 5 3で示される画素から なる入力画像を入力したとき、 斜め右上方向に直線が伸びていることを検出する。 図 5 4は、 図 5 3で示される画素の画素値を数値で表した図である。 丸は、 1 つの画素を示し、 丸の中の数値は、 画素値を示す。
例えば、 注目画素の画素値は、 1 2 0であり、 注目画素の上側の画素の画素値 は、 1 0 0であり、 注目画素の下側の画素の画素値は、 1 0 0である。 また、 注 目画素の左側の画素の画素値は、 8 0であり、 注目画素の右側の画素の画素値は、 8 0である。 同様に、 注目画素の左下側の画素の画素値は、 1 0 0であり、 注目 画素の右上側の画素の画素値は、 1 0 0である。 注目画素の左上側の画素の画素 値は、 3 0であり、 注目画素の右下側の画素の画素値は、 3 0である。
図 5 2に構成を示すデータ定常性検出部 1 0 1は、 図 5 4で示される入力画像 に対して、 図 5 5で示されるように、 回帰直線 Aを引く。
図 5 6は、 入力画像における、 画素の空間方向の位置に対する、 画素値の変化 と、 回帰直線 Aとの関係を示す図である。 データの定常性を有する領域における 画素の画素値は、 例えば、 図 5 6に示すように、 山脈状に変化している。
図 5 2に構成を示すデータ定常性検出部 1 0 1は、 データの定常性を有する領 域における画素の画素値を重みとして、 最小自乗法により回帰直線 Aを引く。 デ ータ定常性検出部 1 0 1により求められた回帰直線 Aは、 注目画素の周辺におけ るデータの定常性を表現している。
入力画像における、 基準軸を基準としたデータの定常性の角度は、 図 5 7で示 されるように、 回帰直線 Aと、 例えば、 基準軸である空間方向 Xを示す軸との角 度 Θ を求めることにより、 検出される。
次に、 図 5 2に構成を示すデータ定常性検出部 1 0 1における、 回帰直線の具 体的な算出方法について説明する。 度数検出部 5 0 3は、 例えば、 画素取得部 5 0 2から供給された、 注目画素を 中心とする、 空間方向 Xに 9画素、 空間方向 Yに 5画素、 計 4 5画素からなる領 域の画素の画素値から、 領域に属する画素の座標に対応する度数を検出する。 例えば、 度数検出部 5 0 3は、 式 (1 7 ) で示される演算により、 度数を算出 することにより、 領域に属する、 座標 (Xi , yj) の度数 を検出する。
Figure imgf000092_0001
( 1 7 )
式 (1 7 ) において、 P。,。は、 注目画素の画素値を示し、 Pi, jは、 座標
yj) の画素の画素値を示す。 Thは、 閾値を示す。
iは、 領域内における、 空間方向 Xの画素の順番を示し、 l≤i≤kである。 j は、 領域内における、 空間方向 Yの画素の順番を示し、 l≤j≤lである。
kは、 領域における、 空間方向 Xの画素の数を示し、 1は、 領域における、 空 間方向 Yの画素の数を示す。 例えば、 領域が、 空間方向 Xに 9画素、 空間方向 Y に 5画素、 計 4 5画素からなるとき、 Kは、 9であり、 1は、 5である。
図 5 8は、 画素取得部 5 0 2において取得される領域の例を示す図である。 図 5 8において、 点線の四角は、 1つの画素を示す。
例えば、 図 5 8で示されるように、 領域が、 空間方向 Xについて、 注目画素を 中心とした 9画素、 空間方向 Yについて、 注目画素を中心とした 5画素からなり 注目画素の座標 (x,y) が (0,0) であるとき、 領域の左上の画素の座標 (x,y) は、 (-4, 2) であり、 領域の右上の画素の座標 (x,y) は、 (4, 2) であり、 領 域の左下の画素の座標 (X, y) は、 (-4, -2) であり、 領域の右下の画素の座標 (x,y) は、 (4, -2) である。
領域の左側の画素の、 空間方向 Xにおける、 画素の順番 iは、 1であり、 領域 の右側の画素の、 空間方向 Xにおける、 画素の順番 iは、 9である。 領域の下側 の画素の、 空間方向 Yにおける、 画素の順番 jは、 1であり、 領域の上側の画素 の、 空間方向 Yにおける、 画素の順番 jは、 5である。
すなわち、 注目画素の座標 (x5, y3) を (0, 0) としたとき、 領域の左上の画素 の座標 (Xい y5) は、 (-4, 2) であり、 領域の右上の画素の座標 (x9, y5) は、
(4, 2) であり、 領域の左下の画素の座標 (χ1> Υι) は、 (-4, -2) であり、 領域 の右下の画素の座標 (x9Yl) は、 (4, - 2) である。
度数検出部 5 0 3は、 式 (1 7 ) において、 相関値として、 注目画素の画素値 と、 領域に属する画素の画素値との差分の絶対値を算出するので、 実世界の細線 の画像が射影された、 入力画像における、 データの定常性を有する領域のみなら ず、 背景とは異なる色であって、 単色の、 直線状の縁を有する物の実世界の画像 が射影された、 入力画像における、 2値エッジのデータの定常性を有する領域に おける、 画素値の空間的な変化の特徴を示す度数を検出することができる。
なお、 度数検出部 5 0 3は、 画素の画素値との差分の絶対値に限らず、 相関係 数など他の相関値を基に、 度数を検出するようにしてもよい。
また、 式 (1 7 ) において、 指数関数を適用しているのは、 画素値の差に対し て、 度数に大きく差をつけるためであり、 他の関数を適用するようにしてもよい。 閾値 Thは、 任意の値とすることができる。 例えば、 閾値 Thは、 3 0とする ことができる。
このように、 度数検出部 5 0 3は、 選択された領域に属する画素の画素値との 相関値が閾値以上である画素に、 相関値に基づく度数を設定することにより、 領 域に属する画素の度数を検出する。
また、 例えば、 度数検出部 5 0 3は、 式 (1 8 ) で示される演算により、 度数 を算出することにより、 領域に属する、 座標 (Xi, yj) の度数 , を検出する。
Figure imgf000093_0001
• · ( 1 8 ) 座一一一一標 (Xi,yj) における度数を Li.j (l≤i≤k, l≤j≤l) としたとき、 座標 Xiに おける、 空間方向 Yの度数し jの和 ¾は、 式 (1 9) で表され、 座標 yjにおけ
∑一一 - る、 空間方向 Xの度数 Li, jの和 は、 式 (20) で表される。
Figure imgf000094_0001
• · · (20)
度数の総和 uは、 式 (2 1) で表される u
1- J
J ■
• · · (2 1)
図 58で示される例において、 注目画素の座標の度数 L5,3は、 3であり、 注目 画素の上側の画素の座標の度数 LMは、 1であり、 注目画素の右上側の画素の座 標の度数 Le,4は、 4であり、 注目画素に対して、 2画素上側であって、 1画素右 側の画素の座標の度数 L65は、 2であり、 注目画素に対して、 2画素上側であつ て、 2画素右側の画素の座標の度数 L7,5は、 3である。 また、 注目画素の下側の 画素の座標の度数 L52は、 2であり、 注目画素の左側の画素の座標の度数 L4,3は、 1であり、 注目画素の左下側の画素の座標の度数 L4,2は、 3であり、 注目画素に 対して、 1画素下側であって、 2画素左側の画素の座標の度数 L3,2は、 2であり、 注目画素に対して、 2画素下側であって、 2画素左側の画素の座標の度数 L3 iは, 4である。 図 5 8で示される領域の他の画素の座標の度数は、 0であり、 図 5 8 において、 0である度数の記載は省略する。
図 5 8で示される領域において、 空間方向 Yの度数の和 qiは、 iが 1である 度数 Lが全て 0なので、 0であり、 ¾は、 iが 2である度数 Lが全て 0なので、 0である。 q3は、 度数 L3,2が 2であり、 度数 L3ilが 4なので、 6である。 同様に、 q4は、 4であり、 q5は、 6であり、 q6は、 6であり、 q7は、 3であり、 ¾は、 0 であり、 q9は、 0である。
図 5 8で示される領域において、 空間方向 Xの度数の和 は、 度数 L3ilが 4 なので、 4である。 h2は、 度数 L3,2が 2であり、 度数 L4,2が 3であり、 度数 L5,2 が 2なので、 7である。 同様に、 h3は、 4であり、 h4は、 5であり、 h5は、 5で ある。
図 5 8で示される領域において、 度数の総和 uは、 2 5である。
空間方向 Yの度数し .の和 qiに、 座標 Xiを乗じた結果を加算した和 Txは、 式 (2 2) で表される。
Figure imgf000095_0001
k
i=1
• - · ( 2 2)
空間方向 Xの度数 Li.jの和 hjに、 座標 y』を乗じた結果を加算した和 Tyは、 式 (2 2) で表される。
Ty = h1y1+h2y2-«-"-+ |y|
= ∑ hjVj
J=1
· · · (2 3)
例えば、 図 5 8で示される領域において、 qiが 0であり、 がー 4なので、 は 0であり、 q2が 0であり、 x2がー 3なので、 q2X 、0である。 同様に、 q3 が 6であり、 3が_ 2なので、 q3x3は一 1 2であり、 q4が 4であり、 x4がー 1な y
ので、一一 ¾x4は、 一4であり、 q5,が 6であり、 x5が 0なので、 q5x5は 0である。 同 様に、 Σ1Γ Ιが 6であり、 x6が 1なので、 q6x6は 6であり、 q7が 3であり、 x7が 2な
L
ので、 q7x7は∑一- l 6であり、 q8が 0であり、 x8が 3なので、 ¾x8は 0であり、 q9が 0 y
であり、 が 4なので、 qgx9は 0である。 従って、 乃至 q9¾の和である Tx は、 一 4である。
例えば、 図 5 8で示される領域において、 が 4であり、 Ylがー 2なので、 hlYlは一 8であり、 h2が 7であり、 y2がー 1なので、 h2y2は一 7である。 同様に h3が 4であり、 y3が 0なので、 h3y3は 0であり、 h4が 5であり、 y4が 1なので、 h4y4は、 5であり、 h5が 5であり、 y5が 2なので、 h5y5は 1 0である。 従って、 hiyi乃至 h5y5の和である Tyは、 0である。
また、 を以下のように定義する。
Q
• · · ( 2 4 ) xの変動 Sxは、 式 (2 5 ) で表される
k
Sx = Λ qjx T u
i =l
• · · ( 2 5 ) yの変動 Svは、 式 (2 6 ) で表される
Sy = ∑ hjyト u
J =1
( 2 6 ) 共変動 Sxvは、 式 (2 7 ) で表される, し ί j j V j 厂 χΐ y L!
i
Figure imgf000096_0001
• · · ( 2 7) 式 (2 8 ) に示す 1次の回帰直線を求めることを考える。
u
y=ax+b · · · ( 2 8) ∑ k
傾き aおよび切片. bは、 最小自乗法により、 以下のように求めることができ る,
∑_ - ,
u ∑ ∑ Luxiy厂 ΤΧΤ
ι=1 j=1
¾二
T
S xy
S
( 2 9 )
Ty Σ QjXj χ ∑ Lijxiyj
I = 1 J = l
b =
• · · ( 3 0 ) ただし、 正しい回帰直線を求めるための必要条件は、 度数 Li, jが、 回帰直線に 対して、 ガウス分布状に、 分布していることである。 逆に言えば、 度数検出部 5 0 3は、 度数 がガウス分布するように、 領域の画素の画素値を度数 に変 換する必要がある。
回帰直線演算部 5 0 4は、 式 (2 9 ) およぴ式 (3 0) で示される演算を実行 して、 回帰直線を求める。
角度算出部 5 0 5は、 式 (3 1 ) に示す演算により、 回帰直線の傾き aを、 基準軸である空間方向 Xの軸に対する角度 Θ に変換する。
0=tan_1(a) · · · ( 3 1 ) なお、 回帰直線演算部 5 0 4が所定の曲線である回帰線を演算する場合、 角度 ∑ k
算出部 5 0 5は、 基準軸に対する、 注目画素の位置における回帰線の角度 Θ を ∑ = k
求める。 a L.
X ,
ここで、 画素毎にデータの定常性を検出するためには、 切片 bは、 不要であ る。 そこで、 式 ( 3 2 ) に示す 1次の回帰直線を求めることを考える。
y=ax · · · ( 3 2 ) この場合、 回帰直線演算部 5 0 4は、 最小自乗法により、 傾き aを式 (3 3 ) で求めることができる。 x i Vj
· · · ( 3 3 )
図 5 9のフローチャートを参照して、 ステップ S 1 0 1の処理に対応する、 図 5 2で構成が示されるデータ定常性検出部 1 0 1による、 データの定常性の検出 の処理を説明する。
ステップ S 5 0 1において、 画素取得部 5 0 2は、 まだ注目画素とされていな い画素の中から注目画素を選択する。 例えば、 画素取得部 5 0 2は、 ラスタスキ ヤン順に、 注目画素を選択する。 ステップ S 5 0 2において、 画素取得部 5 0 2 は、 注目画素を中心とする領域に含まれる画素の画素値を取得し、 取得した画素 の画素値を度数検出部 5 0 3に供給する。 例えば、 画素取得部 5 0 2は、 注目画 素を中心とした、 9 X 5画素からなる領域を選択し、 領域に含まれる画素の画素 値を取得する。
ステップ S 5 0 3において、 度数検出部 5 0 3は、 領域に含まれる画素の画素 値を度数に変換することにより、 度数を検出する。 例えば、 度数検出部 5 0 3は、 式 ( 1 7 ) に示される演算により、 画素値を度数 jに変換する。 この場合にお いて、 度数し .がガウス分布するように、 領域の画素の画素値が度数 」に変換 される。 度数検出部 5 0 3は、 変換された度数を回帰直線演算部 5 0 4に供給す る。
ステップ S 5 0 4において、 回帰直線演算部 5 0 4は、 度数検出部 5 0 3から 供給された度数を基に、 回帰線を求める。 例えば、 回帰直線演算部 5 0 4は、 度 数検出部 5 0 3から供給された度数を基に、 回帰直線を求める。 より具体的には、 回帰直線演算部 5 0 4は、 式 (2 9 ) およぴ式 (3 0 ) で示される演算を実行し て、 回帰直線を求める。 回帰直線演算部 5 0 4は、 算出された結果である回帰直 線を示す演算結果パラメータを角度算出部 5 0 5に供給する。
ステップ S 5 0 5において、 角度算出部 5 0 5は、 基準軸に対する回帰直線の 角度を算出することにより、 欠落した現実世界の光信号の定常性に対応する、 画 像データのデータの定常性を検出する。 例えば、 角度算出部 5 0 5は、 式 (3 1 ) に示す演算により、 回帰直線の傾き aを、 基準軸である空間方向 Xの軸に 対する角度 Θ に変換する。 角度算出部 5 0 5は、 基準軸に対する回帰直線の角 度を示すデータ定常性情報を出力する。
なお、 角度算出部 5 0 5は、 傾き aを示すデータ定常性情報を出力するよう にしてもよい。
ステップ S 5 0 6において、 画素取得部 5 0 2は、 全ての画素の処理を終了し たか否かを判定し、 全ての画素の処理を終了していないと判定された場合、 ステ ップ S 5 0 1に戻り、 まだ注目画素として選択されていない画素から注目画素を 選択して、 上述した処理を繰り返す。
ステップ S 5 0 6において、 全ての画素の処理を終了したと判定された場合、 処理は終了する。
このように、 図 5 2に構成を示すデータ定常性検出部 1 0 1は、 欠落した実世 界の光信号の定常性に対応する、 画像データにおける、 基準軸を基準としたデー タの定常性の角度を検出することができる。
特に、 図 5 2に構成を示すデータ定常性検出部 1 0 1は、 比較的狭い領域の画 素の画素値を基に、 画素以下の角度を求めることができる。 以上のように、 現実世界の光信号が射影され、 現実世界の光信号の定常性の一 部が欠落した画像データの注目している画素である注目画素に対応する領域を選 択し、 注目画素の画素値と、 選択された領域に属する画素の画素値との相関値が 閾値以上である画素に、 相関値に基づく度数を設定することにより、 領域に属す る画素の度数を検出し、 検出された度数に基づいて回帰線を検出することにより、 欠落した現実世界の光信号の定常性に対応する、 画像データのデータの定常性を 検出し、 検出された画像データのデータの定常性に基づいて、 欠落した現実世界 の光信号の定常性を推定することにより光信号を推定するようにした場合、 現実 世界の事象に対して、 より正確で、 より精度の高い処理結果を得ることができる ようになる。
なお、 図 5 2に構成を示すデータ定常性検出部 1 0 1は、 注目画素の属する注 目フレームと、 注目フレームの時間的に前後のフレームについて、 所定の領域に 属する画素の画素値を度数に変換し、 度数を基に、 回帰平面を求めるようにすれ ば、 空間方向のデータの定常性の角度と共に、 時間方向のデータの定常性の角度 を検出することができる。
図 6 0は、 データ定常性検出部 1 0 1のその他の実施の形態の構成を示してい る。
図 6 0のデータ定常性検出部 1 0 1は、 データ選択部 7 0 1、 データ足し込み 部 7 0 2、 および、 定常方向導出部 7 0 3より構成される。
データ選択部 7 0 1は、 入力画像の各画素を注目画素として、 その注目画素毎 に対応する画素の画素値データを選択して、 データ足し込み部 7 0 2に出力する。 データ足し込み部 7 0 2は、 データ選択部 7 0 1より入力されたデータに基づ いて、 最小自乗法における足し込み演算を行い、 足し込み演算結果を定常方向導 出部 7 0 3に出力する。 このデータ足し込み部 7 0 2による足し込み演算とは、 後述する最小自乗法の演算に用いるサメーシヨンの項における演算であり、 その 演算結果は、 定常性の角度を検出するための画像データの特徴であると言える。 定常方向導出部 7 0 3は、 データ足し込み部 7 0 2より入力された足し込み演 算結果から定常方向、 すなわち、 データの定常性が有する基準軸からの角度 (例 えば、 細線、 または 2値エッジなどの傾き、 または方向) を演算し、 これをデー タ定常性情報として出力する。
次に、 図 6 1を参照して、 データ定常性検出部 1 0 1における定常性 (方向、 または、 角度) を検出する動作の概要について説明する。 尚、 図 6 1, 図 6 2中、 における場合と対応する部分については、 同一の符号を付してあり、 以下では、 その説明は、 適宜省略する。
図 6 1で示されるように、 実世界の信号 (例えば、 画像) は、 光学系 1 4 1 (例えば、 レンズ、 または LPF (Low Pas s Fi lter) などからなる) により、 セ ンサ (例えば、 CCD (Charge Coupl ed Device) 、 または、 CMOS
(Complementary Metal-Oxi de Semi conductor) など) の受光面に結像される。 センサは、 例えば、 CCDや CMOS のような積分特性を有する素子から構成される。 このような構成により、 センサから出力されるデータから得られる画像は、 実世 界の画像とは異なる画像となる (実世界の画像とは差が生じることになる) 。 そこで、 データ定常性検出部 1 0 1は、 図 6 2で示されるように、 モデル 7 0 5を用いて、 実世界を近似式により近似的に記述して、 その近似式からデータ定 常性を抽出する。 モデル 7 0 5は、 例えば、 N個の変数で表現される。 より正確 には、 モデル 7 0 5は、 実世界の信号を近似 (記述) する。
データ定常性検出部 1 0 1は、 モデル 7 0 5を予測するために、 データから、 M個のデータ 7 0 6を抽出する。 その結果、 モデル 7 0 5は、 データの定常性に 拘束されることになる。
すなわち、 モデル 7 0 5は、 センサで取得されたとき、 データにおいてデータ のデータ定常性を生じさせる、 定常性 (所定の次元の方向に一定の特徴) を有す る実世界の事象 (を示す情報 (信号) ) を近似する。 ここで、 データ 7 0 6の数 Mが、 モデル 7 0 5の変数の数 N以上であれば、 M 個のデータ 7 0 6から、 N個の変数で表現されるモデル 7 0 5を予測することが できる。
さらに、 データ定常性検出部 1 0 1は、 実世界 (の信号) を近似 (記述) する モデル 7 0 5を予測することにより、 実世界の情報である信号に含まれるデータ 定常性を、 例えば、 細線や 2値エッジの方向 (傾き、 または、 所定の方向を軸と したときの軸とのなす角度) として導出し、 データ定常性情報として出力する。 次に、 図 6 3を参照して、 入力画像より細線の方向 (角度) をデータ定常性情 報として出力するデータ定常性検出部 1 0 1について説明する。
データ選択部 7 0 1は、 水平■垂直判定部 7 1 1、 および、 データ取得部 7 1 2から構成されている。 水平 .垂直判定部 7 1 1は、 注目画素とその周辺の画素 間の画素値の差分から、 入力画像の細線の水平方向に対する角度が、 水平方向に 近い細線か、 垂直方向に近い細線かを判定し、 判定結果をデータ取得部 7 1 2、 および、 データ足し込み部 7 0 2にそれぞれ出力する。
より詳細には、 例えば、 この手法という意味で、 他の手法でもよい。 例えば、 簡易 1 6方位検出手法をここで使用してもよレ、。 図 6 4で示されるように、 水 平 -垂直判定部 7 1 1は、 注目画素と、 その注目画素に隣接する画素間の差分 (画素間の画素値の差分) のうち、 水平方向の画素間の差分 (アクティビティ) の和 (hdiff) と、 垂直方向の画素間の差分 (アクティビティ) の和の差分 (vdiff) を求めて、 注目画素が垂直方向に隣接する画素間との差分の和が大き いか、 または、 水平方向に隣接する画素間との差分の和が大きいかを判定する。 ここで、 図 6 4においては、 各マス目が画素を示し、 図中の中央の画素が注目画 素である。 また、 図中の点線の矢印で示す画素間の差分が、 水平方向の画素間の 差分であり、 その和が hdi f f で示される。 さらに、 図中の実線の矢印で示す画 素間の差分が、 垂直方向の画素間の差分であり、 その和が vdiff で示される。 このように求められた水平方向の画素間の画素値の差分和 hdi ff と、 垂直方 向の画素間の画素値の差分和 vdiff に基づいて、 水平■垂直判定部 7 1 1は、 (hdiff - vdiff) が正であれば、 垂直方向よりも水平方向の画素間の画素値の 変化 (アクティビティ) が大きいので、 図 6 5で示されるように、 水平方向に対 する角度が 0 (0度度≤ 0≤180度度) で示される場合、 45度度 < 0≤ 5度度、 すなわち、 垂直方向に近い角度の細線に属している画素であると判定し、 逆に負 であれば垂直方向の画素間の画素値の変化 (ァクティビティ) が大きいので、 0 度度≤ 0 < 45度度、 または、 135度度 < 0≤180度度、 すなわち、 水平方向に近 い角度の細線に属している画素であると判定する (細線が続く方向 (角度) に存 在する画素は、 いずれも細線を表現する画素であるので、 その画素間の変化 (ァ クテイビティ) は小さくなるはずである) 。
また、 水平 ·垂直判定部 7 1 1は、 入力画像の各画素を識別するカウンタ (図 示せず) を備えており、 適宜必要に応じて使用する。
尚、 図 6 4においては、 注目画素を中心として、 3画素 X 3画素の範囲におけ る垂直方向と水平方向の画素間の画素値の差分の和を比較して、 細線が垂直方向 に近いか、 または、 水平方向に近いかを判定する例について説明したが、 それ以 上の画素数を用いて同様の手法で細線の方向を判定するようにしてもよく、 例え ば、 注目画素を中心として 5画素 X 5画素や、 7画素 X 7画素など、 それ以上の 画素数のプロックに基づいて判定するようにしてもよい。
データ取得部 7 1 2は、 水平 ·垂直判定部 7 1 1より入力された細線の方向の 判定結果に基づいて、 注目画素に対応する水平方向に並ぶ複数の画素からなるブ ロック単位、 または、 垂直方向に並ぶ複数の画素のプロック単位で画素値を読み 出し (取得し) 、 読み出した (取得した) 注目画素毎に対応する複数の画素間に おける、 水平 ·垂直方向判定部 7 1 1の判定結果の方向に隣接する画素間の差分 データとともに、 所定の画素数のプロックに含まれる画素から、 画素値の最大値 と最小値のデータをデータ足し込み部 7 0 2に出力する。 尚、 以下においては、 データ取得部 7 1 2により、 注目画素に対応して取得される複数の画素のブロッ クを取得プロックと称する (取得プロックは、 例えば、 後述する図 7 8で示され る複数の画素 (各マス目で示される) のうち、 黒線の正方形が示された画素を注 目画素とするとき、 その上下 3画素分と、 左右 1画素分の合計 1 5画素などであ る) 。
データ足し込み部 7 0 2の差分足し込み部 7 2 1は、 データ選択部 7 0 1より 入力された差分データを検出し、 データ選択部 7 0 1の水平 ·垂直判定部' 7 1 1 より入力される水平方向、 または、 垂直方向の判定結果に基づいて、 後述する最 小自乗法の解法に必要な足し込み処理を実行し、 その足し込み結果を定常方向導 出部 7 0 3に出力する。 より具体的には、 複数の画素のうち水平■垂直判定部 7 1 1による判定方向に隣接する画素 i と画素 ( i + 1 ) の画素間の画素値の差 分データを yiとし、 注目画素に対応する取得ブロックが n個の画素から構成さ れた場合、 差分足し込み部 7 2 1は、 水平方向、 または、 垂直方向毎に
( y 1 ) 2+ ( y 2 ) 2+ ( y 3 ) 2+ · · · を足し込んで演算し、 定常方向導出部 7 0 3に出力する。
MaxMin取得部 7 2 2は、 データ選択部 7 0 1より入力される注目画素に対応 する取得ブロックに含まれる各画素毎に設定されるブロック (以下、 ダイナミツ クレンジブロックと称する (ダイナミックレンジブロックは、 後述する図 7 8で 示される取得ブロックの画素のうち、 例えば、 画素 pix l 2について、 黒の実線 で囲まれている、 ダイナミックレンジプロック B 1で示される、 画素 pix l 2の 上下 3画素分の合計 7画素などである) ) に含まれる画素の画素値の最大値と最 小値を取得すると、 その差分からダイナミックレンジ Dri (取得ブロック内の i 番目の画素に対応する、 ダイナミックレンジプロックに含まれる画素の画素値の 最大値と最小値の差分) を演算 (検出) して、 差分足し込み部 7 2 3に出力する。 差分足し込み部 7 2 3は、 MaxMin取得部 7 2 2より入力されたダイナミック レンジ Dri と、 データ選択部 7 0 1より入力された差分データを検出し、 検出 したダイナミックレンジ Dri と差分データに基づいて、 データ選択部 7 0 1の 水平 ·垂直判定部 7 1 1より入力される水平方向、 または、 垂直方向毎に、 ダイ ナミックレンジ Dri と差分データ y iを乗じた値を足し込んで、 演算結果を定 常方向導出部 7 0 3に出力する。 すなわち、 差分足し込み部 7 2 3が出力する演 算結果は、 水平方向、 または、 垂直方向毎に y 1 x Dr 1 + y 2 x Dr 2 + y 3 X Dr 3 + · ■ ' となる。
定常方向導出部 7 0 3の定常方向演算部 7 3 1は、 データ足し込み部 7 0 2よ り入力されてくる、 水平方向、 または、 垂直方向毎の足し込み演算結果に基づい て、 細線の角度 (方向) を演算し、 演算された角度を定常性情報として出力する。 ここで、 細線の方向 (細線の傾き、 または、 角度) の演算方法について説明す る。
図 6 6 Aで示されるような入力画像中の白線により囲まれる部分を拡大すると、 細線 (図中、 右上がりで、 かつ斜め方向の白線) は、 実際には、 図 6 6 Bで示さ れるように表示されている。 すなわち、 現実世界においては、 図 6 6 Cで示され るように、 画像は、 細線のレベル (図 6 6 C中では濃度の薄い斜線部) と背景レ ベルの 2種類のレベルが境界を形成し、 その他のレベルが存在しない状態となる。 これに対して、 センサにより撮像された画像、 すなわち、 画素単位で撮像された 画像は、 図 6 6 Bで示されるように、 その積分効果により背景レベルと細線レべ ルとが空間的に混合した画素が、 その比率 (混合比) を一定のパターンで変化す るように縦方向に配置された複数の画素からなるプロックが細線方向に繰り返し て配置されたような画像となる。 尚、 図 6 6 Bにおいて、 各正方形状のマス目は、 CCDの 1画素を示し、 各辺の長さを d_CCDであるものとする。 また、 マス目は、 格子状に塗りつぶされた部分が背景のレベルに相当する画素値の最小値であり、 その他の斜線状に塗りつぶされた部分は、 斜線の密度が低くなるに連れて画素値 が高くなるものとする (従って、 斜線のない白色のマス目が画素値の最大値とな る) 。
図 6 7 Aで示されるように、 現実世界の背景上に細線が存在する場合、 現実世 界の画像は、 図 6 7 Bで示されるように、 横軸にレベル、 縦軸にそのレベルに対 応する部分の画像上の面積を示すと、 画像中の背景に相当する面積と、 細線に相 当する部分の面積との、 画像上における占有面積の関係が示される。 同様にして、 センサで撮像された画像は、 図 6 8 Aで示されるように、 背景レ ベルの画素の中に、 縦に並んだ背景レベルと細線レベルとが混合した画素が、 そ の混合比を所定のパターンで変化させながら縦方向に配置されたプロックが、 細 線の存在する方向に繰り返して配置されたような画像となるため、 図 6 8 Bで示 すように、 背景のレベルとなる領域 (背景領域) と、 細線のレベルの中間のレべ ルをとる、 背景と細線が空間的に混合した結果生じる画素からなる空間混合領域 が存在する。 ここで、 図 6 8 Bにおいて縦軸は、 画素数であるが、 1画素の面積 は (d_CCD) 2となるため、 図 6 8 Bの画素値のレベルと画素数の関係は、 画素 値のレベルと面積の分布の関係と同様であるといえる。
これは、 図 6 9 Aの実際の画像中の白線で囲まれる部分 (3 1画素 X 3 1画素 の画像) においても、 図 6 9 Bで示されるように同様の結果が得られる。 すなわ ち、 図 6 9 Aで示される背景部分 (図 6 9 A中では、 黒色に見える部分) は、 図 6 9 Bで示されるように、 画素値レベルの低い (画素値が 2 0付近の) 画素が多 く分布しており、 これらの変化の少ない部分が、 背景領域の画像を形成する。 こ れに対して、 図 6 9 Bの画素値レベルが低くない部分、 すなわち、 画素値レベル が 4 0付近乃至 1 6 0付近に分布する画素は、 細線の画像を形成する、 空間混合 領域に属する画素であり、 各画素値毎の画素数は少ないが、 広い画素値の範囲に 分布している。
ところで、 現実世界の画像における背景と細線のそれぞれのレベルは、 例えば、 図 7 O Aで示される矢印方向 (Y座標方向) に見ると、 図 7 0 Bで示されるよう に変化することになる。 すなわち、 矢印の起点から細線までの背景領域では、 比 較的レベルの低い背景レベルとなり、 細線の領域では、 レベルの高い細線のレべ ルとなり、 細線領域を通過して再ぴ背景領域に戻ると、 レベルの低い背景のレべ ルとなる。 結果として、 細線領域のみが高いレベルとなるパルス状の波形となる。 これに対して、 センサで撮像された画像のうち、 図 7 O A中の矢印の向きに対 応する、 図 7 1 Aの空間方向 X = X 1上の画素 (図 7 1 Aにおいては、 黒丸で示 されている画素) の画素値と、 その画素の空間方向 Yの関係は、 図 7 1 Bに示さ れるようになる。 尚、 図 7 1 Aにおいて、 右上がりの 2本の白線の間が、 現実世 界の画像上における細線を示している。
すなわち、 図 7 1 Bで示されるように、 図 7 1 A中の中央の画素に対応する画 素が最も高い画素値をとるため、 各画素の画素値は、 空間方向 Yの位置が、 図中 の下部から中央の画素に向かうに連れて高くなり、 中央の位置を通過すると、 徐々に減少することになる。 結果として、 図 7 I Bで示すように、 山型の波形が 形成される。 また、 図 7 1 Aの空間方向 X = X 0, X 2に対応する各画素の画素 値の変化は、 空間方向 Yのピーク位置が、 細線の傾きに応じてずれるものの、 同 様の外形となる。
例えば、 図 7 2 Aで示されるような、 実際にセンサにより撮像された画像にお ける場合においても、 図 7 2 Bで示されるように、 同様の結果が得られる。 すな わち、 図 7 2 Bは、 図 7 2 Aの画像中の白線で囲まれる範囲の細線付近の画素値 を所定の空間方向 X (図中では、 X = 5 6 1, 5 6 2, 5 6 3 ) 毎の、 空間方向 Yに対応した画素値の変化を示している。 このように、 実際のセンサにより撮像 された画像においても、 X = 5 6 1においては、 Y = 7 3 0付近で、 Χ = 5 6 2 においては、 Υ = 7 0 5付近で、 Χ = 5 6 3においては、 Υ = 6 8 5付近で、 そ れぞれピークとなる山型の波形となっている。
このように、 現実世界の画像の細線付近のレベルの変化を示す波形はパルス状 の波形となるのに対して、 センサにより撮像された画像の画素値の変化を示す波 形は山型の波形となる。
すなわち、 換言すれば、 現実世界の画像のレベルは、 図 7 0 Βで示されるよう な波形になるべきところが、 センサにより撮像されることにより、 撮像された画 像は、 図 7 1 Βで示されるように、 その変化に歪が生じて、 現実世界の画像とは 異なる (現実世界の情報が欠落した) 波形に変化していると言える。
そこで、 このセンサにより撮像された画像から、 現実世界の画像の定常性情報 を取得するため、 センサより取得された画像のデータから現実世界を近似的に記 述するためのモデル (図 6 2のモデル 7 0 5に相当する) を設定する。 例えば、 細線の場合、 図 7 3で示されるように、 現実世界の画像を設定する。 すなわち、 図中左部の背景部分のレベルを B 1、 図中右側の背景部分のレベルを B 2、 細線 部分のレベルを L、 細線の混合比を 、 細線の幅を W、 細線の水平方向に対す る角度を 0 としてパラメータを設定し、 モデル化して、 現実世界を近似的に表 現する関数を設定し、 各パラメータを求めることにより現実世界を近似的に表現 する近似関数を求め、 その近似関数から細線の方向 (傾き、 または、 基準軸に対 する角度) を求める。
このとき、 背景領域は、 左部、 および、 右部は、 同一であるものとして近似す ることができるので、 図 7 4で示されるように、 統一して B ( = B 1 = B 2 ) と する。 また、 細線の幅を 1画素以上であるものとする。 このように設定された現 実世界をセンサで撮像するとき、 撮像された画像は、 図 7 5 Aで示されるように 撮像されることになる。 尚、 図 7 5 Aにおいて、 右上がりの 2本の白線の間が、 現実世界の画像上における細線を示している。
すなわち、 現実世界の細線上の位置に存在する画素は、 細線のレベルに最も近 いレベルとなり、 垂直方向 (空間方向 Yの方向) に対して細線から離れるに従つ て画素値が減少し、 細線領域に接することのない位置に存在する画素の画素値、 すなわち、 背景領域の画素は、 背景レベルの画素値となる。 このとき、 細線領域 と背景領域に跨る位置に存在する画素の画素値は、 背景レベルの画素値 Bと、 細 線レベルの画素値 Lが、 混合比 Of で混合された画素値となっている。
このように、 撮像された画像の各画素を注目画素とした場合、 データ取得部 7 1 2は、 その注目画素に対応する取得ブロックの画素を抽出し、 その抽出した取 得プロックを構成する画素毎に、 ダイナミックレンジプロックを抽出し、 そのダ ィナミックレンジブ口ックを構成する画素のうちの最大値となる画素値をとる画 素と、 最小値となる画素値をとる画素とを抽出する。 すなわち、 図 7 5 Aで示す ように、 取得プロック中の所定の画素 (図中の 1マスの中に黒の実線で正方形 が記述された画素 p ix 4 ) に対応したダイナミックレンジブロックの画素 (例え ば、 図中の黒の実線で囲まれた画素 pix l乃至 7の 7画素) ) が抽出された場合、 その各画素に対応する現実世界の画像は、 図 7 5 Bで示されるようになる。
すなわち、 図 7 5 Bで示されるように、 画素 pix lは、 左部の略 1 / 8の面積 を占める部分が背景領域となり、 右部の略 7 Z 8の面積を占める部分が細線領域 となる。 画素 pix 2は、 略全領域が細線領域となる。 画素 pix 3は、 左部の略 7 / 8の面積を占める部分が細線領域となり、 右部 1 / 8の面積を占める部分が細 線領域となる。 画素 pi X 4は、 左部の略 2 / 3の面積を占める部分が細線領城と なり、 右部の略 1 / 3の面積を占める部分が背景領域となる。 画素 pi x 5は、 左 部の略 1 Z 3の面積を占める部分が細線領域となり、 右部の略 2 Z 3の面積を占 める部分が背景領域となる。 画素 pix 6は、 左部の略 1 Z 8の面積を占める部分 が細線領域となり、 右部の略 7 Z 8の面積を占める部分が背景領域となる。 さら に、 画素 pix 7は、 全体が背景領域となる。
結果として、 図 7 5 Bで示されるダイナミックレンジプロックの各画素 pix 1 乃至 7の画素値は、 細線領域と背景領域の面積の比率に対応した混合比で、 背景 レベルと細線レベルが混合された画素値となる。 すなわち、 背景レベル:前景レ ベルの混合比は、 画素 pix lが略 1 : 7、 画素 pix 2が略 0 : 1、 画素 pix 3が 略 1 : 7、 画素 pix 4が略 1 : 2、 画素 pix 5が略 2 : 1、 画素 pix 6が略 7 : 1、 および、 画素 pix 7が略 1 : 0となる。
従って、 抽出されたダイナミックレンジブ口ックの画素 pix 1乃至 7の各画素 の画素値は、 画素 pix 2が最も高く、 次いで画素 pix l , 3が続き、 以下画素値 が高い順に画素 pix 4, 5, 6, 7となる。 従って、 図 7 5 Bで示される場合、 最大値は、 画素 pix 2の画素値であり、 最小値は、 画素 pix 7の画素値となる。 また、 図 7 6 Aで示されるように、 細線の方向は、 画素値の最大値をとる画素 が連続する方向であると言えるので、 この最大値をとる画素が配置された方向が 細線の方向となる。
ここで、 細線の方向を示す傾き G flは、 空間方向 Xの単位距離に対する、 空間 方向 Yへの変化 (距離の変化) の比であるので、 図 7 6 Aで示されるような場合、 図中の空間方向 Xへの 1画素の距離に対する、 空間方向 Yの距離が傾き Gflとな る。
空間方向 X O乃至 X 2の各々の空間方向 Yに対する画素値の変化は、 図 7 6 B で示されるように、 各空間方向 X毎に所定の間隔で山型の波形が繰り返されるこ とになる。 上述のように、 センサにより撮像された画像において、 細線は、 最大 値をとる画素が連続する方向であるので、 各空間方向 Xの最大値となる空間方向 Yの間隔 Sが、 細線の傾き G flとなる。 すなわち、 図 7 6 Cで示されるように、 水平方向に 1画素の距離に対する垂直方向の変化量が傾き G flとなる。 従って、 この細線の傾き Gfl (水平方向を基準軸としたときの角度に対応する) は、 図 7 6 Cで示すように、 その傾きに対応する水平方向を基準軸とした細線の角度を Θ として表現する場合、 以下の式 (3 4 ) で示される関係が成立することにな る。
Θ = Tan^ ( Gfl) ( = Tan一1 ( S ) )
• - · ( 3 4 ) また、 図 7 4で示されるようなモデルを設定し、 さらに、 空間方向 Yの画素と 画素値の関係が、 図 7 6 Bで示される山型の波形が、 完全な三角波形 (立ち上が り、 または、 立下りが直線的に変化する、 二等辺三角形状の波形) であると仮定 する場合、 図 7 7で示すように、 所定の注目画素の空間方向 Xにおける、 空間方 向 Y上に存在する各画素の画素値の最大値を Max= L (ここでは、 現実世界の細 線のレベルに対応する画素値) 、 最小値を Min = B (ここでは、 現実世界の背景 のレベルに対応する画素値) とするとき、 以下の式 (3 5 ) で示される関係が成 立する。
L— B = Gfl X d_y
• · · ( 3 5 ) ここで、 d_yは、 空間方向 Yの画素間の画素値の差分を示す。
すなわち、 空間方向の傾き Gflは、 大きいほど細線がより垂直なものに近づく ため、 山型の波形は、 底辺の大きな二等辺三角形状の波形となり、 逆に、 傾き S が小さいほど底辺の小さな二等辺三角形状の波形となる。 この結果、 傾き G flが 大きいほど、 空間方向 Yの画素間の画素値の差分 d_yは小さく、 傾き Sが小さ いほど、 空間方向 Yの画素間の画素値の差分 d—yは大きくなる。
そこで、 上述の式 (3 5 ) の関係が成立する傾き G flを求めることにより、 細 線の基準軸に対する角度 Θ を求めることが可能となる。 式 (3 5 ) は、 傾き G f lを変数とする 1変数の関数であるため、 注目画素について、 周辺の画素間の 画素値の (垂直方向の) 差分 d— y、 並びに、 最大値、 および、 最小値の差分 (L - B ) を 1組用いれば求めることが可能であるが、 上述のように、 空間方向 Yの 画素値の変化が完全な三角波形であることを前提とした近似式を用いたものであ るので、 注目画素に対応する抽出プロックの各画素についてダイナミックレンジ ブロックを抽出し、 さらに、 その最大値と最小値からダイナミックレンジ Drを 求めるとともに、 抽出プロックの各画素毎の空間方向 Yの画素間の画素値の差分 d_yを用いて、 最小自乗法により統計的に求める。
ここで、 最小自乗法による統計的な処理の説明にあたり、 まず、 抽出プロック、 および、 ダイナミックレンジブロックについて、 詳細を説明する。
抽出プロックは、 例えば、 図 7 8で示すように、 注目画素 (図中の黒の実線で 正方形が描かれているマス目の画素) の、 空間方向 Yについて上下 3画素分、 空 間方向 Xについて、 左右 1画素分の合計 1 5画素などでもよい。 また、 この場合、 抽出ブロックの各画素の画素間の画素値の差分 d—yは、 例えば、 画素 pix l 1に 対応する差分が d_y l 1で示されるとき、 空間方向 X = X 0の場合、 画素 pix l 1と pix 1 2、 pi 1 2と pix 1 3、 pix 1 3と pix 1 4、 pi 1 5と pix 1 6、 pix l 6と pix l 7の画素間の画素値の差分 d—y 1 1乃至 d一 y l 6が得られるこ とになる。 このとき、 空間方向 X = X 1, X 2についても、 同様にして画素間の 画素値の差分が得られる。 結果として、 この場合、 画素問の画素値の差分 d—y は、 1 8個存在することになる。
さらに、 由出プロックの各画素について、 ダイナミックレンジブロックの画素 力 例えば、 画素 pix l 1については、 水平■垂直判定部 7 1 1の判定結果に基 づいて、 今の場合、 垂直方向であると判定されるので、 図 7 8で示されるように、 画素 pixl lを含めて、 垂直方向 (空間方向 Y) の上下方向にそれぞれ 3画素分 のダイナミックレンジブ口ック B 1の範囲の 7画素であるものとすると、 このダ イナミックレンジプロック B 1の画素の画素値の最大値と最小値を求め、 さらに、 この最大値と最小値から得られるダイナミックレンジをダイナミックレンジ Dr 1 1とする。 同様にして、 抽出ブロックの画素 pixl 2については、 図 7 8中の ダイナミックレンジブ口ック B 2の 7画素から同様にしてダイナミックレンジ Dr 1 2を求める。 このようにして、 抽出プロック内の 1 8個の画素間差分 d_y i と、 対応するダイナミックレンジ Dr i との組み合わせに基づいて、 最小自乗法 を用いて統計的に傾き Gflが求められる。
次に、 1変数の最小自乗法の解法について説明する。 尚、 ここでは、 水平 -垂 直判定部 7 1 1の判定結果が垂直方向であったものとする。
1変数の最小自乗法による解法は、 例えば、 図 7 9で示される黒点で示される 全ての実測値に対しての距離を最小とする、 予測値 Dri_cからなる直線の傾き Gflを求めるものである。 そこで、 上述の式 (3 5) で示される関係から以下の ような手法により、 傾き Sが求められる。
すなわち、 上述の式 (3 5) は、 最大値と最小値の差分をダイナミックレンジ Drとするとき、 以下の式 (3 6) で示すように記述される。
Dr=Gfl d_y
· ■ ■ (3 6) 上述の式 (3 6) に、 抽出ブロックの各画素間についての差分 d_yiを代入す ることによりダイナミックレンジ Dri_cが求められることになる。 従って、 各 画素について、 以下の式 (3 7) の関係が満たされることになる。
Dri_c= Gfl X d_yi
· ■ · (3 7) ここで、 差分 d_yiは、 各画素 iの空間方向 Yの画素間の画素値の差分 (例え ば、 画素 iに対して、 上方向、 または、 下方向に隣接した画素との画素間の画素 値の差分であり、 Dri_cは、 画素 iについて式 (70) が成立するときに得られ るダイナミックレンジである。
上述のように、 ここでいう最小自乗法は、 抽出ブロックの画素 iのダイナミツ クレンジ Dr i— cと、 図 75 Aおよび図 75 Bを参照して説明した方法で得られ る、 画素 iの実測値となるダイナミックレンジ Dri_rとの差分自乗和 Qが、 画 像内のすべての画素において最小となるときの傾き Gflを求める方法である。 従 つて、 差分自乗和 Qは以下の式 (38) により求められることになる。
Figure imgf000113_0001
• · · (38) 式 (38) で示される差分自乗和 Qは、 2次関数であるので、 変数 Gfl (傾き Gfl) について図 80で示すような下に凸の曲線となるため、 傾き Gflが最小と なる Gflminが最小自乗法の解となる。
式 (38) で示される差分自乗和 Qは、 変数 Gflで微分されると、 以下に示す 式 (3 9) で示される d QZd Gflとなる。
an η
L = ∑ 2(-d_yi) (Dri_r-6f,xd_yi)
• ■ · (39) 式 (39) 力 S、 0となる Gflが図 80で示す差分自乗和 Qの最小値をとる Gflminとなるので、 式 (3 9) が 0となるときの式を展開することにより、 以 下の式 (40) で傾き Gflが求められることになる。
Figure imgf000113_0002
• - · ( 4 0 ) 上述の式 (4 0 ) は、 いわゆる、 1変数 (傾き Gfl) の正規方程式となる。
このようにして、 得られた傾き G flを上述の式 ( 3 4 ) に代入することにより、 細線の傾き Gflに対応する、 水平方向を基準軸としたときの細線の角度 0 を得 ることができる。
尚、 以上の説明においては、 注目画素が、 水平方向を基準軸としたときの角度 Θ が 45度度≤ Θ < 135度度の範囲となる細線上の画素である場合の例について 説明してきたが、 例えば、 注目画素が、 水平方向を基準軸に対する細線の角度 Θ が 0度度≤0 < 45度度、 または、 135度度 108度度となる、 水平方向 に近い細線上の画素である場合、 画素 iに隣接する画素間の画素値の差分は、 水 平方向に隣接する画素間の画素値の差分 d_x i となり、 同様に、 画素 iに対応す る複数の画素から画素値の最大値、 または、 最小値を求める際に、 抽出するダイ ナミックレンジブ口ックの画素についても、 画素 iに対して水平方向に存在する 複数の画素のうちから選択されることになる。 この場合の処理については、 上述 の説明における水平方向と垂直方向の関係が入れ替わるのみであるので、 その説 明は省略する。
また、 同様の手法により、 2値エッジの傾きに対応する角度を求めることも可 能である。
すなわち、 図 8 1 Aで示されるような入力画像中の白線により囲まれる部分を 拡大すると、 画像中のエッジ部分 (図中、 黒地の旗に描かれた 「十」 という白で 描かれた文字の下の部分) (以下、 このように、 2値のレベルからなる画像上の エッジ部分を 2値エッジとも称する) は、 実際には、 図 8 1 Bで示されるように 表示されている。 すなわち、 現実世界においては、 図 8 1 Cで示されるように、 画像では、 第 1のレベル (旗の地のレベル) と、 第 2のレベル (文字のレベル (図 8 1 C中では濃度の薄い斜線部) ) との 2種類のレベルからなる境界が形成 されており、 その他のレベルが存在しない。 これに対して、 センサにより撮像さ れた画像、 すなわち、 画素単位で撮像された画像は、 図 8 1 Bで示されるように、 第 1のレベルと第 2のレベルとが空間的に混合した画素が、 その比率 (混合比) を一定のパタ一ンで変化するように縦方向に配置された複数の画素からなるプロ ックがエツジが構成されている方向に繰り返して配置されたような領域を境とし た第 1のレベルの画素が配置される部分と、 第 2のレベルの画素が配置される部 分とが存在する画像となる。
すなわち、 図 8 2 Aで示されるように、 空間方向 X = X 0 , X 1, X 2につい て、 それぞれの空間方向 Yへの画素値の変化は、 図 8 2 B中では、 各画素値は、 図中の下から 2値エッジ (図 8 2 A中の右上がりの直線) の境界手前付近までは、 所定の最小値の画素値になっているが、 2値エッジの境界手前付近で、 画素値が 徐々に増大し、 エッジを越えると図中の点 P Eにおいて、 画素値が所定の最大値 となる。 より詳細には、 空間方向 X = X Oの変化は、 図 8 2 Bで示されるように、 画素値の最小値となる点 P sを通過した後、 徐々に画素値が増大し、 画素値の最 大値となる点 P Oとなる。 これに対して、 空間方向 X = X 1に対応する各画素の 画素値の変化は、 空間方向にずれた波形となるため、 図 8 2 Bで示されるように、 画素値の最小値から徐々に画素値が増大する位置が空間方向 Yの正方向にずれて、 図中の点 P 1を経由して、 画素値の最大値にまで増大する。 さらに、 空間方向 X - X 2における空間方向 Yの画素値の変化は、 空間方向 Yの正の方向にさらにず れ込んだ図中の点 P 2を経由して減少し、 画素値の最大値から最小値となる。 これは、 実際の画像中の白線で囲まれる部分においても、 同様の傾向が見られ る。 すなわち、 図 8 3 Aの実際の画像中の白線で囲まれる部分 (3 1画素 X 3 1 画素の画像) において、 背景部分 (図 8 3 A中では、 黒色に見える部分) は、 図 8 3 Bで示されるように、 画素値の低い (画素値が 9 0付近の) 画素数が多く分 布しており、 これらの変化の少ない部分が、 背景領域の画像を形成する。 これに 対して、 図 8 3 Bの画素値が低くない部分、 すなわち、 画素値が 1 0 0付近乃至 2 0 0付近に分布する画素は、 文字領域と背景領域との空間混合領域に属する画 素の分布であり、 各画素値毎の画素数は少ないが、 広い画素値の範囲に分布して いる。 さらに、 画素値の高い文字領域 (図 8 3 A中では、 白色に見える部分) の 画素が、 2 2 0で示される画素値の付近に多く分布している。
この結果、 図 8 4 Aで示されるエッジ画像における所定の空間方向 Xに対する、 空間方向 Yの画素値の変化は、 図 8 4 Bで示されるようになものとなる。
すなわち、 図 8 4 Bは、 図 8 4 Aの画像中の白線で囲まれる範囲のエッジ付近 の画素値を所定の空間方向 X (図中では、 X = 6 5 8, 6 5 9 , 6 6 0 ) 毎の、 空間方向 Yに対応した画素値の変化を示している。 このように、 実際のセンサに より撮像された画像においても、 X = 6 5 8において、 画素値は、 Y = 3 7 4付 近で増大を開始し (図中、 黒丸で示される分布) 、 Χ = 3 8 2付近で最大画素値 に到達する。 また、 Χ = 6 5 9においては、 空間方向 Υに対して正方向にずれ込 んで、 画素値は、 Υ = 3 7 8付近で増大を開始し (図中、 黒三角で示される分 布) 、 Χ = 3 8 6付近で最大画素値に到達する。 さらに、 Χ = 6 6 0においては、 空間方向 Υに対して、 さらに、 正方向にずれ込んで、 画素値は、 Υ = 3 8 2付近 で増大を開始し (図中、 黒四角で示される分布) 、 Χ = 3 9 0付近で最大画素値 に到達する。
そこで、 このセンサにより撮像された画像から、 現実世界の画像の定常性情報 を取得するため、 センサより取得された画像のデータから現実世界を近似的に記 述するためのモデルを設定する。 例えば、 2値エッジの場合、 図 8 5で示すよう に、 現実世界の画像を設定する。 すなわち、 図中左部の背景部分のレベルを V 1、 図中右側の文字部分のレベルを V 2、 2値エッジ付近の画素間の混合比を α、 ェッジの水平方向に対する角度を Θ としてパラメ一タを設定し、 モデル化して、 現実世界を近似的に表現する関数を設定し、 各パラメータを求めることにより現 実世界を近似的に表現する関数を求め、 その近似関数からエッジの方向 (傾き、 または、 基準軸に対する角度) を求める。
ここで、 エッジの方向を示す傾きは、 空間方向 Xの単位距離に対する、 空間方 向 Υへの変化 (距離の変化) の比であるので、 図 8 6 Αで示されるような場合、 図中の空間方向 Xへの 1画素の距離に対する、 空間方向 Yの距離が傾きとなる。 空間方向 X O乃至 X 2の各々の空間方向 Yに対する画素値の変化は、 図 8 6 Β で示されるように、 各空間方向 X毎に所定の間隔で同様の波形が繰り返されるこ とになる。 上述のように、 センサにより撮像された画像において、 エッジは、 類 似した画素値の変化 (今の場合、 最小値から最大値へと変化する、 所定の空間方 向 Υ上の画素値の変化) が空間的に連続する方向であるので、 各空間方向 Xにお いて、 空間方向 Υの画素値の変化が開始される位置、 または、 変化が終了する位 置となる空間方向 Υの間隔 Sが、 エッジの傾き G feとなる。 すなわち、 図 8 6 C で示されるように、 水平方向に 1画素の距離に対する垂直方向の変化量が傾き Gfeとなる。
ところで、 この関係は、 図 7 6 A乃至図 Ί 6 Cを参照して上述した細線の傾き Gflにおける関係と同様である。 従って、 その関係式についても、 同様のものと なる。 すなわち、 2値エッジにおける場合の関係式は、 図 8 7で示すものとなり、 背景領域の画素値を V I、 文字領域の画素値を V 2、 それぞれは最小値、 および、 最大値となる。 また、 エッジ付近の画素の混合比を とし、 エッジの傾きを Gfeとおけば、 成立する関係式は、 上述の式 (3 4 ) 乃至式 (3 6 ) と同様とな る (ただし、 Gflは、 Gfeに置き換えられる) 。
このため、 図 6 3で示されるデータ定常性検出部 1 0 1は、 同様の処理により、 細線の傾きに対応する角度、 および、 エッジの傾きに対応する角度を、 データ定 常性情報として検出することができる。 そこで、 以下においては、 傾きは、 細線 の傾きと、 2値エッジの傾きとを総称して、 傾き Gf と称する。 また、 上述の式 ( 3 8 ) 乃至式 (4 0 ) の式における傾き Gflは、 Gfeであってもよいものであ り、 結果として、 傾き Gf と置き換えて考えるものとする。
次に、 図 8 8のフローチャートを参照して、 データ定常性の検出の処理を説明 する。
ステップ S 7 0 1において、 水平 ·垂直判定部 7 1 1は、 入力画像の各画素を 識別するカウンタ Tを初期化する。 ステップ S 7 0 2において、 水平 .垂直判定部 7 1 1は、 後段の処理に必要な データの抽出処理を実行する。
ここで、 図 8 9のフローチャートを参照して、 データを抽出する処理について 説明する。
ステップ S 7 1 1において、 データ選択部 7 0 1の水平■垂直判定部 7 1 1は、 各注目画素 Tについて、 図 6 4を参照して説明したように、 水平方向、 垂直方向、 および対角方向に隣接する 9画素の水平方向に隣接する画素間の画素値の差分 (アクティビティ) の和 hdiff と、 垂直方向に隣接する画素間の画素値の差分 (ァクティビティ) の和 vdiff とを演算し、 さらに、 その差分
(hdiff— vdiff) を求め、 差分 (hdi ff— vdiff) ≥ 0の場合、 その注目画素 T ヽ 水平方向を基準軸としたとき、 その基準軸との角度 0 が 45度度 ^ 0 < 135 度度となる、 垂直方向に近い細線、 または、 2値エッジ付近の画素であるものと みなし、 使用する抽出プロックを垂直方向に対応したものとする判定結果をデー タ取得部 7 1 2、 および、 データ足し込み部 7 0 2に出力する。
一方、 差分 (hdiff— vdiff) < 0の場合、 水平 .垂直判定部 7 1 1は、 その 注目画素が、 水平方向を基準軸にしたとき、 その基準軸との細線、 または、 2値 エッジのなす角度 S が 0度度≤ 0 < 45度度、 または、 135度度 く 180度度 となる、 水平方向に近い細線、 または、 エッジ付近の画素であるものとみなし、 使用する抽出プロックを水平方向に対応したものとする判定結果をデータ取得部 7 1 2、 および、 データ足し込み部 7 0 2に出力する。
すなわち、 細線、 または、 2値エッジの傾きが垂直方向に近いと言うことは、 例えば、 図 7 O Aで示されているように、 図中の矢印が細線と交差する部分が増 えることになるため、 垂直方向の画素数を多めにした抽出プロックを設定する (縦長な抽出ブロックを設定する) 。 同様にして、 細線の傾きが水平方向に近い 場合についても、 水平方向の画素数を多めにした抽出プロックを設定するように する (横長な抽出ブロックを設定する) 。 このようにすることにより、 不要な計 算量を増やすことなく、 正確な最大値と最小値の演算が可能となる。 ステップ S 7 1 2において、 データ取得部 7 1 2は、 注目画素について水平 ' 垂直判定部 7 1 1より入力される水平方向、 または、 垂直方向の判定結果に対応 した抽出ブロックの画素を抽出する。 すなわち、 例えば、 図 7 8で示されるよう に、 注目画素を中心として、 (水平方向に 3画素) 丫、 (垂直方向に 7画素) の合 計 2 1画素を抽出ブロックとして抽出し、 記憶する。
ステップ S 7 1 3において、 データ取得部 7 1 2は、 抽出プロックの各画素に ついて、 水平,垂直判定部 7 1 1の判定結果に対応した方向に対応するダイナミ ックレンジブ口ックの画素を抽出し、 記憶する。 すなわち、 図 7 8を参照して、 上述したように、 例えば、 抽出ブロックの画素 pix l 1については、 今の場合、 水平 ·垂直判定部 7 1 1の判定結果が垂直方向になるので、 データ取得部 7 1 2 は、 垂直方向に、 ダイナミックレンジブロック B 1を、 同様にして、 画素 pix l 2は、 ダイナミックレンジブロック B 2を抽出する。 その他の抽出ブロックにつ いても同様にしてダイナミックレンジブ口ックが抽出される。
すなわち、 このデータ抽出処理により、 所定の注目画素 Tについて、 正規方程 式の演算に必要な画素の情報がデータ取得部 7 1 2に蓄えられることになる (処 理される領域が選択されることになる) 。
ここで、 図 8 8のフローチャートの説明に戻る。
ステップ S 7 0 3において、 データ足し込み部 7 0 2は、 正規方程式 (ここで は、 式 (7 4 ) ) の演算の各項に必要な値の足し込み処理を実行する。
ここで、 図 9 0のフローチャートを参照して、 正規方程式への足し込み処理に ついて説明する。
ステップ S 7 2 1において、 差分足し込み部 7 2 1は、 データ選択部 7 0 1の 水平■垂直判定部 7 1 1の判定結果に応じて、 データ取得部 7 1 2に記憶されて いる抽出プロックの画素間の画素値の差分を求め (検出し) 、 さらに、 2乗 (自 乗) して足し込む。 すなわち、 水平 '垂直判定部 7 1 1の判定結果が垂直方向で ある場合、 差分足し込み部 7 2 1は、 抽出プロックの各画素について垂直方向に 隣接する画素間の画素値の差分を求めて、 さらに 2乗して足し込む。 同様にして、 水平 .垂直判定部 7 1 1の判定結果が水平方向である場合、 差分足し込み部 7 2 1は、 抽出プロックの各画素について水平方向に隣接する画素間の画素値の差分 を求めて、 さらに 2乗して足し込む。 結果として、 差分足し込み部 7 2 1は、 上 述の式 ( 4 0 ) の分母となる項の差分の自乗和を生成し、 記憶する。
ステップ S 7 2 2において、 MaxMin取得部 7 2 2は、 データ取得部 7 1 2に 記憶されたダイナミックレンジプロックに含まれる画素の画素値の最大値と最小 値を取得し、 ステップ S 7 2 3において、 その最大値と最小値との差分からダイ ナミックレンジを求め (検出し) 、 差分足し込み部 7 2 3に出力する。 すなわち、 図 7 5 Bで示されているような、 画素 pix l乃至 7からなる 7画素のダイナミッ クレンジブロックの場合、 pix 2の画素値が最大値として検出され、 pix 7の画 素が最小値として検出され、 これらの差分がダイナミックレンジとして求められ る。
ステップ S 7 2 4において、 差分足し込み部 7 2 3は、 データ取得部 7 1 2に 記憶されている抽出プロックの画素間のうち、 データ選択部 7 0 1の水平 ·垂直 判定部 7 1 1の判定結果に対応する方向に隣接する画素間の画素値の差分を求め (検出し) 、 MaxMin取得部 7 2 2より入力されたダイナミックレンジを乗じた 値を足し込む。 すなわち、 差分足し込み部 7 2 1は、 上述の式 (4 0 ) の分子と なる項の和を生成し、 記憶する。
ここで、 図 8 8のフローチャートの説明に戻る。
ステップ S 7 0 4において、 差分足し込み部 7 2 1は、 抽出ブロックの全ての 画素の画素間の画素値の差分 (水平 ·垂直判定部 7 1 1の判定結果に対応する方 向に隣接する画素間の画素値の差分) を足し込んだか否かを判定し、 例えば、 抽 出プロックの全ての画素の画素間の差分を足し込んでいないと判定した場合、 そ の処理は、 ステップ S 7 0 2に戻り、 それ以降の処理が繰り返される。 すなわち、 抽出プロックの全ての画素の画素間の画素値の差分が足し込まれたと判定される まで、 ステップ S 7 0 2乃至 S 7 0 4の処理が繰り返される。 ステップ S 7 0 4において、 抽出プロックの全ての画素の画素間の画素値の差 分が足し込まれたと判定された場合、 ステップ S 7 0 5にいて、 差分足し込み部 7 2 1 , 7 2 3は、 自らで記憶している足し込み結果を定常方向導出部 7 0 3に 出力する。
ステップ S 7 0 6において、 定常方向演算部 7 3 1は、 データ足し込み部 7 0 2の差分足し込み部 7 2 1より入力された、 取得ブロックの各画素間のうち、 水 平 -垂直判定部 7 1 1により判定された方向に隣接する画素間の画素値の差分の 自乗和、 差分足し込み部 7 2 3より入力された、 取得ブロックの各画素間のうち、 水平 ·垂直判定部 7 1 1により判定された方向に隣接する画素間の画素値の差分、 および、 取得ブロックの各画素に対応するダイナミックレンジとの積の和に基づ いて、 上述の式 (4 0 ) で示した正規方程式を解くことにより、 最小自乗法を用 いて統計的に注目画素のデータ定常性情報である、 定常性の方向を示す角度 (細 線、 または、 2値エッジの傾きを示す角度) を演算し、 出力する。
ステップ S 7 0 7において、 データ取得部 7 1 2は、 入力画像の全ての画素に ついて処理が行われたか否かを判定し、 例えば、 入力画像の全ての画素について 処理が行われていない、 すなわち、 入力画像の全ての画素について、 細線、 また は、 2値エッジの角度の情報を出力していないと判定した場合、 ステップ S 7 0 8において、 カウンタ Tを 1インクリメントして、 その処理は、 ステップ S 7 0 2に戻る。 すなわち、 入力画像のうちの処理しょうとする画素が変更されて、 入 力画像の全ての画素について処理がなされるまで、 ステップ S 7 0 2乃至 S 7 0 8の処理が繰り返されることになる。 このカウンタ Tによる画素の変化は、 例え ば、 ラスタスキャンなどであってもよいし、 それ以外の規則により順次変化して いくものであってもよい。
ステップ S 7 0 7において、 入力画像の全ての画素について処理がなされたと 判定された場合、 ステップ S 7 0 9において、 データ取得部 7 1 2は、 次の入力 画像があるか否かを判定し、 次の入力画像があると判定された場合、 その処理は、 ステップ S 7 0 1に戻り、 それ以降の処理が繰り返される。 ステップ S 7 0 9において、 次の入力画像はないと判定された場合、 その処理 は、 終了する。
以上の処理により、 細線、 または、 2値エッジの角度が、 定常性情報として検 出されて、 出力される。
このように統計的処理により得られる細線、 または、 エッジの傾きの角度は、 相関を用いて得られる細線、 または、 2値エッジの角度とほぼ一致する。 すなわ ち、 図 9 1 Aで示すような画像の白線で囲まれる範囲の画像について、 細線上の 所定の水平方向の座標上の空間方向 Yへの傾きの変化は、 図 9 1 Bで示されるよ うに、 相関を用いた方法により得られる細線の傾きを示す角度 (図中の黒丸印) と、 図 6 3で示されたデータ定常性検出部 1 0 1により統計処理により得られる 細線の角度 (図中の黒三角印) は、 細線近傍の空間方向 Yの座標上で、 それぞれ がほぼ一致している。 尚、 図 9 1 Bにおいては、 図中の黒実線で挟まれた空間方 向 Y = 6 8 0乃至 7 3 0が細線上の座標である。
同様にして、 図 9 2 Αで示すような画像の白線で囲まれる範囲の画像について、 2値エッジ上の所定の水平方向の座標上の空間方向 Yへの傾きの変化は、 図 9 2 Bで示されるように、 相関を用いた方法により得られる 2値エッジの傾きを示す 度 (図中の黒丸印) と、 図 6 3で示されたデータ定常性検出部 1 0 1により統 計処理により得られる 2値エッジの角度 (図中の黒三角印) は、 細線近傍の空間 方向 Yの座標上で、 それぞれがほぼ一致している。 尚、 図 9 2 Bにおいては、 空 間方向 Y = 3 7 6 (付近) 乃至 3 8 8 (付近) が細線上の座標であるである。 結果として、 図 6 3に示されるデータ定常性検出部 1 0 1は、 データの定常性 として細線、 または、 2値エッジの角度を求める際、 所定の画素からなるプロッ クによる相関を用いる方法と異なり、 各画素の周辺の情報を用いて、 統計的に細 線、 または、 2値エッジの傾きを示す角度 (ここでは、 水平方向を基準軸とした 角度) を求めることができるので、 相関を用いた方法に見られるように、 所定の 角度の範囲に応じて切り替わることが無いので、 全ての細線、 または、 2値エツ ジの傾きの角度を同一の処理により求めることが可能となるため、 処理を簡単な ものとすることが可能となる。
また、 以上においては、 データ定常性検出部 1 0 1は、 細線、 または、 2値ェ ッジの所定の基準軸とのなす角度を定常性情報として出力する例について説明し てきたが、 後段の処理によっては、 傾きをそのまま出力する方が、 処理効率が向 上することも考えられる。 そのような場合、 データ定常性検出部 1 0 1の定常方 向導出部 7 0 3の定常方向演算部 7 3 1は、 最小自乗法により求められた細線、 または、 2値エッジの傾き G fを、 そのまま定常性情報として出力するようにし てもよい。
さらに、 以上においては、 式 (4 0 ) において、 ダイナミックレンジ Dri_r は、 抽出プロックの各画素について求められるものとして演算してきたが、 この ダイナミックレンジは、 ダイナミックレンジプロックを十分に大きく設定するこ とにより、 すなわち、 多くの注目画素について、 その周辺の多くの画素を用いて 設定することにより、 画像中の画素の画素値の最大値と最小値が、 常に選択され ることになるはずである。 従って、 ダイナミックレンジ Dri_rは、 抽出ブロッ クの各画素について演算することなく、 抽出プロック中、 または、 画像データ中 の画素の最大値と最小値から得られるダイナミックレンジを固定値として演算す るようにしてもよい。
すなわち、 以下の式 (4 1 ) のように、 画素間の画素値の差分のみを足し込む ことにより細線の角度 0 (傾き G f) を求めるようにしてもよい。 このように、 ダイナミックレンジを固定することにより、 演算処理をより簡素化することがで き、 高速で処理を行うことが可能となる。
Figure imgf000123_0001
( 4 1 ) 次に、 図 9 3を参照して、 データ定常性情報として、 各画素の混合比を検出す るデータ定常性検出部 1 0 1について説明する。
尚、 図 9 3のデータ定常性検出部 1 0 1においては、 図 6 3のデータ定常性検 出部 1 0 1における場合と対応する部分については、 同一の符号を付してあり、 以下では、 その説明は、 適宜省略する。
図 9 3のデータ定常性検出部 1 0 1において、 図 6 3のデータ定常性検出部 1 0 1と異なるのは、 データ足し込み部 7 0 2、 および、 定常性方向導出部 7 0 3 に代えて、 データ足し込み部 7 5 1、 および、 混合比導出部 7 6 1が設けられて いる点である。
データ足し込み部 7 5 1の MaxMin取得部 7 5 2は、 図 6 3における MaxMin 取得部 7 2 2と同様の処理を行うものであるが、 ダイナミックレンジプロックの 各画素の画素値の最大値と最小値を取得し、 最大値と最小値の差分 (ダイナミツ クレンジ) を求め、 足し込み部 7 5 3, 7 5 5に出力すると共に、 最大値を差分 演算部 7 5 4に出力する。
足し込み部 7 5 3は、 MaxMin取得部より入力された値を自乗して、 抽出プロ ックの全ての画素について足し込み、 その和を求めて、 混合比導出部 7 6 1に出 力する。
差分演算部 7 5 4は、 データ取得部 7 1 2の取得ブロックの各画素について、 対応するダイナミックレンジブ口ックの最大値との差分を求めて、 足し込み部 7 5 5に出力する。
足し込み部 7 5 5は、 取得プロックの各画素について、 MaxMin取得部 7 5 2 より入力された最大値と最小値の差分 (ダイナミックレンジ) と、 差分演算部 7 5 4より入力された取得ブロックの各画素の画素値と、 対応するダイナミックレ ンジプロックの最大値との差分と乗じて、 その和を求め、 混合比導出部 7 6 1に 出力する。 混合比導出部 76 1の混合比算出部 762は、 データ足し込み部の足し込み部 75 3, 7 5 5のそれぞれより入力された、 値に基づいて、 注目画素の混合比を 最小自乗法により統計的に求め、 データ定常性情報として出力する。
次に、 混合比の導出方法について説明する。
図 94Aで示されるように、 画像上に細線が存在する場合、 センサで撮像され た画像は、 図 94Bで示されるような画像となる。 個の画像について、 図 94 B の空間方向 X = X 1上の黒の実線で囲まれた画素について注目する。 尚、 図 94 Bの白線ではさまれた範囲は、 細線領域に対応する位置を示す。 この画素の画素 値 Mは、 背景領域のレベルに対応する画素値 Bと、 細線領域のレベルに対応する 画素値 Lの中間色となっているはずであり、 さらに詳細には、 この画素値 Psは、 背景領域と細線領域の面積比で、 それぞれのレベルが混合されているはずである。 従って、 この画素値 Psは、 以下の式 (42) により表現される。
Ps= XB+ (1 - a) XL
• · · (42) ここで、 ひ は、 混合比であり、 より具体的には、 注目されている画素中の背 景領域の占める面積の割合を示すものである。 従って、 (1一 ) は、 細線領域 の占める面積の割合を示しているともいえる。 尚、 背景領域の画素は、 背景に存 在するォブジェクトの成分とも考えられるので、 背景オブジェク ト成分とも言え る。 また、 細線領域の画素は、 背景オブジェクトに対して前景オブジェク トの成 分であると考えられるので、 前景オブジェクト成分とも言える。
この結果、 混合比 は、 式 (42) を展開することにより、 以下の式 (4 3) で表現できることになる。
a= (Ps-L) / (B-L)
• · · (43) さらに、 今の場合、 画素値は、 第 1の画素値 (画素値 B) の領域と第 2の画素 値 (画素値 L) の領域とをまたいだ位置に存在することが前提であるので、 画素 値 Lは、 画素値の最大値 Maxで置き換えることができ、 さらに、 画素値 Bは、 画素値の最小値と置き換えることができる。 従って、 混合比 は、 以下の式
(44) でも表現することができる。
Figure imgf000126_0001
(44) 以上の結果、 混合比 0/は、 注目画素についてのダイナミックレンジブ口ック のダイナミックレンジ ( (Mi n -Max) に相当する) と、 注目画素と、 ダイナミ ックレンジブ口ック内の画素の最大値との差分から求めることが可能となるが、 より精度を向上させるため、 ここでは、 最小自乗法により統計的に混合比 α' を 求める。
すなわち、 上述の式 (44) は、 展開すると以下の式 (45) となる。
(Ps— Max) = 01 X (Min— Max)
(45) この式 (45) は、 上述の式 (36) と同様の 1変数の最小自乗法の式となる。 すなわち、 式 (36) においては、 最小自乗法により傾き Gfが求められていた が、 ここでは、 混合比 0?が求められることになる。 従って、 以下の式 (46) で示される正規方程式を解くことにより、 混合比 は、 統計的に求められる。
Figure imgf000126_0002
(46) ここで、 iは、 抽出ブロックの各画素を識別するものである。 従って、 式 (4 6) においては、 抽出ブロックの画素数は nである。
次に、 図 9 5のフローチャートを参照して、 混合比をデータ定常性としたとき のデータ定常性の検出の処理について説明する。
ステップ S 7 3 1において、 水平 ·垂直判定部 7 1 1は、 入力画像の各画素を 識別するカウンタ Uを初期化する。 ステップ S 7 3 2において、 水平 ·垂直判定部 7 1 1は、 後段の処理に必要な データの抽出処理を実行する。 尚、 ステップ S 7 3 2の処理は、 図 8 9のフロー チャートを参照して説明した処理と同様であるので、 その説明は省略する。 ステップ S 7 3 3において、 データ足し込み部 7 5 1は、 正規方程式 (ここで は、 式 (4 6 ) ) の演算の各項に必要な値の足し込み処理を実行する。
ここで、 図 9 6のフローチャートを参照して、 正規方程式への足し込み処理に ついて説明する。
ステップ S 7 5 1において、 MaxMin取得部 7 5 2は、 データ取得部 7 1 2に 記憶されたダイナミックレンジプロックに含まれる画素の画素値の最大値と最小 値を取得し、 そのうち、 最小値を差分演算部 7 5 4に出力する。
ステップ S 7 5 2において、 MaxMin取得部 7 5 2は、 その最大値と最小値と の差分からダイナミックレンジを求め、 差分足し込み部 7 5 3, 7 5 5に出力す る。
ステップ S 7 5 3において、 足し込み部 7 5 3は、 MaxMin取得部 7 5 2より 入力されたダイナミックレンジ (Max— Min) を自乗して、 足し込む。 すなわち 足し込み部 7 5 3は、 上述の式 (4 6 ) の分母に相当する値を足し込みにより生 成する。
ステップ S 7 5 4において、 差分演算部 7 5 4は、 MaxMin取得部 7 5 2より 入力されたダイナミックレンジプロックの最大値と、 抽出プロックにおける今現 在処理中の画素の画素値との差分を求めて、 足し込み部 7 5 5に出力する。 ステップ S 7 5 5において、 足し込み部 7 5 5は、 MaxMin取得部 7 5 2より 入力されたダイナミックレンジと、 差分演算部 7 5 4より入力された、 今現在処 理している画素の画素値と、 ダイナミックレンジブ口ックの画素のうち最大値と なる値との差分を乘じて、 足し込む。 すなわち、 足し込み部 7 5 5は、 上述の式 ( 4 6 ) の分子の項に相当する値を生成する。
以上のように、 データ足し込み部 7 5 1は、 足し込み処理により、 上述の式 ( 4 6 ) の各項の演算を実行する。 ここで、 図 9 5のフローチャートの説明に戻る。
ステップ S 7 3 4において、 差分足し込み部 7 2 1は、 抽出ブロックの全ての 画素について、 足し込みが終了したか否かを判定し、 例えば、 抽出プロックの全 ての画素についての足し込み処理が終了していないと判定した場合、 その処理は ステップ S 7 3 2に戻り、 それ以降の処理が繰り返される。 すなわち、 抽出プロ ックの全ての画素について、 足し込み処理が終了したと判定されるまで、 ステツ プ S 7 3 2乃至 S 7 3 4の処理が繰り返される。
ステップ S 7 3 4において、 抽出ブロックの全ての画素について足し込みが終 了したと判定された場合、 ステップ S 7 3 5にいて、 足し込み部 7 5 3, 7 5 5 は、 自らで記憶している足し込み結果を混合比導出部 7 6 1に出力する。
ステップ S 7 3 6において、 混合比導出部 7 6 1の混合比算出部 7 6 2は、 デ ータ足し込み部 7 5 1の足し込み部 7 5 3 , 7 5 5より入力された、 ダイナミツ クレンジの自乗和、 および、 抽出ブロックの各画素の画素ィ直とダイナミックレン ジブ口ックの最大値との差分と、 ダイナミックレンジとを乗じた和に基づいて、 上述の式 (4 6 ) で示した正規方程式を解くことにより、 最小自乗法を用いて統 計的に注目画素のデータ定常性情報である、 混合比を演算し、 出力する。
ステップ S 7 3 7において、 データ取得部 7 1 2は、 入力画像の全ての画素に ついて処理が行われたか否かを判定し、 例えば、 入力画像の全ての画素について 処理が行われていない、 すなわち、 入力画像の全ての画素について、 混合比を出 力していないと判定した場合、 ステップ S 7 3 8において、 カウンタ Uを 1イン クリメントして、 その処理は、 ステップ S 7 3 2に戻る。
すなわち、 入力画像のうちの処理しょうとする画素が変更されて、 入力画像の 全ての画素について混合比が演算されるまで、 ステップ S 7 3 2乃至 S 7 3 8の 処理が繰り返されることになる。 このカウンタ Uによる画素の変化は、 例えば、 ラスタスキャンなどであってもよいし、 それ以外の規則により順次変化していく ものであってもよい。 ステップ S 7 3 7において、 入力画像の全ての画素について処理がなされたと 判定された場合、 ステップ S 73 9において、 データ取得部 7 1 2は、 次の入力 画像があるか否かを判定し、 次の入力画像があると判定された場合、 その処理は、 ステップ S 73 1に戻り、 それ以降の処理が繰り返される。
ステップ S 7 39において、 次の入力画像はないと判定された場合、 その処理 は、 終了する。
以上の処理により、 各画素の混合比が、 定常性情報として検出されて、 出力さ れる。
以上の手法により、 例えば、 図 97 Aで示される画像中の白線内の細線の画像 について、 所定の空間方向 X (= 56 1, 562, 563 ) 上の混合比の変化が、 図 9 7 Bに示されている。 図 9 7 Bで示されるように、 水平方向に連続する空間 方向 Yの混合比の変化は、 それぞれ、 空間方向 X= 563の場合、 混合比は、 空 間方向 Y= 660付近で立ち上がり、 Υ= 68 5付近でピークとなり、 Υ= 71 0まで減少する。 また、 空間方向 Χ= 56 2の場合、 混合比は、 空間方向 Υ=6 80付近で立ち上がり、 Υ= 70 5付近でピークとなり、 Υ= 7 3 5まで減少す る。 さらに、 空間方向 Χ= 5 6 1の場合、 混合比は、 空間方向 Υ= 70 5付近で 立ち上がり、 Υ= 725付近でピークとなり、 Υ= 755まで減少する。
このように、 図 9 7 Βで示されるように、 連続する空間方向 Xのそれぞれの混 合比の変化は、 混合比により変化する画素値の変化 (図 72 Βで示した画素値の 変化) と同様の変化であり、 周期的に連続していることから、 細線近傍の画素の 混合比が正確に表現されていることが分かる。
また、 同様にして、 図 98 Αで示される画像中の白線内の 2値エッジの画像に ついて、 所定の空間方向 X (= 6 58, 6 59, 660) 上の混合比の変化が、 図 98 Bに示されている。 図 98 Bで示されるように、 水平方向に連続する空間 方向 Yの混合比の変化は、 それぞれ、 空間方向 X= 660の場合、 混合比は、 空 間方向 Y= 750付近で立ち上がり、 Υ = 765付近でピークとなる。 また、 空 間方向 Χ= 65 9の場合、 混合比は、 空間方向 Υ= 760付近で立ち上がり、 Υ = 7 7 5付近でピークとなる。 さらに、 空間方向 X= 6 5 8の場合、 混合比は、 空間方向 Y = 7 70付近で立ち上がり、 Υ = 7 8 5付近でピークとなる。
このように、 図 9 8 Βで示されるように、 2値エッジの混合比の変化は、 混合 比により変化する画素値の変化 (図 8 4 Βで示した画素値の変化) と同様の変化 とほぼ同様であり、 周期的に連続していることから、 2値エッジ近傍の画素値の 混合比が正確に表現されていることが分かる。
以上によれば、 最小自乗法により統計的にデータ定常性情報として、 各画素の 混合比を求めることが可能となる。 さらに、 この混合比に基づいて、 各画素の画 素値を直接生成することが可能となる。
また、 混合比の変化が、 定常性を有するものであり、 さらに、 この混合比の変 化が直線的なもので近似すると、 以下の式 (4 7) で示されるような関係が成立 する。
0? =m X y + n
• · · (4 7) ここで、 mは、 混合比 力 空間方向 Yに対して変化するときの傾きを示し、 また、 nは、 混合比 が直線的に変化するときの切片に相当するものである。 すなわち、 図 9 9で示されるように、 混合比を示す直線は、 背景領域のレベル に相当する画素値 Bと、 細線のレベルに相当するレベル Lの境界を示す直線であ り、 この場合、 空間方向 Yについて単位距離進んだときの混合比の変化量が傾き mとなる。
そこで、 式 (4 7) を、 式 (4 2) に代入すると以下の式 (4 8) が導出され る。
M= (m X y + n) x B + (1— (m x y + n) ) x L
• · · (4 8) さらに、 この式 (4 8) を展開すると、 以下の式 (4 9) が導出される。
M— L= (y XB— y XL) Xm+ (B— L) x n
- - - (4 9) 式 (4 9 ) においては、 第 1項の mが、 混合比の空間方向の傾きを示し、 第 2 項が混合比の切片を示す項である。 従って、 上述の式 (4 9 ) の m, nを 2変数 の最小自乗法を用いて、 正規方程式を生成し、 求めるようにすることもできる。 しかしながら、 混合比 の傾き mは、 上述した細線や 2値ェッジの傾き (上 述の傾き G f) そのものであるので、 予め、 上述の方法を用いて、 細線、 または、 2値ェッジの傾き G fを求めた後、 その傾きを用いて、 式 ( 4 9 ) に代入するこ とにより、 切片の項についての 1変数の関数とし、 上述した手法と同様に、 1変 数の最小自乗法により求めるようにしてもよい。
以上の例においては、 空間方向の細線、 または、 2値エッジの角度 (傾き) 、 または、 混合比をデータ定常性情報として検出するデータ定常性検出部 1 0 1に ついて説明してきたが、 例えば、 空間内の軸 (空間方向 X , Y ) のいずれかを、 時間方向 (フレーム方向) τの軸に置き換えることにより得られる、 空間方向に おける角度に対応するものであってもよい。 すなわち、 空間内の軸 (空間方向 X, Y) のいずれかを、 時間方向 (フレーム方向) Tの軸に置き換えることにより得 られる角度に対応するものとは、 物体の動きべク トル (動きべクトルの方向) で める。
より具体的には、 図 1 0 0 Aで示すように、 物体が、 時間が進むにつれて空間 方向 Yについて、 図中の上方向に移動している場合、 図中の細線に相当する部分 (図 7 O Aとの比較) には、 物体の移動の軌跡が現れることになる。 従って、 時 間方向 Tの細線における傾きは、 図 1 0 O Aにおいては、 物体の動く方向 (物体 の動きを示す角度) を示すもの (動きベク トルの方向と同値のもの) である。 従 つて、 現実世界において、 図 1 0 O A中の矢印で示される、 所定の時刻における フレームでは、 図 1 0 0 Bで示すように物体の軌跡となる部分が、 物体の (色 の) レベルとなり、 それ以外の部分が、 背景のレベルとなつたパルス状の波形と なる。
このように、 センサにより動きのある物体を撮像したした場合、 図 1 0 1 Aで 示されるように、 時刻 T 1乃至 T 3におけるフレームの各画素の画素値の分布は、 図 1 0 1 Bで示されるように、 空間方向 Yに対して、 それぞれ山型の波形をとる。 この関係は、 図 7 1 A , 図 7 1 Bを参照して、 説明した空間方向 X, Yにおける 関係と同様であるものと考えることができる。 従って、 フレーム方向 Tに対して、 物体に動きがある場合、 上述した細線の傾き、 または、 2値エッジの角度 (傾 き) の情報と同様の手法により、 物体の動きべク トルの方向をデータ定常性情報 として求めることも可能である。 尚、 図 1 0 1 Bにおいては、 フレーム方向 T
(時間方向 T ) について、 各マス目は、 1 フレームの画像を構成するシャツタ時 間となる。
また、 同様にして、 図 1 0 2 Aで示されるように、 フレーム方向 T毎に、 空間 方向 Yについて物体に動きがある場合、 図 1 0 2 Bで示されるように、 所定の時 刻 T 1に相当するフレーム上で空間方向 Yに向けて、 物体の動きに対応して、 各 画素値が得られることになる。 このとき、 例えば、 図 1 0 2 Bにおける、 黒の実 線で囲まれた画素の画素値は、 図 1 0 2 Cで示されるように、 物体の動きに対応 して、 背景のレベルと物体のレベルがフレーム方向に混合比 で混合している 画素値である。
この関係は、 図 9 4 A, 図 9 4 B , 図 9 4 Cを参照して説明した関係と同様で ある。
さらに、 図 1 0 3で示されるように、 物体のレベル Oと背景のレベル Bとは、 フレーム方向 (時間方向) の混合比 S により直線近似することも可能である。 個の関係は、 図 9 9を参照して説明した空間方向の混合比の直線近似と同様の関 係である。
従って、 空間方向の混合比 と同様の手法により、 時間 (フレーム) 方向の 混合比 をデータ定常性情報として求めることも可能である。
また、 フレーム方向、 または、 空間方向のいずれか 1次元を選択して、 定常性 の角度、 または、 動きべク トルの方向を求めるようにしてもよいし、 同様にして 混合比 び, β を選択的に求めるようにしてもよい。 以上によれば、 現実世界の光信号を射影し、 現実世界の光信号の定常性の一部 が欠落した画像データ内の注目画素に対応する領域を選択し、 選択した領域内の、 欠落した現実世界の光信号の定常性に対応する画像データの定常性の基準軸に対 する角度を検出するための特徴を検出し、 検出した特徴に基づいて統計的に角度 を検出し、 検出した画像データの定常性の基準軸に対する角度に基づいて、 欠落 した現実世界の光信号の定常性を推定することにより光信号を推定するようにし たので、 定常性の角度 (動きべク トルの方向) 、 または、 (時空間の) 混合比を 求めることが可能となる。
以上のように、 データ定常性検出部 1 0 1は、 注目画素に対応する、 入力画像 の複数の周辺画素の、 現実世界の光信号の定常性に対応するデータの定常性を検 出する。
図 6に戻り、 ステップ S 1 0 1において、 データ定常性検出部 1 0 1により検 出されるデータの定常性は、 入力画像に含まれる、 実世界の画像の定常性の一部 であるか、 または、 実世界の信号の定常性から変化してしまった定常性である。 例えば、 データ定常性検出部 1 0 1は、 同様の形状の並び方を示す、 空間方向 の角度 (傾き) を検出することにより、 データの定常性を検出する。
なお、 データ定常性情報は、 データの特徴'を示す特徴量として利用することが できる。
ステップ S 1 0 2において、 クラスタップ抽出部 1 0 2は、 創造しようとする H D画像の注目している H D画素である注目画素を選択する。 クラスタップ抽出 部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に基づ いて、 注目画素に対応する、 入力画像の複数の周辺画素を抽出し、 抽出した入力 画像の複数の周辺画素をクラスタップとする。 クラスタップは、 特徴量検出部 1 0 3に供給され、 手続は、 ステップ S 1 0 3に進む。 例えば、 クラスタップ抽出 部 1 0 2は、 データ定常性検出部 1 0 1により検出されたデータの定常性に基づ いて、 注目画素の位置に空間的または時間的に近い複数の画素値を入力画像から クラスタップとして抽出して、 クラスタップを生成する。 次に、 図 1 0 4乃至図 1 0 8を参照して、 クラスタップ抽出部 1 0 2による、 データの定常性に基づいた、 注目画素に対応する、 入力画像の複数の周辺画素の 抽出の処理について説明する。
図 1 0 4は、 従来の時間方向により高解像度の画像のフレームを創造するクラ フ、分類適応処理における、 動きべク トル Vを基にした、 クラスタップの抽出の処 理を説明する図である。
図 1 0 4において、 横方向は、 画像の空間方向を示し、 縦方向は、 時間方向を 示す。 フレーム # 1は、 フレーム # 0の次のフレーム、 すなわちフレーム # 0に 対して時間的に後のフレームである。 注目フレームは、 フレーム # 0およびフレ ーム # 1の間に配置される。
図 1 0 4において、 黒丸は、 注目画素を示し、 白丸は、 抽出される周辺画素を 示す。
従来のクラス分類適応処理において、 注目画素に対応する動きべク トル Vが検 出され、 検出された動きベク トル Vが、 注目画素を通過し、 始点がフレーム # 0 に位置し、 終点がフレーム # 1に位置するように配置される。 そして、 配置され た動きべクトル Vの始点に位置する画素 x (2)、 動きべクトル Vの終点に位置する 画素 x (5)が、 クラスタップとして抽出される。
さらに、 従来のクラス分類適応処理において、 画素 χ (2)に隣接する、 フレーム # 0の画素 χ ωおよび画素 x (3)が、 クラスタップとして抽出され、 画素 x (5)に隣 接する、 フレーム # 1の画素 x (4)および画素 x (6)が、 クラスタップとして抽出さ れる。
図 1 0 5は、 本発明の画像処理装置における、 データの定常性の方向 Cを基に した、 クラスタップの抽出の処理を説明する図である。
以下の説明において、 画素の単位は、 入力画像における画素を基準とする。 なお、 図 1 0 5の上側において、 空間方向 Yの座標値が増加し (プラス側) 、 図 1 0 5の下側において、 空間方向 Yの座標値が減少する (マイナス側) 。 また、 図 105の右側において、 空間方向 Xの座標値が増加し (プラス側) 、 図 1 0 5 の左側において、 空間方向 Xの座標値が減少する (マイナス側) 。
図 1 05で示されるデータの定常性の方向 Cにおいて、 空間方向 Xに 1画素の 距離に対する空間方向 Yの変化量は、 3. 25画素である。
例えば、 データの定常性を有する領域に属する注目画素 (図中黒丸で示す) に 対して、 空間方向 Xに一 0. 25画素および空間方向 Yに一 0. 75画素の画素 x(5)、 空間方向 Xに— 0. 25画素および空間方向 Yに + 0. 25画素の画素 X ")、並びに空間方向 Xに一 0. 2 5画素および空間方向 Yに一 1. 75画素の 画素 X (6)がクラスタップとして抽出される。
また、 データの定常性を有する領域に属する注目画素に対して、 空間方向 に + 0. 75画素および空間方向 Yに + 2. 75画素の画素 x(2)、 空間方向 Xに + 0. 75画素および空間方向 Yに + 3. 7 5画素の画素 x(1)、 並びに空間方向 X に +0. 7 5画素および空間方向 Yに + 1. 75画素の画素 X (3)がクラスタップ として抽出される。
さらに、 データの定常性を有する領域に属する注目画素に対して、 空間方向 X に一 1. 25画素および空間方向 Yに _ 3. 75画素の画素 X (8)、 空間方向 Xに 一 1. 25画素および空間方向 Yに一 2. 75画素の画素 x(7)、 並びに空間方向 Xに一 1. 25画素および空間方向 Yに一 4. 75画素の画素 X (9)がクラスタツ プとして抽出される。
図 106および図 107を参照して、 データの定常性に基づく、 クラスタップ として抽出される画素の位置の決定について説明する。
図 1 06および図 10 7において、 X印は、 HD画素を示し、 丸印は、 SD画 素を示す。
以下、 注目画素などの所定の基準位置から、 空間方向 Xに a画素および空間方 向 Yに b画素の位置を、 (a, b) で表す。
例えば、 注目画素の対応する位置の入力画素 (対応画素) が含まれる空間方向 Yに 1列の画素であって、 対応画素から定まる中心画素を中心とし、 中心画素に 空間方向 Yに隣接する画素からなる 3つの周辺画素、 さらに 3つの周辺画素に空 間方向 Xに隣接する 6つの周辺画素の位置が基準として予め定められている。 なお、 周辺画素の基準の位置は、 空間方向 Xに 1画素おき、 または空間方向 Υ に 1画素おきなど、 任意に定めることができる。
対応画素は、 注目画素に対して、 空間方向 Xに一 0. 25画素乃至 + 0. 25 画素、 および空間方向 Υに一 0. 25画素乃至 + 0. 25画素の範囲に位置する。 中心画素は、 対応画素と同じである場合もあるが、 対応画素と同じでない場合 もある。 すなわち、 中心画素は、 対応画素と同じとは限らない。
例えば、 図 1 06に示すように、 注目画素である HD画素 yiの位置が、 対応 画素 xuを基準として (一 0. 25, + 0. 25) であるとき、 対応画素 X uか ら空間方向 Xに 1画素の位置の画素 χ12と、 注目画素 との空間方向 Xの距離 は、 1. 25画素、 すなわち 5Z4画素である。
データの定常性における、 空間方向 Xに 1画素の距離に対する空間方向 Yの変 化量が、 1画素であるとき (データの定常性の傾きが 1であるとき) 、 注目画素 yiから空間方向 Xに 1. 25画素であって、 空間方向 Yに 1. 25画素 (空間 方向 Xの距離 1. 25に傾き 1を乗算して得られた距離 1. 2 5) の位置に最も 近い入力画素、 例えば、 入力画素 x6がクラスタップとして選択される。
そして、 選択された入力画素 x6を基準として、 入力画素 x6に空間方向 Yに 1 列に並ぶ入力画素であって、 入力画素 x6に対して所定の位置にある入力画素が クラスタップとして選択される。 例えば、 選択された入力画素 x6に空間方向 Y に隣接する入力画素 χ3および入力画素 χ9がクラスタップとして選択される。 データの定常性における、 空間方向 Xに 1画素の距離に対する空間方向 Yの変 化量が、 2画素であるとき (データの定常性の傾きが 2であるとき) 、 図 1 06 に示すように、 注目画素 から空間方向 Xに 1. 25画素であって、 空間方向 Yに 2. 50画素 (空間方向 Xの距離 1. 25に傾き 2を乗算して得られた距離 2. 50) の位置に最も近い入力画素、 例えば、 入力画素 x3がクラスタップと して選択される。 そして、 選択された入力画素 x3を基準として、 入力画素 x3に空間方向 Yに 1 列に並ぶ入力画素であって、 入力画素 x3に対して所定の位置にある入力画素が クラスタップとして選択される。 例えば、 選択された入力画素 χ3に空間方向 Y に隣接する入力画素が選択される。 '
例えば、 図 1 0 6に示すように、 注目画素である HD画素 yiの位置が対応画 素 xuに対して (一0. 2 5 , + 0. 2 5 ) なので、 対応画素 xuと注目画素 y i との空間方向 Xの距離は、 0. 2 5画素、 すなわち 1, 4画素である。
データの定常性における、 空間方向 Xに 1画素の距離に対する空間方向 Yの変 化量が、 2画素であるとき (データの定常性の傾きが 2であるとき) 、 図 1 0 6 に示すように、 注目画素 yiから空間方向 Xに 0. 2 5画素であって、 空間方向 Yに 0. 5 0画素 (空間方向 Xの距離 0. 2 5に傾き 2を乗算して得られた距離 0. 5 0) の位置に最も近い入力画素、 例えば、 入力画素 Xllが中心画素として、 選択される。
そして、 例えば、 選択された入力画素 に空間方向 Yに隣接する入力画素 x8および入力画素 x14が選択される。
すなわち、 この場合、 対応画素と中心画素とは、 同じ画素となる。
データの定常性における、 空間方向 Xに 1画素の距離に対する空間方向 Yの変 化量が、 3. 2 5画素であるとき (データの定常性の傾きが 3. 2 5であると き) 、 図 1 0 6に示すように、 注目画素 yiから空間方向 Xに 0. 2 5画素であ つて、 空間方向 Yに 0. 8 1 2 5画素 (空間方向 Xの距離 0. 2 5に傾き 3. 2 5を乗算して得られた距離 0. 8 1 2 5) の位置に最も近い入力画素、 例えば、 入力画素 x14が中心画素として、 選択される。
そして、 例えば、 選択された入力画素 x14に空間方向 Yに隣接する入力画素 xuおよぴ入力画素 X 17が選択される。
すなわち、 この場合、 対応画素と中心画素とは、 異なる画素となる。
例えば、 図 1 0 7に示すように、 注目画素である HD画素 y2の位置が、 対応 画素 xuに対して (+ 0. 2 5, + 0. 2 5) であるとき、 対応画素 xuから空 間方向 Xに 1画素の位置の画素 x12と、 注目画素 y2との空間方向 Xの距離は、 0. 75画素、 すなわち 3Z4画素である。
データの定常性における、 空間方向 Xに 1画素の距離に対する空間方向 Yの変 化量が、 1画素であるとき (データの定常性の傾きが 1であるとき) 、 注目画素 y2から空間方向 Xに 0. 75画素であって、 空間方向 Yに 0. 75画素 (空間 方向 Xの距離 0. 75に傾き 1を乗算して得られた距離 0. 7 5) の位置に最も 近い入力画素、 例えば、 入力画素 x 9がクラスタップとして選択される。
そして、 選択された入力画素 x 9を基準として、 入力画素 χ 9に空間方向 Yに 1 列に並ぶ入力画素であって、 入力画素 X 9に対して所定の位置にある入力画素が クラスタップとして選択される。 例えば、 選択された入力画素 χ9に空間方向 Υ に隣接する入力画素 X 6および入力画素 X 12が選択される。
データの定常性における、 空間方向 Xに 1画素の距離に対する空間方向 Υの変 化量が、 2画素であるとき (データの定常性の傾きが 2であるとき) 、 図 1 07 に示すように、 注目画素 y2から空間方向 Xに 0. 75画素であって、 空間方向 Yに 1. 50画素 (空間方向 Xの距離 0. 75に傾き 2を乗算して得られた距離 1. 50) の位置に最も近い入力画素、 例えば、 入力画素 x 6がクラスタップと して選択される。
そして、 選択された入力画素 x6を基準として、 入力画素 χ6に空間方向 Yに 1 列に並ぶ入力画素であって、 入力画素 χ6に対して所定の位置にある入力画素が クラスタップとして選択される。 例えば、 選択された入力画素 χ6に空間方向 Υ に隣接する入力画素 X 3および入力画素 X 9が選択される。
このように、 注目画素に対する、 周辺画素の所定の方向の距離に、 データの定 常性の傾きを乗算することにより、 周辺画素の他の方向の距離を求めて、 データ の定常性の方向を基に、 クラスタップとして抽出される周辺画素の位置が特定さ れる。 このようにすることで、 データの定常性を有する周辺画素をクラスタップとし て選択できる。 これにより、 共通した特徴を有する周辺画素がクラスタップとし て選択されるので、 より適切にクラスを分類することができるようになる。
また、 本 ¾明の画像処理装置においては、 時空間方向のデータの定常性の方向 を検出し、 検出された時空間方向のデータの定常性の方向を基にして、 時空間方 向のクラスタップを抽出することができる。
図 1 0 8は、 本発明の画像処理装置における、 データ定常性検出部 1 0 1によ り検出された時空間方向のデータの定常性の方向 Cを基にした、 時空間方向のク ラスタップの抽出の処理を説明する図である。
図 1 0 8において、 入力画像に対して、 出力画像の一方の空間方向の画素の数 は 2倍であり、 出力画像の単位時間当たりのフレームの数は 2倍である。
図 1 0 8において、 過去の時刻が、 図中の左側の位置に対応し、 未来の時刻が、 図中の右側の位置に対応する。 図 1 0 8の上側において、 空間方向の座標値が増 加し (プラス側) 、 図 1 0 8の下側において、 空間方向の座標値が減少する (マ イナス側) 。
図 1 0 8において、 f-ぃ f。,: ^は、 入力画像のフレームを示し、
F— 2, F一い F。, Fい F2, F3は、 出力画像のフレームを示す。
図 1 0 8で示されるデータの定常性の方向 Cにおいて、 入力画像を基準として、 時間方向に 1フレームの距離に対する空間方向の変化量が、 3 . 2 5画素である。 例えば、 データの定常性を有する領域に属する注目画素 (図中黒丸で示す) に 対して、 時間方向に一 0 . 2 5フレームおよび空間方向に一 0 . 7 5画素の画素 x (5)、 時間方向に一 0 . 2 5フレームおよび空間方向に + 0 . 2 5画素の画素 χ ω、並びに時間方向に一 0 . 2 5フレームおよび空間方向に一 1 . 7 5画素の 画素 χ (6)がクラスタップとして抽出される。
データの定常性を有する領域に属する注目画素に対して、 時間方向に + 0 . 7 5フレームおよび空間方向に + 2 . 7 5画素の画素 χ (2)、 時間方向に + 0 . 7 5 フレームおよび空間方向に + 3 . 7 5画素の画素 (1)、 並びに時間方向に + 0 . 7 5フレームおよび空間方向に + 1 . 7 5画素の画素 x (3)がクラスタップとして 抽出される。
さらに、 データの定常性を有する領域に属する注目画素に対して、 時間方向に — 1 . 2 5フレームおよび空間方向に一 3 . 7 5画素の画素 x (8)、 時間方向に一 1 . 2 5フレームおよび空間方向に一 2 . 7 5画素の画素 x (7)、 並びに時間方向 に一 1 . 2 5フレームおよび空間方向に一 4 . 7 5画素の画素 X (9)がクラスタツ プとして抽出される。
時空間方向のデータの定常性の傾きを基に、 時空間方向にクラスタップを抽出 する処理は、 図 1 0 6および図 1 0 7を参照して説明した処理において、 空間方 向の一方を時間方向に置き換えたものと同様なので、 その説明は省略する。 時空間方向のデータの定常性の傾きを基に、 時空間方向にクラスタップを抽出 することにより、 時空間方向のデータの定常性を考慮したクラスタップを抽出す ることができるようになる。
図 6に戻り、 ステップ S 1 0 3において、 特徴量検出部 1 0 3は、 入力画像ま たはクラスタップから特徴量を検出して、 検出された特徴量をクラス分類部 1 0 4に供給すると共に、 クラスタップをクラス分類部 1 0 4に供給して、 ステップ S 1 0 4に進む。
ステップ S 1 0 4において、 クラス分類部 1 0 4は、 特徴量検出部 1 0 3から 供給される特徴量またはクラスタップに基づき、 1以上のクラスのうちのいずれ かのクラスに、 注目画素についてクラス分類を行い、 その結果得られる注目画素 のクラスを表すクラスコードを、 係数メモリ 1 0 5および予測タップ抽出部 1 0 6に供給して、 ステップ S 1 0 5に進む。
ステップ S 1 0 5において、 予測タップ抽出部 1 0 6は、 データ定常性検出部 1 0 1により検出されたデータの定常性に基づいて、 注目画素に対応する、 入力 画像の複数の周辺画素を抽出し、 抽出した入力画像の複数の周辺画素を予測タッ プとする。 予測タップ抽出部 1 0 6による予測タップの抽出の処理は、 クラスタップ抽出 部 1 0 2における処理と同様なので、 その詳細な説明は省略する。
このようにすることで、 データの定常性を有する周辺画素を予測タップとして 選択できる。 これにより、 共通した特徴を有する周辺画素が予測タップとして選 択されるので、 より精度良く、 またはより正確に画素値を予測することができる ようになる。
すなわち、 予測タップ抽出部 1 0 6は、 予測タップ抽出部 1 0 6は、 データ定 常性検出部 1 0 1により検出されたデータの定常性およびクラス分類部 1 0 4か ら供給されたクラスコードに基づいて、 注目画素の位置に空間的または時間的に 近い複数の画素値を入力画像から予測タップとして抽出して、 予測タップを生成 する。 予測タップは、 画素値予測部 1 0 7に供給され、 手続は、 ステップ S 1 0 6に進む。
ステップ S 1 0 6において、 係数メモリ 1 0 5は、 クラス分類部 1 0 4から供 給されるクラスコードに対応するァドレスに記憶されている予測係数 (タップ係 数) を読み出し、 これにより、 注目画素のクラスの予測係数を取得して、 予測係 数を画素値予測部 1 0 7に供給し、 ステップ S 1 0 7に進む。
ステップ S 1 0 7において、 画素値予測部 1 0 7は、 特徴量検出部 1 0 3によ り検出された特徴量に基づいて、 適応処理により、 予測タップ抽出部 1 0 6によ り抽出された複数の周辺画素から注目画素 (の予測値) を予測し、 ステップ S 1 0 8に進む。 すなわち、 ステップ S 1 0 7では、 画素値予測部 1 0 7は、 予測タ ップ抽出部 1 0 6からの予測タップと、 係数メモリ 1 0 5からの予測係数 (タツ プ係数) とを用いて、 式 (1 ) に示した演算を行い、 注目画素 (の予測値) を予 測する。
ステップ S 1 0 8において、 クラスタップ抽出部 1 0 2は、 H D画像の注目し ているフレームの画素のうち、 まだ、 注目画素としていない画素が存在するかど うかを判定し、 存在すると判定した場合、 ステップ S 1 0 2に戻り、 以下、 同様 の処理を繰り返す。 また、 ステップ S 1 0 8において、 注目フレームの画素のうち、 注目画素とし ていない画素が存在しないと判定された場合、 即ち、 注目フレームを構成するす ベての H D画素が、 予測された場合、 画素値予測部 1 0 7は、 予測された画素か らなる出力画像を出力して、 処理は終了する。
このように、 図 5に構成を示す画像処理装置は、 入力画像から、 より高解像度 の出力画像を生成して、 生成した出力画像を出力することができる。
図 1 0 9乃至図 1 1 8は、 本発明に係る画像処理装置の処理結果の例を説明す る図である。
図 1 0 9は、 入力画像の例を示す図である。 図 1 1 0は、 入力画像の元になつ た画像 示す図である。 すなわち、 図 1 1 0で示される画像の 4画素の画素値の 平均から、 図 1 0 9で示される入力画像の画素値を計算した。
図 1 1 1は、 図 1 0 9で示される入力画像に、 従来のクラス分類適応処理を適 用することにより生成した画像を示す図である。
図 1 1 2は、 図 1 0 9で示される入力画像からデータの定常性の傾きを検出し、 データの定常性の傾きを基に、 対応画素と中心画素とが常に同じになるように、 クラスタップおよび予測タップを抽出して、 クラス分類し、 適応処理を適用する ことにより生成した画像を示す図である。
図 1 1 3は、 図 5で示される画像処理装置により、 図 1 0 9で示される入力画 像から生成された画像を示す図である。 すなわち、 図 1 1 3は、 入力画像からデ ータの定常性の傾きを検出し、 データの定常性の傾きを基に、 対応画素と中心画 素とが適宜異なるように、 クラスタップおょぴ予測タップを抽出して、 クラス分 類し、 適応処理を適用することにより生成された画像を示す図である。
図 1 1 4は、 入力画像の他の例を示す図である。 図 1 1 5は、 図 1 1 4で示さ れる入力画像の元になつた画像を示す図である。 すなわち、 図 1 1 5で示される 画像の 4画素の画素値の平均から、 図 1 1 4で示される入力画像の画素値を計算 した。 図 1 1 6は、 図 1 1 4で示される入力画像に、 従来のクラス分類適応処理を適 用することにより生成した画像を示す図である。
図 1 1 7は、 図 1 1 4で示される入力画像からデータの定常性の傾きを検出し、 データの定常性の傾きを基に、 対応画素と中心画素とが常に同じになるように、 クラスタツプぉよび予測タップを抽出して、 クラス分類し、 適応処理を適用する ことにより生成した画像を示す図である。
データの定常性の傾きを基に、 クラスタップおよび予測タップを抽出しても、 対応画素と中心画素とが常に同じになるようにした場合、 滑らかな画像を得るこ とはできない。 これは、 垂直方向に同じ波形を含むタップが抽出されてしまい、 水平方向に波形の変化がないとしてマッピングされた結果によるものと考えられ る。
図 1 1 8は、 図 5で示される画像処理装置により、 図 1 1 4で示される入力画 像から生成された画像を示す図である。 すなわち、 図 1 1 8は、 入力画像からデ ータの定常性の傾きを検出し、 データの定常性の傾きを墓に、 対応画素と中心画 素とが適宜異なるように、 クラスタップおよび予測タップを抽出して、 クラス分 類し、 適応処理を適用することにより生成された画像を示す図である。
図 5で示される画像処理装置により、 入力画像から生成された画像は、 従来の クラス分類適応処理を適用することにより生成された画像に比較して、 より滑ら かな画像であって、 元の画像により近い画像であることがわかる。 特に、 図 1 1 8で示される画像からわかるように、 本発明によれば、 2本線によるモアレ部分 の画像をほぼ完全に復元できる。
次に、 図 1 1 9は、 図 5の係数メモリ 1 0 5に記憶させるクラスごとのタップ 係数を求める学習を行う学習装置の一実施の形態の構成を示すプロック図である。 図 1 1 9の学習装置には、 タップ係数の学習用の画像 (教師画像) としての、 例えば H D画像が入力される。 学習装置に入力された入力画像は、 生徒画像生成 部 8 0 1および教師画素抽出部 8 0 9に供給される。 生徒画像生成部 8 0 1は、 入力された入力画像 (教師画像) から、 生徒画像で ある S D画像を生成し、 画像メモリ 8 0 2に供給する。 生徒画像生成部 8 0 1は、 例えば、 教師画像としての H D画像の水平方向または垂直方向に互いに隣接する 4つの H D画素の画素値の平均値を求めて S D画像の画素値とすることにより、 その教師画像としての H D画像に対応した生徒画像としての S D画像を生成する。 ここで、 S D画像は、 図 5の画像処理装置で処理対象となる S D画像に対応した 画質のものとする必要がある。 画像メモリ 8 0 2は、 生徒画像生成部 8 0 1から の生徒画像である S D画像を一時記憶する。
図 1 1 9で示される学習装置においては、 S D画像を生徒データとして、 タツ プ係数が生成される。
データ定常性検出部 8 0 3は、 図 5のデータ定常性検出部 1 0 1における場合 と同様に、 画像メモリ 8 0 2に記憶された生徒画像からデータの定常性を検出し て、 検出した定常性を示すデータ定常性情報をクラスタップ抽出部 8 0 4および 予測タップ抽出部 8 0 7に供給する。
データ定常性検出部 8 0 3の構成の詳細は、 データ定常性検出部 1 0 1と同様 なので、 その説明は省略する。
クラスタップ抽出部 8 0 4は、 図 5のクラスタップ抽出部 1 0 2における場合 と同様に、 画像メモリ 8 0 2に記憶された生徒画像である S D画像に対応する教 師画像としての H D画像に含まれる画素のうちの 1つの画素を、 順次、 注目画素 とする。
さらに、 クラスタツプ抽出部 8 0 4は、 データ定常性検出部 8 0 4により検出 されたデータの定常性に基づいて、 注目画素に対応する、 画像メモリ 8 0 2に記 憶された生徒画像の複数の周辺画素を抽出し、 抽出した生徒画像の複数の周辺画 素をクラスタップとする。 すなわち、 クラスタップ抽出部 8 0 4は、 データ定常 性検出部 8 0 3により検出されたデータの定常性に基づいて、 注目画素について のクラスタップを、 画像メモリ 8 0 2に記憶された S D画像から抽出し、 特徴量 検出部 8 0 5に供給する。 ここで、 クラスタップ抽出部 8 0 4は、 図 5のクラス タップ抽出部 1 0 2が生成するのと同一のタップ構造のクラスタップを生成する。 特徴量検出部 8 0 5は、 図 5の特徴量検出部 1 0 3と同様の処理で、 画像メモ リ 8 0 2から供給された生徒画像またはクラスタツプ抽出部 8 0 4から供給され たクラスタップから特徴量を検出して、 検出した特徴量をクラス分類部 8 0 6に 供給する。
例えば、 特徴量検出部 8 0 5は、 画像メモリ 8 0 2から供給された S D画像ま たはクラスタップ抽出部 8 0 4から供給されたクラスタップを基に、 S D画像の 画素の動きべク トルを検出して、 検出した動きべクトルを特徴量としてクラス分 類部 8 0 6に供給する。 また、 例えば、 特徴量検出部 8 0 5は、 S D画像または クラスタップを基に、 S D画像またはクラスタップの複数の画素の画素値の空間 的または時間的な変化を検出して、 検出した画素値の変化を特徴量としてクラス 分類部 8 0 6に供給する。
さらに、 例えば、 特徴量検出部 8 0 5は、 画像メモリ 8 0 2から供給された S D画像またはクラスタップ抽出部 8 0 4から供給されたクラスタップを基に、 ク ラスタップまたは S D画像の複数の画素の画素値の空間的な変化の傾きを検出し て、 検出した画素値の変化の傾きを特徴量としてクラス分類部 8 0 6に供給する。 なお、 特徴量検出部 8 0 5は、 特徴量検出部 1 0 3と同様に、 特徴量として、 画素値の、 ラプラシアン、 ソーベル、 または分散などを求めることができる。 すなわち、 特徴量検出部 8 0 5は、 図 5の特徴量検出部 1 0 3と同一の特徴量 を検出する。
特徴量検出部 8 0 5は、 特徴量とは別に、 クラスタップをクラス分類部 8 0 6 に供給する。
クラス分類部 8 0 6は、 図 5のクラス分類部 1 0 4と同様に構成され、 特徴量 検出部 8 0 5からの特徴量またはクラスタップに基づいて、 1以上のクラスのう ちのいずれかのクラスに注目画素をクラス分類し、 注目画素のクラスを表すクラ スコードを、 予測タップ抽出部 8 0 7および学習メモリ 8 1 0に供給する。 予測タップ抽出部 8 0 7は、 図 5の予測タップ抽出部 1 0 6と同様に構成され、 データ定常性検出部 8 0 3により検出されたデータの定常性に基づいて、 注目画 素に対応する、 生徒画像の複数の周辺画素を抽出し、 抽出した生徒画像の複数の 周辺画素を予測タップとする。 すなわち、 予測タップ抽出部 8 0 7は、 データ定 常性検出部 8 0 3により検出されたデータの定常性およびクラス分類部 8 0 6か ら供給されたクラスコードに基づいて、 注目画素についての予測タップを、 画像 メモリ 8 0 2に記憶された S D画像から抽出し、 足し込み演算部 8 0 8に供給す る。 ここで、 予測タップ抽出部 8 0 7は、 図 5の予測タップ抽出部 1 0 6が生成 するのと同一のタップ構造の予測タップを生成する。
教師画素抽出部 8 0 9は、 教師画像である入力画像 (HD画像) から、 注目画 素を教師データ (教師画素) として抽出して、 抽出した教師データを足し込み演 算部 8 0 8に供給する。 即ち、 教師画素抽出部 8 0 9は、 入力された学習用の画 像である HD画像を、 例えば、 そのまま教師データとする。 ここで、 図 5の画像 処理装置で得られる HD画像は、 図 1 1 9の学習装置で教師データとして用いら れる HD画像の画質に対応したものとなる。
足し込み演算部 8 0 8および正規方程式演算部 8 1 1は、 注目画素となってい る教師データと、 予測タップ抽出部 8 0 7から供給される予測タップとを用い、 教師データと生徒データとの関係を、 クラス分類部 8 0 6から供給されるクラス コードで示されるクラスごとに学習することにより、 クラスごとのタップ係数を 求める。
即ち、 足し込み演算部 8 0 8は、 予測タップ抽出部 8 0 7から供給される予測 タップ (SD画素) と、 注目画素となっている教師データである HD画素とを対 象とした、 式 (8) の足し込みを行う。
具体的には、 足し込み演算部 8 0 8は、 予測タップを構成する生徒データとし ての SD画素 xn,kを用い、 式 (8) の左辺の行列における SD画素どうしの乗 算 (xn,kxn',k) と、 サメーシヨン (∑) に相当する演算を行う。 さらに、 足し込み演算部 8 0 8は、 予測タップを構成する生徒データとしての SD画素 xn,kと、 注目画素となっている教師データである HD画素 ykを用い、 式 (8) の右辺のベク トルにおける S D画素 xn,kおよび HD画素 yk
乗算 n,kyk) と、 サメーシヨン (∑) に相当する演算を行う。
足し込み演算部 8 0 8は、 教師データとしての HD画像の画素すベてを注目画 素として、 上述の足し込みを行うことにより、 各クラスについて、 式 (8) に対 応した正規方程式をたてると、 その正規方程式を、 学習メモリ 8 1 0に供給する。 学習メモリ 8 1 0は、 足し込み演算部 8 0 8から供給された、 生徒データとし て SD画素、 教師データとして HD画素が設定された、 式 (8) に対応した正規 方程式を記憶する。
正規方程式演算部 8 1 1は、 学習メモリ 8 1 0から、 各クラスについての式 (8) の正規方程式を取得し、 例えば、 掃き出し法により、 その正規方程式を解 くことにより (クラスごとに学習し) 、 クラスごとのタップ係数を求めて出力す る。
すなわち、 足し込み演算部 8 0 8および正規方程式演算部 8 1 1は、 検出され た特徴量毎に、 抽出された複数の周辺画素から注目画素を予測する予測手段を学 習する。
この場合、 予測手段は、 複数の周辺画素から注目画素を予測する具体的手段で あり、 例えば、 クラス毎のタツプ係数により動作が規定される画素値予測部 1 0 7、 または画素値予測部 1 0 7における処理を言う。 複数の周辺画素から注目画 素を予測する予測手段を学習するとは、 例えば、 複数の周辺画素から注目画素を 予測する予測手段の実現 (構築) を可能にすることを意味する。
従って、 複数の周辺画素から注目画素を予測するための予測手段を学習すると は、 例えば、 クラス毎のタップ係数を得ることを言う。 クラス毎のタップ係数を 得ることにより、 画素値予測部 1 0 7、 または画素値予測部 1 0 7における処理 が具体的に特定され、 画素値予測部 1 0 7を実現し、 または画素値予測部 1 0 7 における処理を実行することができるようになるからである。 係数メモリ 8 1 2は、 正規方程式演算部 8 1 1が出力するクラスごとのタップ 係数を記憶する。
次に、 図 1 2 0のフローチャートを参照して、 図 1 1 9の学習装置において行 われる、 クラスごとのタップ係数を求める学習処理について説明する。
まず最初に、 ステップ S 8 0 1において、 生徒画像生成部 8 0 1は、 例えば、 H D画像である、 学習用の入力画像 (教師画像) を取得し、 画素を間引くことに より、 例えば、 S D画像である生徒画像を生成する。 例えば、 生徒画像生成部 8 0 1は、 H D画像の水平方向または垂直方向に互いに隣接する 4つの H D画素の 画素値の平均値を求めて、 平均値を S D画像の画素値とすることにより、 S D画 像を生成する。 S D画像は、 画像メモリ 8 0 2に供給される。
ステップ S 8 0 2において、 データ定常性検出部 8 0 3は、 図 5のデータ定常 性検出部 1 0 1における場合と同様に、 画像メモリ 8 0 2に記憶された生徒画像 からデータの定常性を検出して、 検出した定常性を示すデータ定常性情報をクラ スタップ抽出部 8 0 4および予測タップ抽出部 8 0 7に供給し、 ステップ S 8 0 3に進む。
ステップ S 8 0 2における、 データの定常性の検出の処理の詳細は、 ステップ S 1 0 1における処理と同様なので、 その詳細の説明は省略する。
そして、 ステップ S 8 0 3に進み、 クラスタップ抽出部 8 0 4は、 教師データ としての H D画像の H D画素の中から、 まだ注目画素としていないもののうちの 1つを注目画素として選択する。 クラスタップ抽出部 8 0 4は、 図 5のクラスタ ップ抽出部 1 0 2における場合と同様に、 ステップ S 8 0 2の処理において検出 されたデータの定常性に基づいて、 注目画素に対応する、 画像メモリ 8 0 2に記 憶された生徒画像の複数の周辺画素を抽出し、 抽出した生徒画像の複数の周辺画 素をクラスタップとする。
すなわち、 クラスタップ抽出部 8 0 4は、 データ定常性検出部 8 0 3により検 出されたデータの定常性に基づいて、 注目画素についてのクラスタップを、 画像 メモリ 8 0 2に記憶された S D画像から抽出し、 特徴量検出部 8 0 5に供給する。 クラスタップ抽出部 8 0 4は、 クラスタップを特徴量検出部 8 0 5に供給して、 ステップ S 8 0 4に進む。
ステップ S 8 0 4において、 特徴量検出部 8 0 5は、 図 5の特徴量検出部 1 0
3における場合と同様に、 ステップ S 8 0 1の処理において生成された生徒画像 またはステップ S 8 0 3の処理において抽出されたクラスタップから、 例えば、 動きべクトル、 または S D画像の画素の画素値の変化などの特徴量を検出して、 検出した特徴量をクラス分類部 8 0 6に供給し、 ステップ S 8 0 5に進む。 ステップ S 8 0 5では、 クラス分類部 8 0 6が、 図 5のクラス分類部 1◦ 4に おける場合と同様にして、 特徴量検出部 8 0 5からの特徴量またはクラスタップ を用いて、 1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類し その注目画素のクラスを表すクラスコードを、 予測タップ抽出部 8 0 7および学 習メモリ 8 1 0に供給して、 ステップ S 8 0 6に進む。
ステップ S 8 0 6において、 予測タップ抽出部 8 0 7は、 図 5の予測タップ抽 出部 1 0 6における場合と同様に、 データ定常性検出部 8 0 3により検出された データの定常性に基づいて、 注目画素に対応する、 生徒画像の複数の周辺画素を 抽出し、 抽出した生徒画像の複数の周辺画素を予測タップとする。 すなわち、 予 測タップ抽出部 8 0 7は、 データ定常性検出部 8 0 3により検出されたデータの 定常性おょぴクラス分類部 8 0 6から供給されるクラスコードに基づいて、 注目 画素に対応する予測タップを、 画像メモリ 8 0 2に記憶されている生徒画像とし ての S D画像から抽出し、 足し込み演算部 8 0 8に供給して、 ステップ S 8 0 7 に進む。
ステップ S 8 0 7において、 教師画素抽出部 8 0 9は、 注目画素、 すなわち H D画素である教師画素 (教師データ) を入力画像から抽出し、 抽出した教師画素 を足し込み演算部 8 0 8に供給し、 ステップ S 8 0 8に進む。
ステップ S 8 0 8では、 足し込み演算部 8 0 8が、 予測タップ抽出部 8 0 7か ら供給される予測タップ (生徒データ) 、 および教師画素抽出部 8 0 9から供給 される教師画素 (教師データ) を対象とした、 上述した式 (8 ) における足し込 みを行い、 生徒データおよび教師データが足し込まれた正規方程式を学習メモリ 8 1 0に記憶させ、 ステップ S 8 0 9に進む。
そして、 ステップ S 8 0 9では、 クラスタツプ抽出部 8 0 4は、 教師データと しての H D画像の H D画素の中に、 まだ注目画素としていないものがあるかどう か、 すなわち対象となる全画素の足し込みを終了したか否かを判定する。 ステツ プ S 8 0 9において、 教師データとしての H D画像の H D画素の中に、 まだ注目 画素としていないものがあると判定された場合、 ステップ S 8 0 3に戻り、 以下、 同様の処理が繰り返される。
また、 ステップ S 8 0 9において、 教師データとしての H D画像の H D画素の 中に、 注目画素としていないものがない、 すなわち対象となる全画素の足し込み を終了したと判定された場合、 ステップ S 8 1 0に進み、 正規方程式演算部 8 1 1は、 いままでのステップ S 8 0 8における足し込みによって、 クラスごとに得 られた式 (8 ) の正規方程式から、 まだタップ係数が求められていないクラスの 正規方程式を、 学習メモリ 8 1 0から読み出し、 読み出した式 (8 ) の正規方程 式を掃き出し法などで解くことにより (クラス毎に学習し) 、 所定のクラスの予 測係数 (タップ係数) を求め、 係数メモリ 8 1 2に供給する。 係数メモリ 8 1 2 は、 正規方程式演算部 8 1 1から供給された所定のクラスの予測係数 (タップ係 数) を、 クラス毎に記憶し、 ステップ S 8 1 1に進む。
すなわち、 ステップ S 8 0 8およびステップ S 8 1 0において、 特徴量検出部 8 0 5により検出された特徴量毎に、 予測タップ抽出部 8 0 7により抽出された 複数の周辺画素から注目画素を予測するための予測手段が学習される。
ステップ S 8 1 1において、 正規方程式演算部 8 1 1は、 全クラスの予測係数 の演算を終了したか否かを判定し、 全クラスの予測係数の演算を終了していない と判定された場合、 ステップ S 8 1 0に戻り、 次のクラスの予測係数を求める処 理を繰り返す。
ステップ S 8 1 1において、 全クラスの予測係数の演算を終了したと判定され た場合、 処理は終了する。 以上のようにして、 係数メモリ 8 1 2に記憶されたクラスごとの予測係数が、 図 5の画像処理装置における係数メモリ 1 0 5に記憶されている。
なお、 以上のような予測係数 (タップ係数) の学習処理において、 用意する学 習用の画像等によっては、 タップ係数を求めるのに必要な数の正規方程式が得ら れなぃクラスが生じる場合があり得るが、 そのようなクラスについては、 例えば、 正規方程式演算部 8 1 1において、 デフオルトのタップ係数を出力するようにす ること等が可能である。 あるいは、 タップ係数を求めるのに必要な数の正規方程 式が得られないクラスが生じた場合には、 新たに学習用の画像を用意して、 再度、 タップ係数の学習を行うようにしても良い。 このことは、 後述する学習装置にお けるタップ係数の学習についても、 同様である。
図 1 2 1は、 本発明に係る画像処理装置の一実施の形態の他の構成を示すプロ ック図である。
図 1 2 1で構成が示される画像処理装置は、 入力画像を取得し、 入力された入 力画像に対して、 画面の水平方向に 2倍の解像度の画像 (以下、 水平倍密画像と 称する) を創造して出力する。
図 1 2 1で示される画像処理装置においては、 例えば、 入力画像の一例である S D画像が入力'され、 入力された S D画像からデータの定常性が検出され、 検出 されたデータの定常性を基に、 S D画像に対して、 クラス分類適応処理が施され ることにより、 水平倍密画像の画素 (以下、 水平倍密画素と称する) が創造され ると共に、 データの定常性を利用せずに、 S D画像に対して、 クラス分類適応処 理が施されることにより、 水平倍密画素が創造される。 そして、 S D画像に対す る、 データの定常性を基に創造された水平倍密画素の積分特性が判定され、 判定 結果を基に、 データの定常性を基に創造された水平倍密画素およびデータの定常 性を利用せずに創造された水平倍密画素のいずれか一方が選択され、 選択された 水平倍密画素で水平倍密画像である出力画像が合成され、 合成された出力画像が 出力される。 すなわち、 図 1 2 1で構成が示される画像処理装置においては、 データ定常性 検出部 9 0 1、 クラスタップ抽出部 9 0 2、 特徴量検出部 9 0 3、 クラス分類部 9 0 4、 係数メモリ 9 0 5、 予測タップ抽出部 9 0 6、 画素値予測部 9 0 7、 積 分特性判定部 9 0 8、 画像合成部 9 0 9、 クラスタツプ抽出部 9 1 0、 特徴量検 出部 9 1 1、 クラス分類部 9 1 2、 係数メモリ 9 1 3、 予測タップ抽出部 9 1 4 および画素値予測部 9 1 5が設けられている。
入力画像は、 データ定常性検出部 9 0 1、 クラスタップ抽出部 9 0 2、 特徴量 検出部 9 0 3、 予測タップ抽出部 9 0 6、 積分特性判定部 9 0 8、 クラスタップ 抽出部 9 1 0、 特徴量検出部 9 1 1、 および予測タップ抽出部 9 1 4に供給され る。
データ定常性検出部 9 0 1は、 入力画像からデータの定常性を検出して、 検出 した定常性を示すデータ定常性情報をクラスタップ抽出部 9 0 2および予測タッ プ抽出部 9 0 6に供給する。 データ定常性情報は、 例えば、 データの定常性を有 する画素の領域の方向 (時間方向および空間方向の角度または傾き) (以下、 デ —タの定常性の方向とも称する。 ) を含む。
データ定常性検出部 9 0 1は、 データ定常性検出部 1 0 1と同様に構成され、 その詳細な説明は省略する。 データ定常性検出部 9 0 1によるデータの定常性の 検出の処理は、 データ定常性検出部 1 0 1における場合と同様なので、 その説明 は省略する。
クラスタップ抽出部 9 0 2は、 クラス分類適応処理により求めようとする水平 倍密画像の水平倍密画素のうちの 1つを、 順次、 注目画素とする。 そして、 クラ スタップ抽出部 9 0 2は、 データ定常性検出部 9 0 1により検出されたデータの 定常性に基づいて、 注目画素に対応する、 入力画像の複数の周辺画素を抽出し、 抽出した入力画像の複数の周辺画素をクラスタップとする。 すなわち、 クラスタ ップ抽出部 9 0 2は、 データ定常性検出部 9 0 1により検出されたデータの定常 性に基づいて、 注目画素についてのクラス分類に用いるクラスタップを、 入力画 像から抽出し、 抽出したクラスタップを特徴量検出部 9 0 3に出力する。 例えば、 クラスタップ抽出部 9 0 2は、 データの定常性に基づいて、 注目画素 の位置から空間的または時間的に近い位置にある複数の画素を、 入力された入力 画像から抽出することによりクラスタップとし、 特徴量検出部 9 0 3に出力する。 なお、 データ定常性検出部 9 0 1、 クラスタップ抽出部 9 0 2、 および予測タ ップ抽出部 9 0 6は、 データ定常性検出部 1 0 1、 クラスタップ抽出部 1 0 2、 および予測タップ抽出部 1 0 6における場合と同様にフレームメモリを設けるこ とができる。
また、 図 1 2 1で示される画像処理装置においても、 入力側に 1つのフレーム メモリを設けるようにしてもよい。
例えば、 クラスタップ抽出部 9 0 2は、 データ定常性検出部 9 0 1により検出 されたデータの定常性に基づいて、 注目画素について、 注目画素の位置から近い 横 X縦が 3 X 3個の画素を入力画像から抽出することによりクラスタップとする。 クラスタップ抽出部 9 0 2は、 抽出されたクラスタップを、 特徴量検出部 9 0 3に供給する。
クラスタツプ抽出部 9 0 2によるクラスタツプの抽出の処理は、 クラスタップ 抽出部 1 0 2における場合と同様なので、 その詳細な説明は省略する。
特徴量検出部 9 0 3は、 クラスタップ抽出部 9 0 2から供給されたクラスタツ プまたは入力画像から特徴量を検出して、 検出した特徴量をクラス分類部 9 0 4 に供給する。
例えば、 特徴量検出部 9 0 3は、 クラスタップ抽出部 9 0 2から供給されたク ラスタップまたは入力画像を基に、 入力画像の画素の動きべク トルを検出して、 検出した動きベク トルを特徴量としてクラス分類部 9 0 4に供給する。 また、 例 えば、 特徴量検出部 9 0 3は、 クラスタップまたは入力画像を基に、 クラスタツ プまたは入力画像の複数の画素の画素値の空間的または時間的な変化 (ァクティ ビティ) を検出して、 検出した画素値の変化を特徴量としてクラス分類部 9 0 4 に供給する。 さらに、 例えば、 特徴量検出部 9 0 3は、 クラスタップ抽出部 9 0 2から供給 されたクラスタップまたは入力画像を基に、 クラスタップまたは入力画像の複数 の画素の画素値の空間的な変化の傾きを検出して、 検出した画素値の変化の傾き を特徴量としてクラス分類部 9 0 4に供給する。
なお、 特徴量として、 画素値の、 ラプラシアン、 ソ一ベル、 または分散などを 採用することができる。
特徴量検出部 9 0 3は、 特徴量とは別に、 クラスタップをクラス分類部 9 0 4 に供給する。
クラス分類部 9 0 4は、 特徴量検出部 9 0 3からの特徴量またはクラスタップ に基づいて、 1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類 し、 その結果得られる注目画素のクラスに対応するクラスコードを、 係数メモリ
9 0 5と予測タップ抽出部 9 0 6とに供給する。
クラス分類部 9 0 4は、 クラス分類部 1 0 4と同様の処理でクラスコードを生 成するので、 その詳細な説明は省略する。
係数メモリ 9 0 5は、 学習の教師となる、 出力画像の一例である水平倍密画像 の水平倍密画素である教師データと、 学習の生徒となる、 入力画像の一例である S D画像の画素値である生徒データとの関係を、 1以上のクラスごとに学習する ことにより得られたタツプ係数を記憶している。 そして、 係数メモリ 9 0 5は、 クラス分類部 9 0 4から注目画素のクラスコ一ドが供給されると、 そのクラスコ 一ドに対応するァドレスに記憶されているタップ係数を読み出すことにより、 注 目画素のクラスのタップ係数を取得し、 画素値予測部 9 0 7に供給する。
なお、 係数メモリ 9 0 5に記憶されるタップ係数は、 図 1 1 9で構成が示され る学習装置または図 1 2 0のフローチャートを参照して説明した学習の処理によ り学習される。 この場合において、 図 1 1 9で構成が示される学習装置には、 入 力画像として水平倍密画像が入力され、 生徒画像生成部 8 0 1は、 水平倍密画像 から S D画像を生成する。 同様に、 ステップ S 8 0 1においては、 入力画像であ る水平倍密画像から S D画像が生成される。 予測タップ抽出部 9 0 6は、 データ定常性検出部 9 0 1により検出されたデー タの定常性に基づいて、 注目画素に対応する、 入力画像の複数の周辺画素を抽出 し、 抽出した入力画像の複数の周辺画素を予測タップとする。 すなわち、 予測タ ップ抽出部 9 0 6は、 データ定常性検出部 9 0 1により検出されたデータの定常 性およびクラス分類部 9 0 4から供給されるクラスコードを基に、 画素値予測部
9 0 7において注目画素 (の予測値) を求めるのに用いる予測タップを入力画像 から抽出し、 抽出した予測タップを画素値予測部 9 0 7に供給する。
例えば、 予測タップ抽出部 9 0 6は、 データの定常性に基づいて、 注目画素の 位置から空間的または時間的に近い位置にある複数の画素値を、 入力画像から抽 出することにより予測タップとし、 画素値予測部 9 0 7に供給する。 例えば、 予 測タップ抽出部 9 0 6は、 データ定常性検出部 9 0 1により検出されたデータの 定常性に基づいて、 注目画素について、 注目画素の位置から近い横 X縦が 3 X 3 個の画素を、 入力画像から抽出することにより予測タップとする。
なお、 クラスタップとする画素値と、 予測タップとする画素値とは、 同一であ つても、 異なるものであってもよい。 即ち、 クラスタップと予測タップは、 それ ぞれ独立に構成 (生成) することが可能である。 また、 予測タップとする画素値 は、 クラス毎に異なるものであっても、 同一であってもよい。
なお、 クラスタップや予測タップのタップ構造は、 3 X 3個の画素値に限定さ れるものではない。
予測タップ抽出部 9 0 6による予測タップの抽出の処理は、 予測タップ抽出部
1 0 6における場合と同様なので、 その詳細な説明は省略する。
画素値予測部 9 0 7は、 係数メモリ 9 0 5から供給される、 注目画素のクラス についてのタップ係数 W l, w2, · · · と、 予測タップ抽出部 9 0 6からの予測 タップ (を構成する画素値) X l, x 2, ■ · · とを用いて、 式 (1 ) に示した積 和演算を行うことにより、 注目画素 y (の予測値) を予測し、 これを、 水平倍密 画素の画素値とする。 画素値予測部 9 0 7は、 演算された水平倍密画素の画素値 を積分特性判定部 9 0 8および画像合成部 9 0 9に供給する。 例えば、 クラスタップ抽出部 9 0 2は、 図 1 2 2で示される、 入力画像の対応 画素 X (5)に空間方向に包含される画素 y ωおよび画素 y (2)を注目画素とし、 画素 予測部 9 0 7は、 図 1 2 2で示される注目画素 y (1)の画素値および注目画素 y (2)の画素値を予測し、 予測した注目画素 y ωの画素値および注目画素 y (2)の画 素値を積分特性判定部 9 0 8および画像合成部 9 0 9に供給する。
積分特性判定部 9 0 8は、 画素値予測部 9 0 7により予測された第 1の注目画 素の第 1の予測値と、 画素値予測部 9 0 7により予測された、 第 1の注目画素に 空間的に隣接する出力画像の第 2の注目画素の第 2の予測値と、 少なくとも第 1 の注目画素と第 2の注目画素とを空間方向に対して包含する位置に配される入力 画像の対応画素の画素値との関係を検出する。
すなわち、 例えば、 積分特性判定部 9 0 8は、 図 1 2 2で示される注目画素 y (1)の予測値と、 注目画素 y (2)の予測値と、 注目画素 y (1)と注目画素 y (2)とを空 間方向に包含する位置に配される入力画像の対応画素 x (5)との関係を検出する。 ここで、 注目画素 y (1)と、 注目画素 y (2)と、 注目画素 y (1)および注目画素 y (2) を空間方向に包含する対応画素 x (5)との関係について説明する。
図 1 2 3は、 図 7に対応する、 CCDであるイメージセンサに設けられている画 素の配置、 および水平倍密画像の画素に対応する領域を説明する図である。 図 1 2 3中において、 A乃至 Iは、 個々の画素を示す。 領域 a乃至 rは、 画素 A乃至 Iの個々の画素を縦に半分にした受光領域である。 画素 A乃至 Iの受光領域の幅 力 2Lであるとき、 領域 a乃至 rの幅は、 Lである。 図 1 2 1に構成を示す画 像処理装置は、 領域 a乃至 rに対応する画素の画素値を算出する。
図1 2 4は、 領域 g乃至領域 1に入射される光に対応する画素の画素値を説 明する図である。 図 1 2 4の F (x)は、 空間上 (検出素子上) の空間方向 Xの座 標 Xを変数とする、 実世界の光の強度の分布を表す関数の例である。
1つの画素の画素値が、 F (x)の一様な積分で表されるとすれば、 領域 iに対 応する画素の画素値 Y1は、 式 (5 0 ) で表され、 領域 jに対応する画素の画素 値 Y2 は、 式 (5 1 ) で表され、 画素 E の画素値 Y3 は、 式 (5 2 ) で表される。
Figure imgf000157_0001
• · · (50)
Figure imgf000157_0002
• · · (5 1)
Figure imgf000157_0003
Y1 +Y2
" 2
• - · (5 2)
式 (50) 乃至式 (5 2) において、 xl, x2、 および x3は、 画素 Eの受光領 域、 領域 i、 および領域 jのそれぞれの境界の空間座標である。
式 (50) 乃至式 (5 2) における、 Y1および Y2は、 それぞれ、 図 1 2 1の 画像処理装置が求めようとする、 SD画像に対する水平倍密画像の水平倍密画素
(注目画素 y (1)または注目画素 y (2)) の画素値に対応する。 また、 式 (5 2) に おける、 Y3は、 水平倍密画像の水平倍密画素の画素値 Y1および Y2に対応する
SD画素 (対応画素) の画素値に対応する。
Y3を x(5)に、 Y1を y(1)に、 Y2を y (2)にそれぞれ置き換えると、 式 (5 2) か ら、 式 (5 3) を導くことができる。
x(s)=(y ω+y (2))/2 . . . (5 3) 積分特性判定部 908は、 図 1 1 2で示される注目画素 y (1)の予測値と、 注目 画素 y (2)の予測値と、 注目画素 y (1)およぴ注目画素 y (2)を空間方向に包含する位 置に配される入力画像の対応画素 X (5)とについて、 式 (5 3) が成立するか否か を判定する。 式 (5 3 ) が成立すれば、 注目画素 y (1)の予測値および注目画素 y (2)の予測値 は、 正しいと言える。 換言すれば、 式 (5 3 ) が成立していないとき、 注目画素 y (1)の予測の処理および注目画素 y (2)の予測の処理は、 破綻していると言える。 より詳しく説明すれば、 積分特性判定部 9 0 8は、 入力画像の対応画素 x (5)の 画素値から、 画素値予測部 9 0 7から供給された注目画素 y (1)の画素値 (の予測 値) および注目画素 y (2)の画素値 (の予測値) を減算する。 積分特性判定部 9 0 8は、 減算した結果と、 予め定めた閾値とを比較する。 積分特性判定部 9 0 8は、 減算した結果が閾値より小さいとき、 式 (5 3 ) の関係が成立していると判定し、 減算した結果が閾値以上であるとき、 式 ( 5 3 ) の関係が成立していないと判定 する。 積分特性判定部 9 0 8は、 判定の結果を示す積分特性判定情報を画像合成 部 9 0 9に供給する。
なお、 閾値は、 積分特性判定部 9 0 8において、 予め記憶するようにしてもよ く、 外部から積分特性判定部 9 0 8に供給するようにしてもよい。
クラスタップ抽出部 9 1 0は、 クラス分類適応処理により求めようとする水平 倍密画像の水平倍密画素のうちの 1つを、 順次、 注目画素とする。 クラスタップ 抽出部 9 1 0は、 クラスタップ抽出部 9 0 2により注目画素とされる画素を注目 画素とする。 すなわち、 クラスタップ抽出部 9 1 0およびクラスタップ抽出部 9 0 2は、 同じ画素を注目画素とする。
そして、 クラスタップ抽出部 9 1 0は、 注目画素に対応する、 入力画像の複数 の周辺画素を抽出し、 抽出した入力画像の複数の周辺画素をクラスタップとする。 すなわち、 クラスタップ抽出部 9 1 0は、 注目画素についてのクラス分類に用い るクラスタップを、 入力画像から抽出し、 抽出したクラスタップを特徴量検出部 9 1 1に出力する。
例えば、 クラスタップ抽出部 9 1 0は、 注目画素の位置から空間的または時間 的に近い位置にある複数の画素を、 入力された入力画像から抽出することにより クラスタップとし、 特徴量検出部 9 1 1に出力する。 なお、 クラスタップ抽出部 9 1 0および予測タップ抽出部 9 1 4は、 クラスタ ップ抽出部 1 0 2および予測タップ抽出部 1 0 6における場合と同様にフレーム メモリを設けることができる。
例えば、 図 1 2 2で示されるように、 クラスタツプ抽出部 9 1 0は、 注目画素 y (1)について、 注目画素の位置から近い横 X縦が 3 X 3個の画素 X ")乃至 x (9)を 入力画像から抽出することによりクラスタップとする。
クラスタップ抽出部 9 1 0は、 抽出されたクラスタップを、 特徴量検出部 9 1 1に供給する。
なお、 クラスタップ抽出部 9 1 0により抽出されるクラスタップは、 クラスタ ップ抽出部 9 0 2により抽出されるクラスタップと同一のものであっても異なる ものであってもよい。
特徴量検出部 9 1 1は、 クラスタップ抽出部 9 1 0から供給されたクラスタツ プまたは入力画像から特徴量を検出して、 検出した特徴量をクラス分類部 9 1 2 に供給する。
例えば、 特徴量検出部 9 1 1は、 クラスタップ抽出部 9 1 0から供給されたク ラスタップまたは入力画像を基に、 入力画像の画素の動きべク トルを検出して、 検出した動きべクトルを特徴量としてクラス分類部 9 1 2に供給する。 また、 例 えば、 特徴量検出部 9 1 1は、 クラスタップ抽出部 9 1 0から供給されたクラス タップまたは入力画像を基に、 クラスタップまたは入力画像の複数の画素の画素 値の空間的または時間的な変化 (アクティビティ) を検出して、 検出した画素値 の変化を特徴量としてクラス分類部 9 1 2に供給する。
さらに、 例えば、 特徴量検出部 9 1 1は、 クラスタップ抽出部 9 1 0から供給 されたクラスタップまたは入力画像を基に、 クラスタップまたは入力画像の複数 の画素の画素値の空間的な変化の傾きを検出して、 検出した画素値の変化の傾き を特徴量としてクラス分類部 9 1 2に供給する。
なお、 特徴量として、 画素値の、 ラプラシアン、 ソーベル、 または分散などを 採用することができる。 特徴量検出部 9 1 1は、 特徴量とは別に、 クラスタップをクラス分類部 9 1 2 に供給する。
クラス分類部 9 1 2は、 特徴量検出部 9 1 1からの特徴量またはクラスタップ に基づいて、 1以上のクラスのうちのいずれかのクラスに注目画素をクラス分類 し、 その結果得られる注目画素のクラスに対応するクラスコードを、 係数メモリ 9 1 3と予測タップ抽出部 9 1 4とに供給する。
係数メモリ 9 1 3は、 学習の教師となる、 出力画像の一例である水平倍密画像 の水平倍密画素である教師データと、 学習の生徒となる、 入力画像の一例である S D画像の画素値である生徒データとの関係を、 1以上のクラスごとに学習する ことにより得られたタップ係数を記憶している。 そして、 係数メモリ 9 1 3は、 クラス分類部 9 1 2から注目画素のクラスコードが供給されると、 そのクラスコ 一ドに対応するアドレスに記憶されているタップ係数を読み出すことにより、 注 目画素のクラスのタップ係数を取得し、 画素値予測部 9 1 5に供給する。
なお、 係数メモリ 9 1 3に記憶されるタップ係数の学習方法についての詳細は、 後述する。
予測タップ抽出部 9 1 4は、 注目画素に対応する、 入力画像の複数の周辺画素 を抽出し、 抽出した入力画像の複数の周辺画素を予測タップとする。 すなわち、 予測タップ抽出部 9 1 4は、 クラス分類部 9 1 2から供給されるクラスコードを 基に、 画素値予測部 9 1 5において注目画素 (の予測値) を求めるのに用いる予 測タップを入力画像から抽出し、 抽出した予測タップを画素値予測部 9 1 5に供 給する。
例えば、 予測タップ抽出部 9 1 4は、 クラス分類部 9 1 2から供給されるクラ スコードに基づいて、 注目画素の位置から空間的または時間的に近い位置にある 複数の画素値を、 入力画像から抽出することにより予測タップとし、 画素値予測 部 9 1 5に供給する。 例えば、 図 1 2 2で示されるように、 予測タップ抽出部 9
1 4は、 クラス分類部 9 1 2から供給されるクラスコードに基づいて、 注目画素 y ωについて、 注目画素の位置から近い横 x縦が 3 3個の画素 χ (1)乃至 χ (9)を 入力画像から抽出することにより予測タップとする。
なお、 クラスタップとする画素値と、 予測タップとする画素値とは、 同一であ つても、 異なるものであってもよい。 即ち、 クラスタップと予測タップは、 それ ぞれ独立に構成 (生成) することが可能である。 また、 予測タップとする画素値 は、 クラス毎に異なるものであっても、 同一であってもよい。
また、 クラスタップや予測タップのタップ構造は、 3 X 3個の画素値に限定さ れるものではない。
なお、 予測タップ抽出部 9 1 4により抽出される予測タップは、 予測タップ抽 出部 9 0 6により抽出される予測タップと同一のものであっても異なるものであ つてもよい。
画素値予測部 9 1 5は、 係数メモリ 9 1 3から供給される、 注目画素のクラス についてのタップ係数 W l, w2, ■ · · と、 予測タップ抽出部 9 1 4からの予測 タップ (を構成する画素値) X l, χ 2, · · · とを用いて、 式 (1 ) に示した積 和演算を行うことにより、 注目画素 y (の予測値) を予測し、 これを、 水平倍密 画素の画素値とする。 画素値予測部 9 1 5は、 演算された水平倍密画素の画素値 を画像合成部 9 0 9に供給する。
例えば、 クラスタップ抽出部 9 1 0は、 図 1 2 2で示される、 入力画像の対応 画素 X (5)に空間方向に包含される画素 y (1)および画素 y (2)を注目画素とし、 画素 値予測部 9 1 5は、 図 1 2 2で示される注目画素 y (1)の画素値およぴ注目画素 y (2)の画素値を予測し、 予測した注目画素 y (1)の画素値および注目画素 y (2)の画 素値を画像合成部 9 0 9に供給する。
画像合成部 9 0 9は、 積分特性判定部 9 0 8から供給された積分特性判定情報 を基に、 画素値予測部 9 0 7から供給された予測値および画素値予測部 9 1 5か ら供給された予測値のいずれか一方を選択して、 選択した予測値を画素値として 出力画像に設定することにより画像を合成する。 すなわち、 画像合成部 9 0 9は、 式 (5 3 ) の関係が成立していることを示す 積分特性判定情報が積分特性判定部 9 0 8から供給されたとき、 画素値予測部 9 0 7から供給された注目画素 y ωの予測値および注目画素 y (2)の予測値が正しい ので、 画素値予測部 9 0 7から供給された注目画素 y (1)の予測値おょぴ注目画素 y (2)の予測値を出力画像の画素値に設定する。
—方、 画像合成部 9 0 9は、 式 (5 3 ) の関係が成立していないことを示す積 分特性判定情報が積分特性判定部 9 0 8から供給されたとき、 画素値予測部 9 0 7から供給された注目画素 y (1)の予測値および注目画素 y (2)の予測値が正しくな い、 すなわち、 画素値予測部 9 0 7における予測の処理が破綻しているので、 画 素値予測部 9 1 5から供給された注目画素 y (1)の予測値および注目画素 y (2)の予 測値を出力画像の画素値に設定する。
画像合成部 9 0 9は、 このように合成された出力画像を出力する。
すなわち、 画像合成部 9 0 9は、 画素値予測部 9 0 7により予測された注目画 素 y (1)の予測値と、 画素値予測部 9 0 7により予測された注目画素 y (2)の予測値 と、 少なくとも注目画素 y (1)と注目画素 y (2)とを空間方向に対して包含する位置 に配される入力画像内の対応画素 X (5)の画素値との関係の検出結果に応じて画素 値予測部 9 0 7から出力される注目画素 y ( 1)の予測値および注目画素 y (2)の予測 値を選択的に出力する。
図 1 2 5は、 式 (5 3 ) の関係が成立していない、 画素値予測部 9 0 7による 予測値を含む出力画像の例を示す図である。
図 1 2 6は、 図 1 2 1で示される画像処理装置の出力画像の例、 すなわち、 式 ( 5 3 ) の関係が成立していない、 画素値予測部 9 0 7による予測値を、 画素値 予測部 9 1 5による予測値に置き換えた出力画像の例を示す図である。
このように、 本発明に係る画像処理装置においては、 予測の破綻を回避するこ とができる。 W
161
このように、 図 1 2 1に構成を示す画像処理装置は、 入力された入力画像に対 応する、 より高解像度の出力画像を創造して、 創造した出力画像を出力すること ができる。
次に、 図 1 2 7のフローチャートを参照して、 図 1 2 1の画像処理装置が行う、 入力画像からより高解像度の出力画像を創造する画像の創造の処理について説明 する。
ステップ S 9 0 1において、 データ定常性検出部 9 0 1は、 定常性の検出の処 理を実行する。 データ定常性検出部 9 0 1は、 入力画像に含まれているデータの 定常性を検出して、 検出したデータの定常性を示すデータ定常性情報をクラスタ ップ抽出部 9 0 2および予測タップ抽出部 9 0 6に供給する。 例えば、 データ定 常性検出部 9 0 1は、 入力画像からデータの定常性の方向を検出する。
ステップ S 9 0 2において、 クラスタップ抽出部 9 0 2は、 創造しようとする 水平倍密画像の注目している水平倍密画素である注目画素を選択する。 クラスタ ップ抽出部 9 0 2は、 データ定常性検出部 9 0 1により検出されたデータの定常 性に基づいて、 注目画素に対応する、 入力画像の複数の周辺画素を抽出し、 抽出 した入力画像の複数の周辺画素をクラスタップとする。 クラスタップは、 特徴量 検出部 9 0 3に供給され、 手続は、 ステップ S 9 0 3に進む。 例えば、 クラスタ ップ抽出部 9 0 2は、 データ定常性検出部 9 0 1により検出されたデータの定常 性に基づいて、 注目画素の位置に空間的または時間的に近い複数の画素値を入力 画像からクラスタップとして抽出して、 クラスタップを生成する。
ステップ S 9 0 3において、 特徴量検出部 9 0 3は、 入力画像またはステップ S 9 0 2の処理において抽出されたクラスタップから特徴量を検出して、 検出さ れた特徴量をクラス分類部 9 0 4に供給すると共に、 クラスタップをクラス分類 部 9 0 4に供給して、 ステップ S 9 0 4に進む。
ステップ S 9 0 4において、 クラス分類部 9 0 4は、 特徴量検出部 9 0 3から 供給される特徴量またはクラスタップに基づき、 1以上のクラスのうちのいずれ かのクラスに、 注目画素についてクラス分類を行い、 その結果得られる注目画素 のクラスを表すクラスコードを、 係数メモリ 9 0 5および予測タップ抽出部 9 0 6に供給して、 ステップ S 9 0 5に進む。
ステップ S 9 0 5において、 予測タップ抽出部 9 0 6は、 データ定常性検出部 9 0 1により検出されたデータの定常性に基づいて、 注目画素に対応する、 入力 画像の複数の周辺画素を抽出し、 抽出した入力画像の複数の周辺画素を予測タッ プとする。 予測タップ抽出部 9 0 6による予測タップの抽出の処理は、 クラスタ ップ抽出部 9 0 2における処理と同様なので、 その説明は省略する。
予測タップ抽出部 9 0 6は、 データ定常性検出部 9 0 1により検出されたデ一 タの定常性およぴクラス分類部 9 0 4から供給されたクラスコードに基づいて、 注目画素の位置に空間的または時間的に近レ、複数の画素値を入力画像から予測タ ップとして抽出して、 予測タップを生成する。 予測タップは、 画素値予測部 9 0 7に供給され、 手続は、 ステップ S 9 0 6に進む。
ステップ S 9 0 6において、 係数メモリ 9 0 5は、 クラス分類部 9 0 4から供 給されるクラスコードに対応するア ドレスに記憶されている予測係数 (タツプ係 数) を読み出し、 これにより、 注目画素のクラスの予測係数を取得して、 予測係 数を画素値予測部 9 0 7に供給し、 ステップ S 9 0 7に進む。
ステップ S 9 0 7において、 画素値予測部 9 0 7は、 特徴量検出部 9 0 3によ り検出された特徴量に基づいて、 適応処理により、 予測タップ抽出部 9 0 6によ り抽出された複数の周辺画素から注目画素 (の予測値) を予測し、 ステップ S 9 0 8に進む。 すなわち、 ステップ S 9 0 7では、 画素値予測部 9 0 7は、 予測タ ップ抽出部 9 0 6からの予測タップと、 係数メモリ 9 0 5からの予測係数 (タツ プ係数) とを用いて、 式 (1 ) に示した演算を行い、 注目画素 (の予測値) を予 測する。
ステップ S 9 0 1乃至ステップ S 9 0 7において、 データの定常性を基に、 入 力画像の 1つの対応画素に空間方向に包含される 2つの注目画素の画素値が予測 さ. る。 ステップ S 9 0 8において、 クラスタップ抽出部 9 1 0は、 創造しようとする 水平倍密画像の注目している水平倍密画素である注目画素を選択する。 クラスタ ップ抽出部 9 1 0は、 注目画素に対応する、 入力画像の複数の周辺画素を抽出し、 抽出した入力画像の複数の周辺画素をクラスタップとする。 クラスタップは、 特 微量検出部 9 1 1に供給され、 手続は、 ステップ S 9 0 9に進む。 例えば、 クラ スタップ抽出部 9 1 0は、 注目画素の位置に空間的または時間的に近い複数の画 素値を入力画像からクラスタップとして抽出して、 クラスタップを生成する。 ステップ S 9 0 9において、 特徴量検出部 9 1 1は、 入力画像またはステップ S 9 0 8の処理において抽出されたクラスタップから特徴量を検出して、 検出さ れた特徴量をクラス分類部 9 1 2に供給すると共に、 クラスタップをクラス分類 部 9 1 2に供給して、 ステップ S 9 1 0に進む。
ステップ S 9 1 0において、 クラス分類部 9 1 2は、 特徴量検出部 9 1 1から 供給される特徴量またはクラスタップに基づき、 1以上のクラスのうちのいずれ かのクラスに、 注目画素についてクラス分類を行い、 その結果得られる注目画素 のクラスを表すクラスコードを、 係数メモリ 9 1 3および予測タップ抽出部 9 1 4に供給して、 ステップ S 9 1 1に進む。
ステップ S 9 1 1において、 予測タップ抽出部 9 1 4は、 クラス分類部 9 1 2 から供給されたクラスコードに基づいて、 注目画素に対応する、 入力画像の複数 の周辺画素を抽出し、 抽出した入力画像の複数の周辺画素を予測タップとする。 すなわち、 予測タップ抽出部 9 1 4は、 クラス分類部 9 1 2から供給されたクラ スコードに基づいて、 注目画素の位置に空間的または時間的に近い複数の画素値 を入力画像から予測タップとして抽出して、 予測タップを生成する。 予測タップ は、 画素値予測部 9 1 5に供給され、 手続は、 ステップ S 9 1 2に進む。
ステップ S 9 1 2において、 係数メモリ 9 1 3は、 クラス分類部 9 1 2から供 給されるクラスコードに対応するアドレスに記憶されている予測係数 (タップ係 数) を読み出し、 これにより、 注目画素のクラスの予測係数を取得して、 予測係 数を画素値予測部 9 1 5に供給し、 ステップ S 9 1 3に進む。 ステップ S 9 1 3において、 画素値予測部 9 1 5は、 特徴量検出部 9 1 1によ り検出された特徴量に基づいて、 適応処理により、 予測タップ抽出部 9 1 4によ り抽出された複数の周辺画素から注目画素 (の予測値) を予測し、 ステップ S 9 1 4に進む。 すなわち、 ステップ S 9 1 3では、 画素値予測部 9 1 5は、 予測タ ップ抽出部 9 1 4からの予測タップと、 係数メモリ 9 1 3からの予測係数 (タツ プ係数) とを用いて、 式 (1 ) に示した演算を行い、 注目画素 (の予測値) を予 測する。
ステップ S 9 0 8乃至ステップ S 9 1 3において、 データの定常性を利用する ことなく、 入力画像の 1つの対応画素に空間方向に包含される 2つの注目画素の 画素値が予測される。
ステップ S 9 1 4において、 積分特性判定部 9 0 8は、 ステップ S 9 0 7の処 理で予測された 2つの注目画素の予測値、 および 2つの注目画素を空間方向に包 含する位置に配される入力画像の対応画素について、 積分特性が成立しているか 否かを判定し、 ステップ S 9 1 5に進む。
例えば、 ステップ S 9 1 4において、 入力画像の対応画素の画素値から、 画素 値予測部 9 0 7から供給された 2つの注目画素の画素値 (の予測値) が減算され る。 減算した結果と、 予め定めた閾値とが比較される。 そして、 減算した結果が 閾値より小さいとき、 積分特性が成立していると判定され、 減算した結果が閾値 以上であるとき、 積分特性が成立していないと判定される。 判定の結果を示す積 分特性判定情報は、 画像合成部 9 0 9に供給される。
すなわち、 ステップ S 9 1 4において、 画素値予測部 9 0 7により予測された 第 1の注目画素の第 1の予測値と、 画素値予測部 9 0 7により予測された、 第 1 の注目画素に空間的に隣接する出力画像の第 2の注目画素の第 2の予測値と、 少 なくとも第 1の注目画素と第 2の注目画素とを空間方向に対して包含する位置に 配される入力画像の対応画素の画素値との関係が検出される。
ステップ S 9 1 5において、 画像合成部 9 0 9は、 ステップ S 9 1 4における 判定の結果を基に、 画素値予測部 9 0 7により予測された予測値および画素値予 測部 9 1 5により予測された予測値のいずれか一方を選択して、 選択した予測値 を画素値に設定することにより出力画像を合成し、 ステップ S 9 1 6に進む。 すなわち、 ステップ S 9 1 5において、 画像合成部 9 0 9は、 ステップ S 9 1 4において、 積分特性が成立していると判定されたとき、 ステップ S 9 0 7の処 理において予測された 2つの注目画素の予測値が正しいので、 ステップ S 9 0 7 の処理において予測された 2つの注目画素の予測値を出力画像の画素値に設定す ることにより、 出力画像を合成する。
一方、 ステップ S 9 1 5において、 画像合成部 9 0 9は、 ステップ S 9 1 4に おいて、 積分特性が成立していないと判定されたとき、 ステップ S 9 0 7の処理 において予測された 2つの注目画素の予測値が正しくない、 すなわち、 ステップ S 9 0 7における予測の処理が破綻しているので、 ステップ S 9 1 3の処理で予 測された 2つの注目画素の予測値を出力画像の画素値に設定する。
ステップ S 9 1 6において、 クラスタップ抽出部 9 0 2は、 水平倍密画像の注 目しているフレームの画素のうち、 まだ、 注目画素としていない画素が存在する かどうかを判定し、 存在すると判定した場合、 ステップ S 9 0 2に戻り、 以下、 同様の処理を繰り返す。
また、 ステップ S 9 1 6において、 注目フレームの画素のうち、 注目画素とし ていない画素が存在しないと判定された場合、 即ち、 注目フレームを構成するす ベての水平倍密画素が、 予測された場合、 画像合成部 9 0 9は、 合成された出力 画像を出力して、 処理は終了する。
すなわち、 ステップ S 9 1 6において、 ステップ S 9 0 7の処理において予測 された 2つの注目画素の予測値と、 少なくとも 2つの注目画素を空間方向に対し て包含する位置に配される入力画像内の対応画素の画素値との関係の検出結果に 応じて、 ステップ S 9 0 7の処理において予測される 2つの注目画素の予測値が 選択的に出力される。
このように、 図 1 2 1に構成を示す画像処理装置は、 入力画像から、 破綻無く、 より高解像度の出力画像を生成して、 生成した出力画像を出力することができる。 なお、 図 1 2 1で示される画像処理装置は、 入力画像を取得し、 水平倍密画像 を創造して出力すると説明したが、 時間方向に 2倍の解像度の画像 (以下、 時間 倍密画像と称する) を創造して出力するようにすることもできる。
図 1 2 8は、 時間倍密画像を創造する場合における、 注目画素を説明する図で ある。 図 1 2 8において、 図の横方向は、 入力画像 (S D画像) および時間倍密 画像の時間方向に対応し、 図の縦方向は、 入力画像おょぴ時間倍密画像の一方の 空間方向、 例えば、 画面の縦方向である空間方向 Yに対応する。 なお、 図 1 2 8 において、 過去の時刻が、 図中の左側の位置に対応し、 未来の時刻が、 図中の右 側の位置に対応する。
ここで、 図 1 2 8において、 〇印が S D画像を構成する S D画素を表し、 X印 が時間倍密画像を構成する時間倍密画素を表している。 また、 図 1 2 8では、 時 間倍密画像は、 入力画像に対して、 時間方向に 2倍の数のフレームを配置した画 像になっている。 例えば、 1秒間に 3 0フレームからなる入力画像に対して、 時 間倍密画像は、 1秒間に 6 0フレームからなる。 なお、 時間倍密画像の 1つのフ レームに配置されている画素の数は、 入力画像の 1つのフレームに配置されてい る画素の数と同じである。
図 1 2 8において、 f—2, f—ぃ f。, , f2は、 入力画像のフレームを示し、
F F— 3, F— 2, F_い F。, Fい F2, F3, F4, F5は、 時間倍密画像のフレームを示す。
時間倍密画像を創造する場合において、 データ定常性検出部 9 0 1は、 時空間 方向のデータの定常性を検出する。 クラスタップ抽出部 9 0 2は、 図 1 2 8で示 される、 入力画像の対応画素 x (5)に時間方向に包含される、 時間倍密画像の画素 y ωおよび画素 y (2)を注目画素とする。 画素値予測部 9 0 7は、 データの定常性 を基に、 図 1 2 8で示される注目画素 y (1)の画素値および注目画素 y (2)の画素値 を予測し、 予測した注目画素 y (1)の画素値およぴ注目画素 y (2)の画素値を積分特 性判定部 9 0 8および画像合成部 9 0 9に供給する。
図 1 2 9を参照して、 注目画素 y (1)と、 注目画素 y (2)と、 注目画素 y (1)および 注目画素 y (2)を時間方向に包含する対応画素 x (5)との関係について説明する。 図 1 29の?(1:)は、 時刻 tを変数とする、 実世界の光の強度の分布を表す関 数である。 図 1 29において、 入力画像である SD画像を撮像するセンサのシャ ッタ時間は、 時刻 tlから時刻 t3までの期間であり、 2tsで示す。
S D画像の 1つの画素値が、 F(x)の一様な積分で表されるとすれば、 時刻 U 力 ら時亥 ij t2までの期間に対応する画素の画素値 Y1は、 式 (54) で表され、 時刻 t2力ゝら時亥 U t3までの期間に対応する画素の画素値 Y2は、 式 (5 5) で表 され、 S D画像としてセンサから出力される画素値 Y3は、 式 (56) で表され る。
Figure imgf000169_0001
• - - (54)
Figure imgf000169_0002
• · · (5 5)
Figure imgf000169_0003
Υ1 +Υ2
一 2
• · · (56) 式 (54) 乃至式 (56) における、 Y1および Υ2は、 それぞれ、 図 1 21の 画像処理装置が求めようとする、 SD画像に対する時間倍密画像の時間倍密画素 (注目画素 y (1)または注目画素 y (2)) の画素値に対応する。 また、 式 (56) に おける、 Y3は、 時間倍密画像の時間倍密画素の画素値 Y1および Y2に対応する SD画素 (対応画素) の画素値に対応する。
Y3を x(5)に、 Y1を y(1)に、 Y2を y (2)にそれぞれ置き換えると、 式 (56) か ら、 式 (5 7) を導くことができる。
x (5) = (y ω+γ (2)) /2 ■ · . (5 7) 積分特性判定部 9 0 8は、 図 1 2 8で示される注目画素 y(1)の予測値と、 注目 画素 y (2)の予測値と、 注目画素 y (1)および注目画素 y (2)を空間方向に包含する位 置に配される入力画像の対応画素 x(5)とについて、 式 (5 7) が成立するか否か を判定する。
式 (5 7) が成立すれば、 注目画素 y (1)の予測値および注目画素 y )の予測値 は、 正しいと言える。 換言すれば、 式 (5 7) が成立していないとき、 注目画素 y (1)の予測の処理および注目画素 y (2)の予測の処理は、 破綻していると言える。 より詳しく説明すれば、 積分特性判定部 9 0 8は、 入力画像の対応画素 x (5)の 画素値から、 画素値予測部 9 0 7から供給された注目画素 y(1)の画素値 (の予測 値) および注目画素 y (2)の画素値 (の予測値) を減算する。 積分特性判定部 9 0 8は、 減算した結果と、 予め定めた閾値とを比較する。 積分特性判定部 9 0 8は、 減算した結果が閾値より小さいとき、 式 (5 7) の関係が成立していると判定し、 減算した結果が閾値以上であるとき、 式 (5 7) の関係が成立していないと判定 する。
クラスタップ抽出部 9 1 0は、 図 1 2 8で示される、 入力画像の対応画素 x (5) に時間方向に包含される画素 y(1)および画素 y(2)を注目画素とし、 画素値予測部 9 1 5は、 図 1 2 8で示される注目画素 y(1)の画素値および注目画素 y(2)の画素 値を予測し、 予測した注目画素 y(1)の画素値および注目画素 y(2)の画素値を画像 合成部 9.0 9に供給する。
画像合成部 9 0 9は、 積分特性判定部 9 0 8から供給された積分特性判定情報 を基に、 画素値予測部 9 0 7から供給された予測値および画素値予測部 9 1 5か ら供給された予測値のいずれか一方を選択して、 選択した予測値を画素値として 出力画像に設定することにより画像を合成する。
すなわち、 画像合成部 9 0 9は、 式 (5 7) の関係が成立していることを示す 積分特性判定情報が積分特性判定部 9 0 8から供給されたとき、 画素値予測部 9 0 7から供給された注目画素 y (1)の予測値および注目画素 - j、 (2)の予測値が正しい ので、 画素値予測部 9 0 7から供給された注目画素 y (1)の予測値および注目画素 y (2)の予測値を出力画像の画素値に設定する。
一方、 画像合成部 9 0 9は、 式 (5 7 ) の関係が成立していないことを示す積 分特性判定情報が穑分特性判定部 9 0 8から供給されたとき、 画素値予測部 9 0 7から供給された注目画素 y (1)の予測値およぴ注目画素 y (2)の予測値が正しくな い、 すなわち、 画素値予測部 9 0 7における予測の処理が破綻しているので、 画 素値予測部 9 1 5から供給された注目画素 y (1)の予測値およぴ注目画素 y (2)の予 測値を出力画像の画素値に設定する。
すなわち、 積分特性判定部 9 0 8は、 画素値予測部 9 0 7により予測された第 1の注目画素の第 1の予測値と、 画素値予測部 9 0 7により予測された、 第 1の 注目画素に時間的に隣接する出力画像の第 2の注目画素の第 2の予測値と、 少な くとも第 1の注目画素と第 2の注目画素とを時間方向に対して包含する位置に配 される入力画像の対応画素の画素値との関係を検出する。
画像合成部 9 0 9は、 画素値予測部 9 0 7により予測された第 1の注目画素の 予測値と、 画素値予測部 9 0 7により予測された第 2の注目画素の予測値と、 対 応画素の画素値との関係の検出結果に応じて、 画素値予測部 9 0 7から出力され る第 1の注目画素の予測値および第 2の注目画素の予測値を選択的に出力する。 画像合成部 9 0 9は、 このように合成された時間倍密画像である出力画像を出 力する。
以上のように、 図 1 2 1に示す画像処理装置は、 入力画像を取得し、 時間倍密 画像を創造して出力することができる。
このように、 入力画像にクラス分類適応処理を適用するようにした場合には、 より高画質の画像を得ることができる。
高質画像データ内の第 1の注目画素に対応する、 入力画像データ内の複数の第 1の周辺画素の、 現実世界の光信号の定常性に対応する画像データの第 1の定常 性を検出し、 第 1の注目画素に時間的または空間的に隣接する高質画像データ内 の第 2の注目画素に対応する、 入力画像データ内の複数の第 2の周辺画素の、 現 実世界の光信号の定常性に対応する画像データの第 2の定常性を検出し、 検出さ れた画像データの第 1の定常性に基づいて、 第 1の注目画素に対応する、 入力画 像データ内の複数の第 3の周辺画素を抽出し、 検出された画像データの第 2の定 常性に基づいて、 第 2の注目画素に対応する、 入力画像データ内の複数の第 4の 周辺画素を抽出し、 検出された画像データの第 1の定常性に基づいて、 第 1の注 目画素に対応する、 入力画像データ内の複数の第 5の周辺画素を抽出し、 検出さ れた画像データの第 2の定常性に基づいて、 第 2の注目画素に対応する、 入力画 像データ内の複数の第 6の周辺画素を抽出し、 抽出された複数の第 3の周辺画素 の第 1の特徴量を検出し、 抽出された複数の第 4の周辺画素の第 2の特徴量を検 出し、 検出された第 1の特徴量に基づいて、 抽出された複数の第 5の周辺画素か ら第 1の注目画素を予測し、 検出された第 2の特徴量に基づいて、 抽出された複 数の第 6の周辺画素から第 2の注目画素を予測し、 第 1の注目画素の第 1の予測 値および第 2の注目画素の第 2の予測値を出力し、 予測された第 1の注目画素の 第 1の予測値と、 予測された第 2の注目画素の第 2の予測値と、 少なくとも第 1 の注目画素と第 2の注目画素とを時間方向または空間方向に対して包含する位置 に配される入力画像データ内の対応画素の画素値との関係を検出し、 検出結果に 応じて第 1の注目画素の第 1の予測値および第 2の注目画素の第 2の予測値を選 択的に出力するようにした場合には、 データの定常性を利用して、 より正確で、 より精度の高い処理結果を得ることができるようになる。
図 1 3 0は、 図 1 2 1の係数メモリ 9 1 3に記憶させるクラスごとのタップ係 数を求める学習を行う学習装置の一実施の形態の構成を示すプロック図である。 図 1 3 0の学習装置には、 タップ係数の学習用の画像 (教師画像) としての、 例えば水平倍密画像が入力される。 学習装置に入力された入力画像は、 生徒画像 生成部 9 5 1および教師画素抽出部 9 5 8に供給される。
生徒画像生成部 9 5 1は、 入力された入力画像 (教師画像) から、 生徒画像で ある S D画像を生成し、 画像メモリ 9 5 2に供給する。 生徒画像生成部 9 5 1は、 例えば、 教師画像としての水平倍密画像の水平方向に隣接する 2つの水平倍密画 素の画素値の平均値を求めて S D画像の画素値とすることにより、 その教師画像 としての水平倍密画像に対応した生徒画像としての S D画像を生成する。 ここで、 S D画像は、 図 1 2 1の画像処理装置で処理対象となる S D画像に対応した画質 のものとする必要がある。 画像メモリ 9 5 2は、 生徒画像生成部 9 5 1からの生 徒画像である S D画像を一時記憶する。
図 1 3 0に示す学習装置においては、 S D画像を生徒データとして、 タップ係 数が生成される。
クラスタツプ抽出部 9 5 3は、 図 1 2 1のクラスタツプ抽出部 9 1 0における 場合と同様に、 画像メモリ 9 5 2に記憶された生徒画像である S D画像に対応す る教師画像としての水平倍密画像に含まれる画素を、 順次、 注目画素とする。 さらに、 クラスタップ抽出部 9 5 3は、 注目画素についてのクラスタップを、 画像メモリ 9 5 2に記憶された S D画像から抽出し、 特徴量検出部 9 5 4に供給 する。 ここで、 クラスタップ抽出部 9 5 3は、 図 1 2 1のクラスタップ抽出部 9 1 0が生成するのと同一のタップ構造のクラスタップを生成する。
特徴量検出部 9 5 4は、 図 1 2 1の特徴量検出部 9 1 1と同様の処理で、 画像 メモリ 9 5 2に記憶された生徒画像またはクラスタップ抽出部 9 5 3から供給さ れたクラスタップから特徴量を検出して、 検出した特徴量をクラス分類部 9 5 5 に供給する。
例えば、 特徴量検出部 9 5 4は、 画像メモリ 9 5 2に記憶された S D画像また はクラスタップ抽出部 9 5 3から供給されたクラスタップを基に、 S D画像の画 素の動きべクトルを検出して、 検出した動きべク トルを特徴量としてクラス分類 部 9 5 5に供給する。 また、 例えば、 特徴量検出部 9 5 4は、 画像メモリ 9 5 2 から供給された S D画像またはクラスタツプ抽出部 9 5 3から供給されたクラス タップを基に、 S D画像またはクラスタップの複数の画素の画素値の空間的また は時間的な変化を検出して、 検出した画素値の変化を特徴量としてクラス分類部 9 5 5に供給する。 さらに、 例えば、 特徴量検出部 9 5 4は画像メモリ 9 5 2から供給された S D 画像またはクラスタップ抽出部 9 5 3から供給されたクラスタップを基に、 クラ スタップまたは S D画像の複数の画素の画素値の空間的な変化の傾きを検出して、 検出した画素値の変化の傾きを特徴量としてクラス分類部 9 5 5に供給する。 なお、 特徵量検出部 9 5 4は、 特徴量検出部 9 1 1と同様に、 特徴量として、 画素値の、 ラプラシアン、 ソーベル、 または分散などを求めることができる。 すなわち、 特徴量検出部 9 5 4は、 図 1 2 1の特徴量検出部 9 1 1と同一の特 徴量を検出する。
特徴量検出部 9 5 4は、 特徴量とは別に、 クラスタップをクラス分類部 9 5 5 に供給する。
クラス分類部 9 5 5は、 図 1 2 1のクラス分類部 9 1 2と同様に構成され、 特 徴量検出部 9 5 4からの特徴量またはクラスタップに基づいて、 1以上のクラス のうちのいずれかのクラスに注目画素をクラス分類し、 注目画素のクラスを表す クラスコードを、 予測タップ抽出部 9 5 6および学習メモリ 9 5 9に供給する。 予測タップ抽出部 9 5 6は、 図 1 2 1の予測タップ抽出部 9 1 4と同様に構成 され、 クラス分類部 9 5 5から供給されたクラスコードに基づいて、 注目画素に ついての予測タップを、 画像メモリ 9 5 2に記憶された S D画像から抽出し、 足 し込み演算部 9 5 7に供給する。 ここで、 予測タップ抽出部 9 5 6は、 図 1 2 1 の予測タップ抽出部 9 1 4が生成するのと同一のタップ構造の予測タップを生成 する。
教師画素抽出部 9 5 8は、 教師画像である入力画像 (水平倍密画像) から、 注 目画素を教師データ (教師画素) として抽出して、 抽出した教師データを足し込 み演算部 9 5 7に供給する。 即ち、 教師画素抽出部 9 5 8は、 入力された学習用 の画像である水平倍密画像を、 例えば、 そのまま教師データとする。 ここで、 図 1 2 1の画像処理装置で得られる水平倍密画像は、 図 1 3 0の学習装置で教師デ ータとして用いられる水平倍密画像の画質に対応したものとなる。 足し込み演算部 9 5 7および正規方程式演算部 960は、 注目画素となってい る教師データと、 予測タップ抽出部 9 56から供給される予測タップとを用い、 教師データと生徒データとの関係を、 クラス分類部 9 5 5から供給されるクラス コードで示されるクラスごとに学習することにより、 クラスごとのタツプ係数を 求める。
即ち、 足し込み演算部 9 57は、 予測タップ抽出部 95 6から供給される予測 タップ (S D画素) と、 注目画素となっている教師デ一タである水平倍密画素と を対象とした、 式 (8) の足し込みを行う。
具体的には、 足し込み演算部 9 5 7は、 予測タップを構成する生徒データとし ての SD画素 xn,kを用い、 式 (8) の左辺の行列における SD画素どうしの乗 算 (xn,kXn,,k) と、 サメーシヨン (∑) に相当する演算を行う。
さらに、 足し込み演算部 9 5 7は、 予測タップを構成する生徒データとしての SD画素 xn,kと、 注目画素となっている教師データである水平倍密画素 ykを用 い、 式 (8) の右辺のベクトルにおける SD画素 xn,kおよび水平倍密画素 ykの 乗算 (xn,kyk) と、 サメーシヨン (∑) に相当する演算を行う。
足し込み演算部 9 5 7は、 教師データとしての水平倍密画像の画素すベてを注 目画素として、 上述の足し込みを行うことにより、 各クラスについて、 式 (8) に対応した正規方程式をたてると、 その正規方程式を、 学習メモリ 95 9に供給 する。
学習メモリ 9 5 9は、 足し込み演算部 9 5 7から供給された、 生徒データとし て SD画素、 教師データとして水平倍密画素が設定された、 式 (8) に対応した 正規方程式を記憶する。
正規方程式演算部 960は、 学習メモリ 9 59から、 各クラスについての式 (8) の正規方程式を取得し、 例えば、 掃き出し法により、 その正規方程式を解 くことにより (クラスごとに学習し) 、 クラスごとのタップ係数を求めて出力す る。 すなわち、 足し込み演算部 9 5 7および正規方程式演算部 9 6 0は、 検出され た特徴量毎に、 抽出された複数の周辺画素から注目画素を予測する予測手段を学 習する。
この場合、 予測手段は、 複数の周辺画素から注目画素を予測する具体的手段で あり、 例えば、 クラス毎のタツプ係数により動作が規定される画素値予測部 9 1 5、 または画素値予測部 9 1 5における処理を言う。 複数の周辺画素から注目画 素を予測する予測手段を学習するとは、 例えば、 複数の周辺画素から注目画素を 予測する予測手段の実現 (構築) を可能にすることを意味する。
従って、 複数の周辺画素から注目画素を予測するための予測手段を学習すると は、 例えば、 クラス毎のタップ係数を得ることを言う。 クラス毎のタップ係数を 得ることにより、 画素値予測部 9 1 5、 または画素値予測部 9 1 5における処理 が具体的に特定され、 画素値予測部 9 1 5を実現し、 または画素値予測部 9 1 5 における処理を実行することができるようになるからである。
係数メモリ 9 6 1は、 正規方程式演算部 9 6 0が出力するクラスごとのタップ 係数を記憶する。
次に、 図 1 3 1のフローチャートを参照して、 図 1 3 0の学習装置において行 われる、 クラスごとのタップ係数を求める学習処理について説明する。
まず最初に、 ステップ S 9 5 1において、 生徒画像生成部 9 5 1は、 例えば、 水平倍密画像である、 学習用の入力画像 (教師画像) を取得し、 画素を間引くこ とにより、 例えば、 S D画像である生徒画像を生成する。 例えば、 生徒画像生成 部 9 5 1は、 水平倍密画像の水平方向に隣接する 2つの水平倍密画素の画素値の 平均値を求めて、 平均値を S D画像の画素値とすることにより、 S D画像を生成 する。 S D画像は、 画像メモリ 9 5 2に供給される。
そして、 ステップ S 9 5 2に進み、 クラスタップ抽出部 9 5 3は、 教師データ としての水平倍密画像の水平倍密画素の中から、 まだ注目画素としていないもの のうちの 1つを注目画素として選択する。 クラスタップ抽出部 9 5 3は、 図 1 2 1のクラスタップ抽出部 9 1 0における場合と同様に、 注目画素に対応するクラ スタップを、 画像メモリ 9 5 2に記憶されている生徒画像としての S D画像から 抽出する。 クラスタップ抽出部 9 5 3は、 クラスタップを特徴量検出部 9 5 4に 供給して、 ステップ S 9 5 3に進む。
ステップ S 9 5 3において、 特徴量検出部 9 5 4は、 図 1 2 1の特徴量検出部 9 1 1における場合と同様に、 ステップ S 9 5 1の処理で生成された生徒画像ま たはステップ S 9 5 3の処理で生成されたクラスタップから、 例えば、 動きべク トル、 または S D画像の画素の画素値の変化などの特徴量を検出して、 検出した 特徴量をクラス分類部 9 5 5に供給し、 ステップ S 9 5 4に進む。
ステップ S 9 5 4では、 クラス分類部 9 5 5が、 図 1 2 1のクラス分類部 9 1 2における場合と同様にして、 特徴量検出部 9 5 4からの特徴量またはクラスタ ップを用いて、 1以上のクラスのうちのいずれかのクラスに注目画素をクラス分 類し、 その注目画素のクラスを表すクラスコードを、 予測タップ抽出部 9 5 6お よび学習メモリ 9 5 9に供給して、 ステップ S 9 5 5に進む。
ステップ S 9 5 5において、 予測タップ抽出部 9 5 6は、 クラス分類部 9 5 5 から供給されるクラスコードに基づいて、 図 1 2 1の予測タップ抽出部 9 1 4に おける場合と同様に、 注目画素に対応する予測タップを、 画像メモリ 9 5 2に記 憶されている生徒画像としての S D画像から抽出し、 足し込み演算部 9 5 7に供 給して、 ステップ S 9 5 6に進む。
ステップ S 9 5 6において、 教師画素抽出部 9 5 8は、 注目画素、 すなわち水 平倍密画素である教師画素 (教師データ) を入力画像から抽出し、 抽出した教師 画素を足し込み演算部 9 5 7に供給し、 ステップ S 9 5 7に進む。
ステップ S 9 5 7では、 足し込み演算部 9 5 7が、 予測タップ抽出部 9 5 6か ら供給される予測タップ (生徒データ) 、 および教師画素抽出部 9 5 8から供給 される教師画素 (教師データ) を対象とした、 上述した式 ( 8 ) における足し込 みを行い、 生徒データおよび教師データが足し込まれた正規方程式を学習メモリ 9 5 9に記憶させ、 ステップ S 9 5 8に進む。 そして、 ステップ S 9 5 8では、 クラスタップ抽出部 9 5 3は、 教師データと しての水平倍密画像の水平倍密画素の中に、 まだ注目画素としていないものがあ るかどう力 \ すなわち対象となる全画素の足し込みを終了したか否かを判定する。 ステップ S 9 5 8において、 教師データとしての水平倍密画像の水平倍密画素の 中に、 まだ注目画素としていないものがあると判定された場合、 ステップ S 9 5 2に戻り、 以下、 同様の処理が繰り返される。
また、 ステップ S 9 5 8において、 教師データとしての水平倍密画像の水平倍 密画素の中に、 注目画素としていないものがない、 すなわち対象となる全画素の 足し込みを終了したと判定された場合、 ステップ S 9 5 9に進み、 正規方程式演 算部 9 6 0は、 いままでのステップ S 9 5 7における足し込みによって、 クラス ごとに得られた式 (8 ) の正規方程式から、 まだタップ係数が求められていない クラスの正規方程式を、 学習メモリ 9 5 9から読み出し、 読み出した式 (8 ) の 正規方程式を掃き出し法などで解くことにより (クラス毎に学習し) 、 所定のク ラスの予測係数 (タップ係数) を求め、 係数メモリ 9 6 1に供給する。 係数メモ リ 9 6 1は、 正規方程式演算部 9 6 0から供給された所定のクラスの予測係数 (タップ係数) を、 クラス毎に記憶し、 ステップ S 9 6 0に進む。
ステップ S 9 6 0において、 正規方程式演算部 9 6 0は、 全クラスの予測係数 の演算を終了したか否かを判定し、 全クラスの予測係数の演算を終了していない と判定された場合、 ステップ S 9 5 9に戻り、 次のクラスの予測係数を求める処 理を繰り返す。
ステップ S 9 6 0において、 全クラスの予測係数の演算を終了したと判定され た場合、 処理は終了する。
以上のようにして、 係数メモリ 9 6 1に記憶されたクラスごとの予測係数が、 図 1 2 1の画像処理装置における係数メモリ 9 1 3に記憶されている。
このように、 学習を行うようにした場合には、 予測において、 より高画質の画 像を得ることができるようになる。 高質画像データ内の注目画素に対応する入力画像データ内の複数の第 1の周辺 画素の、 現実世界の光信号の定常性に対応する画像データの定常性を検出し、 検 出された画像データの定常性に基づいて、 高質画像データ内の注目画素に対応す る、 入力画像データ内の複数の第 2の周辺画素を抽出し、 検出された画像データ の定常性に基づいて、 注目画素に対応する、 入力画像データ内の複数の第 3の周 辺画素を抽出し、 抽出された複数の第 2の周辺画素の特徴量を検出し、 検出され た特徴量毎に、 抽出された複数の第 3の周辺画素から注目画素を予測するための 予測手段を学習するようにした場合には、 予測において、 データの定常性を利用 して、 より正確で、 より精度の高い処理結果を得ることができるようになる。 なお、 画像処理装置は、 S D画像を入力して、 S D画像に対応する空間方向ま たは時間方向により高解像度の画像を生成して出力すると説明したが、 入力され る画像が、 S D画像に限られるものではないことは勿論である。 例えば、 画像処 理装置は、 時間倍密画像または垂直倍密画像を入力して、 H D画像を出力するよ うにしてもよい。
上述した一連の処理は、 ハードウェアにより実行させることもできるが、 ソフ トウエアにより実行させることもできる。 一連の処理をソフトウエアにより実行 させる場合には、 そのソフトウェアを構成するプログラムが、 専用のハードゥエ ァに組み込まれているコンピュータ、 または、 各種のプログラムをインス トール することで、 各種の機能を実行することが可能な、 例えば汎用のパーソナルコン ピュータなどに、 記録媒体からインス トールされる。
図 1 3 2は、 上述した一連の処理をプログラムにより実行するパーソナルコン ピュータの構成の例を示すブロック図である。 CPU (Central Process ing Uni t) 1 0 0 1は、 ROM (Read Only Memory) 1 0 0 2または記憶部 1 0 0 8 に記憶されているプログラムに従って各種の処理を実行する。 RAM (Random Acces s Memory) 1 0 0 3には、 CPU 1 0 0 1が実行するプログラムやデータな どが適宜記憶される。 これらの CPU 1 0 0 1、 ROM 1 0 0 2および RAM 1 0 0 3 は、 バス 1 0 0 4により相互に接続されている。 CPU 1 0 0 1にはまた、 バス 1 0 0 4を介して入出力ィンタフェース 1 0 0 5 が接続されている。 入出力インタフェース 1 0 0 5には、 キーボード、 マウス、 マイクロホンなどよりなる入力部 1 0 0 6、 ディスプレイ、 スピー力などよりな る出力部 1 0 0 7が接続されている。 CPU 1 0 0 1は、 入力部 1 0 0 6から入力 される指令に対応して各種の処理を実行する。 そして、 CPU 1 0 0 1は、 処理の 結果得られた画像や音声等を出力部 1 0 0 7に出力する。
入出力ィンタフ ース 1 0 0 5に接続されている記憶部 1 0 0 8は、 例えばハ 一ドデイスクなどで構成され、 CPU 1 0 0 1が実行するプログラムゃ各種のデー タを記憶する。 通信部 1 0 0 9は、 インターネッ ト、 その他のネッ トワークを介 して外部の装置と通信する。 この例の場合、 通信部 1 0 0 9は、 入力画像を取得 するか、 または出力画像を出力する、 外部とのインタフェースとして動作する。 また、 通信部 1 0 0 9を介してプログラムを取得し、 記憶部 1 0 0 8に記憶し てもよい。
入出力インタフェース 1 0 0 5に接続されているドライブ 1 0 1 0は、 磁気デ イスク 1 0 5 1、 光ディスク 1 0 5 2、 光磁気ディスク 1 0 5 3、 或いは半導体 メモリ 1 0 5 4などが装着されたとき、 それらを駆動し、 そこに記録されている プログラムやデータなどを取得する。 取得されたプログラムやデータは、 必要に 応じて記憶部 1 0 0 8に転送され、 記憶される。
一連の処理をさせるプログラムが格納されている記録媒体は、 図 1 3 2に示す ように、 コンピュータとは別に、 ユーザにプログラムを提供するために配布され る、 プログラムが記録されている磁気ディスク 1 0 5 1 (フレキシプルディスク を含む) 、 光ディスク 1 0 5 2 (CD-ROM (Compact Di sc-Read Only Memory)、 D V D (Digital Versati l e Di sc)を含む) 、 光磁気ディスク 1 0 5 3 (M D (Mini-Di sc) (商標) を含む) 、 若しくは半導体メモリ 1 0 5 4などよりなるパ ッケージメディアにより構成されるだけでなく、 コンピュータに予め組み込まれ た状態でユーザに提供される、 プログラムが記録されている R0M 1 0 0 2や、 記 憶部 1 0 0 8に含まれるハードディスクなどで構成される。 なお、 上述した一連の処理を実行させるプログラムは、 必要に応じてルータ、 モデムなどのィンタフェースを介して、 ロー力ノレエリァネットワーク、 インター ネット、 デジタル衛星放送といった、 有線または無線の通信媒体を介してコンビ ユータにィンストールされるようにしてもよい。
また、 本明細書において、 記録媒体に格納されるプログラムを記述するステツ プは、 記載された順序に沿つて時系列的に行われる処理はもちろん、 必ずしも時 系列的に処理されなくとも、 並列的あるいは個別に実行される処理をも含むもの である。 産業上の利用可能性
以上のように、 第 1の本発明によれば、 より高解像度の画像を出力することが できる。
また、 第 1の本発明によれば、 データの定常性を利用して、 より正確で、 より 精度の高い処理結果を得ることができるようになる。
第 2の本発明によれば、 画像処理装置において、 より高解像度の画像を出力す ることができる。
また、 第 2の本発明によれば、 画像処理装置において、 データの定常性を利用 して、 より正確で、 より精度の高い処理結果を得ることができるようになる。

Claims

請求の範囲
1 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データを、 前記入力画像データよりも高質な高質画像データに変 換する画像処理装置において、
前記高質画像データ内の第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データ の第 1の定常性を検出し、 前記第 1の注目画素に時間的または空間的に隣接する 前記高質画像データ内の第 2の注目画素に対応する、 前記入力画像データ内の複 数の第 2の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの 第 2の定常性を検出する画像データ定常性検出手段と、
前記画像データ定常性検出手段により検出された前記画像データの第 1の定常 性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の複数の 第 3の周辺画素を抽出し、 前記画像データ定常性検出手段により検出された前記 画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応する、 前記入 力画像データ內の複数の第 4の周辺画素を抽出する第 1の抽出手段と、
前記画像データ定常性検出手段により検出された前記画像データの第 1の定常 性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の複数の 第 5の周辺画素を抽出し、 前記画像データ定常性検出手段により検出された前記 画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応する、 前記入 力画像データ内の複数の第 6の周辺画素を抽出する第 2の抽出手段と、
前記第 1の抽出手段により抽出された複数の前記第 3の周辺画素の第 1の特徴 量を検出し、 前記第 1の抽出手段により抽出された複数の前記第 4の周辺画素の 第 2の特徴量を検出する第 1の特徴量検出手段と、
前記第 1の特徴量検出手段により検出された前記第 1の特徴量に基づいて、 前 記第 2の抽出手段により抽出された複数の前記第 5の周辺画素から前記第 1の注 目画素を予測し、 前記第 1の特徴量検出手段により検出された前記第 2の特徴量 に基づいて、 前記第 2の抽出手段により抽出された複数の前記第 6の周辺画素か ら前記第 2の注目画素を予測し、 前記第 1の注目画素の第 1の予測値おょぴ前記 第 2の注目画素の第 2の予測値を出力する第 1の予測手段と、
前記第 1の予測手段により予測された前記第 1の注目画素の前記第 1の予測値 と、 前記第 1の予測手段により予測された前記第 2の注目画素の前記第 2の予測 値と、 少なくとも前記第 1の注目画素と前記第 2の注目画素とを時間方向または 空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画 素値との関係を検出し、 検出結果に応じて前記第 1の予測手段から出力される前 記第 1の注目画素の前記第 1の予測値および前記第 2の注目画素の前記第 2の予 測値を選択的に出力する選択出力手段と
を含むことを特徴とする画像処理装置。
2 . 前記高質画像データ内の前記第 1の注目画素に対応する、 前記入力画像デ ータ内の複数の第 7の周辺画素を抽出し、 前記高質画像データ内の前記第 2の注 目画素に対応する、 前記入力画像データ内の複数の第 8の周辺画素を抽出する第 3の抽出手段と、
前記第 1の注目画素に対応する、 前記入力画像データ内の複数の第 9の周辺画 素を抽出し、 前記第 2の注目画素に対応する、 前記入力画像データ内の複数の第 1 0の周辺画素を抽出する第 4の抽出手段と、
前記第 3の抽出手段により抽出された複数の前記第 7の周辺画素の第 3の特徴 量を検出し、 前記第 3の抽出手段により抽出された複数の前記第 8の周辺画素の 第 4の特徴量を検出する第 2の特徴量検出手段と、
前記第 2の特徴量検出手段により検出された前記第 3の特徴量に基づいて、 前 記第 4の抽出手段により抽出された複数の前記第 9の周辺画素から前記第 1の注 目画素を予測し、 前記第 2の特徴量検出手段により検出された前記第 4の特徴量 に基づいて、 前記第 4の抽出手段により抽出された複数の前記第 1 0の周辺画素 から前記第 2の注目画素を予測し、 前記第 1の注目画素の第 3の予測値および前 記第 2の注目画素の第 4の予測値を出力する第 2の予測手段と をさらに含み、
前記選択出力手段は、
前記第 1の予測手段により予測された前記第 1の注目画素の前記第 1の予測値 と、 前記第 1の予測手段により予測された前記第 2の注目画素の前記第 2の予測 値と、 前記入力画像データの前記対応画素の画素値との関係を検出し、 検出結果 に応じて前記第 1の予測値と前記第 2の予測値とからなる予測値の第 1の組およ ぴ前記第 3の予測値と前記第 4の予測値とからなる予測値の第 2の組のうちいず れか一方を選択的に出力する
ことを特徴とする請求の範囲第 1項に記載の画像処理装置。
3 . 前記選択出力手段は、 前記対応画素の画素値から、 前記第 1の注目画素の 前記第 1の予測値おょぴ前記第 2の注目画素の前記第 2の予測値を引き算した結 果の絶対値が、 所定の閾値未満であるとき、 前記第 1の予測値と前記第 2の予測 値とからなる予測値の前記第 1の組を選択的に出力する
ことを特徴とする請求の範囲第 2項に記載の画像処理装置。
4 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データを、 前記入力画像データよりも高質な高質画像データに変 換する画像処理方法において、
前記高質画像データ内の第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データ の第 1の定常性を検出し、 前記第 1の注目画素に時間的または空間的に隣接する 前記高質画像データ内の第 2の注目画素に対応する、 前記入力画像データ内の複 数の第 2の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの 第 2の定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第 1 の定常性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 3の周辺画素を抽出し、 前記画像データ定常性検出ステップにおいて検 出された前記画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応 する、 前記入力画像データ内の複数の第 4の周辺画素を抽出する第 1の抽出ステ ップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第 1 の定常性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 5の周辺画素を抽出し、 前記画像データ定常性検出ステップにおいて検 出された前記画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応 する、 前記入力画像データ内の複数の第 6の周辺画素を抽出する第 2の抽出ステ ップと、
前記第 1の抽出ステップにおいて抽出された複数の前記第 3の周辺画素の第 1 の特徴量を検出し、 前記第 1の抽出ステップにおいて抽出された複数の前記第 4 の周辺画素の第 2の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記第 1の特徴量に基づいて、 前 記第 2の抽出ステップにおいて抽出された複数の前記第 5の周辺画素から前記第 1の注目画素を予測し、 前記特徴量検出ステップにおいて検出された前記第 2の 特徴量に基づいて、 前記第 2の抽出ステツプにおいて抽出された複数の前記第 6 の周辺画素から前記第 2の注目画素を予測し、 前記第 1の注目画素の第 1の予測 値および前記第 2の注目画素の第 2の予測値を出力する予測ステップと、 前記予測ステップにおいて予測された前記第 1の注目画素の前記第 1の予測値 と、 前記予測ステップにおいて予測された前記第 2の注目画素の前記第 2の予測 値と、 少なくとも前記第 1の注目画素と前記第 2の注目画素とを時間方向または 空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画 素値との関係を検出し、 検出結果に応じて前記第 1の注目画素の前記第 1の予測 値および前記第 2の注目画素の前記第 2の予測値を選択的に出力する選択出カス テツプと
を含むことを特徴とする画像処理方法。
5 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データを、 前記入力画像データよりも高質な高質画像データに変 換する画像処理用のプログラムであって、
前記高質画像データ内の第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データ の第 1の定常性を検出し、 前記第 1の注目画素に時間的または空間的に隣接する 前記高質画像データ内の第 2の注目画素に対応する、 前記入力画像データ内の複 数の第 2の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの 第 2の定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第 1 の定常性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 3の周辺画素を抽出し、 前記画像データ定常性検出ステップにおいて検 出された前記画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応 する、 前記入力画像データ内の複数の第 4の周辺画素を抽出する第 1の抽出ステ ップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第 1 の定常性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 5の周辺画素を抽出し、 前記画像データ定常性検出ステップにおいて検 出された前記画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応 する、 前記入力画像データ内の複数の第 6の周辺画素を抽出する第 2の抽出ステ ップと、
前記第 1の抽出ステップにおいて抽出された複数の前記第 3の周辺画素の第 1 の特徴量を検出し、 前記第 1の抽出ステップにおいて抽出された複数の前記第 4 の周辺画素の第 2の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記第 1の特徴量に基づいて、 前 記第 2の抽出ステップにおいて抽出された複数の前記第 5の周辺画素から前記第 1の注目画素を予測し、 前記特徴量検出ステップにおいて検出された前記第 2の 特徴量に基づいて、 前記第 2の抽出ステツプにおいて抽出された複数の前記第 6 の周辺画素から前記第 2の注目画素を予測し、 前記第 1の注目画素の第 1の予測 値および前記第 2の注目画素の第 2の予測値を出力する予測ステップと、 前記予測ステップにおいて予測された前記第 1の注目画素の前記第 1の予測値 と、 前記予測ステップにおいて予測された前記第 2の注目画素の前記第 2の予測 値と、 少なくとも前記第 1の注目画素と前記第 2の注目画素とを時間方向または 空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画 素値との関係を検出し、 検出結果に応じて前記第 1の注目画素の前記第 1の予測 値おょぴ前記第 2の注目画素の前記第 2の予測値を選択的に出力する選択出カス テツプと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
6 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データを、 前記入力画像データよりも高質な高質画像データに変 換する画像処理を、 コンピュータに行わせるプログラムにおいて、
前記高質画像データ内の第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データ の第 1の定常性を検出し、 前記第 1の注目画素に時間的または空間的に隣接する 前記高質画像データ内の第 2の注目画素に対応する、 前記入力画像データ内の複 数の第 2の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの 第 2の定常性を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第 1 の定常性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 3の周辺画素を抽出し、 前記画像データ定常性検出ステップにおいて検 出された前記画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応 する、 前記入力画像データ内の複数の第 4の周辺画素を抽出する第 1の抽出ステ ップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの第 1 の定常性に基づいて、 前記第 1の注目画素に対応する、 前記入力画像データ内の 複数の第 5の周辺画素を抽出し、 前記画像データ定常性検出ステップにおいて検 出された前記画像データの第 2の定常性に基づいて、 前記第 2の注目画素に対応 する、 前記入力画像データ内の複数の第 6の周辺画素を抽出する第 2の抽出ステ ップと、
前記第 1の抽出ステップにおいて抽出された複数の前記第 3の周辺画素の第 1 の特徴量を検出し、 前記第 1の抽出ステップにおいて抽出された複数の前記第 4 の周辺画素の第 2の特徴量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記第 1の特徴量に基づいて、 前 記第 2の抽出ステップにおいて抽出された複数の前記第 5の周辺画素から前記第 1の注目画素を予測し、 前記特徴量検出ステップにおいて検出された前記第 2の 特徴量に基づいて、 前記第 2の抽出ステツプにおいて抽出された複数の前記第 6 の周辺画素から前記第 2の注目画素を予測し、 前記第 1の注目画素の第 1の予測 値および前記第 2の注目画素の第 2の予測値を出力する予測ステップと、 前記予測ステップにおいて予測された前記第 1の注目画素の前記第 1の予測値 と、 前記予測ステップにおいて予測された前記第 2の注目画素の前記第 2の予測 値と、 少なくとも前記第 1の注目画素と前記第 2の注目画素とを時間方向または 空間方向に対して包含する位置に配される前記入力画像データ内の対応画素の画 素値との関係を検出し、 検出結果に応じて前記第 1の注目画素の前記第 1の予測 値および前記第 2の注目画素の前記第 2の予測値を選択的に出力する選択出カス テツプと
を含むことを特徴とするプログラム。
7 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データから、 前記入力画像データよりも高質な高質画像データを 予測する予測手段を学習する学習装置において、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの定常性 を検出する画像データ定常性検出手段と、
前記画像データ定常性検出手段により検出された前記画像データの定常性に基 づいて、 前記高質画像データ内の前記注目画素に対応する、 前記入力画像データ 内の複数の第 2の周辺画素を抽出する第 1の抽出手段と、
前記画像データ定常性検出手段により検出された前記画像データの定常性に基 づいて、 前記注目画素に対応する、 前記入力画像データ内の複数の第 3の周辺画 素を抽出する第 2の抽出手段と、
前記第 1の抽出手段により抽出された複数の前記第 2の周辺画素の特徴量を検 出する特徴量検出手段と、
前記特徴量検出手段により検出された前記特徴量毎に、 前記第 2の抽出手段に より抽出された複数の前記第 3の周辺画素から前記注目画素を予測するための前 記予測手段を学習する学習手段と
を含むことを特徴とする学習装置。
8 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データから、 前記入力画像データよりも高質な高質画像データを 予測する予測手段を学習する学習方法において、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの定常性 を検出する画像データ定常性検出ステツプと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常 性に基づいて、 前記高質画像データ内の前記注目画素に対応する、 前記入力画像 データ内の複数の第 2の周辺画素を抽出する第 1の抽出ステップと、 前記画像データ定常性検出ステップにおいて検出された前記画像データの定常 性に基づいて、 前記注目画素に対応する、 前記入力画像データ内の複数の第 3の 周辺画素を抽出する第 2の抽出ステップと、
前記第 1の抽出ステップにおいて抽出された複数の前記第 2の周辺画素の特徴 量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記特徴量毎に、 前記第 2の抽出 ステップにおいて抽出された複数の前記第 3の周辺画素から前記注目画素を予測 するための前記予測手段を学習する学習ステップと
を含むことを特徴とする学習方法。
9 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する撮 像素子が現実世界の光信号を撮像することにより取得された複数の画素データか らなる入力画像データから、 前記入力画像データよりも高質な高質画像データを 予測する予測手段を学習する学習処理用のプログラムであって、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの定常性 を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常 性に基づいて、 前記高質画像データ内の前記注目画素に対応する、 前記入力画像 データ内の複数の第 2の周辺画素を抽出する第 1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常 性に基づいて、 前記注目画素に対応する、 前記入力画像データ內の複数の第 3の 周辺画素を抽出する第 2の抽出ステップと、
前記第 1の抽出ステップにおいて抽出された複数の前記第 2の周辺画素の特徴 量を検出する特徴量検出ステップと、
前記特徴量検出ステップにおいて検出された前記特徴量毎に、 前記第 2の抽出 ステツプにおいて抽出された複数の前記第 3の周辺画素から前記注目画素を予測 するための前記予測手段を学習する学習ステップと を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
1 0 . それぞれ時間積分効果または空間積分効果を有する複数の画素を有する 撮像素子が現実世界の光信号を撮像することにより取得された複数の画素データ からなる入力画像データから、 前記入力画像データよりも高質な高質画像データ を予測する予測手段を学習する学習処理を、 コンピュータに行わせるプログラム において、
前記高質画像データ内の注目画素に対応する前記入力画像データ内の複数の第 1の周辺画素の、 前記現実世界の光信号の定常性に対応する画像データの定常性 を検出する画像データ定常性検出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常 性に基づいて、 前記高質画像データ内の前記注目画素に対応する、 前記入力画像 データ内の複数の第 2の周辺画素を抽出する第 1の抽出ステップと、
前記画像データ定常性検出ステップにおいて検出された前記画像データの定常 性に基づいて、 前記注目画素に対応する、 前記入力画像データ内の複数の第 3の 周辺画素を抽出する第 2の抽出ステップと、
前記第 1の抽出ステップにおいて抽出された複数の前記第 2の周辺画素の特徴 量を検出する特徴量検出ステップと、
前記特徴量検出ステツプにおいて検出された前記特徴量毎に、 前記第 2の抽出 ステップにおいて抽出された複数の前記第 3の周辺画素から前記注目画素を予測 するための前記予測手段を学習する学習ステップと
を含むことを特徴とするプログラム。
PCT/JP2004/001607 2003-02-27 2004-02-13 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム WO2004077828A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/545,074 US7450764B2 (en) 2003-02-27 2004-02-13 Image processing device and method, learning device and method, recording medium, and program
US12/044,557 US7483565B2 (en) 2003-02-27 2008-03-07 Image processing device and method, learning device and method, recording medium, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-050208 2003-02-27
JP2003050208A JP4265237B2 (ja) 2003-02-27 2003-02-27 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10545074 A-371-Of-International 2004-02-13
US12/044,557 Division US7483565B2 (en) 2003-02-27 2008-03-07 Image processing device and method, learning device and method, recording medium, and program

Publications (1)

Publication Number Publication Date
WO2004077828A1 true WO2004077828A1 (ja) 2004-09-10

Family

ID=32923337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/001607 WO2004077828A1 (ja) 2003-02-27 2004-02-13 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム

Country Status (5)

Country Link
US (2) US7450764B2 (ja)
JP (1) JP4265237B2 (ja)
KR (1) KR101023451B1 (ja)
CN (1) CN100407787C (ja)
WO (1) WO2004077828A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506279A (zh) * 2021-07-22 2021-10-15 浙江大华技术股份有限公司 对象倾斜角度的确定方法、装置、存储介质及电子装置

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214459B2 (ja) 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4265237B2 (ja) 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP4144377B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4144378B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4265291B2 (ja) * 2003-06-06 2009-05-20 ソニー株式会社 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム
US7738739B2 (en) * 2006-01-26 2010-06-15 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and apparatus for adjusting the resolution of a digital image
JP2008252862A (ja) * 2007-03-05 2008-10-16 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
US8655108B2 (en) 2007-09-19 2014-02-18 Sharp Laboratories Of America, Inc. Adaptive image up-scaling technique
JP4882999B2 (ja) * 2007-12-21 2012-02-22 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および学習装置
JP5061882B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム、並びに学習装置
CN101631188B (zh) * 2008-07-14 2012-05-09 华晶科技股份有限公司 数字影像的合成方法
JP5347862B2 (ja) * 2008-09-29 2013-11-20 ソニー株式会社 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
US8482300B2 (en) * 2009-01-28 2013-07-09 Massachusetts Institute Of Technology System and method for providing electromagnetic imaging through magnetoquasistatic sensing
GB2474281A (en) * 2009-10-09 2011-04-13 Snell Ltd Defining image features using local spatial maxima and minima
JP5550301B2 (ja) * 2009-10-16 2014-07-16 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US8315305B2 (en) 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9193075B1 (en) 2010-08-26 2015-11-24 Brain Corporation Apparatus and methods for object detection via optical flow cancellation
JP2012244395A (ja) * 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
US9070039B2 (en) 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
JP2013021635A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
WO2013086601A1 (en) * 2011-12-12 2013-06-20 The University Of British Columbia System and method for determining a depth map sequence for a two-dimensional video sequence
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9412041B1 (en) * 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
KR101882704B1 (ko) 2017-12-18 2018-07-27 삼성전자주식회사 전자 장치 및 그 제어 방법
US11074671B2 (en) 2017-12-18 2021-07-27 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11321813B2 (en) * 2018-08-02 2022-05-03 Apple Inc. Angular detection using sum of absolute difference statistics systems and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951510A (ja) * 1995-05-31 1997-02-18 Sony Corp 信号変換装置及び信号変換方法
JPH10327392A (ja) * 1997-05-23 1998-12-08 Sony Corp 走査線変換装置および方法
JPH1169144A (ja) * 1997-08-12 1999-03-09 Sony Corp 画像信号の変換装置および変換方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438233B2 (ja) * 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
KR100360206B1 (ko) * 1992-12-10 2003-02-11 소니 가부시끼 가이샤 화상신호변환장치
US5852470A (en) 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method
US6160845A (en) * 1996-12-26 2000-12-12 Sony Corporation Picture encoding device, picture encoding method, picture decoding device, picture decoding method, and recording medium
US5912708A (en) * 1996-12-26 1999-06-15 Sony Corporation Picture signal encoding device, picture signal encoding method, picture signal decoding device, picture signal decoding method, and recording medium
KR100252988B1 (ko) * 1997-01-27 2000-04-15 구자홍 에이치디 티브이(hdtv)의 영상포멧 변환장치 및 방법
JP4158232B2 (ja) * 1998-07-23 2008-10-01 ソニー株式会社 画像情報変換装置および画像表示装置
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
US6636222B1 (en) * 1999-11-09 2003-10-21 Broadcom Corporation Video and graphics system with an MPEG video decoder for concurrent multi-row decoding
US6600517B1 (en) * 2000-03-07 2003-07-29 Koninklijke Philips Electronics N.V. System and method for improving the sharpness of a video image
JP4470280B2 (ja) * 2000-05-24 2010-06-02 ソニー株式会社 画像信号処理装置及び画像信号処理方法
JP4277446B2 (ja) * 2000-12-26 2009-06-10 ソニー株式会社 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置および生成方法、並びに記録媒体
US6903782B2 (en) * 2001-03-28 2005-06-07 Koninklijke Philips Electronics N.V. System and method for performing segmentation-based enhancements of a video image
EP1326436B1 (en) * 2001-12-28 2013-02-13 Sony Corporation Displaying information
JP4265237B2 (ja) 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951510A (ja) * 1995-05-31 1997-02-18 Sony Corp 信号変換装置及び信号変換方法
JPH10327392A (ja) * 1997-05-23 1998-12-08 Sony Corp 走査線変換装置および方法
JPH1169144A (ja) * 1997-08-12 1999-03-09 Sony Corp 画像信号の変換装置および変換方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506279A (zh) * 2021-07-22 2021-10-15 浙江大华技术股份有限公司 对象倾斜角度的确定方法、装置、存储介质及电子装置

Also Published As

Publication number Publication date
US20080199072A1 (en) 2008-08-21
US20060146198A1 (en) 2006-07-06
JP4265237B2 (ja) 2009-05-20
CN100407787C (zh) 2008-07-30
KR101023451B1 (ko) 2011-03-24
US7483565B2 (en) 2009-01-27
JP2004266381A (ja) 2004-09-24
KR20050104412A (ko) 2005-11-02
US7450764B2 (en) 2008-11-11
CN1754384A (zh) 2006-03-29

Similar Documents

Publication Publication Date Title
WO2004077828A1 (ja) 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP4148041B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4144378B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4392584B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
WO2004077351A1 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2005084036A1 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP2006512029A (ja) セグメントベース動き推定
WO2004072898A1 (ja) 信号処理装置および方法、並びにプログラム
CN113902611A (zh) 图像美颜处理方法、装置、存储介质与电子设备
WO2004077354A1 (ja) 画像処理装置および方法、並びにプログラム
JP4423537B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4214460B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2020126523A (ja) 画像切出装置、画像解析装置及びプログラム
JP4214462B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4182827B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4325296B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4182826B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
JP4214461B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4264631B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4264632B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2019083467A (ja) 画像処理装置、画像処理方法およびプログラム
JP2005018498A (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006146198

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10545074

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057016028

Country of ref document: KR

Ref document number: 20048052509

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057016028

Country of ref document: KR

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10545074

Country of ref document: US