WO2010032296A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2010032296A1
WO2010032296A1 PCT/JP2008/066789 JP2008066789W WO2010032296A1 WO 2010032296 A1 WO2010032296 A1 WO 2010032296A1 JP 2008066789 W JP2008066789 W JP 2008066789W WO 2010032296 A1 WO2010032296 A1 WO 2010032296A1
Authority
WO
WIPO (PCT)
Prior art keywords
quantization
image
quantization threshold
detection target
frequency component
Prior art date
Application number
PCT/JP2008/066789
Other languages
English (en)
French (fr)
Inventor
珊珊 于
雅芳 清水
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2008/066789 priority Critical patent/WO2010032296A1/ja
Priority to JP2010529528A priority patent/JP4802297B2/ja
Publication of WO2010032296A1 publication Critical patent/WO2010032296A1/ja
Priority to US13/064,297 priority patent/US8422790B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program for quantizing image data.
  • the amount of information in the image data itself is enormous, and the object detection technique only needs to be able to determine whether or not an object to be searched exists in the image. There is a need to reduce data and save memory resources.
  • image data is frequency-converted (wavelet ⁇ Wavelet> conversion), and quantization processing is performed based on the conversion coefficient size (or the difference in pixel value between adjacent pixels) as the conversion result.
  • quantization processing is performed based on the conversion coefficient size (or the difference in pixel value between adjacent pixels) as the conversion result.
  • the image data is quantized in three stages by comparing the transform coefficient with a statically set quantization threshold, so the storage area for image data and learning data used for object detection is reduced. It becomes possible to reduce.
  • JP 2001-298366 A H. Schneiderman and T. Kanade, Object Detection Using the Statistics of Parts To appearance in International Journal of Computer Vision, 2002.
  • the present invention has been made to solve the above-described problems caused by the prior art, and is an image processing apparatus and image processing capable of improving the accuracy of object detection corresponding to the diversity of images to be processed. It is an object to provide a method and an image processing program.
  • the image processing apparatus includes: a conversion unit that converts an input image into a plurality of frequency components; and a plurality of frequency components of the input image converted by the conversion unit.
  • 1st quantization threshold value calculation means for calculating the first quantization threshold value for the first frequency component based on the statistical value of the first frequency component
  • the first quantization threshold value calculation means Second quantization for calculating a second quantization threshold for a second frequency component other than the first frequency component among the plurality of frequency components based on the first quantization threshold calculated by Quantization that performs quantization using the first quantization threshold for the first frequency component and the second quantization threshold for the second frequency component, respectively, with threshold calculation means Means to have To.
  • the other frequency component by using the quantization threshold value calculated for the first frequency component representing the feature of the image for calculating the quantization threshold value of the other frequency component, the other frequency component
  • the quantization threshold value can be simplified, and the processing speed can be increased.
  • FIG. 1 is a functional block diagram illustrating a configuration of an image processing apparatus that performs dynamic quantization.
  • FIG. 2 is a diagram for explaining an example of a quantization threshold calculation method.
  • FIG. 3 is a diagram for explaining a difference in effect between dynamic quantization and static quantization.
  • FIG. 4 is a diagram for explaining the outline of the image processing apparatus according to the present embodiment.
  • FIG. 5 is a diagram for explaining the correlation between the frequency components.
  • FIG. 6 is a functional block diagram illustrating the configuration of the image processing apparatus according to the present embodiment.
  • FIG. 7 is a diagram illustrating an example of the data structure of the face learning data.
  • FIG. 8 is a diagram illustrating an example of the data structure of non-face learning data.
  • FIG. 9 is a diagram illustrating an example of a data structure of comparison target data.
  • FIG. 10 is a diagram for explaining an example of processing of the face detection processing unit.
  • FIG. 11 is a diagram illustrating an example of the data structure of the comparison result table.
  • FIG. 12 is a diagram for explaining how the detection range moves.
  • FIG. 13 is a flowchart illustrating the processing procedure of the image processing apparatus according to the present embodiment.
  • FIG. 14 is a flowchart illustrating the processing procedure of the quantization processing.
  • FIG. 15 is a diagram illustrating a hardware configuration of a computer constituting the image processing apparatus according to the present embodiment.
  • the image data is quantized in three stages by comparing the conversion coefficient with a statically set quantization threshold (a threshold set in advance by the user). It was converted.
  • a statically set quantization threshold a threshold set in advance by the user. It was converted.
  • a histogram is calculated for each frequency component obtained from the result of frequency conversion of image data, and a quantization threshold is dynamically calculated based on the calculated histogram. .
  • the quantization threshold value is dynamically calculated according to the characteristics of the image data, so that the image data can be optimally quantized. If such dynamic processing is applied to object detection processing, the accuracy of object detection can be improved while saving memory resources.
  • FIG. 1 is a functional block diagram showing a configuration of an image processing apparatus 10 that executes dynamic quantization.
  • the image processing apparatus 10 includes a frequency conversion processing unit 11, histogram calculation units 12a to 12c, quantization threshold calculation units 13a to 13c, and a quantization unit 14.
  • the image processing apparatus 10 includes a histogram calculation unit and a quantization threshold calculation unit. Shall.
  • the frequency conversion processing unit 11 is a processing unit that acquires image data and executes frequency conversion processing (for example, wavelet conversion) on the acquired image data.
  • the frequency conversion process for the image data is the same as the known technique.
  • the frequency conversion processing unit 11 outputs the frequency-converted image data to the histogram calculation units 12a to 12c.
  • the histogram calculation units 12a to 12c acquire the frequency-converted image data from the frequency conversion processing unit 11
  • the histogram calculation units 12a to 12c extract a preset frequency component from the acquired image data and perform conversion corresponding to the extracted frequency component.
  • It is a processing unit that calculates a histogram composed of a coefficient and a frequency.
  • a description will be given using the first frequency component, the second frequency component, and the third frequency component.
  • the histogram calculation unit 12a acquires the frequency-converted image data from the frequency conversion processing unit 11, the histogram calculation unit 12a extracts a first frequency component from the acquired image data, and performs a conversion corresponding to the extracted first frequency component. A histogram indicating the relationship between the coefficient and the frequency is calculated.
  • the histogram calculation unit 12b acquires the frequency-converted image data from the frequency conversion processing unit 11
  • the histogram calculation unit 12b extracts the second frequency component from the acquired image data, and the conversion coefficient corresponding to the extracted second frequency component A histogram indicating the relationship between the frequency and the frequency is calculated.
  • the histogram calculation unit 12c acquires the frequency-converted image data from the frequency conversion processing unit 11
  • the histogram calculation unit 12c extracts the third frequency component from the acquired image data, and the conversion coefficient corresponding to the extracted third frequency component
  • a histogram indicating the relationship between the frequency and the frequency is calculated.
  • the quantization threshold calculation unit 13a is a processing unit that calculates a quantization threshold based on the histogram calculated by the histogram calculation unit 12a.
  • the quantization threshold calculation unit 13a outputs the calculated quantization thresholds Q1 and Q2 to the quantization unit 14.
  • FIG. 2 is a diagram for explaining an example of a quantization threshold calculation method.
  • the quantization threshold calculation unit 13a sets the predetermined values C1 and C2 in advance, and includes all the data amounts A included in the histogram (the amount of data included in the region between the histogram line and the horizontal axis). ) Is specified, and a quantization threshold value Q1 is calculated such that the data amount B / data amount A is C1. Also, a quantization threshold Q2 is calculated such that the data amount C / data amount A is C2.
  • the data amount B is the amount of data in the region surrounded by the histogram line, the horizontal axis, and the vertical line from the quantization threshold Q1
  • the data amount C is calculated from the histogram line, the horizontal axis, and the quantization threshold Q2. This is the amount of data in the area surrounded by the vertical line.
  • the quantization thresholds Q1 and Q2 move left and right. That is, since the quantization threshold values Q1 and Q2 are dynamically calculated according to various image data, it is possible to deal with the diversity of image data to be processed.
  • the quantization threshold calculation unit 13b is a processing unit that calculates a quantization threshold based on the histogram calculated by the histogram calculation unit 12b, and outputs the calculated quantization thresholds Q1 and Q2 to the quantization unit 14.
  • the quantization threshold calculation unit 13c is a processing unit that calculates a quantization threshold based on the histogram calculated by the histogram calculation unit 12c, and outputs the calculated quantization thresholds Q1 and Q2 to the quantization unit 14.
  • the processing of the quantization threshold calculation units 13b and 13c is the same as that of the quantization threshold calculation unit 13a.
  • the quantization unit 14 is a processing unit that quantizes the image data based on the quantization threshold acquired from the quantization threshold calculation units 13a to 13c. Specifically, the quantization unit 14 compares the quantization thresholds Q1 and Q2 acquired from the quantization threshold calculation unit 13a with the transform coefficient in the first frequency component, and quantizes the image data in three stages. . For example, in the region (block) in the image data, the quantization unit 14 converts the region of the transform coefficient that is less than the quantization threshold Q1 to “0”, the quantization threshold Q1 or more, and the quantization threshold Q2 or less. The coefficient area is replaced with “1”, and the conversion coefficient area greater than the quantization threshold Q2 is replaced with “2”.
  • the quantization unit 14 compares the quantization thresholds Q1 and Q2 acquired from the quantization threshold calculation unit 13b with the transform coefficient in the second frequency component, and quantizes the image data in three stages. For example, in the region in the image data, the quantization unit 14 sets the region of the transform coefficient that is less than the quantization threshold Q1 to “0”, the region of the transform coefficient that is the quantization threshold Q1 or more and the quantization threshold Q2 or less. Is replaced with “1” and the region of the transform coefficient larger than the quantization threshold Q2 is replaced with “2”.
  • the quantization unit 14 compares the quantization thresholds Q1 and Q2 acquired from the quantization threshold calculation unit 13c with the transform coefficient in the third frequency component, and quantizes the image data in three stages. For example, in the region in the image data, the quantization unit 14 sets the region of the transform coefficient that is less than the quantization threshold Q1 to “0”, the region of the transform coefficient that is the quantization threshold Q1 or more and the quantization threshold Q2 or less. Is replaced with “1” and the region of the transform coefficient larger than the quantization threshold Q2 is replaced with “2”.
  • FIG. 3 is a diagram for explaining the difference in effect between dynamic quantization and static quantization.
  • (A), (b), and (c) of FIG. 3 show the difference between dynamic quantization and static quantization when image data having different brightness is quantized. However, the brightness of the image is (a) ⁇ (b) ⁇ (c).
  • image data can be quantized satisfactorily for both dynamic quantization and static quantization.
  • the image since the image is too dark, if the static quantization is performed, the characteristics of the subject (for example, the face) are lost and cannot be appropriately quantized.
  • the image data can be quantized well.
  • the above-described dynamic quantization can appropriately quantize the image data corresponding to the diversity of the image data, but calculates the quantization threshold of each frequency component by calculating the histogram for each frequency component. Therefore, it is necessary to calculate all histograms corresponding to each frequency component, and there is a problem that the quantization process cannot be speeded up.
  • FIG. 4 is a diagram for explaining the outline of the image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 includes a frequency conversion processing unit 20, a histogram calculation unit 21, quantization threshold calculation units 22a to 22c, and a quantization unit 23.
  • the frequency conversion processing unit 20 is a processing unit that acquires image data and executes frequency conversion processing (for example, wavelet conversion) on the acquired image data.
  • the frequency conversion process for the image data is the same as the known technique.
  • the frequency conversion processing unit 20 outputs the frequency-converted image data to the histogram calculation unit 21.
  • the histogram calculation unit 21 acquires the frequency-converted image data from the frequency conversion processing unit 20, the histogram calculation unit 21 extracts a preset frequency component from the acquired image data, and a conversion coefficient corresponding to the extracted frequency component It is a processing part which calculates the histogram which consists of frequency.
  • a description will be given using the first frequency component, the second frequency component, and the third frequency component.
  • the histogram calculation unit 21 is a processing unit that extracts the first frequency component and calculates a histogram indicating the relationship between the conversion coefficient corresponding to the extracted frequency component and the frequency.
  • the histogram calculation unit 21 outputs the calculated histogram information to the quantization threshold calculation unit 22a.
  • the quantization threshold calculation unit 22a is a processing unit that calculates the quantization thresholds Q1 and Q2 corresponding to the first frequency component based on the histogram calculated by the histogram calculation unit 21.
  • the process by which the quantization threshold calculation unit 22a calculates the quantization thresholds Q1 and Q2 is the same as the quantization threshold calculation unit 13a illustrated in FIG.
  • the quantization threshold calculation unit 22a outputs the quantization thresholds Q1 and Q2 corresponding to the first frequency component to the quantization threshold calculation units 22b and 22c and the quantization unit 23.
  • the quantization threshold calculation unit 22b acquires the quantization thresholds Q1 and Q2 corresponding to the first frequency component from the quantization threshold calculation unit 22a, and corresponds to the second frequency component based on the acquired quantization threshold.
  • the processing unit calculates the quantization thresholds Q1 and Q2.
  • the quantization threshold calculation unit 22b outputs the quantization thresholds Q1 and Q2 corresponding to the calculated second frequency component to the quantization unit 23.
  • the quantization threshold calculation unit 22b calculates the quantization thresholds Q1 and Q2 corresponding to the second frequency component, for example, the quantization threshold calculation unit 22b sets the quantization thresholds Q1 and Q2 corresponding to the first frequency component. By multiplying n (n is an integer), quantization threshold values Q1 and Q2 corresponding to the second frequency component are calculated.
  • the quantization threshold calculation unit 22c acquires the quantization thresholds Q1 and Q2 corresponding to the first frequency component from the quantization threshold calculation unit 22a, and corresponds to the third frequency component based on the acquired quantization threshold.
  • the processing unit calculates the quantization thresholds Q1 and Q2.
  • the quantization threshold calculation unit 22c outputs the quantization thresholds Q1 and Q2 corresponding to the calculated third frequency component to the quantization unit 23.
  • the quantization threshold calculation unit 22c calculates the quantization thresholds Q1 and Q2 corresponding to the third frequency component
  • the quantization threshold calculation unit 22c sets the quantization thresholds Q1 and Q2 corresponding to the first frequency component.
  • m is an integer larger than n
  • the quantization unit 23 is a processing unit that quantizes image data based on the quantization threshold acquired from the quantization threshold calculation units 22a to 22c.
  • the specific processing is the same as that of the quantization unit 14 shown in FIG.
  • the image processing apparatus 100 converts the image data into a plurality of frequency components, and then sets the quantization threshold for the predetermined frequency component based on the histogram (statistical value) of the predetermined frequency component. The process of calculating and calculating the histogram of other frequency components is omitted. Since the image processing apparatus 100 quantizes the image data after calculating the quantization threshold for the remaining frequency components based on the calculated quantization threshold, the quantization processing can be speeded up.
  • FIG. 5 is a diagram for explaining the correlation of each frequency component.
  • the high frequency component in the horizontal direction as a result of frequency conversion of the original image is used as the first frequency component.
  • a high frequency component in the vertical direction as a result of frequency conversion of the original image is used.
  • a frequency component in an oblique direction as a result of frequency conversion of the original image is used.
  • the quantization threshold corresponding to each frequency component can be obtained by the above-described method without calculating the histogram corresponding to all the frequency components. Can be calculated with high accuracy.
  • FIG. 6 is a functional block diagram illustrating the configuration of the image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 includes conversion processing units 110a and 110b, analysis processing units 120a and 120b, a storage unit 130, and a face detection processing unit 140.
  • the conversion processing unit 110a is a processing unit that acquires face image collection data and non-face image collection data, and performs frequency conversion processing (for example, wavelet conversion) on the acquired face image collection data and non-face image collection data. is there.
  • the conversion processing unit 110a corresponds to the frequency conversion unit 20 illustrated in FIG.
  • the face image collection data is image data obtained by collecting face images of various persons
  • the non-face image collection data is image data obtained by collecting various images other than the face images. It is assumed that the size of the face image collection data and the size of the non-face image collection data are unified.
  • the image data included in the face image collection data is composed of a group of images in which the face is captured on the entire surface, with a vertical width substantially including the head from the chin and a horizontal width substantially including both ears.
  • the non-face image collection data is composed of various image data not including a face.
  • the conversion processing unit 110a acquires face image collection data and non-face image collection data from an input device, a storage device (not shown), or the like.
  • the conversion processing unit 110a outputs the face image collection data and non-face image collection data subjected to frequency conversion to the analysis processing unit 120a.
  • frequency-converted face image collection data is referred to as converted face image collection data
  • frequency-converted non-face image collection data is referred to as converted non-face image collection data.
  • the conversion processing unit 110b is a processing unit that acquires input image data and executes frequency conversion processing (for example, wavelet conversion) on the acquired input image data.
  • the conversion processing unit 110b corresponds to the frequency conversion unit 20 illustrated in FIG.
  • the input image data is image data that is an object detection target.
  • the conversion processing unit 110b acquires input image data from an input device, a storage device (not shown), or the like.
  • the conversion processing unit 110b outputs the input image data subjected to frequency conversion to the analysis processing unit 120b.
  • the analysis processing unit 120a creates face learning data by quantizing the converted face image collection data, and quantizes the converted non-face image collection data This is a processing unit that creates non-face learning data.
  • the process in which the analysis processing unit 120a quantizes the converted face image collection data to create face learning data is the same as the histogram calculation unit 21, the quantization threshold calculation units 22a to 22c, and the quantization unit 23 illustrated in FIG. It is.
  • the analysis processing unit 120a outputs the created face learning data to the storage unit 130.
  • the analysis processing unit 120a quantizes the converted non-face image collection data to create non-face learning data.
  • the analysis processing unit 120a outputs the created non-face learning data to the storage unit 130.
  • the analysis processing unit 120b is a processing unit that quantizes the acquired input image data in three stages when the frequency-converted input image data is acquired.
  • the input image data means an image cut out from the face detection processing target (the input frame itself), and this corresponds to the comparison target data. Since it is not known what size face is included in the entire face detection target frame, the comparison target data is changed to multiple types of sizes, and the clipping position is shifted in the frame. It cuts out and sets the area
  • the process in which the analysis processing unit 120b acquires the input image data and creates the comparison target data is the same as the histogram calculation unit 21, the quantization threshold calculation units 22a to 22c, and the quantization unit 23 illustrated in FIG.
  • the storage unit 130 is a storage unit that stores the face learning data 130a output from the analysis processing unit 120a, the non-face learning data 130b, and the comparison target data 130c output from the analysis processing unit 120b.
  • FIG. 7 is a diagram showing an example of the data structure of the face learning data 130a.
  • the face learning data 130a stores positional information and a transform coefficient value (value after quantization) in association with each other.
  • the data structure of the face learning data 130 a is not limited to that shown in FIG. 7.
  • conversion coefficient values are associated with each other and stored for each block (for example, 8 coefficients) of conversion coefficients to be compared at the time of object detection. Also good.
  • FIG. 8 is a diagram showing an example of the data structure of the non-face learning data 130b.
  • the non-face learning data 130b stores position information and transform coefficient values (values after quantization, expressed as numerical information in the figure) in association with each other.
  • the data structure of the non-face learning data 130b is not limited to that shown in FIG. 8, and for example, conversion coefficient values are associated with each other and stored for each lump of conversion coefficients to be compared at the time of object detection (for example, 8 coefficients). May be.
  • FIG. 9 is a diagram illustrating an example of the data structure of the comparison target data 130c.
  • the comparison target data 130c stores position information and transform coefficient values (values after quantization, expressed as numerical information in the figure) in association with each other.
  • the data structure of the comparison target data 130c is not limited to that shown in FIG. 9, and for example, conversion coefficient values are stored in association with each block of conversion coefficients (for example, 8 conversion coefficients) to be compared at the time of object detection. May be.
  • the face detection processing unit 140 compares the face learning data 130a, the non-face learning data 130b, and the comparison target data 130c stored in the storage unit 130, and determines whether or not a face image is included in the input image data. It is a processing part which determines.
  • the face detection processing unit 140 outputs the determination result to an upper processing unit (not shown).
  • FIG. 10 is a diagram for explaining an example of processing of the face detection processing unit 140.
  • the face detection processing unit 140 sets a detection range, and compares each conversion coefficient value included in the detection range at the same position in the face learning data 130a, the non-face learning data 130b, and the comparison target data 130c. Then, as a result of the comparison, the face detection processing unit 140 determines whether the detection range of the comparison target data is similar to the face learning data or the non-face learning data, and the determination result is compared with the comparison result table. Register with. Assume that the comparison result table is held by the face detection processing unit 140.
  • FIG. 11 is a diagram showing an example of the data structure of the comparison result table.
  • this comparison result table stores detection range identification information for identifying a detection range and a comparison result in association with each other.
  • the face detection processing unit 140 compares the detection ranges of the face learning data 130a, the non-face learning data 130b, and the comparison target data 130c and determines that they are similar to the face learning data 130a, "Maru" is registered, and if it is determined that the non-face learning data 130b is similar, "X" is registered in the comparison result.
  • the detection range identification information of the detection range currently set in each of the image data 130a to 130c is “1001”.
  • the face detection processing unit 140 compares each conversion coefficient value in the detection range of the comparison target data 130c with each conversion coefficient value in the detection range of the face learning data 130a, eight hits are found.
  • the face detection processing unit 140 compares each conversion coefficient value in the detection range of the comparison target data 130c with each conversion coefficient value in the non-face learning data 130b, one hit is made.
  • the face detection processing unit 140 sets the comparison result corresponding to the detection range identification information “1001” to “maru” because the face learning data 130a has more hits than the non-face learning data 130b. .
  • “X” is set. If the number is the same, neither is set here.
  • the face detection processing unit 140 sequentially registers “Maru” or “X” in the comparison result of the comparison result table while moving the detection range.
  • FIG. 12 is a diagram for explaining how the detection range moves.
  • the face detection processing unit 140 compares the conversion coefficient values in the detection range, the positions of the detection ranges arranged on the face learning data 130a, the non-face learning data 130b, and the comparison target data 130c are unified. It is assumed that
  • the face detection processing unit 140 refers to the comparison result table and determines the number of “maru” rather than the number of “X”. If there are more, it is determined that a face image is included in the input image. On the other hand, when the number of “maru” is smaller than the number of “X”, it is determined that the face image is not included in the input image. If the number of “X” is equal to the number of “Maru”, it may be determined that the face image is included or not determined according to the administrator setting. May be.
  • the face detection processing unit 140 compares the conversion coefficient values every 8 blocks, but is not limited thereto.
  • conversion coefficient values can be compared for each n (n is a natural number) conversion coefficient.
  • FIG. 11 it is not always necessary to store the comparison results for each detection range. For example, the number of “maru” and the number of “X” are totaled, and only the total results are stored in the comparison result table. May be.
  • FIG. 13 is a flowchart illustrating the processing procedure of the image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 acquires input image data (step S101), and executes a quantization process (step S202).
  • the image processing apparatus 100 compares the comparison target data 130c, the face learning data 130a, and the non-face learning data 130b, and registers “Maru” or “X” in the comparison result table (Step S103). It is determined whether or not there are more “marus” than “batches” (step S104).
  • step S105 When there are more “marus” than “batches” (step S105, Yes), the image processing apparatus 100 determines that a face image exists in the input image (step S106), and outputs the determination result (step S106). S107). On the other hand, when “mal” is less than “cross” (No in step S105), it is determined that no face image exists in the input image (step S108), and the process proceeds to step S107.
  • FIG. 14 is a flowchart illustrating the processing procedure of the quantization processing.
  • the image processing apparatus 100 performs frequency conversion on the input image data (step S201), and calculates a quantization threshold corresponding to the first frequency component (step S202).
  • the image processing apparatus 100 calculates a quantization threshold corresponding to the remaining frequency components based on the quantization threshold corresponding to the first frequency component (step S203).
  • the image processing apparatus 100 compares the transform coefficient corresponding to the selected block with the quantization thresholds Q1 and Q2, quantizes the transform coefficient (step S204), and determines whether all blocks (regions) have been selected. Determination is made (step S205).
  • step S206 Yes
  • step S206, No an unselected conversion coefficient is selected (step S207), and the process proceeds to step S204.
  • the comparison target data input image
  • the comparison target data area is set by cutting out the input frame while shifting the cutout position so as to scan. For example, the comparison target data area is set so that the comparison target data area is cut out with the first size from the input face detection target frame and the frame is scanned in the comparison target data area.
  • the size of the comparison target data is changed to the second size, and similarly, while cutting out the comparison target data region with the second size,
  • the frame is set to scan in the comparison target data area.
  • the size of the comparison target data may be arbitrarily set. Then, every time the size of the comparison target data and the clipped position from the frame of the face detection target that has been pressed are changed, threshold setting and quantization processing shown in FIG. 14 are performed.
  • the image processing apparatus 100 converts the image data into a plurality of frequency components, and then sets the quantization threshold for the predetermined frequency component in a histogram (statistical value) of the predetermined frequency component.
  • the processing for calculating the histogram based on the other frequency components is omitted. Since the image processing apparatus 100 quantizes the image data after calculating the quantization threshold for the remaining frequency components based on the calculated quantization threshold, the quantization processing can be speeded up. In addition, since the quantization threshold value is dynamically calculated, the accuracy of processing related to object detection can be improved.
  • the image processing apparatus 100 calculates a quantization threshold of the first frequency component from the frequency components of the frequency-converted image data, and converts the calculated quantization threshold to other frequency components.
  • the corresponding quantization threshold was calculated.
  • the image processing apparatus 100 selects a component including a facial feature to be detected as the first frequency component. For example, in the face, since the information in the horizontal direction (eyes, mouth) includes more features of the face information than the information in the vertical direction (for example, the nose), the image processing apparatus 100 uses the information in the horizontal direction.
  • the conversion coefficient (the high frequency component in the horizontal direction) of the included image data is selected. It is also effective to implement the dynamic quantization method described in this embodiment in combination with a known face detection technique. For example, it can be combined with [Non-Patent Document 1].
  • Non-Patent Document 1 uses a face image dictionary and a non-face image dictionary on the basis of Wavelet transform coefficients, and can be operated as it is by replacing only the quantization processing.
  • the above-described method using the high frequency component in the horizontal direction is also effective.
  • it showed as a structure which integrated dictionary data creation and the detection process.
  • the embodiment is not limited to such an integrated type, and may be configured to be divided into a part that performs dictionary data creation and a part that performs detection processing. In that case, the created dictionary data is held in a device that performs detection processing.
  • each component of the image processing apparatus 100 shown in FIG. 6 is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the various processing procedures described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • FIG. 15 is a diagram illustrating a hardware configuration of a computer constituting the image processing apparatus 100 according to the present embodiment.
  • this computer (image processing device) 30 communicates with other devices via an input device 31, a monitor 32, a RAM (Random Access Memory) 33, a ROM (Read Only Memory) 34, and a network.
  • a communication control device 35, a medium reading device 36 that reads data from a storage medium, a camera 37, a CPU (Central Processing Unit) 38, and an HDD (Hard Disk Drive) 39 are connected by a bus 40.
  • the HDD 39 stores an image processing program 39b that exhibits the same function as that of the image processing apparatus 100 described above.
  • the image processing process 38a is activated.
  • the image processing process 38a corresponds to the conversion processing units 110a and 110b, the analysis processing units 120a and 120b, and the face detection processing unit 140 in FIG.
  • the HDD 39 also stores various data 39a corresponding to information stored in the storage unit 130 of the image processing apparatus 100.
  • the CPU 38 reads out various data 39 a stored in the HDD 39, stores it in the RAM 33, and executes quantization of the image data and object detection using the various data 33 a stored in the RAM 33.
  • the image processing program 39b shown in FIG. 15 is not necessarily stored in the HDD 39 from the beginning.
  • a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into a computer, or a hard disk drive (HDD) provided inside or outside the computer.
  • the image processing program 39b is stored in the “fixed physical medium” of “the computer”, and “another computer (or server)” connected to the computer via the public line, the Internet, LAN, WAN, etc.
  • the computer may read and execute the image processing program 39b from these.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

 本発明にかかる画像処理装置(100)は、画像データを複数の周波数成分に変換した後、所定の周波数成分に対する量子化閾値を、所定の周波数成分のヒストグラム(統計値)に基づいて算出し、その他の周波数成分のヒストグラムを算出する処理を省略する。そして、画像処理装置(100)は、算出した量子化閾値に基づいて、残りの周波数成分に対する量子化閾値を算出した後に、画像データを量子化するので、不用な処理を省略し、処理を高速化することができる。

Description

画像処理装置、画像処理方法および画像処理プログラム
 本発明は、画像データを量子化する画像処理装置、画像処理方法および画像処理プログラムに関するものである。
 近年、カメラ等によって撮影された画像中から、各種の物体(例えば、人物の顔、車等)を検出する物体検出の研究が行われている。物体検出の技術は、予め、検出対象となる物体の特徴を学習して学習データを作成し、作成した学習データと、画像データとを比較することで、画像中に検出対象となる物体が存在するか否かを判定する技術である。
 また、画像データそのものの情報量は膨大であり、物体検出の技術では、画像中に検索対象となる物体が存在しているか否かを判定できればよいので、情報の量子化技術を利用して画像データを削減し、メモリ資源を節約する必要がある。
 情報の量子化技術には、画像データを周波数変換(ウェーブレット<Wavelet>変換)し、変換結果となる変換係数の大小(または、隣り合う画素同士の画素値の差分の大小)から量子化処理を行う技術がある(例えば、非特許文献1参照)。かかる量子化処理では、変換係数と、静的に設定した量子化閾値とを比較することにより、画像データを3段階に量子化するので、物体検出に用いられる画像データ、学習データの記憶領域を削減することが可能となる。
 なお、画像圧縮の技術分野ではあるが、画像の圧縮前と圧縮後との画素値の差分(歪み)に基づいて画像の周波数成分毎の量子化ステップを変化させることで、量子化後に復元した画像の劣化を防止するという技術が知られている(例えば、特許文献1参照)。
特開2001-298366号公報 H.Schneiderman and T. Kanade, Object Detection Using the Statistics of Parts To appear in International Journal of Computer Vision,2002.
 しかしながら、上述した従来の技術では、変換係数と、静的な量子化閾値とを比較して量子化処理を実行しているため、処理対象となる画像の多様性に対応しづらく、物体検出の精度が低下してしまうという問題があった。
 すなわち、物体検出で処理対象とすべき画像は、明るい画像、暗い画像、逆光画像など、様々なタイプが考えられる。いずれのタイプの画像でも、精度よく物体検出を行う場合には、物体検出に必要な被写体の特徴を残したまま量子化することが望ましい。
 なお、周知技術のように、画像の圧縮前と圧縮後との画素値の差分に基づいて画像の周波数成分毎の量子化ステップを変化することで、画像劣化を防止する技術も存在するが、物体検出では、画像圧縮を行わないので、かかる技術を適用することが出来ない。
 この発明は、上述した従来技術による問題点を解消するためになされたものであり、処理対象となる画像の多様性に対応して物体検出の精度を向上させることができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、この画像処理装置は、入力画像を、複数の周波数成分に変換する変換手段と、前記変換手段により変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出手段と、前記第1の量子化閾値算出手段によって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出手段と、前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化手段と、を有することを要件とする。
 この画像処理装置によれば、画像の特徴を現している第1の周波数成分に対して算出した量子化閾値を、他の周波数成分の量子化閾値の算出に利用することで、他の周波数成分の量子化閾値の算出を簡略化でき、処理の高速化を図ることができる。
図1は、動的量子化を実行する画像処理装置の構成を示す機能ブロック図である。 図2は、量子化閾値の算出方法の一例を説明するための図である。 図3は、動的量子化と静的量子化の効果の違いを説明するための図である。 図4は、本実施例にかかる画像処理装置の概要を説明するための図である。 図5は、各周波数成分の相関性を説明するための図である。 図6は、本実施例にかかる画像処理装置の構成を示す機能ブロック図である。 図7は、顔学習データのデータ構造の一例を示す図である。 図8は、非顔学習データのデータ構造の一例を示す図である。 図9は、比較対象データのデータ構造の一例を示す図である。 図10は、顔検出処理部の処理の一例を説明するための図である。 図11は、比較結果テーブルのデータ構造の一例を示す図である。 図12は、検出範囲の移動の様子を説明するための図である。 図13は、本実施例にかかる画像処理装置の処理手順を示すフローチャートである。 図14は、量子化処理の処理手順を示すフローチャートである。 図15は、本実施例にかかる画像処理装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
 10,100  画像処理装置
 11,20  周波数変換処理部
 12a,12b,12c,21 ヒストグラム算出部
 13a,13b,13c,22a,22b,22c 量子化閾値算出部
 14,23  量子化部
 30  コンピュータ
 31  入力装置
 32  モニタ
 33  RAM
 33a,39a 各種データ
 34  ROM
 35  通信制御装置
 36  媒体読取装置
 37  カメラ
 38  CPU
 38a 画像処理プロセス
 39  HDD
 39b 画像処理プログラム
110a,110b 変換処理部
120a,120b 分散処理部
130  記憶部
130a 顔学習データ
130b 非顔学習データ
130c 比較対象データ
140  顔検出処理部
 以下に、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
 まず、本願発明の内容を説明する前に、本願発明を考案する前のステップとして発明者が考案した動的量子化処理について説明する。以下に説明する動的量子化処理は、周知技術ではない。
 従来の量子化処理では、画像データを周波数変換した後に、変換係数と、静的に設定した量子化閾値(利用者が予め設定した閾値)とを比較することにより、画像データを3段階に量子化していた。一方、発明者の考案した動的量子化では、画像データを周波数変換した結果から得られる各周波数成分について、ヒストグラムをそれぞれ算出し、算出したヒストグラムに基づいて、量子化閾値を動的に算出する。
 このように、動的量子化処理では、画像データの特徴にあわせて量子化閾値を動的に算出するので、画像データを最適に量子化することができる。そして、かかる動的処理を物体検出処理に適用すれば、メモリ資源を節約しつつ、物体検出の精度を向上させることが出来る。
 次に、上述した動的量子化を実行する画像処理装置の構成について説明する。図1は、動的量子化を実行する画像処理装置10の構成を示す機能ブロック図である。同図に示すように、この画像処理装置10は、周波数変換処理部11と、ヒストグラム算出部12a~12cと、量子化閾値算出部13a~13cと、量子化部14とを有する。ここでは一例として、ヒストグラム算出部12a~12c、量子化閾値算出部13a~13cのみを示すが、この画像処理装置10は、その他にも、ヒストグラム算出部、量子化閾値算出部を有しているものとする。
 このうち、周波数変換処理部11は、画像データを取得し、取得した画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。周波数変換処理部11は、周波数変換した画像データをヒストグラム算出部12a~12cに出力する。
 ヒストグラム算出部12a~12cは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから、予め設定された周波数成分を抽出し、抽出した周波数成分に対応する変換係数と頻度とからなるヒストグラムを算出する処理部である。ここでは一例として、第1の周波数成分、第2の周波数成分、第3の周波数成分を用いて説明する。ただし、第1の周波数>第2の周波数>第3の周波数とする。
 ヒストグラム算出部12aは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから、第1の周波数成分を抽出し、抽出した第1の周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する。
 ヒストグラム算出部12bは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから第2の周波数成分を抽出し、抽出した第2の周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する。
 ヒストグラム算出部12cは、周波数変換処理部11から周波数変換された画像データを取得した場合に、取得した画像データから第3の周波数成分を抽出し、抽出した第3の周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する。
 量子化閾値算出部13aは、ヒストグラム算出部12aが算出したヒストグラムに基づいて、量子化閾値を算出する処理部である。量子化閾値算出部13aは、算出した量子化閾値Q1、Q2を、量子化部14に出力する。
 図2は、量子化閾値の算出方法の一例を説明するための図である。例えば、量子化閾値算出部13aは、予め、規定値C1、C2を設定しておき、ヒストグラムに含まれる全てのデータ量A(ヒストグラムの線と、横軸との間の領域に含まれるデータ量)を特定し、データ量B/データ量AがC1となるような量子化閾値Q1を算出する。また、データ量C/データ量AがC2となるような量子化閾値Q2を算出する。
 ここで、データ量Bは、ヒストグラムの線、横軸、量子化閾値Q1からの垂線に囲まれた領域のデータ量であり、データ量Cは、ヒストグラムの線、横軸、量子化閾値Q2からの垂線に囲まれた領域のデータ量である。ヒストグラムの形状によって、量子化閾値Q1、Q2は左右に移動する。すなわち、各種の画像データに応じて、量子化閾値Q1、Q2は動的に算出されるので、処理対象となる画像データの多様性に対応することができる。
 量子化閾値算出部13bは、ヒストグラム算出部12bが算出したヒストグラムに基づいて、量子化閾値を算出する処理部であり、算出した量子化閾値Q1、Q2を量子化部14に出力する。量子化閾値算出部13cは、ヒストグラム算出部12cが算出したヒストグラムに基づいて、量子化閾値を算出する処理部であり、算出した量子化閾値Q1、Q2を量子化部14に出力する。量子化閾値算出部13b、13cの処理は、量子化閾値算出部13aと同様である。
 量子化部14は、量子化閾値算出部13a~13cから取得する量子化閾値を基にして、画像データを量子化する処理部である。具体的に、量子化部14は、量子化閾値算出部13aから取得する量子化閾値Q1、Q2と、第1の周波数成分における変換係数とを比較して、画像データを3段階に量子化する。例えば、量子化部14は、画像データ中の領域(ブロック)において、量子化閾値Q1未満となる変換係数の領域を「0」、量子化閾値Q1以上、かつ、量子化閾値Q2以下となる変換係数の領域を「1」、量子化閾値Q2より大きい変換係数の領域を「2」に置き換える。
 また、量子化部14は、量子化閾値算出部13bから取得する量子化閾値Q1、Q2と、第2の周波数成分における変換係数とを比較して、画像データを3段階に量子化する。例えば、量子化部14は、画像データ中の領域において、量子化閾値Q1未満となる変換係数の領域を「0」、量子化閾値Q1以上、かつ、量子化閾値Q2以下となる変換係数の領域を「1」、量子化閾値Q2より大きい変換係数の領域を「2」に置き換える。
 また、量子化部14は、量子化閾値算出部13cから取得する量子化閾値Q1、Q2と、第3の周波数成分における変換係数とを比較して、画像データを3段階に量子化する。例えば、量子化部14は、画像データ中の領域において、量子化閾値Q1未満となる変換係数の領域を「0」、量子化閾値Q1以上、かつ、量子化閾値Q2以下となる変換係数の領域を「1」、量子化閾値Q2より大きい変換係数の領域を「2」に置き換える。
 図3は、動的量子化と静的量子化の効果の違いを説明するための図である。図3の(a)、(b)、(c)は、明るさの異なる画像データを量子化した場合の動的量子化およびし静的量子化の違いを示している。ただし、画像の明るさは、(a)<(b)<(c)とする。
 図3の(b)では、動的量子化、静的量子化共に、良好に画像データを量子化することができる。しかし、図3の(a)では、画像が暗すぎるので、静的量子化を行うと、被写体(例えば、顔)の特徴が欠落し、適切に量子化することができない。一方、動的量子化を行うと、良好に画像データを量子化することができる。
 また、図3の(c)では、画像が明るすぎるので、静的量子化を行うと、被写体の以外の物体の特徴が混在してしまい、適切に量子化することができない。一方、動的量子化を行うと、良好に画像データを量子化することができる。
 しかしながら、上述した動的量子化では、画像データの多様性に対応して画像データを適切に量子化できるが、周波数成分毎にヒストグラムを算出することにより各周波数成分の量子化閾値を算出するので、各周波数成分に対応するヒストグラムを全て算出する必要があり、量子化処理を高速化することができないという課題があった。
 次に、本実施例にかかる画像処理装置の概要について説明する。図4は、本実施例にかかる画像処理装置100の概要を説明するための図である。図4に示すように、画像処理装置100は、周波数変換処理部20と、ヒストグラム算出部21と、量子化閾値算出部22a~22cと、量子化部23とを有する。
 このうち、周波数変換処理部20は、画像データを取得し、取得した画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。周波数変換処理部20は、周波数変換した画像データをヒストグラム算出部21に出力する。
 ヒストグラム算出部21は、周波数変換処理部20から周波数変換された画像データを取得した場合に、取得した画像データから、予め設定された周波数成分を抽出し、抽出した周波数成分に対応する変換係数と頻度とからなるヒストグラムを算出する処理部である。ここでは一例として、第1の周波数成分、第2の周波数成分、第3の周波数成分を用いて説明する。ただし、第1の周波数>第2の周波数>第3の周波数とする。
 例えば、ヒストグラム算出部21は、第1の周波数成分を抽出し、抽出した周波数成分に対応する変換係数と頻度との関係を示すヒストグラムを算出する処理部である。ヒストグラム算出部21は、算出したヒストグラムの情報を量子化閾値算出部22aに出力する。
 量子化閾値算出部22aは、ヒストグラム算出部21が算出したヒストグラムに基づいて、第1の周波数成分に対応する量子化閾値Q1、Q2を算出する処理部である。なお、量子化閾値算出部22aが量子化閾値Q1、Q2を算出する処理は、図1に示した量子化閾値算出部13aと同様である。量子化閾値算出部22aは、第1の周波数成分に対応する量子化閾値Q1、Q2を、量子化閾値算出部22b、22cおよび量子化部23に出力する。
 量子化閾値算出部22bは、量子化閾値算出部22aから、第1の周波数成分に対応する量子化閾値Q1、Q2を取得し、取得した量子化閾値に基づいて、第2の周波数成分に対応する量子化閾値Q1、Q2を算出する処理部である。量子化閾値算出部22bは、算出した第2の周波数成分に対応する量子化閾値Q1、Q2を量子化部23に出力する。
 具体的に、量子化閾値算出部22bが、第2の周波数成分に対応する量子化閾値Q1、Q2を算出する場合には、例えば、第1の周波数成分に対応する量子化閾値Q1、Q2にn(nは整数)を乗算することにより第2の周波数成分に対応する量子化閾値Q1、Q2を算出する。
 量子化閾値算出部22cは、量子化閾値算出部22aから、第1の周波数成分に対応する量子化閾値Q1、Q2を取得し、取得した量子化閾値に基づいて、第3の周波数成分に対応する量子化閾値Q1、Q2を算出する処理部である。量子化閾値算出部22cは、算出した第3の周波数成分に対応する量子化閾値Q1、Q2を量子化部23に出力する。
 具体的に、量子化閾値算出部22cが、第3の周波数成分に対応する量子化閾値Q1、Q2を算出する場合には、例えば、第1の周波数成分に対応する量子化閾値Q1、Q2にm(mはnよりも大きい整数)を乗算することにより第3の周波数成分に対応する量子化閾値Q1、Q2を算出する。
 量子化部23は、量子化閾値算出部22a~22cから取得する量子化閾値を基にして、画像データを量子化する処理部である。具体的な処理は、図1に示した量子化部14と同様である。
 このように、本実施例にかかる画像処理装置100は、画像データを複数の周波数成分に変換した後、所定の周波数成分に対する量子化閾値を、所定の周波数成分のヒストグラム(統計値)に基づいて算出し、その他の周波数成分のヒストグラムを算出する処理を省略する。そして、画像処理装置100は、算出した量子化閾値に基づいて、残りの周波数成分に対する量子化閾値を算出した後に、画像データを量子化するので、量子化処理を高速化することができる。
 図5は、各周波数成分の相関性を説明するための図である。ここでは、第一の周波数成分として、元画像を周波数変換した結果の横方向の高周波成分を用いている。また、第二の周波数成分として、元画像を周波数変換した結果の縦方向の高周波成分を用いている。また、第三の周波数成分として、元画像を周波数変換した結果の斜め方向の周波数成分を用いている。図5に示すように、画像データの周波数成分は、それぞれ相関しているので、全ての周波数成分に対応するヒストグラムを算出しなくても、上述した手法によって、各周波数成分に対応する量子化閾値を精度よく算出することができる。
 次に、本実施例にかかる画像処理装置の構成について説明する。図6は、本実施例にかかる画像処理装置100の構成を示す機能ブロック図である。図6に示すように、この画像処理装置100は、変換処理部110a,110bと、分析処理部120a,120bと、記憶部130と、顔検出処理部140とを有する。
 変換処理部110aは、顔画像集データおよび非顔画像集データを取得し、取得した顔画像集データおよび非顔画像集データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。変換処理部110aは、図4に示した周波数変換部20に対応する。
 ここで、顔画像集データは、様々な人物の顔画像を集めた画像データであり、非顔画像集データは、顔画像以外の各種の画像を集めた画像データである。また、顔画像集データのサイズおよび非顔画像集データのサイズは統一されているものとする。ここで、顔画像集データに含まれる画像データは、顎から頭をほぼ含む上下幅、両耳をほぼ含む左右幅で、顔を全面に写した画像群で構成されている。もちろん、多様な顔を検出するための学習データであるので、真正面から顔を写したデータのほかに、斜め上や下や左や右を向いたデータや、帽子や眼鏡を掛けた顔のデータ、様々な年齢や性別の人のデータが含まれていても良い。非顔画像集データは、顔を含まない様々な画像データで構成されている。
 変換処理部110aは、入力装置、記憶装置(図示略)等から顔画像集データおよび非顔画像集データを取得する。変換処理部110aは、周波数変換した顔画像集データおよび非顔画像集データを分析処理部120aに出力する。以下の説明において、周波数変換した顔画像集データを変換顔画像集データと表記し、周波数変換した非顔画像集データを変換非顔画像集データと表記する。
 変換処理部110bは、入力画像データを取得し、取得した入力画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。変換処理部110bは、図4に示した周波数変換部20に対応する。なお、入力画像データは、物体検出対象となる画像データである。変換処理部110bは、入力装置、記憶装置(図示略)等から入力画像データを取得する。変換処理部110bは、周波数変換した入力画像データを分析処理部120bに出力する。
 分析処理部120aは、変換顔画像集データおよび変換非顔画像データを取得した場合に、変換顔画像集データを量子化することにより顔学習データを作成し、変換非顔画像集データを量子化することにより非顔学習データを作成する処理部である。
 分析処理部120aが、変換顔画像集データを量子化して顔学習データを作成する処理は、図4に示した、ヒストグラム算出部21、量子化閾値算出部22a~22c、量子化部23と同様である。分析処理部120aは、作成した顔学習データを記憶部130に出力する。
 また、分析処理部120aが、変換非顔画像集データを量子化して非顔学習データを作成する処理は、図4に示した、ヒストグラム算出部21、量子化閾値算出部22a~22c、量子化部23と同様である。分析処理部120aは、作成した非顔学習データを記憶部130に出力する。
 分析処理部120bは、周波数変換された入力画像データを取得した場合に、取得した入力画像データを3段階に量子化する処理部である。なお,入力画像データとは,顔検出処理対象(入力されるフレームそのもの)から切り出した画像を意味し,これが比較対象データに相当する。顔検出対象のフレーム全体の中に,どのような大きさの顔が含まれているかはわからないので、比較対象データを複数種類の大きさに変化させて、また、フレーム内で切り出し位置をずらしながら切り出して、比較対象データの領域を設定することになる。分析処理部120bが入力画像データを取得し、比較対象データを作成する処理は、図4に示した、ヒストグラム算出部21、量子化閾値算出部22a~22c、量子化部23と同様である。
 記憶部130は、分析処理部120aから出力される顔学習データ130a、非顔学習データ130b、分析処理部120bから出力される比較対象データ130cを記憶する記憶部である。
 図7は、顔学習データ130aのデータ構造の一例を示す図である。図7に示すように、この顔学習データ130aは、位置情報と変換係数値(量子化後の値)とを対応付けて記憶している。なお、顔学習データ130aのデータ構造は、図7に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に変換係数値を対応付けて記憶させても良い。
 図8は、非顔学習データ130bのデータ構造の一例を示す図である。図8に示すように、この非顔学習データ130bは、位置情報と変換係数値(量子化後の値、図中では数値情報と表記)とを対応付けて記憶している。なお、非顔学習データ130bのデータ構造は、図8に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に変換係数値を対応付けて記憶させても良い。
 図9は、比較対象データ130cのデータ構造の一例を示す図である。同図に示すように、この比較対象データ130cは、位置情報と変換係数値(量子化後の値、図中では数値情報と表記)とを対応付けて記憶している。なお、比較対象データ130cのデータ構造は、図9に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8変換係数)毎に変換係数値を対応付けて記憶させても良い。
 顔検出処理部140は、記憶部130に記憶された顔学習データ130aと、非顔学習データ130bと、比較対象データ130cとを比較して、入力画像データに顔画像が含まれているか否かを判定する処理部である。顔検出処理部140は、判定結果を上位の処理部(図示略)に出力する。
 図10は、顔検出処理部140の処理の一例を説明するための図である。具体的に、顔検出処理部140は、検出範囲を設定し、顔学習データ130a、非顔学習データ130b、比較対象データ130cの同一位置の検出範囲に含まれる各変換係数値をそれぞれ比較する。そして、顔検出処理部140は、比較した結果、比較対象データの検出範囲が顔学習データに類似しているのか、非顔学習データに類似しているのかを判定し、判定結果を比較結果テーブルに登録する。かかる比較結果テーブルは、顔検出処理部140が、保持しているものとする。
 図11は、比較結果テーブルのデータ構造の一例を示す図である。同図に示すように、この比較結果テーブルは、検出範囲を識別する検出範囲識別情報と、比較結果とを対応付けて記憶している。顔検出処理部140は、顔学習データ130a、非顔学習データ130b、比較対象データ130cの検出範囲を比較した結果、顔学習データ130aに類似していると判定した場合には、比較結果に「マル」を登録し、非顔学習データ130bに類似していると判定した場合には、比較結果に「バツ」を登録する。
 具体的に、図10を用いて説明する。ここでは一例として、現在、各画像データ130a~130cに設定されている検出範囲の検出範囲識別情報を「1001」とする。顔検出処理部140が、比較対象データ130cの検出範囲の各変換係数値と、顔学習データ130aの検出範囲の各変換係数値とを比較すると、8つヒットする。
 一方、顔検出処理部140が、比較対象データ130cの検出範囲の各変換係数値と、非顔学習データ130bの各変換係数値とを比較すると、1つヒットする。この場合、顔検出処理部140は、顔学習データ130aの方が、非顔学習データ130bよりもヒット数が多いので、検出範囲識別情報「1001」に対応する比較結果を「マル」に設定する。逆に非顔学習データ130bのほうがヒット数が多い場合は「バツ」を設定する。同数の場合には,ここでは,どちらにも設定しないこととする。
 顔検出処理部140は、図12に示すように、検出範囲を移動させながら、比較結果テーブルの比較結果に「マル」または「バツ」を順次登録していく。図12は、検出範囲の移動の様子を説明するための図である。なお、顔検出処理部140が、検出範囲内の各変換係数値を比較する際には、顔学習データ130a、非顔学習データ130b、比較対象データ130c上に配置される検出範囲の位置が統一されているものとする。
 そして、顔検出処理部140は、比較対象データ130c、顔学習データ130a、非顔学習データ130aの比較が終了した後に、比較結果テーブルを参照し、「バツ」の数よりも「マル」の数の方が多い場合には、入力画像に顔画像が含まれていると判定する。一方、「バツ」の数よりも「マル」の数のほうが少ない場合には、入力画像に顔画像が含まれていないと判定する。なお、「バツ」の数と「マル」の数が等しい場合には、管理者の設定により、顔画像が含まれていると判定しても良いし、顔画像が含まれていないと判定しても良い。
 なお、図10に示す例では、顔検出処理部140は、8ブロック毎に変換係数値を比較する例を示しているが、これに限定されるものではない。例えば、n(nは、自然数)変換係数毎に変換係数値を比較することも出来る。また、図11に示すように、必ずしも検出範囲毎に比較結果を保存する必要はなく、例えば、「マル」の数および「バツ」の数を集計し、集計結果のみを比較結果テーブルに保存しても良い。
 次に、本実施例にかかる画像処理装置100の処理手順について説明する。図13は、本実施例にかかる画像処理装置100の処理手順を示すフローチャートである。図13に示すように、画像処理装置100は、入力画像データを取得し(ステップS101)、量子化処理を実行する(ステップS202)。
 そして、画像処理装置100は、比較対象データ130cと、顔学習データ130aと、非顔学習データ130bとを比較して比較結果テーブルに「マル」または「バツ」を登録し(ステップS103)、「バツ」よりも「マル」の方が多いか否かを判定する(ステップS104)。
 画像処理装置100は、「バツ」よりも「マル」の方が多い場合には(ステップS105,Yes)、入力画像に顔画像が存在すると判定し(ステップS106)、判定結果を出力する(ステップS107)。一方、「バツ」よりも「マル」の方が少ない場合には(ステップS105,No)、入力画像に顔画像が存在しないと判定し(ステップS108)、ステップS107に移行する。
 次に、図13のステップS102で示した量子化処理の処理手順について説明する。図14は、量子化処理の処理手順を示すフローチャートである。図14に示すように、画像処理装置100は、入力画像データを周波数変換し(ステップS201)、第1の周波数成分に対応する量子化閾値を算出する(ステップS202)。
 画像処理装置100は、第1の周波数成分に対応する量子化閾値に基づいて、残りの周波数成分に対応する量子化閾値を算出する(ステップS203)。
 画像処理装置100は、選択したブロックに対応する変換係数と量子化閾値Q1、Q2とを比較して、変換係数を量子化し(ステップS204)、全てのブロック(領域)を選択したか否かを判定する(ステップS205)。
 画像処理装置100は、全ての変換係数を選択した場合には(ステップS206,Yes)、量子化処理を終了する。一方、全ての変換係数を選択していない場合には(ステップS206,No)、未選択の変換係数を選択し(ステップS207)、ステップS204に移行する。
 なお、前述のように、入力された顔検出対象のフレーム内にどのような大きさの顔が含まれているかはわからないので、比較対象データ(入力画像)を複数種類の大きさに変化させて、また、入力フレーム内で切り出し位置を走査するようにずらしながら切り出して、比較対象データの領域を設定することになる。
 例えば、入力された顔検出対象のフレーム内から第一の大きさで比較対象データ領域を切り出しつつ、該比較対象データ領域でフレーム内を走査するように比較対象データ領域を設定する。そして第一の大きさの比較対象データによる走査が終了したら、比較対象データの大きさを第二の大きさに変更して、同様に、第二の大きさで比較対象データ領域を切り出しつつ、該比較対象データ領域でフレーム内を走査するように設定する。比較対象データを何段階の大きさにするかは、任意に設定して構わない。
 そして、比較対象データの大きさおよび力された顔検出対象のフレーム内からの切り出し位置を変更するたびに、図14に示す閾値の設定および量子化の処理を行う。
 上述してきたように、本実施例にかかる画像処理装置100は、画像データを複数の周波数成分に変換した後、所定の周波数成分に対する量子化閾値を、所定の周波数成分のヒストグラム(統計値)に基づいて算出し、その他の周波数成分のヒストグラムを算出する処理を省略する。そして、画像処理装置100は、算出した量子化閾値に基づいて、残りの周波数成分に対する量子化閾値を算出した後に、画像データを量子化するので、量子化処理を高速化することができる。また、動的に量子化閾値を算出するので、物体検出にかかる処理の精度を向上させることができる。
 なお、本実施例にかかる画像処理装置100は、周波数変換した画像データの各周波数成分の中から、第1の周波数成分の量子化閾値を算出し、算出した量子化閾値からその他の周波数成分に対応する量子化閾値を算出していた。
 ここで、画像処理装置100は、第1の周波数成分として、検出対象となる顔の特徴を含んでいる成分を選択することが望ましい。例えば、顔において、縦方向の情報(例えば、鼻)より、横方向の情報(目、口)の方が顔情報の特徴を多く含んでいるので、画像処理装置100は、横方向の情報を含んでいる画像データの変換係数(横方向の高周波成分)を選択する。
 また、本実施例にて述べた上記の動的量子化方法を、公知の顔検出技術と組み合わせて実施することも有効である。たとえば、[非特許文献1]と組み合わせることが可能である。[非特許文献1]は、Wavelet変換係数を基準に、顔画像辞書、非顔画像辞書を用いるので、量子化処理のみを置き換えるかたちで、そのまま動作させることが可能である。上述の横方向の高周波成分を用いる方法も効果的である。
 また、以上の実施例においては、辞書データ作成と検出処理を一体化した構成として示した。実施形態は、このような一体型に限られるものではなく、辞書データ作成までを行う部分と、検出処理を行う部分に分離した構成としてもよい。その場合、作成した辞書データを、検出処理を行う装置において保持する構成となる。
 ところで、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
 また、図6に示した画像処理装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。なお、本実施例で説明した各種の処理手順は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
 図15は、本実施例にかかる画像処理装置100を構成するコンピュータのハードウェア構成を示す図である。図15に示すように、このコンピュータ(画像処理装置)30は、入力装置31、モニタ32、RAM(Random Access Memory)33、ROM(Read Only Memory)34、ネットワークを介して他の装置と通信を行う通信制御装置35、記憶媒体からデータを読み出す媒体読取装置36、カメラ37、CPU(Central Processing Unit)38、HDD(Hard Disk Drive)39をバス40で接続している。
 そして、HDD39には、上述した画像処理装置100の機能と同様の機能を発揮する画像処理プログラム39bが記憶されている。CPU38が、画像処理プログラム39bを読み出して実行することにより、画像処理プロセス38aが起動される。
 ここで、画像処理プロセス38aは、図6の変換処理部110a,110b、分析処理部120a,120b、顔検出処理部140に対応する。また、HDD39は、画像処理装置100の記憶部130に記憶される情報に対応する各種データ39aを記憶する。CPU38は、HDD39に格納された各種データ39aを読み出して、RAM33に格納し、RAM33に格納された各種データ33aを利用して、画像データの量子化、物体検出を実行する。
 ところで、図15に示した画像処理プログラム39bは、必ずしも最初からHDD39に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに画像処理プログラム39bを記憶しておき、コンピュータがこれらから画像処理プログラム39bを読み出して実行するようにしてもよい。

Claims (10)

  1.  入力画像を複数の周波数成分に変換する変換手段と、
     前記変換手段により変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出手段と、
     前記第1の量子化閾値算出手段によって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出手段と、
     前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化手段と、
     を有することを特徴とする画像処理装置。
  2.  前記変換手段は、被写体の検出対象となる検出対象画像と、当該検出対象画像に前記被写体が含まれているか否かを判定する場合に利用する辞書画像とを複数の周波数成分に変換し、前記第1の量子化閾値算出手段は、前記検出対象画像の第1の量子化閾値と、前記辞書画像の第1の量子化閾値とをそれぞれ算出し、前記第2の量子化閾値算出手段は、前記検出対象画像の第2の量子化閾値と、前記辞書画像の第2の量子化閾値とをそれぞれ算出し、前記量子化手段は、前記検出対象画像の第1の量子化閾値および第2の量子化閾値を基にして、前記検出対象画像を量子化し、前記辞書画像の第1の量子化閾値および第2の量子化閾値を基にして、前記辞書画像を量子化し、
     前記量子化手段によって量子化された検出対象画像と、量子化された辞書画像とを比較することにより、前記検出対象画像に被写体が含まれているか否かを判定する判定手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  3.  前記変換手段は、被写体の検出対象となる検出対象画像と、当該検出対象画像に前記被写体が含まれているか否かを判定する場合に利用する辞書画像とを複数の周波数成分に変換し、前記第1の量子化閾値算出手段は、前記検出対象画像の第1の量子化閾値と、前記辞書画像の第1の量子化閾値とをそれぞれ算出し、前記第2の量子化閾値算出手段は、前記検出対象画像の第2の量子化閾値と、前記辞書画像の第2の量子化閾値とをそれぞれ算出し、前記量子化手段は、前記検出対象画像の第1の量子化閾値および第2の量子化閾値を基にして、前記検出対象画像を量子化し、前記辞書画像の第1の量子化閾値および第2の量子化閾値を基にして、前記辞書画像を量子化することを特徴とする請求項1に記載の画像処理装置。
  4.  前記第1の周波数成分は、前記入力画像の横方向の高周波成分であることを特徴とする請求項1または2に記載の画像処理装置。
  5.  画像処理装置が、
     入力画像を、複数の周波数成分に変換する変換ステップと、
     前記変換ステップにより変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出ステップと、
     前記第1の量子化閾値算出ステップによって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出ステップと、
     前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化ステップと、
     を含んでいることを特徴とする画像処理方法。
  6.  前記変換ステップは、被写体の検出対象となる検出対象画像と、当該検出対象画像に前記被写体が含まれているか否かを判定する場合に利用する辞書画像とを複数の周波数成分に変換し、前記第1の量子化閾値算出ステップは、前記検出対象画像の第1の量子化閾値と、前記辞書画像の第1の量子化閾値とをそれぞれ算出し、前記第2の量子化閾値算出ステップは、前記検出対象画像の第2の量子化閾値と、前記辞書画像の第2の量子化閾値とをそれぞれ算出し、前記量子化ステップは、前記検出対象画像の第1の量子化閾値および第2の量子化閾値を基にして、前記検出対象画像を量子化し、前記辞書画像の第1の量子化閾値および第2の量子化閾値を基にして、前記辞書画像を量子化し、
     前記画像処理装置は、
     前記量子化ステップによって量子化された検出対象画像と、量子化された辞書画像とを比較することにより、前記検出対象画像に被写体が含まれているか否かを判定する判定ステップを更に含んでいることを特徴とする請求項5に記載の画像処理方法。
  7.  前記第1の周波数成分は、前記入力画像の横方向の高周波成分であることを特徴とする請求項5または6に記載の画像処理方法。
  8.  コンピュータに、
     入力画像を、複数の周波数成分に変換する変換手順と、
     前記変換ステップにより変換された前記入力画像の複数の周波数成分のうち、第1の周波数成分に対する第1の量子化閾値を、前記第1の周波数成分の統計値に基づいて算出する第1の量子化閾値算出手順と、
     前記第1の量子化閾値算出手順によって算出された第1の量子化閾値に基づいて、前記複数の周波数成分のうち、前記第1の周波数成分以外の第2の周波数成分に対する第2の量子化閾値を算出する第2の量子化閾値算出手順と、
     前記第1の周波数成分には前記第1の量子化閾値を用いて、前記第2の周波数成分には前記第2の量子化閾値を用いて、それぞれ量子化を行う量子化手順と、
     を実行させることを特徴とする画像処理プログラム。
  9.  前記変換手順は、被写体の検出対象となる検出対象画像と、当該検出対象画像に前記被写体が含まれているか否かを判定する場合に利用する辞書画像とを複数の周波数成分に変換し、前記第1の量子化閾値算出手順は、前記検出対象画像の第1の量子化閾値と、前記辞書画像の第1の量子化閾値とをそれぞれ算出し、前記第2の量子化閾値算出手順は、前記検出対象画像の第2の量子化閾値と、前記辞書画像の第2の量子化閾値とをそれぞれ算出し、前記量子化手順は、前記検出対象画像の第1の量子化閾値および第2の量子化閾値を基にして、前記検出対象画像を量子化し、前記辞書画像の第1の量子化閾値および第2の量子化閾値を基にして、前記辞書画像を量子化し、
     前記量子化手順によって量子化された検出対象画像と、量子化された辞書画像とを比較することにより、前記検出対象画像に被写体が含まれているか否かを判定する判定手順を更にコンピュータに実行させることを特徴とする請求項8に記載の画像処理プログラム。
  10.  前記第1の周波数成分は、前記入力画像の横方向の高周波成分であることを特徴とする請求項8または9に記載の画像処理プログラム。
PCT/JP2008/066789 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム WO2010032296A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2008/066789 WO2010032296A1 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム
JP2010529528A JP4802297B2 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム
US13/064,297 US8422790B2 (en) 2008-09-17 2011-03-16 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/066789 WO2010032296A1 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/064,297 Continuation US8422790B2 (en) 2008-09-17 2011-03-16 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2010032296A1 true WO2010032296A1 (ja) 2010-03-25

Family

ID=42039150

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/066789 WO2010032296A1 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US8422790B2 (ja)
JP (1) JP4802297B2 (ja)
WO (1) WO2010032296A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106341689A (zh) * 2016-09-07 2017-01-18 中山大学 一种avs2量化模块和反量化模块的优化方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202108B2 (en) * 2012-04-13 2015-12-01 Nokia Technologies Oy Methods and apparatuses for facilitating face image analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069996A (ja) * 2001-08-23 2003-03-07 Mitsubishi Electric Corp 画像情報量圧縮装置及び画像情報量圧縮方法
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035473B1 (en) 2000-03-01 2006-04-25 Sharp Laboratories Of America, Inc. Distortion-adaptive visual frequency weighting
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
US20060193520A1 (en) * 2005-02-28 2006-08-31 Takeshi Mita Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069996A (ja) * 2001-08-23 2003-03-07 Mitsubishi Electric Corp 画像情報量圧縮装置及び画像情報量圧縮方法
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106341689A (zh) * 2016-09-07 2017-01-18 中山大学 一种avs2量化模块和反量化模块的优化方法及系统
CN106341689B (zh) * 2016-09-07 2019-04-23 中山大学 一种avs2量化模块和反量化模块的优化方法及系统

Also Published As

Publication number Publication date
US20110229041A1 (en) 2011-09-22
JP4802297B2 (ja) 2011-10-26
US8422790B2 (en) 2013-04-16
JPWO2010032296A1 (ja) 2012-02-02

Similar Documents

Publication Publication Date Title
US8818104B2 (en) Image processing apparatus and image processing method
US8358849B2 (en) Image processing apparatus and image processing method
CN107886518B (zh) 图片检测方法、装置、电子设备及可读取存储介质
Tong et al. Learning no-reference quality metric by examples
JP2005190474A5 (ja)
WO2010032298A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US8218881B2 (en) Clustering processing method, clustering processing apparatus, and non-transitory computer-readable medium
JP4802297B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Rathgeb et al. Effects of severe image compression on iris segmentation performance
CN109543593A (zh) 回放攻击的检测方法、电子设备及计算机可读存储介质
JP4779057B2 (ja) 画像処理装置および画像処理方法
Fonseca et al. Face detection in the compressed domain
Sun et al. A motion location based video watermarking scheme using ICA to extract dynamic frames
JP2005275854A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびこのプログラムを記憶した記録媒体
CN112541429B (zh) 一种智能抓图方法、装置、电子设备以及存储介质
Sutthiwan et al. Computer graphics classification based on Markov process model and boosting feature selection technique
Stentiford A visual attention estimator applied to image subject enhancement and colour and grey level compression
Tm et al. An efficient computational approach to balance the trade-off between image forensics and perceptual image quality
JP2008123245A (ja) 画像処理装置及び画像処理プログラム
CN115086713B (zh) 一种基于视觉特征与音频特征的重复短视频清洗方法
US20080095456A1 (en) Adaptive Classification System and Method for Mixed Graphic and Video Sequences
KR101040182B1 (ko) 특징 되먹임을 이용한 얼굴 인식 방법
Sadek et al. A skin-tone block-map algorithm for efficient image steganography
CN113344855A (zh) 降低乳腺超声病灶检测假阳率的方法、装置、设备及介质
Halim et al. Haar wavelet based reduced reference quality assessment technique for JPEG/JPEG2000 images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08810835

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010529528

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08810835

Country of ref document: EP

Kind code of ref document: A1