WO2010071189A1 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2010071189A1
WO2010071189A1 PCT/JP2009/071090 JP2009071090W WO2010071189A1 WO 2010071189 A1 WO2010071189 A1 WO 2010071189A1 JP 2009071090 W JP2009071090 W JP 2009071090W WO 2010071189 A1 WO2010071189 A1 WO 2010071189A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input image
image processing
blur
unit
Prior art date
Application number
PCT/JP2009/071090
Other languages
English (en)
French (fr)
Inventor
昌俊 横川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US12/867,228 priority Critical patent/US8923612B2/en
Priority to BRPI0907809-6A priority patent/BRPI0907809A2/pt
Priority to RU2010133657/08A priority patent/RU2469403C2/ru
Priority to EP09833491.5A priority patent/EP2381414A4/en
Priority to CN200980104875.3A priority patent/CN102187365B/zh
Publication of WO2010071189A1 publication Critical patent/WO2010071189A1/ja
Priority to US14/546,258 priority patent/US9569827B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40068Modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can more easily and effectively present an image.
  • a so-called slide show function for displaying a plurality of images in order is known.
  • the user can display images taken by a camera in order and view them.
  • images to be displayed in the slide show are selected by designating a folder or the like in which images captured by the user are stored, images that are blurred due to camera shake or the like are included in the images to be displayed. It is often done. If a blurred image is displayed during a slide show, the user may feel unsightly.
  • a technique for processing a specified area of an image by specifying a predetermined area of the image and an effect obtained by processing the image is also known.
  • a blurred image can be displayed effectively, but the user must designate an image or a region to which a special effect is applied or select a special effect. It was troublesome.
  • the present invention has been made in view of such a situation, and makes it possible to display an image more easily and effectively.
  • the image processing apparatus includes: a detecting unit that detects a degree of blur of the input image based on the input image; and the input amount by reducing an information amount of information included in the input image. Selecting means for selecting one of a plurality of image processes for processing the image based on the detection result of the degree of blur; and an image processing means for performing the selected image processing on the input image.
  • the image processing may be a process of reducing at least one of the resolution, color of the input image, the number of gradations of the pixel value of the pixel of the input image, texture, edge, or bit rate.
  • the selection unit When the value indicating the degree of blur is equal to or greater than a predetermined threshold, the selection unit causes the selection unit to select any one of several predetermined image processes, and the value indicating the degree of blur Is less than the threshold value, it is possible to select any one of several other image processes that are different in combination from the some image processes.
  • the selection means can select the image processing based on a value indicating the degree of blur and the frequency selected so far of each image processing.
  • the image processing method or program according to the first aspect of the present invention detects the degree of blur of the input image based on the input image, and reduces the amount of information included in the input image, thereby reducing the amount of information included in the input image. Selecting any one of a plurality of image processes for processing the image based on the detection result of the degree of blur, and applying the selected image process to the input image.
  • a degree of blur of the input image is detected, and a plurality of pieces of the input image are processed by reducing the amount of information included in the input image. Any one of the image processes is selected based on the detection result of the degree of blur, and the selected image process is performed on the input image.
  • the image processing apparatus reduces an information amount of information included in the input image and an extraction unit that extracts feature amounts of a plurality of features from the input image based on the input image.
  • Selecting means for selecting any one of a plurality of image processes for processing the input image based on feature amounts of the plurality of features, and an image processing means for performing the selected image processing on the input image Is provided.
  • the feature amount among the resolution of the input image, the color distribution, the color bias, the number of gradations of the pixel value of the pixel of the input image, the degree of blur, the edge amount, the edge distribution, the texture amount, or the texture distribution Can be extracted from the input image.
  • the image processing method or program according to the second aspect of the present invention extracts feature amounts of a plurality of features from the input image based on the input image, and reduces the information amount of information included in the input image. Selecting any one of a plurality of image processes for processing the input image based on feature amounts of the plurality of features, and applying the selected image process to the input image.
  • feature amounts of a plurality of features are extracted from the input image based on the input image, and the input image is processed by reducing the information amount of information included in the input image. Any one of the plurality of image processing is selected based on the feature amounts of the plurality of features, and the selected image processing is performed on the input image.
  • An image processing apparatus extracts a first feature amount of a feature of a subject area on the input image from an input image, thereby identifying a subject area. Based on the generating means for generating specific information, the input image and the subject specifying information, the degree of blur of the subject area that is the subject area on the input image, and other than the subject area on the input image Detection means for detecting a degree of blur of a background area, which is an area, and a second feature amount of a plurality of features different from the degree of blur from the subject area and the background area based on the input image Extraction means for extracting the image, and any one of a plurality of image processes for processing the input image by reducing an information amount of information included in the input image, the degree of blur and the first Comprising selecting means for selecting on the basis of the feature quantity, the selected said image processing, and image processing means for performing at least one region of the subject region or the background region of the input image.
  • the selection unit selects the image processing for each of the subject region and the background region, and the image processing unit selects the selected image processing for each of the subject region and the background region. Image processing can be performed.
  • the selection unit is configured to select the image processing for a region having a higher degree of blur in the subject region or the background region, and the image processing unit is configured to perform processing on a region having a higher degree of blur.
  • the selected image processing can be performed.
  • An image processing method or program specifies a region of a subject by extracting a first feature amount of a feature of the subject region on the input image from an input image.
  • Subject identification information is generated, and based on the input image and the subject identification information, the degree of blur of the subject region that is the subject region on the input image and the region other than the subject region on the input image And a second feature amount of a plurality of features different from the degree of blur is extracted from the subject area and the background area based on the input image.
  • any one of a plurality of image processings that process the input image by reducing the amount of information included in the input image And-option, the selected the image processing, including the subject region or step of applying to at least one region of the background region of the input image.
  • subject specifying information for specifying the subject region is extracted from the input image by extracting a first feature amount of a feature of the subject region on the input image.
  • the degree of blur of the subject region that is the subject region on the input image and the background region that is a region other than the subject region on the input image The degree of blur is detected, and based on the input image, second feature amounts of a plurality of features different from the degree of blur are extracted from the subject area and the background area and included in the input image
  • Any one of a plurality of image processes for processing the input image by reducing the amount of information to be generated is selected based on the degree of blur and the second feature amount.
  • the image processing was is applied to at least one region of the subject region or the background region of the input image.
  • an image can be displayed more easily and effectively.
  • an image can be displayed more easily and effectively.
  • an image can be displayed more easily and effectively.
  • FIG. 1 It is a figure which shows the structural example of one Embodiment of the image processing apparatus to which this invention is applied. It is a figure explaining a cartoon tone conversion process. It is a figure which shows the number of gradations before the conversion equivalent to 1 gradation after the conversion by the color-reduction painting style conversion process. It is a figure which shows the pixel value before and after conversion in a color-reduction painting style conversion process. It is a figure explaining an overpainting painting style conversion process. It is a flowchart explaining an image conversion process. It is a figure which shows the other structural example of an image processing apparatus. It is a figure explaining the feature of each image processing. It is a figure explaining the relationship between each image processing and a feature-value.
  • FIG. 1 It is a figure which shows the structural example of an edge complexity detection part. It is a figure which shows the structural example of a size detection part. It is a figure which shows the structural example of a color distribution complexity detection part. It is a figure which shows the structural example of a color deviation detection part. It is a flowchart explaining an image conversion process. It is a flowchart explaining an edge complexity detection process. It is a flowchart explaining a size detection process. It is a flowchart explaining a color distribution complexity detection process. It is a color deviation detection process. It is a filter selection process. It is a figure which shows the other structural example of an image processing apparatus.
  • FIG. 1 is a diagram showing a configuration example of an embodiment of an image processing apparatus to which the present invention is applied.
  • the image processing apparatus 11 includes a blur detection unit 21, a selection unit 22, a cartoon tone conversion unit 23, an animation tone conversion unit 24, a diorama tone conversion unit 25, a painting tone conversion unit 26, a painting tone conversion unit 27, and a sharpness processing unit 28. , And an output unit 29.
  • a plurality of input images to be displayed in a slide show are sequentially input to the image processing apparatus 11, and the image processing apparatus 11 processes the input images to process them into output images. Convert and output.
  • the input image is, for example, an image captured by an imaging device such as a camera.
  • the blur degree detection unit 21 detects the degree of blur of the input image based on the supplied input image, and supplies the detection result to the selection unit 22.
  • the blur of the input image includes not only the blur caused by the shift of the focal position but also the so-called blur caused by the movement of the imaging device.
  • the selection unit 22 selects one of a plurality of predetermined image processes to be performed on the input image based on the detection result supplied from the blur detection unit 21.
  • the image processing performed on the input image basically includes the amount of information of the input image, that is, the resolution of the input image, the number of colors, the number of gradations of pixel values of the pixels of the input image, and the amount of texture. , A process of reducing at least one of the amount of edges and the bit rate.
  • the image processing is selected from cartoon-like conversion processing, animation-like conversion processing, diorama-like conversion processing, painting-like conversion processing, and sharpness processing.
  • the cartoon-like conversion process is a process of reducing the color of the input image and converting the input image into an image like a cartoon picture.
  • the animation-like conversion process is a process of reducing the texture of the input image and reducing the input image. Is a process in which one region of similar colors is used as one color region.
  • the diorama tone conversion process is a process for giving a uniform perspective to the input image
  • the painting tone conversion process is a process for converting the input image into an image like a painting.
  • the painting-style conversion processing includes processing for reducing the number of gradations of the pixel values of the pixels of the input image (hereinafter also referred to as subtractive painting-style conversion processing), and input images that have undergone subtractive-color painting-style conversion processing.
  • There is a process of performing coloring using a mask hereinafter also referred to as an overpainting painting-like conversion process).
  • the sharpness process is a process for enhancing the edge of the input image.
  • the selection unit 22 supplies the supplied input image to the block that performs the selected image processing among the cartoon tone conversion unit 23 to the sharpness processing unit 28.
  • the cartoon tone conversion unit 23 holds a filter for performing the cartoon tone conversion process in advance, and performs filter processing using the held filter on the input image supplied from the selection unit 22, that is, comic tone. Conversion processing is performed, and an output image obtained as a result is supplied to the output unit 29.
  • the output image obtained in the cartoon tone conversion unit 23 is an image obtained by performing a cartoon tone conversion process on the input image.
  • the animation tone conversion unit 24 holds a filter for performing the animation tone conversion process in advance, and performs filter processing using the held filter on the input image from the selection unit 22, that is, animation tone conversion processing. And the output image obtained as a result is supplied to the output unit 29.
  • the diorama tone conversion unit 25 holds a filter for performing diorama tone conversion processing in advance, and performs filter processing using the held filter on the input image from the selection unit 22, that is, diorama tone conversion processing. And the output image obtained as a result is supplied to the output unit 29.
  • the painting style conversion unit 26 holds a filter for performing the color reduction painting style conversion process in advance, and performs a filtering process using the held filter on the input image supplied from the selection unit 22, The output image obtained as a result is supplied to the output unit 29.
  • the painting style conversion unit 27 holds in advance a filter for performing overpainting painting style conversion processing, and performs a filtering process using the held filter on the input image supplied from the selection unit 22. Then, the output image obtained as a result is supplied to the output unit 29.
  • the sharpness processing unit 28 holds a filter for performing sharpness processing in advance, and performs a filtering process using the held filter on the input image supplied from the selection unit 22 and obtains a result thereof.
  • the output image is supplied to the output unit 29.
  • the output unit 29 outputs an output image supplied from any one of the cartoon tone conversion unit 23 to the sharpness processing unit 28 to a display device (not shown) as an image to be displayed as a slide show, and displays it.
  • the input image is subjected to a filter process by a filter that extracts edges such as a Laplacian filter, and the resulting image is subjected to a binarization process. Further, the binarized image is subjected to expansion / contraction processing, and a non-uniform contour line is adjusted.
  • a contour image an image obtained by performing expansion / contraction processing on a binarized image is also referred to as a contour image.
  • a point set consisting only of pixels having a predetermined luminance value of the input image is obtained as a texture.
  • an input image is shown on the left side in the drawing, and a texture is shown on the right side in the drawing.
  • This texture is a binary image having the same size as the input image, for example, an image composed of white and black colors, and the pixel value of the pixel at the same position as the pixel of the predetermined luminance value of the input image in the texture is black.
  • the pixel values of the other pixels are white values.
  • the texture obtained in this way is combined with the contour image, and the resulting image is used as an output image (hereinafter also referred to as a cartoon-like output image) obtained by the cartoon-like conversion process.
  • This comic-like output image is characterized in that the entire image is composed of contour lines, that is, simple lines and patterns, and the image is a black and white image.
  • the comic-tone output image is a monochrome image of the input image while enhancing the edges of the input image.
  • the input image is filtered by a Laplacian filter or the like, the binarized process is performed on the resulting image, and the binarized image is expanded and contracted. Processing is performed. Thereby, a contour image of the input image is obtained.
  • an area of the same color on the input image is segmented.
  • an area composed of pixels adjacent to each other and having the same color by the same color determination process is defined as one segment.
  • the number of colors at the time of segmentation is about 10 colors.
  • the output image (hereinafter also referred to as “animation-like output image”) obtained by the animation-like conversion process is obtained by adding a color to the cartoon-like output image.
  • the output image in the anime tone is an image in which the edge of the input image is emphasized and the same segment on the input image is painted with the same color.
  • the input image is subjected to a linear conversion process to adjust the contrast of the input image.
  • the peripheral portion which is a portion excluding the vicinity of the center of the input image whose contrast has been adjusted is subjected to filter processing using a Gaussian filter to blur the peripheral portion.
  • the image obtained in this way is used as an output image obtained by the diorama conversion process (hereinafter also referred to as a diorama output image).
  • a diorama-like output image has a feature that the depth of field is uniform and the contrast ratio is high, that is, there are many so-called blackout and whiteout areas.
  • the diorama tone conversion process may be any process as long as an algorithm that applies a uniform perspective to the image or an algorithm that narrows the field of view of the image is applied.
  • a process for adjusting the focus by performing a linear conversion process on the input image and further performing a deconvolution process may be a diorama conversion process.
  • the pixel of interest in the input image is set as the pixel of interest, and a predetermined area centered on the pixel of interest is set as the area of interest, and R (red) and G (green) of the pixels in the area of interest.
  • R (red) and G (green) of the pixels in the area of interest are set as the area of interest
  • B (blue) pixel values are the pixel values of the R, G, and B components of the target pixel.
  • a histogram is generated for each color component of R, G, and B, and the most frequent bin value in the histogram, that is, the pixel value of the color component is set as the pixel value of the target pixel.
  • each pixel is further added to the resulting image.
  • a gradation conversion process is performed to reduce the number of gradations of the pixel value of the color component.
  • the image obtained by the gradation conversion process is used as an output image (hereinafter, also referred to as a subtractive color-tone output image) obtained by the subtractive color-tone conversion process.
  • the pixel value of a pixel is represented by 256 gradations and is any value from 0 to 255.
  • the pixel value of the pixel of the input image is converted into a pixel value having a gradation number smaller than 256, for example, as shown in FIG.
  • the “number of gradations” column indicates the number of gradations after conversion
  • the “width per gradation” column indicates the pre-conversion corresponding to one gradation after conversion.
  • the number of gradations is shown. For example, when the number of gradations after conversion is “8”, one gradation after conversion corresponds to 32 gradations before conversion. That is, the pixel values of 32 consecutive gradations before conversion are set to the same pixel values after conversion.
  • the pixel values are converted using the conversion table shown in FIG.
  • the “original pixel value” column indicates a range of 256 gradation pixel values before conversion
  • the “converted pixel value” column indicates eight gradations after conversion.
  • the pixel values of are shown. Therefore, for example, when the pixel value of the R component of the pixel of interest before conversion is a value between “0” and “31”, the pixel value after conversion of the R component of the pixel is “0”. It is said.
  • the input image is subjected to a reduced-color painting-like conversion process, and an output image is generated by using the reduced-color painting-like image obtained thereby and the input image.
  • a block B11 that is an area centered on an arbitrary pixel of the input image P11 is selected.
  • the area of the block B11 is painted with the color of the central pixel (hereinafter also referred to as a representative color) located at the center of the block B11 as indicated by the arrow A11.
  • a mask used for painting is generated as indicated by an arrow A12.
  • This mask is a mask in which only pixels having a color similar to the representative color are painted with the representative color in the block B11, and pixels having a color not similar to the representative color are not painted.
  • the degree of similarity between the color of each pixel and the representative color is obtained from the Euclidean distance or the Manhattan distance, and the representative color is applied to pixels having a similarity equal to or greater than a threshold value.
  • the mask B12 generated in this way is used, and a block B12, which is an area of the subtractive painting style image P12 obtained from the input image, is located at the same position as the block B11 of the input image. Painted on representative colors. That is, the pixel value of the pixel in the block B12 at the same position as the pixel painted in the representative color in the block B11 indicated by the arrow A13 is changed to a value indicating the representative color.
  • the specified number of times that the process of pasting the representative color is repeated may be determined according to, for example, the complexity of the edge of the input image and the size of the block (for example, block B11) of the processing unit. However, it may be determined in advance.
  • the overpainting painting-like output image is converted into a rough touch image.
  • the mask may not be used.
  • the pixel value of each pixel of the block B12 is a value indicating the representative color of the block B11.
  • step S11 the blur detection unit 21 detects the blur of the input image based on the supplied input image.
  • the blur detection unit 21 divides the input image into several blocks and detects the edge strength for each block. Then, the blur detection unit 21 obtains a difference between the minimum value and the maximum value of the edge strength of each block of the input image as a dynamic range, and sets an edge reference value and an extraction reference value based on the dynamic range.
  • the edge reference value is a value used for determining whether or not it is a pixel constituting the edge on the input image (hereinafter referred to as an edge point), and the extraction reference value is the extraction of the edge point. It is a value used to determine whether the quantity is appropriate.
  • the blur degree detection unit 21 extracts, as edge points, pixels included in blocks (hereinafter referred to as edge blocks) whose detected edge strength is equal to or higher than the edge reference value for each block of the input image. Compare with the extraction reference value. If the extracted amount of the edge point is not appropriate as a result of the comparison of the extracted amounts, the blur degree detecting unit 21 adjusts the edge reference value until the extracted amount becomes an appropriate amount, and extracts the edge point. Repeat the process.
  • the blur degree detection unit 21 analyzes whether or not blur has occurred at the extracted edge points, and the degree of blur indicating the degree of blur of the input image from the analysis result. Ask for.
  • the degree of blur indicates that the subject of the input image is blurred as the value increases, and the obtained degree of blur is supplied from the blur degree detection unit 21 to the selection unit 22.
  • step S ⁇ b> 12 the selection unit 22 determines whether the input image is a blurred image based on the degree of blur supplied from the blur degree detection unit 21. For example, when the degree of blur is equal to or greater than a predetermined threshold, the input image is determined to be a blurred image.
  • step S12 If it is determined in step S12 that the image is not blurred, the process proceeds to step S13.
  • step S ⁇ b> 13 the selection unit 22 selects one filter from filters predetermined for an image that is not blurred based on the frequency of use of the filters held by the cartoon tone conversion unit 23 to the sharpness processing unit 28. select.
  • a filter used for a blurred input image and a filter used for a non-blurred input image are determined in advance, and different combinations depending on whether or not the input image is blurred.
  • One filter is selected from these filter groups.
  • a filter for cartoon-like conversion processing for a non-blurred input image, a filter for cartoon-like conversion processing, a filter for animation-like conversion processing, a filter for diorama-like conversion processing, and a filter for subtractive painting-like conversion processing Either the filter or the filter for overpainting painting-like conversion processing is used to generate an output image.
  • the input image that is not blurred is subjected to any one of the image processing of the cartoon-like conversion processing, the animation-like conversion processing, the diorama-like conversion processing, the color-reduction painting-like conversion processing, or the overpainting-like painting-like conversion processing, and the output image It is said.
  • an edge can be reliably extracted from the input image, so that it is possible to select from various filters such as a filter for processing using edge enhancement.
  • a filter for cartoon-like conversion processing a filter for animation-like conversion processing, a filter for diorama-like conversion processing, and a filter for color-reduced painting-like conversion processing, which are used for unblurred input images.
  • a filter group including a filter and a filter for overpainting painting tone conversion processing is also referred to as a blur-free filter group.
  • the selection unit 22 holds the frequency of use of the filters held by the cartoon tone conversion unit 23 through the sharpness processing unit 28.
  • the selection unit 22 selects a filter with the lowest use frequency from the blur-free filter group based on the use frequency of each filter that is held.
  • the selection unit 22 supplies the supplied input image to the block having the selected filter, and the process proceeds to step S15.
  • the selection unit 22 supplies the input image to the painting-style conversion unit 26 and adds 1 to the frequency of use of the filter for color reduction painting-style conversion processing. To do.
  • step S12 determines whether the image is blurred. If it is determined in step S12 that the image is blurred, the process proceeds to step S14.
  • step S ⁇ b> 14 the selection unit 22 selects one filter from predetermined filters for a blurred image based on the frequency of use of the filters held by the cartoon tone conversion unit 23 to the sharpness processing unit 28. select.
  • an output image is generated by using a filter for sharpness processing, a filter for color-reduction painting tone conversion processing, or a filter for diorama tone conversion processing.
  • the blurred input image is subjected to any of image processing such as sharpness processing, color-reduction painting tone conversion processing, or diorama tone conversion processing to be an output image.
  • image processing such as sharpness processing, color-reduction painting tone conversion processing, or diorama tone conversion processing to be an output image.
  • the blurred input image is converted into an output image that can be enjoyed by a user who is not blurred. Can do.
  • the output image is an image different from the scene at the time of the user's imaging, for example, touch The image looks like a rough painting. Therefore, if the obtained output image is displayed, it is possible to give the user a greater impact than a monotonous display effect such as fade-in or zoom without making the user feel unsightly.
  • a filter group including a filter for sharpness processing, a filter for color-reduction painting tone conversion processing, and a filter for diorama tone conversion processing, which is used for a blurred input image is a filter group with blurring. Also called.
  • the selection unit 22 selects a filter with the lowest use frequency from the blurred filter group based on the use frequency of each filter that is held.
  • the selection unit 22 supplies the supplied input image to the block having the selected filter, and the process proceeds to step S15.
  • the selection unit 22 supplies the input image to the diorama conversion unit 25 and adds 1 to the frequency of use of the filter for the diorama conversion processing.
  • step S15 the block to which the input image is supplied from the selection unit 22 among the cartoon tone conversion unit 23 to the sharpness processing unit 28 is the supplied input image. Is filtered.
  • the diorama conversion unit 25 applies the input image to the input image.
  • the filter processing using the held filter is performed. That is, the diorama tone conversion unit 25 performs a diorama tone conversion process on the input image to convert the input image into a diorama tone output image.
  • the diorama tone conversion unit 25 supplies the output image of the diorama tone obtained by the diorama tone conversion process to the output unit 29, and the process proceeds to step S16.
  • step S16 the output unit 29 outputs the supplied output image to a display device (not shown), and causes the display device to display the output image.
  • step S17 the image processing apparatus 11 determines whether to end the process. For example, when all input images to be displayed as a slide show are converted into output images and output, it is determined that the process is finished.
  • step S17 If it is determined in step S17 that the process does not end, the process returns to step S11, and the above-described process is repeated. That is, the next input image is converted into an output image.
  • step S17 when it is determined in step S17 that the process is to be ended, each unit of the image processing apparatus 11 ends the process being performed, and the image conversion process is ended.
  • the image processing apparatus 11 detects the degree of blur of the input image, performs image processing on the input image based on the detection result, and converts the input image into an output image.
  • the blurred input image can be converted into an output image that can be appreciated by the user and displayed.
  • the filters are selected according to the frequency of use of each filter, so that the same filter is not continuously selected. Therefore, the user does not get bored with viewing the output image.
  • an appropriate filter is selected based on the degree of blur of the input image, and the input image is processed using the selected filter. It is possible to generate an output image with a texture different from Thereby, an image can be displayed more effectively to the user.
  • the output image obtained from the input image is described as being displayed as a slide show.
  • the output image may be recorded or only one output image may be displayed.
  • the display of the image may be switched while fading in and fading out from one of the output image and the original input image to the other.
  • a plurality of output images obtained by filtering with different filters for the same input image may be displayed while fading in and out.
  • image processing is selected according to the frequency of use.
  • feature amounts of some features are extracted from the input image, and a filter is selected according to the feature amounts. It may be. For example, from the input image, at least one of the resolution of the input image, the color distribution, the color bias, the number of gradations of the pixel value of the pixel of the input image, the degree of blur, the edge amount, the edge distribution, the texture amount, and the texture distribution One is extracted and used as a feature value for selecting a filter.
  • the image processing apparatus is configured as shown in FIG. In FIG. 7, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the 7 includes a blur detection unit 21, an edge complexity detection unit 61, a size detection unit 62, a color distribution complexity detection unit 63, a color deviation detection unit 64, a selection unit 22 through a painting style conversion unit 27. , And an output unit 29.
  • the input image supplied to the image processing device 51 is supplied to the blur detection unit 21, the edge complexity detection unit 61 to the color deviation detection unit 64, and the selection unit 22.
  • Each of the blur detection unit 21 and the edge complexity detection unit 61 to the color deviation detection unit 64 extracts a feature amount of the input image from the supplied input image, and a score indicating the feature amount is extracted to the selection unit 22. Supply. And the selection part 22 selects the image process performed to an input image based on those scores.
  • the blur degree detection unit 21 detects the blur degree as a feature amount from the input image, and supplies the detection result to the selection unit 22 as a score indicating the feature amount.
  • the edge complexity detection unit 61 obtains the edge complexity indicating the amount of edges included in the input image based on the supplied input image, and supplies it to the selection unit 22.
  • the edge complexity value (score) increases as the input image includes more edges and the input image has a more complicated pattern.
  • the size detection unit 62 Based on the supplied input image, the size detection unit 62 obtains a rectangular area surrounding the boundary of the object (subject) on the input image, that is, a box size indicating the size of a so-called bounding box, and sends it to the selection unit 22. Supply.
  • the box size value (score) increases as the size of the bounding box increases and the degree of tightening of the edge-concentrated portion in the input image decreases.
  • the color distribution complexity detection unit 63 obtains a color distribution complexity indicating the complexity of the color distribution in the input image based on the supplied input image, and supplies the color distribution complexity to the selection unit 22.
  • the color distribution complexity value (score) increases as the color distribution is more complicated and the input image has a more complicated pattern.
  • the color deviation detection unit 64 obtains a degree of color deviation indicating the degree of color deviation in the input image based on the supplied input image, and supplies it to the selection unit 22.
  • the value (score) of the degree of color deviation increases as the color deviation in the input image increases.
  • the selection unit 22 includes feature amounts supplied from the blur degree detection unit 21 and the edge complexity detection unit 61 to the color deviation detection unit 64, that is, blur degree, edge complexity, box size, color distribution complexity, and color deviation.
  • the image processing (filter) to be applied to the input image is selected based on the degree.
  • the image processing is selected from among cartoon-like conversion processing, animation-like conversion processing, diorama-like conversion processing, subtractive color-like painting-like conversion processing, and overpainting-like painting-like tone conversion processing.
  • the selection unit 22 supplies the supplied input image to the block that performs the selected image processing among the cartoon-like conversion unit 23 to the painting-like conversion unit 27.
  • the selection unit 22 knows which image processing is more effective for the supplied input image. Can do. In FIG. 8, each image processing is more effective when the presence / absence of blur, the complexity of the edge distribution, the box size, the complexity of the color distribution, and the presence / absence of color deviation are in each state. It is shown.
  • the subtractive color-tone conversion processing is effective for an image that has scattered edges and is expressed in many colors.
  • the subtractive color-tone conversion process is effective for images with complex edge distribution and color distribution and no color bias. It can be converted into an output image that can be expected to be appreciated. Note that the presence or absence of blur and the size of the bounding box in the input image do not affect whether or not the color-reduction painting tone conversion process is effective for the input image.
  • the overpainting painting-like conversion process is effective for images with many specific colors with simple edge distribution and color distribution. That is, the overpainting painting-like conversion process is effective for an image having a simple edge distribution and color distribution, a small bounding box size, and a color bias. Note that the presence or absence of blur in the input image does not affect whether or not the overpainting painting-like conversion process is effective for the input image.
  • the diorama conversion process is effective for images with a simple color distribution and a small bounding box. That is, the diorama tone conversion process is effective for an image having a simple edge distribution and color distribution, a small bounding box size, and no color deviation. Note that the presence or absence of blur in the input image does not affect whether or not the diorama conversion processing is effective for the input image.
  • the animation tone conversion process is effective for images that are not blurred and are composed of a small number of colors. That is, the animation tone conversion process is effective for an image having no blur, simple edge distribution and color distribution, and having a color bias. Note that the size of the bounding box in the input image does not affect whether or not the animation tone conversion process is effective for the input image.
  • the cartoon-like conversion process is effective for images with no blur and simple edge distribution. That is, the cartoon tone conversion process is effective for an image having no blur and a simple edge distribution but a complicated color distribution and no color bias. Note that the size of the bounding box in the input image does not affect whether or not the comic-tone conversion process is effective for the input image. In addition, the color distribution and the color bias have little influence on whether or not the cartoon-like conversion process is effective.
  • Image processing is selected based on the feature amount.
  • each column of “blurness”, “edge complexity”, “box size”, “color distribution complexity”, and “color bias” indicating each feature has a symbol “ ⁇ ” (circle). ) Or “ ⁇ ” (bad).
  • the symbol “ ⁇ ” (circle) represents a case where the feature amount (score) is less than a predetermined threshold, and the symbol “x” (cross) represents a case where the feature amount is equal to or greater than the threshold.
  • the selection unit 22 compares the feature amount of each feature with a threshold value determined for each feature and selects image processing.
  • the reduced color painting style conversion process is selected.
  • the overpainting painting style conversion process is selected.
  • the diorama conversion process is selected and the blur, edge complexity, and color distribution complexity are less than the threshold.
  • the animation tone conversion process is selected.
  • the degree of blur, the degree of edge complexity, and the degree of color bias are less than the threshold value, and the color distribution complexity is equal to or greater than the threshold value, the comic style conversion process is selected.
  • FIG. 10 is a diagram illustrating a more detailed configuration example of the edge complexity detection unit 61.
  • the edge complexity detection unit 61 includes a filter processing unit 91, an average value calculation unit 92, a distance calculation unit 93, a distance calculation unit 94, and a score calculation unit 95.
  • the filter processing unit 91 generates an R image, a G image, and a B image that include only the R, G, and B components of the supplied input image, and adds an edge to the R image, the G image, and the B image. Is applied to the average value calculation unit 92.
  • the average value calculation unit 92 obtains an average value for each pixel of the R image, the G image, and the B image supplied from the filter processing unit 91 to generate one image, and sends it to the distance calculation unit 93 and the distance calculation unit 94. Supply.
  • the distance calculation unit 93 calculates the distance between the image supplied from the average value calculation unit 92 and a simple image prepared in advance, and supplies the distance to the score calculation unit 95.
  • a simple image refers to an image taken by a specialist or the like, for example, having a small edge complexity and being well taken, that is, an image that is generally highly evaluated.
  • the distance calculation unit 94 calculates the distance between the image supplied from the average value calculation unit 92 and a complex image prepared in advance, and supplies the distance to the score calculation unit 95.
  • a complex image refers to an image taken by an amateur or the like with a large edge complexity and not taken well, that is, an image that is generally low in evaluation.
  • the score calculation unit 95 calculates the edge complexity using the distance supplied from the distance calculation unit 93 and the distance supplied from the distance calculation unit 94 and supplies the edge complexity to the selection unit 22.
  • FIG. 11 is a diagram illustrating a more detailed configuration example of the size detection unit 62 of FIG.
  • the size detection unit 62 includes a filter processing unit 121, an average value calculation unit 122, a width calculation unit 123, a width calculation unit 124, and a score calculation unit 125.
  • the filter processing unit 121 and the average value calculation unit 122 are the same as the filter processing unit 91 and the average value calculation unit 92 in FIG.
  • the width calculation unit 123 uses the image supplied from the average value calculation unit 122 to obtain the width of the bounding box in the input image in a predetermined direction (hereinafter referred to as the x direction), and supplies the width to the score calculation unit 125. To do.
  • the width calculation unit 124 uses the image supplied from the average value calculation unit 122 to determine the width of the bounding box in the input image in the direction perpendicular to the x direction (hereinafter referred to as the y direction), and the score calculation unit 125.
  • the score calculation unit 125 calculates a box size based on the widths in the x and y directions supplied from the width calculation unit 123 and the width calculation unit 124 and supplies the box size to the selection unit 22.
  • FIG. 12 is a diagram illustrating a more detailed configuration example of the color distribution complexity detection unit 63 of FIG.
  • the color distribution complexity detection unit 63 includes a color-specific histogram generation unit 151, a histogram generation unit 152, a distance calculation unit 153, a distance calculation unit 154, and a score calculation unit 155.
  • the color-specific histogram generation unit 151 generates a histogram for each color from the supplied input image, using the range of pixel values of the R, G, and B components of the input image as bins, and supplies the generated histogram to the histogram generation unit 152. To do.
  • the histogram generation unit 152 generates one histogram from the histograms of the R, G, and B color components supplied from the color-specific histogram generation unit 151, and supplies the histogram to the distance calculation unit 153 and the distance calculation unit 154.
  • the distance calculation unit 153 calculates a distance between the histogram supplied from the histogram generation unit 152 and a histogram obtained from a simple image prepared in advance, and supplies the distance to the score calculation unit 155.
  • the distance calculation unit 154 calculates a distance between the histogram supplied from the histogram generation unit 152 and a histogram obtained from a complex image prepared in advance, and supplies the distance to the score calculation unit 155.
  • the score calculation unit 155 calculates the color distribution complexity based on the distances supplied from the distance calculation unit 153 and the distance calculation unit 154 and supplies the color distribution complexity to the selection unit 22.
  • FIG. 13 is a diagram showing a more detailed configuration example of the color deviation detection unit 64 of FIG.
  • the color deviation detection unit 64 includes a conversion unit 181, a histogram generation unit 182, and a score calculation unit 183.
  • the conversion unit 181 converts pixel values of each component of H (hue), S (saturation), and V (lightness) from an image having pixel values of each component of R, G, and B from the supplied input image.
  • the image is converted to a stored image and supplied to the histogram generator 182.
  • the histogram generation unit 182 generates a histogram of pixels satisfying a predetermined condition on the input image from the input image having the H, S, and V components supplied from the conversion unit 181, and supplies the generated histogram to the score calculation unit 183. .
  • the score calculation unit 183 calculates the degree of color bias based on the histogram supplied from the histogram generation unit 182 and supplies it to the selection unit 22.
  • step S41 is the same as the process of step S11 of FIG. 6, the description is abbreviate
  • step S42 the edge complexity detection unit 61 performs edge complexity detection processing to obtain the edge complexity, and supplies it to the selection unit 22.
  • step S ⁇ b> 43 the size detection unit 62 performs a size detection process to obtain a box size and supplies the box size to the selection unit 22.
  • step S44 the color distribution complexity detection unit 63 performs color distribution complexity detection processing to obtain the color distribution complexity, and supplies the color distribution complexity to the selection unit 22. Further, in step S ⁇ b> 45, the color deviation detection unit 64 performs color deviation detection processing to obtain the degree of color deviation and supplies the degree of color deviation to the selection unit 22.
  • edge complexity detection process The details of the edge complexity detection process, the size detection process, the color distribution complexity detection process, and the color deviation detection process performed in steps S42 to S45 will be described later.
  • step S46 when the feature amount is obtained by the blur detection unit 21 and the edge complexity detection unit 61 to the color deviation detection unit 64 and supplied to the selection unit 22, the process proceeds to step S46.
  • step S46 the selection unit 22 performs a filter selection process to select a filter to be used for image processing performed on the input image.
  • a filter is selected using the feature amount supplied to the selection unit 22.
  • an input image is supplied from the selection unit 22 to a block holding the selected filter, that is, any one of the cartoon tone conversion unit 23 to the painting tone conversion unit 27.
  • step S47 to step S49 is performed, and the image conversion processing ends.
  • these processing are the same as the processing of step S15 to step S17 in FIG. To do.
  • the image processing device 51 obtains feature quantities of a plurality of features from the supplied input image, and converts the input image into an output image by appropriate image processing determined by the feature quantities. Accordingly, it is possible to more easily select more effective image processing for the input image and generate an output image, and as a result, the output image can be displayed more effectively.
  • edge complexity detection process corresponding to the process of step S42 of FIG. 14 will be described with reference to the flowchart of FIG. This edge complexity detection process is performed by the edge complexity detection unit 61 of FIG.
  • the filter processing unit 91 performs a filtering process using a filter for extracting an edge such as a Laplacian filter on the supplied input image. That is, the filter processing unit 91 generates an R image, a G image, and a B image from the input image, performs a filtering process on the R image, the G image, and the B image, and supplies them to the average value calculation unit 92.
  • the average value calculation unit 92 calculates an average value for each pixel of the R image, the G image, and the B image supplied from the filter processing unit 91, and generates one image. That is, the pixel value of the pixel of the generated image is the average value of the pixels of the R image, the G image, and the B image at the same position as the pixel.
  • the average value calculation unit 92 normalizes the image obtained by calculating the average value to obtain an image having a predetermined size such as 100 pixels in the vertical direction and 100 pixels in the horizontal direction, and the distance calculation unit 93 and the distance calculation unit 94.
  • step S ⁇ b> 73 the distance calculation unit 93 and the distance calculation unit 94 calculate the distance between the image supplied from the average value calculation unit 92 and a simple image and a complicated image prepared in advance, and Supply.
  • the distance between the image from the average value calculation unit 92 and a simple image (or a complex image) is determined by the filter processing performed by the filter processing unit 91 on the simple image and the average value calculation unit 92.
  • the Euclidean distance between the image obtained by performing the process for obtaining the average value and the image from the average value calculation unit 92 is used. Therefore, the distance obtained in this manner indicates the degree of similarity of the edge complexity between the input image and a simple image (or a complex image).
  • step S74 the score calculation unit 95 calculates a score (value) of the edge complexity by obtaining a difference between the distance supplied from the distance calculation unit 93 and the distance supplied from the distance calculation unit 94, and is selected. Supplied to the unit 22.
  • the value of the edge complexity obtained in this way increases as the distance between the input image and the complex image becomes shorter, and the edge in the input image becomes more complicated.
  • the edge complexity detection process ends, and then the process proceeds to step S43 in FIG.
  • step S43 in FIG. 14 This size detection process is performed by the size detection unit 62 of FIG.
  • step S101 and step S102 is the same as the process of step S71 of FIG. 15, and step S72, the description is abbreviate
  • step S ⁇ b> 103 the width calculation unit 123 and the width calculation unit 124 obtain the widths of the bounding box in the x direction and the y direction in the input image using the image supplied from the average value calculation unit 122. Supply.
  • the width calculation unit 123 sets the line composed of pixels arranged in the y direction in the image from the average value calculation unit 122 as the y line, and for each y line, the total value of the pixel values of the pixels constituting the y line. A certain y-line value is obtained.
  • the width calculation unit 123 uses the y-line value obtained for each y-line, and the x-direction of an area composed of continuously arranged y-lines including the amount of 98% of the total amount of edges included in the image Is obtained as the width Wx in the x direction of the bounding box. That is, the total value of the y line values of the y lines included in the obtained region is a value that is 98% or more of the total value of the y line values of all the y lines constituting the image.
  • the width calculation unit 124 sets a line composed of pixels arranged in the x direction in the image from the average value calculation unit 122 as an x line, and for each x line, the total value of the pixel values of the pixels constituting the x line. X-line value is obtained. Then, the width calculation unit 124 uses the x-line value obtained for each x-line, and the y-direction of an area composed of continuously arranged x-lines that includes 98% of the total amount of edges included in the image. Is obtained as the width Wy in the y direction of the bounding box.
  • step S104 the score calculation unit 125 calculates a box size score based on the width Wx and the width Wy supplied from the width calculation unit 123 and the width calculation unit 124, and supplies the score to the selection unit 22.
  • the reciprocal of the value obtained by subtracting the product of the normalized width Wx and width Wy from 1 is the box size value (score).
  • the width Wx and the width Wy are respectively Normalized by dividing by 100. That is, the reciprocal of “1 ⁇ (Wx / 100) ⁇ (Wy / 100)” is the box size value.
  • the value of the box size obtained in this way becomes larger as the size of the bounding box is larger, indicating that the degree of tightening of the region where edges are concentrated in the input image is lower.
  • step S131 the color-specific histogram generation unit 151 generates a histogram for each of the R, G, and B color components of the input image using the supplied input image, and supplies the histogram to the histogram generation unit 152.
  • the histogram generation unit 152 generates one histogram from the histogram for each color supplied from the color-specific histogram generation unit 151, and supplies the histogram to the distance calculation unit 153 and the distance calculation unit 154.
  • the histogram generation unit 152 normalizes a histogram for each color, and 1 is composed of 16 cubed bins with a predetermined range of pixel values of the input image as bins from the normalized histogram for each color. Generate two histograms.
  • step S133 the distance calculation unit 153 and the distance calculation unit 154 calculate the distance between the histogram supplied from the histogram generation unit 152 and each of the histograms obtained from the simple image and the complex image prepared in advance as K. -Calculate by NN method.
  • each of the histograms obtained from the simple image and the complex image is a histogram generated by the same processing as the histogram generated by the histogram generation unit 152.
  • the distance calculation unit 153 sets the total value of the difference between the frequency values of each bin between the histogram from the histogram generation unit 152 and the histogram of the simple image as the distance between the histograms.
  • the distance calculation unit 153 obtains the distance from the histogram from the histogram generation unit 152 for a plurality of simple images, and supplies the distance to the score calculation unit 155.
  • the distance calculation unit 154 sets the total value of the frequency value difference of each bin between the histogram from the histogram generation unit 152 and the histogram of the complex image as the distance between the histograms.
  • the distance calculation unit 154 calculates a distance from the histogram from the histogram generation unit 152 for a plurality of complex images, and supplies the distance to the score calculation unit 155.
  • step S134 the score calculation unit 155 calculates a color distribution complexity score based on the distances supplied from the distance calculation unit 153 and the distance calculation unit 154, and supplies the score to the selection unit 22.
  • the score calculation unit 155 selects K distances from the distances supplied from the distance calculation unit 153 and the distance calculation unit 154 in ascending order of the distance values. Then, the score calculation unit 155 obtains a difference between the number of distances from the simple image histogram and the number of distances from the complex image histogram among the selected K distances, and calculates the obtained difference.
  • the color distribution complexity value (score) is used. That is, of the K distances, the difference between the number of distances supplied from the distance calculation unit 153 and the number of distances supplied from the distance calculation unit 154 is the color distribution complexity.
  • the color distribution complexity value obtained in this way increases as the complexity of the color distribution in the input image becomes closer to the complexity of the color distribution in the complex image, and the color distribution in the input image becomes more complicated. It is shown that.
  • step S161 the conversion unit 181 converts the supplied input image into an image having pixel values of H, S, and V components, and supplies the image to the histogram generation unit 182.
  • the histogram generation unit 182 generates a histogram of pixels that satisfy a predetermined condition from the image supplied from the conversion unit 181 and supplies the histogram to the score calculation unit 183.
  • the predetermined condition is that the value of the V component of the pixel is greater than 0.15 and less than 0.95, and the value of the S component of the pixel is greater than 0.2. Pixels that satisfy the condition are extracted from the image. Then, from the extracted pixels, a histogram with bins of the H component value range of the pixels is generated and supplied to the score calculation unit 183.
  • the score calculation unit 183 calculates a score of the degree of color bias based on the histogram supplied from the histogram generation unit 182 and supplies the score to the selection unit 22. For example, the score calculation unit 183 obtains the median value N of the bins with the highest frequency value having a value of 5% or more of the total value of the frequency values of each bin of the histogram as the frequency value, and calculates a predetermined number, for example, 20 A value obtained by subtracting the median N is defined as a value (score) of the degree of color deviation.
  • the value of the degree of color deviation obtained in this way becomes larger as the median value N, that is, the H (hue) component is smaller, indicating that the color deviation is larger in the input image.
  • step S191 the selection unit 22 determines whether the supplied input image is a blurred image based on the degree of blur supplied from the blur detection unit 21. For example, when the degree of blur is equal to or greater than a predetermined threshold, the input image is determined to be a blurred image.
  • step S192 the selection unit 22 selects an input image based on the color distribution complexity supplied from the score calculation unit 155 of the color distribution complexity detection unit 63. It is determined whether or not the color distribution in is complicated. For example, when the color distribution complexity is greater than or equal to a predetermined threshold, it is determined that the color distribution is complex.
  • step S193 the selection unit 22 selects a filter that converts the input image into an animation-like image as a filter for image processing performed on the input image.
  • the animation tone conversion process is selected as the image process as shown in FIG.
  • the selection unit 22 supplies the supplied input image to the animation tone conversion unit 24 that performs the animation tone conversion process, and the filter selection process ends. Then, the process proceeds to step S47 in FIG.
  • step S194 the selection unit 22 converts the input image into a cartoon image as a filter for image processing performed on the input image. Select a filter.
  • the cartoon-like conversion process is selected as the image process as shown in FIG.
  • the selection unit 22 supplies the supplied input image to the cartoon tone conversion unit 23 that performs the cartoon tone conversion process, and the filter selection process ends. Then, the process proceeds to step S47 in FIG.
  • step S195 the selection unit 22 selects the input image based on the edge complexity supplied from the score calculation unit 95 of the edge complexity detection unit 61. It is determined whether or not the edge distribution is complicated. For example, when the edge complexity is greater than or equal to a predetermined threshold, it is determined that the edge distribution is complex.
  • step S196 the selection unit 22 determines the color of the input image based on the degree of color deviation supplied from the score calculation unit 183 of the color deviation detection unit 64. It is determined whether there is a bias. For example, when the degree of color deviation is equal to or greater than a predetermined threshold, it is determined that there is color deviation.
  • step S197 the selection unit 22 selects a filter that converts the input image into a diorama-like image as a filter for image processing performed on the input image.
  • the diorama conversion processing is selected as the image processing as shown in FIG.
  • the selection unit 22 supplies the supplied input image to the diorama conversion unit 25 that performs diorama conversion processing, and the filter selection process ends. Then, the process proceeds to step S47 in FIG.
  • step S198 the selection unit 22 converts the input image into an overpainted image as a filter for image processing performed on the input image. Select a filter.
  • the overpainting painting tone conversion process is selected as the image process.
  • the selection unit 22 supplies the supplied input image to the painting style conversion unit 27 that performs the overpainting painting style conversion process, and the filter selection process ends. Then, the process proceeds to step S47 in FIG.
  • step S199 the selection unit 22 uses a filter for converting the input image into a subtractive color image as a filter for image processing performed on the input image. select.
  • the color-reduction painting style conversion process is selected as the image process.
  • the selection unit 22 supplies the supplied input image to the painting style conversion unit 26 that performs the subtractive painting style conversion process, and the filter selection process ends. Then, the process proceeds to step S47 in FIG.
  • the selection unit 22 selects a more suitable image process for the input image based on the feature amount extracted from the input image, and supplies the input image to the block that performs the image process. As described above, by using the feature amount, it is possible to select more effective image processing for the input image more easily.
  • the image processing apparatus is configured as shown in FIG. 20, for example.
  • FIG. 20 parts corresponding to those in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the image processing device 231 includes a gaze area detection unit 241, a blur degree detection unit 21, an edge complexity detection unit 61 through a color deviation detection unit 64, a selection unit 22 through a painting tone conversion unit 27, and an output unit 29.
  • the gaze area detection unit 241 detects the subject from the input image by extracting the feature amount of the feature of the subject area on the supplied input image, and identifies the gaze area including the subject in the input image. A subject map as information is generated.
  • the gaze area detection unit 241 supplies the generated subject map to the blur detection unit 21, the edge complexity detection unit 61 to the color deviation detection unit 64, and the selection unit 22.
  • the detection of the subject is performed assuming that when the user glances at the input image, an object on the input image that is estimated to be noticed by the user, that is, an object that is estimated to be looked at by the user is the subject. Therefore, the subject is not necessarily limited to a person.
  • the blur detection unit 21 and the edge complexity detection unit 61 to the color deviation detection unit 64 are a gaze region in the supplied input image and a region other than the gaze region using the subject map from the gaze region detection unit 241.
  • a feature amount is extracted from the background area and supplied to the selection unit 22. That is, for each of the gaze area and the background area, the degree of blur, the edge complexity, the box size, the color distribution complexity, and the color bias are obtained.
  • the selection unit 22 performs image processing to be performed on at least one of the gaze region and the background region based on the feature amounts from the blur detection unit 21 and the edge complexity detection unit 61 to the color deviation detection unit 64. select. When image processing is performed on both regions, image processing is selected for each region.
  • the selection unit 22 supplies the supplied input image and the subject map from the gaze area detection unit 241 to the block that performs the selected image processing.
  • the output unit 29 synthesizes the output image supplied from the cartoon-like conversion unit 23 to the painting-like conversion unit 27, that is, the image of the gaze area and the image of the background area as necessary, and finally obtains the output Output an image.
  • the gaze area detection unit 241 is configured as shown in FIG.
  • the gaze area detection unit 241 includes a luminance information extraction unit 271, a color information extraction unit 272, a face information extraction unit 273, and a subject map generation unit 274.
  • the luminance information extraction unit 271 generates a luminance information map indicating information regarding luminance in each area of the input image based on the supplied input image, and supplies the luminance information map to the subject map generation unit 274.
  • the luminance information extraction unit 271 includes a luminance image generation unit 291, a pyramid image generation unit 292, a difference calculation unit 293, and a luminance information map generation unit 294.
  • the luminance image generation unit 291 generates a luminance image with the luminance value of the pixel of the input image as the pixel value of the pixel using the supplied input image, and supplies the luminance image to the pyramid image generation unit 292.
  • the pixel value of an arbitrary pixel of the luminance image indicates the luminance value of the pixel of the input image at the same position as the pixel.
  • the pyramid image generation unit 292 uses the luminance image supplied from the luminance image generation unit 291 to generate a plurality of luminance images having different resolutions, and supplies these luminance images to the difference calculation unit 293 as luminance pyramid images. To do.
  • pyramid images of eight resolution layers from level L1 to level L8 are generated, the pyramid image of level L1 has the highest resolution, and the resolution of the pyramid image sequentially decreases from level L1 to level L8. .
  • the luminance image generated by the luminance image generation unit 291 is a pyramid image of level L1.
  • the pyramid image of level Li (where 1 ⁇ i ⁇ 7)
  • the pyramid image at the level L (i + 1) is an image of half the length and breadth (discarded if not divisible) with respect to the pyramid image at the level Li.
  • the difference calculation unit 293 selects two pyramid images having different hierarchies from among the plurality of pyramid images supplied from the pyramid image generation unit 292, calculates a difference between the selected pyramid images, and generates a luminance difference image. . Since the pyramid images in each layer have different sizes (number of pixels), the smaller pyramid image is up-converted in accordance with the larger pyramid image when generating the difference image.
  • the difference calculation unit 293 When the difference calculation unit 293 generates a difference image having a predetermined number of luminances, the difference calculation unit 293 normalizes the generated difference images and supplies the normalized difference image to the luminance information map generation unit 294.
  • the luminance information map generation unit 294 generates a luminance information map based on the difference image supplied from the difference calculation unit 293, and supplies the luminance information map to the subject map generation unit 274.
  • the color information extraction unit 272 generates a color information map indicating information regarding the color in each area of the input image based on the supplied input image, and supplies the color information map to the subject map generation unit 274.
  • the color information extraction unit 272 includes an RG difference image generation unit 295, a BY difference image generation unit 296, a pyramid image generation unit 297, a pyramid image generation unit 298, a difference calculation unit 299, a difference calculation unit 300, a color information map generation unit 301, And a color information map generator 302.
  • the RG difference image generation unit 295 generates an RG difference image using a difference between the R (red) component and the G (green) component of the pixel of the input image as the pixel value of the pixel, using the supplied input image. And supplied to the pyramid image generation unit 297.
  • the pixel value of an arbitrary pixel of the RG difference image indicates a difference value between the R component and the G component of the pixel of the input image at the same position as the pixel.
  • the BY difference image generation unit 296 uses the supplied input image to generate a BY difference image in which the difference between the B (blue) component and the Y (yellow) component of the pixel of the input image is the pixel value of the pixel. And supplied to the pyramid image generation unit 298.
  • the pixel value of an arbitrary pixel of the BY difference image indicates a difference value between the B (blue) component and the Y (yellow) component of the pixel of the input image at the same position as the pixel. Note that the value of the Y (yellow) component of the input image is obtained from the values (pixel values) of the R, G, and B color components of the input image.
  • the pyramid image generation unit 297 and the pyramid image generation unit 298 use a RG difference image and a BY difference image supplied from the RG difference image generation unit 295 and the BY difference image generation unit 296, and use a plurality of RG difference images having different resolutions. And a BY difference image are generated. Then, the pyramid image generation unit 297 and the pyramid image generation unit 298 use the generated RG difference image and BY difference image as the RG difference pyramid image and the BY difference pyramid image, and the difference calculation unit 299 and the difference calculation. Supplied to the unit 300.
  • pyramid images of eight resolution layers from level L1 to level L8 are generated.
  • the difference calculation unit 299 and the difference calculation unit 300 select two pyramid images having different hierarchies from among the plurality of pyramid images supplied from the pyramid image generation unit 297 and the pyramid image generation unit 298, and the selected pyramid image The difference is obtained, and a difference image of RG difference and a difference image of BY difference are generated. Since the pyramid images of the respective layers have different sizes, the lower pyramid image is up-converted to have the same size as the larger pyramid image when the difference image is generated.
  • the difference calculation unit 299 and the difference calculation unit 300 When the difference calculation unit 299 and the difference calculation unit 300 generate a difference image of RG difference and a difference image of BY difference by a predetermined number, the difference calculation unit 299 normalizes the generated difference image, and a color information map generation unit 301 and the color information map generator 302.
  • the color information map generation unit 301 and the color information map generation unit 302 generate a color information map based on the difference images supplied from the difference calculation unit 299 and the difference calculation unit 300, and supply the color information map to the subject map generation unit 274.
  • the color information map generation unit 301 generates a color information map of RG differences
  • the color information map generation unit 302 generates a color information map of BY differences.
  • the face information extraction unit 273 generates a face information map indicating information related to a human face as a subject in each region of the input image based on the supplied input image, and supplies the face information map to the subject map generation unit 274.
  • the face information extraction unit 273 includes a face detection unit 303 and a face information map generation unit 304.
  • the face detection unit 303 detects a human face area as a subject from the supplied input image, and supplies the detection result to the face information map generation unit 304.
  • the face information map generation unit 304 generates a face information map based on the detection result from the face detection unit 303 and supplies it to the subject map generation unit 274.
  • the information included in these information maps is information indicating the feature quantities of features that are included more in the area including the subject, and the information map is obtained by arranging the information corresponding to each area of the input image.
  • the information map can be said to be information indicating the feature amount in each region of the input image.
  • an area on the input image corresponding to a region with a larger amount of information in each information map, that is, a region with a larger amount of features, is a region with a higher possibility of including a subject. Can be specified.
  • the subject map generation unit 274 includes a luminance information map, a color information map, and face information supplied from the luminance information map generation unit 294, the color information map generation unit 301, the color information map generation unit 302, and the face information map generation unit 304.
  • the map is linearly combined to generate a subject map. That is, the subject map is generated by weighting and adding the information (feature amount) of each area of the luminance information map to the face information map for each area at the same position.
  • the subject map generation unit 274 supplies the generated subject map to the blur detection unit 21, the edge complexity detection unit 61 through the color deviation detection unit 64, and the selection unit 22.
  • the gaze area detection unit 241 performs a gaze area detection process to detect a gaze area from the input image. That is, the gaze area detection unit 241 generates a subject map from the input image, and supplies the subject map to the blur degree detection unit 21, the edge complexity detection unit 61 to the color deviation detection unit 64, and the selection unit 22. Details of the gaze area detection process will be described later.
  • steps S232 to S236 are performed, which are the same as the processes of steps S41 to S45 of FIG. Is omitted.
  • the feature amount of each feature is obtained and supplied to the selection unit 22.
  • a feature amount is obtained for each gaze region and background region of the input image based on the subject map generated by the gaze region detection unit 241.
  • the degree of blur, edge complexity, box size, color distribution complexity, and color bias of the gaze area are calculated, and the blur, edge complexity, box size, color distribution complexity, and color of the background area are calculated.
  • the degree of bias is required.
  • step S237 the selection unit 22 determines whether or not the absolute value of the difference between the degree of blur is less than a predetermined threshold based on the degree of blur of the gaze area and the background area supplied from the blur degree detection unit 21. Determine.
  • step S2308 the selection unit 22 performs a filter selection process on the gaze area, and a filter used for image processing performed on the gaze area of the input image. Select.
  • filter selection process for the gaze area is the same as the filter selection process described with reference to FIG.
  • image processing for the gaze area is selected using the degree of blur, edge complexity, box size, color distribution complexity, and color bias of the gaze area.
  • the selection unit 22 When selecting a filter for the gaze region, that is, image processing, the selection unit 22 supplies the supplied input image and the subject map from the gaze region detection unit 241 to the block that performs the selected image processing, and the block Instructs the image processing on the gaze area of the input image.
  • step S239 the block to which the input image and the subject map are supplied from the selection unit 22 in the cartoon-like conversion unit 23 to the painting-like conversion unit 27 is used as a gaze area of the input image using the supplied subject map. Filter processing is applied to the filter.
  • the pictorial tone conversion unit 26 performs the subtractive color tone conversion process on the gaze area of the input image using the subject map, and the gaze area in the input image The output image of the part is generated.
  • the painting style conversion unit 26 supplies the output image of the generated gaze area portion to the output unit 29.
  • step S240 the selection unit 22 performs a filter selection process on the background region, and selects a filter to be used for image processing performed on the background region of the input image.
  • the filter selection process for the background region is the same as the filter selection process described with reference to FIG.
  • the image processing for the background region is selected using the blur degree, edge complexity, box size, color distribution complexity, and color bias degree of the background region.
  • the selection unit 22 When selecting a filter for the background region, that is, image processing, the selection unit 22 supplies the supplied input image and the subject map from the gaze region detection unit 241 to the block that performs the selected image processing, and to that block Instructs image processing on the background area of the input image.
  • step S241 the block to which the input image and the subject map are supplied from the selection unit 22 in the cartoon-like conversion unit 23 to the painting-like conversion unit 27 is used as a background area of the input image using the supplied subject map. Filter processing is applied to the filter.
  • the animation tone conversion unit 24 when an animation tone conversion process is selected by the selection unit 22, the animation tone conversion unit 24 performs an animation tone conversion process on the background region of the input image using the subject map, so that a portion of the background region in the input image The output image is generated.
  • the animation tone conversion unit 24 supplies the output image of the generated background area portion to the output unit 29.
  • step S242 the selection unit 22 determines whether the blur in the gaze area is greater than the blur in the background area. Determine.
  • step S243 the selection unit 22 performs a filter selection process on the gaze area and selects a filter. Note that the process of step S243 is the same as the process of step S238, and thus the description thereof is omitted.
  • the selection unit 22 When selecting a filter, that is, image processing, the selection unit 22 supplies the subject map from the gaze area detection unit 241 and the supplied input image to the block that performs the image processing, and an image of the input image with respect to the gaze area Instruct processing.
  • step S244 the block to which the input image and the subject map are supplied from the selection unit 22 in the cartoon-like conversion unit 23 to the painting-like conversion unit 27 is used as a gaze area of the input image using the supplied subject map.
  • Filter processing is applied to the filter.
  • the image of the portion of the gaze area obtained by the filtering process is used as the output image of the portion of the gaze area.
  • the block that performs image processing uses the subject map to extract the background area of the input image, and uses the background area as it is as the output image of the background area.
  • the block that performs image processing supplies the output unit 29 with the output image of the gaze region portion and the output image of the background region portion obtained by the filter processing.
  • step S247 When the output image of the gaze area portion and the output image of the background area portion are supplied to the output unit 29, the process proceeds to step S247. In this way, when the gaze area is blurred more than the background area, image processing is performed on the gaze area of the input image, and image processing is not performed on the background area that is not blurred, and is left as it is.
  • step S242 If it is determined in step S242 that the degree of blur of the gaze area is not large, that is, if the degree of blur of the background area is larger than the degree of blur of the gaze area, the selection unit 22 selects a filter for the background area in step S245. Process and select a filter. In addition, since the process of step S245 is the same as the process of step S240, the description is omitted.
  • the selection unit 22 selects a filter, that is, image processing
  • the selection unit 22 supplies the subject map from the gaze region detection unit 241 and the supplied input image to the block that performs the image processing, and the image for the background region of the input image Instruct processing.
  • step S246 the block to which the input image and the subject map are supplied from the selection unit 22 in the cartoon-like conversion unit 23 to the painting-like conversion unit 27 is used as a background area of the input image using the supplied subject map.
  • Filter processing is applied to the filter.
  • the image of the background area portion obtained by the filtering process is used as the output image of the background area portion.
  • the block that performs image processing extracts the gaze area of the input image using the subject map, and uses the gaze area as an output image of the gaze area as it is.
  • the block that performs image processing supplies the output image of the background region portion and the output image of the gaze region portion obtained by the filter processing to the output unit 29.
  • step S247 When the output image of the gaze area portion and the output image of the background area portion are supplied to the output unit 29, the process proceeds to step S247.
  • image processing is performed on the background area of the input image, and image processing is not performed on the gaze area that is not blurred.
  • step S241, step S244, or step S246 is performed and the output image of the gaze area portion and the output image of the background area portion are supplied to the output unit 29, the output unit 29 is output in step S247. Synthesizes the supplied output image of the gaze region portion and the output image of the background region portion to generate one final output image.
  • the output image obtained in this way is an image that has been subjected to image processing that is individually selected for the gaze area and the background area, or an image that has been subjected to image processing for either the gaze area or the background area.
  • the processing in step S248 and step S249 is performed thereafter, and the image conversion processing is completed. These processing is performed in steps S16 and S17 in FIG. Since it is the same as the processing, its description is omitted.
  • the image processing device 231 performs image processing on at least one of the gaze area and the background area in the input image, and converts the input image into an output image. This makes it possible to easily select more effective image processing for each area of the input image and generate an output image. As a result, the output image can be displayed more effectively.
  • the gaze area is left as it is, and image processing is performed on the background area so that the subject in the gaze area can be separated from the scene at the time of capturing the input image. Can be put in. Therefore, it is possible to give a strong impact to the user when viewing the output image and to enjoy viewing the output image.
  • the human face area in the gaze area is left as it is. You may make it perform image processing with respect to the area
  • the detection of the human face area can be specified from the face information map generated by the gaze area detection unit 241.
  • image processing to be applied to the gaze region and the background region several output images are generated by performing different image processing on these regions, and images to be applied to each region from the generated output images Processing may be selected.
  • images to be applied to each region from the generated output images Processing may be selected.
  • Seam Carving the connectivity of the boundary line between the output image of the gaze area and the output image of the background area is evaluated as energy, and the output of those areas is output based on the evaluation.
  • Image processing is selected in which the images are more smoothly connected when they are combined.
  • the subject map may be used as a mask.
  • the subject map is used as a mask and image processing is performed only on the gaze area of the input image, and as a result, the obtained image is used as the output image.
  • the output unit 29 it is not necessary for the output unit 29 to synthesize the output image of the gaze area portion and the output image of the background area portion, and the output image can be obtained more quickly.
  • the luminance image generation unit 291 generates a luminance image using the supplied input image and supplies the luminance image to the pyramid image generation unit 292. For example, the luminance image generation unit 291 multiplies the value of each component of R, G, and B of the pixel of the input image by a coefficient predetermined for each component, and sums the value of each component multiplied by the coefficient Is the pixel value of the pixel of the luminance image at the same position as the pixel of the input image. That is, the luminance component of the component signal composed of the luminance component (Y) and the color difference components (Cb, Cr) is obtained. Note that the average value of the R, G, and B component values of the pixel may be the pixel value of the pixel of the luminance image.
  • step S282 the pyramid image generation unit 292 generates pyramid images of the respective levels L1 to L8 based on the luminance image supplied from the luminance image generation unit 291 and supplies the pyramid image to the difference calculation unit 293.
  • step S283 the difference calculation unit 293 generates and normalizes the difference image using the pyramid image supplied from the pyramid image generation unit 292, and supplies the difference image to the luminance information map generation unit 294.
  • the normalization is performed so that the pixel value of the pixel of the difference image becomes a value between 0 and 255, for example.
  • the difference calculation unit 293 includes the level L6 and the level L3, the level L7 and the level L3, the level L7 and the level L4, the level L8 and the level L4, and the level L8 and the level among the luminance pyramid images of each layer.
  • the difference of the pyramid image of the combination of each layer of L5 is obtained.
  • a total of five luminance difference images are obtained.
  • the pyramid image of level L6 is up-converted according to the size of the pyramid image of level L3. That is, the pixel value of one pixel of the pyramid image of level L6 before up-conversion is the pixel value of several pixels adjacent to each other of the pyramid image of level L6 after up-conversion corresponding to that pixel. Then, the difference between the pixel value of the pixel of the level L6 pyramid image and the pixel value of the pixel of the level L3 pyramid image at the same position as the pixel is obtained, and the difference is set as the pixel value of the pixel of the difference image.
  • the process of generating these difference images is equivalent to performing a filter process using a bandpass filter on the luminance image and extracting a predetermined frequency component from the luminance image.
  • the pixel value of the pixel of the difference image obtained in this way is the difference between the luminance values of the pyramid images at each level, that is, the difference between the luminance at a predetermined pixel in the input image and the average luminance around the pixel. Is shown.
  • an area having a large luminance difference from the surroundings in an image is an area that catches the eye of a person who sees the image, so that the area is likely to be a subject area. Therefore, it can be said that in each difference image, a pixel having a larger pixel value is a region that is more likely to be a subject region.
  • step S284 the luminance information map generation unit 294 generates a luminance information map based on the difference image supplied from the difference calculation unit 293, and supplies the luminance information map to the subject map generation unit 274.
  • the luminance information map generation unit 294 obtains one image by weighting and adding the supplied five difference images with a weight for each difference image obtained in advance. That is, the pixel values of the pixels at the same position in each difference image are multiplied by the weight, and the sum of the pixel values multiplied by the weight is obtained.
  • the difference images are up-converted so that the difference images have the same size. According to the luminance information map thus obtained, it is possible to easily detect a region having a large difference in luminance, that is, a region that is easily noticeable by an observer who looks at the input image.
  • step S285 the RG difference image generation unit 295 generates an RG difference image using the supplied input image and supplies the RG difference image to the pyramid image generation unit 297.
  • step S286 the BY difference image generation unit 296 generates a BY difference image using the supplied input image and supplies the BY difference image to the pyramid image generation unit 298.
  • step S287 the pyramid image generation unit 297 and the pyramid image generation unit 298 generate a pyramid image using the RG difference image from the RG difference image generation unit 295 and the BY difference image from the BY difference image generation unit 296. .
  • the pyramid image generation unit 297 generates a plurality of RG difference images having different resolutions, thereby generating pyramid images of the respective levels L1 to L8 and supplies the pyramid images to the difference calculation unit 299.
  • the pyramid image generation unit 298 generates a plurality of BY difference images having different resolutions, thereby generating pyramid images of the respective levels L1 to L8 and supplies the pyramid images to the difference calculation unit 300.
  • step S288 the difference calculation unit 299 and the difference calculation unit 300 generate and normalize a difference image based on the pyramid images supplied from the pyramid image generation unit 297 and the pyramid image generation unit 298, and the color information map generation unit 301. And supplied to the color information map generation unit 302.
  • the pixel value of the pixel is set to a value between 0 and 255.
  • the difference calculation unit 299 among the RG difference pyramid images of each layer, level L6 and level L3, level L7 and level L3, level L7 and level L4, level L8 and level L4, and level L8 and level L5 The difference of the pyramid image of each layer combination is obtained. As a result, a difference image of a total of five RG differences is obtained.
  • the difference calculation unit 300 includes the level L6 and level L3, the level L7 and level L3, the level L7 and level L4, the level L8 and level L4, and the level L8 and level among the BY difference pyramid images of each layer.
  • the difference of the pyramid image of the combination of each layer of L5 is obtained.
  • a difference image of a total of five BY differences is obtained.
  • the process of generating these difference images is equivalent to performing a filtering process using a bandpass filter on the RG difference image or the BY difference image and extracting a predetermined frequency component from the RG difference image or the BY difference image.
  • the pixel value of the pixel of the difference image obtained in this way is the difference between the specific color component of the pyramid image at each level, that is, the specific color component in the pixel of the input image and the average around the pixel. A difference from a specific color component is shown.
  • an area of a color that stands out from the surroundings in the image that is, an area that has a large difference from the surroundings of a specific color component is an eye-catching area of the person who sees the image. Is likely. Therefore, it can be said that in each difference image, a pixel having a larger pixel value is a region that is more likely to be a subject region.
  • step S289 the color information map generation unit 301 and the color information map generation unit 302 generate a color information map using the difference image from the difference calculation unit 299 and the difference image from the difference calculation unit 300, and generate a subject map.
  • the color information map generation unit 301 weights and adds the difference image of the RG difference supplied from the difference calculation unit 299 with the weight for each difference image obtained in advance, and the color information of the difference of one RG Map.
  • the color information map generation unit 302 adds the difference image of the BY difference supplied from the difference calculation unit 300 with a weight obtained in advance to obtain a color information map of one BY difference. . Note that when the color information map is generated, the difference images are up-converted so that the difference images have the same size.
  • the color information map obtained in this way it is possible to easily detect a region where a difference between specific color components is large in the input image, that is, a region that is easily noticeable by an observer who looks at the input image. .
  • the face detection unit 303 detects a human face region from the supplied input image, and supplies the detection result to the face information map generation unit 304.
  • the face detection unit 303 performs a filtering process using a Gabor filter on the input image, and extracts characteristic regions such as human eyes, mouth, and nose from the input image, whereby a face region in the input image is obtained. Is detected.
  • step S291 the face information map generation unit 304 generates a face information map using the detection result from the face detection unit 303, and supplies the face information map to the subject map generation unit 274.
  • candidate areas a plurality of rectangular areas (hereinafter referred to as candidate areas) on the input image that are estimated to include a face are detected as face detection results from the input image.
  • candidate areas a plurality of candidate areas are detected near a predetermined position on the input image, and some of these candidate areas may overlap each other. That is, for example, when a plurality of areas including the face are obtained as candidate areas for one face area on the input image, some of these candidate areas overlap each other.
  • the face information map generation unit 304 generates a detection image having the same size as the input image for each candidate region, with respect to the candidate region obtained by face detection.
  • the pixel value of a pixel in the same region as the candidate region to be processed on the detected image is set to a value larger than the pixel value of a pixel in a region different from the candidate region.
  • the pixel value of the pixel on the detected image increases as the pixel is located at the same position as the pixel in the candidate area where it is estimated that the human face is more likely to be included.
  • the face information map generation unit 304 adds the detected images obtained in this way, generates one image, normalizes it, and forms a face information map. Therefore, on the face information map, the pixel value of the pixel in the same region as the region where a part of the plurality of candidate regions on the input image overlaps increases, and the possibility that a face is included is higher. Note that the normalization is performed so that the pixel value of the face information map pixel is a value between 0 and 255, for example.
  • the face information map obtained in this way it is possible to easily detect a human face area as a subject in an input image.
  • the subject map generation unit 274 includes the luminance information map and color information map supplied from the luminance information map generation unit 294, the color information map generation unit 301, the color information map generation unit 302, and the face information map generation unit 304. And a face information map are used to generate a subject map.
  • the subject map generation unit 274 linearly combines the information maps using the weights obtained in advance for each information map, and further multiplies the pixel values of the resulting map by the weights obtained in advance.
  • the subject map is normalized.
  • the target position (pixel) on the subject map to be obtained is the target position
  • the pixel value at the same position (pixel) as the target position of each information map is multiplied by the weight for each information map. Is the pixel value at the target position. Further, the pixel value at each position of the subject map obtained in this way is multiplied by a weight obtained in advance with respect to the subject map to be normalized to obtain a final subject map.
  • an RG difference color information map and a BY difference color information map are used to generate a subject map. Also, normalization is performed so that the pixel value of each pixel of the subject map becomes a value between 0 and 1.
  • the subject map generation unit 274 When the subject map generation unit 274 generates the subject map, the generated subject map is supplied to the blur detection unit 21, the edge complexity detection unit 61 to the color deviation detection unit 64, and the selection unit 22, and the gaze area detection process is completed. To do.
  • the gaze area detection process ends, the process proceeds to step S232 in FIG.
  • the gaze area detection unit 241 generates and outputs a subject map for specifying the gaze area of the input image.
  • the image processing apparatus 231 can perform more effective image processing on each of the gaze area where the user looks at the input image and the background area, which is another area, in the input image. As a result, the output image can be displayed more effectively.
  • the subject map is generated by extracting information on luminance, information on color, and information on human face from the input image.
  • information on edges and information on movement are extracted from the input image.
  • it may be used to generate a subject map.
  • the series of processes described above can be executed by hardware or software.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
  • FIG. 24 is a block diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processes by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • the input / output interface 505 includes an input unit 506 including a keyboard, a mouse, and a microphone, an output unit 507 including a display and a speaker, a recording unit 508 including a hard disk and a non-volatile memory, and a communication unit 509 including a network interface.
  • a drive 510 for driving a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • Programs executed by the computer (CPU 501) are, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disc, or a semiconductor.
  • the program is recorded on a removable medium 511 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Picture Signal Circuits (AREA)

Abstract

 本発明は、より簡単かつ効果的に画像を表示することができる画像処理装置および方法、並びにプログラムに関する。 ぼけ度検出部21は、入力画像のぼけ度を検出する。選択部22は、ぼけ度の検出結果に基づいて入力画像に施す画像処理を選択し、漫画調変換部23乃至シャープネス処理部28のうちの選択した画像処理を行うブロックに入力画像を供給する。漫画調変換部23乃至シャープネス処理部28のうちの入力画像の供給されたブロックは、入力画像に対して画像処理を施し、出力部29に出力する。本発明は、画像処理装置に適用することができる。

Description

画像処理装置および方法、並びにプログラム
 本発明は画像処理装置および方法、並びにプログラムに関し、特に、より簡単かつ効果的に画像を提示できるようにした画像処理装置および方法、並びにプログラムに関する。
 従来、複数の画像を順番に表示していく、いわゆるスライドショー機能が知られている。例えば、スライドショー機能を利用すれば、ユーザはカメラにより撮像した画像を順番に表示させて鑑賞することができる。
 このようなスライドショー機能では、画像の表示時に、画像をフェードイン、フェードアウトさせたり、スライドイン、スライドアウトさせたりすることができる。また、画像をスライドショー表示する場合に、表示対象の画像から特徴領域を抽出し、抽出された特徴領域の数に基づいて、画像上の一部をズーム表示させる表示方法も提案されている(例えば、特許文献1参照)。
特開2005-182196号公報
 しかしながら、フェードインやズームなどの画像の表示効果は単調であり、またユーザ自身が撮像した画像は、その光景(被写体)が既知であるため、スライドショー時に得られるインパクトが薄く、ユーザが画像の鑑賞に飽きてしまうこともある。
 さらに、スライドショー表示の対象となる画像の選択は、ユーザが撮像した画像が格納されているフォルダなどを指定することによりされるため、表示対象の画像のなかに、手振れなどによりぼけた画像が含まれることも多い。スライドショー時に、ぼけた画像が表示されると、ユーザに見苦しさを感じさせる恐れもある。
 このように、上述した技術では、画像をより効果的に表示させることはできなかった。なお、ユーザが画像の所定の領域と、画像を加工することにより得られる効果とを指定することで、画像の指定された領域を加工する技術も知られており、そのような技術を利用して、スライドショー表示の対象の画像に、いわゆる特殊効果を施すことも可能である。しかしながら、そのような場合、特に、ぼけた画像を効果的に表示することはできるが、ユーザは、いちいち特殊効果を施す画像や領域を指定したり、特殊効果を選択したりしなければならず、面倒であった。
 本発明は、このような状況に鑑みてなされたものであり、より簡単かつ効果的に画像を表示することができるようにするものである。
 本発明の第1の側面の画像処理装置は、入力画像に基づいて、前記入力画像のぼけの度合いを検出する検出手段と、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いの検出結果に基づいて選択する選択手段と、選択された前記画像処理を前記入力画像に施す画像処理手段とを備える。
 前記画像処理は、前記入力画像の解像度、色、前記入力画像の画素の画素値の階調数、テクスチャ、エッジ、またはビットレートのうちの少なくとも1つを減らす処理とすることができる。
 前記選択手段には、前記ぼけの度合いを示す値が予め定められた閾値以上である場合、予め定められたいくつかの前記画像処理のうちの何れかを選択させ、前記ぼけの度合いを示す値が前記閾値未満である場合、前記いくつかの前記画像処理とは組み合わせの異なる、他のいくつかの前記画像処理のうちの何れかを選択させることができる。
 前記選択手段には、前記ぼけの度合いを示す値と、各前記画像処理のこれまでに選択された頻度とに基づいて、前記画像処理を選択させることができる。
 本発明の第1の側面の画像処理方法またはプログラムは、入力画像に基づいて、前記入力画像のぼけの度合いを検出し、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いの検出結果に基づいて選択し、選択された前記画像処理を前記入力画像に施すステップを含む。
 本発明の第1の側面においては、入力画像に基づいて、前記入力画像のぼけの度合いが検出され、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかが、前記ぼけの度合いの検出結果に基づいて選択され、選択された前記画像処理が前記入力画像に施される。
 本発明の第2の側面の画像処理装置は、入力画像に基づいて、前記入力画像から複数の特徴の特徴量を抽出する抽出手段と、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記複数の特徴の特徴量に基づいて選択する選択手段と、選択された前記画像処理を前記入力画像に施す画像処理手段とを備える。
 前記特徴量として、前記入力画像の解像度、色の分布、色の偏り、前記入力画像の画素の画素値の階調数、ぼけの度合い、エッジ量、エッジ分布、テクスチャ量、またはテクスチャ分布のうちの少なくとも1つを前記入力画像から抽出することができる。
 本発明の第2の側面の画像処理方法またはプログラムは、入力画像に基づいて、前記入力画像から複数の特徴の特徴量を抽出し、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記複数の特徴の特徴量に基づいて選択し、選択された前記画像処理を前記入力画像に施すステップを含む。
 本発明の第2の側面においては、入力画像に基づいて、前記入力画像から複数の特徴の特徴量が抽出され、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかが、前記複数の特徴の特徴量に基づいて選択され、選択された前記画像処理が前記入力画像に施される。
 本発明の第3の側面の画像処理装置は、入力画像から、前記入力画像上の被写体の領域が有する特徴の第1の特徴量を抽出することで、前記被写体の領域を特定するための被写体特定情報を生成する生成手段と、前記入力画像および前記被写体特定情報に基づいて、前記入力画像上の前記被写体の領域である被写体領域のぼけの度合いと、前記入力画像上の前記被写体領域以外の領域である背景領域のぼけの度合いとを検出する検出手段と、前記入力画像に基づいて、前記被写体領域と前記背景領域とから、前記ぼけの度合いとは異なる複数の特徴の第2の特徴量を抽出する抽出手段と、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いおよび前記第2の特徴量に基づいて選択する選択手段と、選択された前記画像処理を、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に施す画像処理手段とを備える。
 前記選択手段には、前記被写体領域および前記背景領域のそれぞれに対して、前記画像処理を選択させ、前記画像処理手段には、前記被写体領域および前記背景領域のそれぞれに対して、選択された前記画像処理を施させることができる。
 前記選択手段には、前記被写体領域または前記背景領域のうちの前記ぼけの度合いのより大きい領域に対する前記画像処理を選択させ、前記画像処理手段には、前記ぼけの度合いのより大きい領域に対して、選択された前記画像処理を施させることができる。
 本発明の第3の側面の画像処理方法またはプログラムは、入力画像から、前記入力画像上の被写体の領域が有する特徴の第1の特徴量を抽出することで、前記被写体の領域を特定するための被写体特定情報を生成し、前記入力画像および前記被写体特定情報に基づいて、前記入力画像上の前記被写体の領域である被写体領域のぼけの度合いと、前記入力画像上の前記被写体領域以外の領域である背景領域のぼけの度合いとを検出し、前記入力画像に基づいて、前記被写体領域と前記背景領域とから、前記ぼけの度合いとは異なる複数の特徴の第2の特徴量を抽出し、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いおよび前記第2の特徴量に基づいて選択し、選択された前記画像処理を、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に施すステップを含む。
 本発明の第3の側面においては、入力画像から、前記入力画像上の被写体の領域が有する特徴の第1の特徴量を抽出することで、前記被写体の領域を特定するための被写体特定情報が生成され、前記入力画像および前記被写体特定情報に基づいて、前記入力画像上の前記被写体の領域である被写体領域のぼけの度合いと、前記入力画像上の前記被写体領域以外の領域である背景領域のぼけの度合いとが検出され、前記入力画像に基づいて、前記被写体領域と前記背景領域とから、前記ぼけの度合いとは異なる複数の特徴の第2の特徴量が抽出され、前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかが、前記ぼけの度合いおよび前記第2の特徴量に基づいて選択され、選択された前記画像処理が、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に施される。
 本発明の第1の側面によれば、より簡単かつ効果的に画像を表示することができる。
 また、本発明の第2の側面によれば、より簡単かつ効果的に画像を表示することができる。
 さらに、本発明の第3の側面によれば、より簡単かつ効果的に画像を表示することができる。
本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。 漫画調変換処理について説明する図である。 減色絵画調変換処理による変換後の1階調に相当する変換前の階調数を示す図である。 減色絵画調変換処理における、変換前と変換後の画素値を示す図である。 重ね塗り絵画調変換処理について説明する図である。 画像変換処理について説明するフローチャートである。 画像処理装置の他の構成例を示す図である。 各画像処理の特徴を説明する図である。 各画像処理と特徴量の関係を説明する図である。 エッジ複雑度検出部の構成例を示す図である。 サイズ検出部の構成例を示す図である。 色分布複雑度検出部の構成例を示す図である。 色偏り検出部の構成例を示す図である。 画像変換処理を説明するフローチャートである。 エッジ複雑度検出処理を説明するフローチャートである。 サイズ検出処理を説明するフローチャートである。 色分布複雑度検出処理を説明するフローチャートである。 色偏り検出処理を説明するフローチャートである。 フィルタ選択処理を説明するフローチャートである。 画像処理装置の他の構成例を示す図である。 注視領域検出部の構成例を示す図である。 画像変換処理を説明するフローチャートである。 注視領域検出処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
〈第1の実施の形態〉
[画像処理装置の構成]
 図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。
 画像処理装置11は、ぼけ度検出部21、選択部22、漫画調変換部23、アニメ調変換部24、ジオラマ調変換部25、絵画調変換部26、絵画調変換部27、シャープネス処理部28、および出力部29から構成される。
 この画像処理装置11には、スライドショー表示の対象となる複数の入力画像が、順次、入力され、画像処理装置11は、入力画像に画像処理を施すことで、入力画像を加工して出力画像に変換し、出力する。入力画像は、例えば、カメラなどの撮像装置により撮像された画像などとされる。
 ぼけ度検出部21は、供給された入力画像に基づいて、入力画像のぼけの度合いを検出し、その検出結果を選択部22に供給する。なお、入力画像のぼけには、焦点位置のずれにより生じるピントのぼけだけでなく、撮像装置が動くことにより生じる、いわゆる手ぶれによるぼけも含まれるものとする。選択部22は、ぼけ度検出部21から供給された検出結果に基づいて、入力画像に施す、予め定められた複数の画像処理のうちの何れかを選択する。
 入力画像に施される画像処理は、基本的には、入力画像の有する情報の情報量、すなわち、入力画像の解像度、色の数、入力画像の画素の画素値の階調数、テクスチャの量、エッジの量、ビットレートのうちの少なくとも何れかを減らす処理である。画像処理は、漫画調変換処理、アニメ調変換処理、ジオラマ調変換処理、絵画調変換処理、およびシャープネス処理から選択される。
 ここで、漫画調変換処理は、入力画像の色を減らして、入力画像を漫画絵のような画像に変換する処理であり、アニメ調変換処理は、入力画像のテクスチャを減らして、入力画像上の似た色からなる1つの領域を1つの色の領域とする処理である。
 また、ジオラマ調変換処理は、入力画像に均一の遠近感を与える処理であり、絵画調変換処理は、入力画像を、絵画のような画像に変換する処理である。絵画調変換処理には、入力画像の画素の画素値の階調数を減らす処理(以下、減色絵画調変換処理とも称する)と、減色絵画調変換処理が施された入力画像に対して、さらにマスクを用いた着色を行う処理(以下、重ね塗り絵画調変換処理とも称する)とがある。さらに、シャープネス処理は、入力画像のエッジを強調する処理である。
 選択部22は、画像処理を選択すると、漫画調変換部23乃至シャープネス処理部28のうち、選択した画像処理を行うブロックに、供給された入力画像を供給する。
 漫画調変換部23は、漫画調変換処理を行うためのフィルタを予め保持しており、選択部22から供給された入力画像に対して、保持しているフィルタを用いたフィルタ処理、すなわち漫画調変換処理を施し、その結果得られた出力画像を出力部29に供給する。漫画調変換部23において得られる出力画像は、入力画像に漫画調変換処理を施して得られる画像である。
 アニメ調変換部24は、アニメ調変換処理を行うためのフィルタを予め保持しており、選択部22からの入力画像に対して、保持しているフィルタを用いたフィルタ処理、すなわちアニメ調変換処理を施し、その結果得られた出力画像を出力部29に供給する。ジオラマ調変換部25は、ジオラマ調変換処理を行うためのフィルタを予め保持しており、選択部22からの入力画像に対して、保持しているフィルタを用いたフィルタ処理、すなわちジオラマ調変換処理を施し、その結果得られた出力画像を出力部29に供給する。
 絵画調変換部26は、減色絵画調変換処理を行うためのフィルタを予め保持しており、選択部22から供給された入力画像に対して、保持しているフィルタを用いたフィルタ処理を施し、その結果得られた出力画像を出力部29に供給する。絵画調変換部27は、重ね塗り絵画調変換処理を行うためのフィルタを予め保持しており、選択部22から供給された入力画像に対して、保持しているフィルタを用いたフィルタ処理を施し、その結果得られた出力画像を出力部29に供給する。
 シャープネス処理部28は、シャープネス処理を行うためのフィルタを予め保持しており、選択部22から供給された入力画像に対して、保持しているフィルタを用いたフィルタ処理を施し、その結果得られた出力画像を出力部29に供給する。出力部29は、漫画調変換部23乃至シャープネス処理部28の何れかから供給された出力画像を、スライドショー表示させる画像として、図示せぬ表示装置に出力し、表示させる。
 次に、漫画調変換処理、アニメ調変換処理、ジオラマ調変換処理、減色絵画調変換処理、および重ね塗り絵画調変換処理について説明する。
 まず、漫画調変換処理では、入力画像に対して、ラプラシアンフィルタ等のエッジを抽出するフィルタによりフィルタ処理が施され、その結果として得られた画像に2値化処理が施される。さらに、2値化された画像に対して膨張伸縮処理が施されて、不均一な輪郭線が整えられる。なお、以下、2値化された画像に膨張伸縮処理が施されて得られた画像を輪郭画像とも呼ぶこととする。
 また、図2に示すように、入力画像の所定の輝度値の画素のみからなる点集合がテクスチャとして求められる。図2では、図中、左側には入力画像が示されており、図中、右側にはテクスチャが示されている。
 このテクスチャは、入力画像と同じ大きさの2値、例えば、白と黒の色からなる画像であり、テクスチャにおける、入力画像の所定の輝度値の画素と同じ位置の画素の画素値は黒となる値とされ、その他の画素の画素値は白となる値とされる。
 このようにして得られたテクスチャが、輪郭画像と合成され、その結果得られる画像が、漫画調変換処理により得られた出力画像(以下、漫画調の出力画像とも称する)とされる。この漫画調の出力画像は、画像全体が輪郭線表現、つまり簡素な線や模様で構成され、かつ画像が白黒画像であるという特徴がある。換言すれば、漫画調の出力画像は、入力画像のエッジを強調しつつ、入力画像をモノクロ化したものであるということができる。
 また、アニメ調変換処理では、入力画像に対してラプラシアンフィルタ等によりフィルタ処理が施され、その結果得られた画像に2値化処理が施され、さらに2値化された画像に対して膨張伸縮処理が施される。これにより、入力画像の輪郭画像が得られる。
 さらに、入力画像上の各画素に対する閾値を用いた同色判定処理により、入力画像上の同じ色の領域、より詳細には類似する色の画素からなる領域がセグメンテーションされる。これにより、入力画像において、互いに隣接し、同色判定処理により同じ色とされた画素からなる領域が1つのセグメントとされる。例えば、セグメンテーション時の色の数は10色程度とされる。そして、入力画像上の各セグメントに対して、そのセグメント内の画素の平均の色がセグメントの色とされる処理が行われ、その結果得られた画像と、輪郭画像とが合成されて出力画像とされる。
 アニメ調変換処理により得られた出力画像(以下、アニメ調の出力画像とも称する)は、漫画調の出力画像に色を付与したものであるということができる。つまり、アニメ調の出力画像は、入力画像のエッジが強調され、かつ入力画像上の同一セグメントが同色で塗られたものである。
 次に、ジオラマ調変換処理では、入力画像に対して線形変換処理が施されて、入力画像のコントラスト調整が行われる。さらにコントラスト調整された入力画像の中心付近を除く部分である周辺部に対して、ガウシアンフィルタを用いたフィルタ処理が施され、周辺部がぼかされる。このようにして得られた画像が、ジオラマ調変換処理により得られる出力画像(以下、ジオラマ調の出力画像とも称する)とされる。ジオラマ調の出力画像には、被写界深度が均一であり、コントラスト比が高い、つまり、いわゆる黒つぶれや白飛びの領域が多いという特徴がある。
 なお、ジオラマ調変換処理は、画像に均一の遠近感を与えるアルゴリズムや、画像の視野を狭くするアルゴリズムを適応した処理であれば、どのような処理であってもよい。例えば、入力画像に対して線形変換処理を施し、さらにデコンボリューション処理を施すことでピント具合を調整する処理を、ジオラマ調変換処理としてもよい。
 また、減色絵画調変換処理では、入力画像の注目する画素が注目画素とされ、その注目画素を中心とする所定領域が注目領域とされて注目領域内の画素のR(赤),G(緑),B(青)の画素値の支配的な値が、注目画素のR,G,およびBの各成分の画素値とされる。例えば、R、G、Bの各色の成分ごとにヒストグラムが生成されて、そのヒストグラムにおける最も頻度の多いビンの値、つまり色の成分の画素値が、注目画素の画素値とされる。
 このようにして入力画像の各画素について、R、G、Bの各成分の画素値が新たに定められて画素値が変更されると、その結果得られた画像に対して、さらに各画素の色の成分の画素値の階調数を減らす階調変換処理が施される。そして、階調変換処理により得られた画像が、減色絵画調変換処理により得られる出力画像(以下、減色絵画調の出力画像とも称する)とされる。
 通常、画素の画素値は256階調で表され、0乃至255の何れかの値とされる。階調変換処理では、入力画像の画素の画素値が、例えば図3に示すように、256よりも少ない階調数の画素値に変換される。
 図3では、「階調数」の欄には、変換後の階調数が示されており、「階調当りの幅」の欄には、変換後の1階調に相当する変換前の階調数が示されている。例えば、変換後の階調数が「8」である場合、変換後の1階調は、変換前の32階調に相当する。つまり、変換前の連続する32階調の画素値は、変換後には同じ階調の画素値とされる。
 また、例えば入力画像の画素の各色の成分の画素値を、256階調から8階調に減らす階調変換処理が行われる場合、図4に示す変換表が用いられて、画素値が変換される。図4では、「元の画素値」の欄には、変換前の256階調の画素値の範囲が示されており、「変換後の画素値」の欄には、変換後の8階調の画素値が示されている。したがって、例えば、変換前の注目する画素のRの成分の画素値が「0」から「31」の間の値である場合、その画素のRの成分の変換後の画素値は、「0」とされる。
 このようにして、入力画像のR、G、Bの各色の成分の画素値が変換されると、減色絵画調の出力画像が得られる。なお、変換後の階調数は、減色絵画調の出力画像の仕上がり具合に影響するものであるため、ユーザにより任意に設定されるようにしてもよい。
 また、重ね塗り絵画調変換処理では、入力画像に対して減色絵画調変換処理が施され、これにより得られた減色絵画調の画像と、入力画像とが用いられて出力画像が生成される。具体的には、図5に示すように、入力画像P11の任意の画素を中心とする領域であるブロックB11が選択される。
 ここで、矢印A11に示すように、ブロックB11の領域が、そのブロックB11の中心に位置する中心画素の色(以下、代表色とも称する)で塗られることを考える。例えば、マスクが用いられてブロックB11の領域が代表色で塗られるとし、矢印A12に示すように、色を塗るときに用いるマスクが生成される。
 このマスクは、ブロックB11において、代表色と類似する色の画素だけが代表色で塗られ、代表色と類似しない色の画素には色が塗られずにそのままとされるマスクである。例えば、各画素の色の代表色との類似の度合いは、ユークリッド距離やマンハッタン距離により求められ、類似度が閾値以上の画素に代表色が塗られるようになされる。このマスクを用いてブロックB11が代表色に塗られると、矢印A13に示されるように、ブロックB11内の中心画素の色と類似する色の画素の色は、代表色となる。
 重ね塗り絵画調変換処理では、このようにして生成したマスクが用いられて、入力画像のブロックB11と同じ位置にある、入力画像から得られた減色絵画調の画像P12の領域であるブロックB12が代表色に塗られる。つまり、矢印A13に示されるブロックB11内の代表色に塗られた画素と同じ位置にある、ブロックB12内の画素の画素値が、代表色を示す値に変更される。
 このように、入力画像P11から任意のブロックを選択してマスクを生成し、そのブロックと同じ位置にある減色絵画調の画像P12のブロックに、マスクを用いて代表色を貼り付ける(塗る)処理が規定回数だけ行われ、その結果得られた画像が出力画像P13とされる。以下、重ね塗り絵画調変換処理により得られる出力画像を、重ね塗り絵画調の出力画像とも称する。
 なお、代表色の貼り付けの処理が繰り返される規定回数は、例えば、入力画像のエッジの複雑度と、処理単位のブロック(例えば、ブロックB11)の大きさに応じて定められるようにしてもよいし、予め定められていてもよい。
 また、重ね塗り絵画調変換処理で用いられるマスクは、減色絵画調の画像P12に対し、より細かい表現を施すために用いられるものであるので、重ね塗り絵画調の出力画像を、粗いタッチの画像に仕上げる場合には、マスクを用いないようにしてもよい。そのような場合、ブロックB12の各画素の画素値は、ブロックB11の代表色を示す値とされる。
[画像処理装置の動作の説明]
 ところで、画像処理装置11にスライドショー表示の対象となる入力画像が、順次、供給されると、画像処理装置11は、供給された入力画像を出力画像に変換して出力する処理である画像変換処理を開始する。
 以下、図6のフローチャートを参照して、画像処理装置11による画像変換処理について説明する。
 ステップS11において、ぼけ度検出部21は、供給された入力画像に基づいて、入力画像のぼけ度を検出する。
 例えば、ぼけ度検出部21は、入力画像をいくつかのブロックに分割し、ブロックごとにエッジ強度を検出する。そして、ぼけ度検出部21は、入力画像の各ブロックのエッジ強度の最小値と最大値との差分をダイナミックレンジとして求め、そのダイナミックレンジに基づいて、エッジ基準値および抽出基準値を設定する。
 ここで、エッジ基準値とは、入力画像上のエッジを構成する画素(以下、エッジポイントと称する)であるか否かの判定に用いられる値であり、抽出基準値とは、エッジポイントの抽出量が適切であるか否かの判定に用いられる値である。
 ぼけ度検出部21は、入力画像の各ブロックについて、検出されたエッジ強度がエッジ基準値以上であるブロック(以下、エッジブロックと称する)に含まれる画素をエッジポイントとして抽出し、その抽出量と抽出基準値と比較する。そして、ぼけ度検出部21は、抽出量の比較の結果、エッジポイントの抽出量が適切でない場合には、その抽出量が適切な量となるまでエッジ基準値を調整して、エッジポイントを抽出する処理を繰り返す。
 また、ぼけ度検出部21は、適切な量のエッジポイントが抽出されると、抽出したエッジポイントにおいて、ぼけが生じているかを分析し、その分析結果から入力画像のぼけの度合いを示すぼけ度を求める。このぼけ度は、その値が大きいほど入力画像の被写体がぼけていることを示しており、求められたぼけ度は、ぼけ度検出部21から選択部22に供給される。
 ステップS12において、選択部22は、ぼけ度検出部21から供給されたぼけ度に基づいて、入力画像がぼけた画像であるか否かを判定する。例えば、ぼけ度が予め定められた閾値以上である場合、入力画像はぼけた画像であると判定される。
 ステップS12において、ぼけた画像でないと判定された場合、処理はステップS13に進む。ステップS13において、選択部22は、漫画調変換部23乃至シャープネス処理部28が保持しているフィルタの使用頻度に基づいて、ぼけていない画像に対して予め定められたフィルタから、1つのフィルタを選択する。
 例えば画像処理装置11では、ぼけた入力画像に対して用いられるフィルタと、ぼけていない入力画像に対して用いられるフィルタとが予め定められており、入力画像がぼけているか否かにより、異なる組み合わせのフィルタ群から1つのフィルタが選択される。
 具体的には、ぼけていない入力画像に対しては、漫画調変換処理のためのフィルタ、アニメ調変換処理のためのフィルタ、ジオラマ調変換処理のためのフィルタ、減色絵画調変換処理のためのフィルタ、または重ね塗り絵画調変換処理のためのフィルタの何れかが用いられて出力画像が生成される。
 つまり、ぼけていない入力画像には、漫画調変換処理、アニメ調変換処理、ジオラマ調変換処理、減色絵画調変換処理、または重ね塗り絵画調変換処理の何れかの画像処理が施されて出力画像とされる。入力画像がぼけていない場合、入力画像から確実にエッジを抽出することができるので、エッジ強調を利用する処理のフィルタなど、多彩なフィルタからの選択が可能となる。
 なお、以下、ぼけてない入力画像に対して用いられる、漫画調変換処理のためのフィルタ、アニメ調変換処理のためのフィルタ、ジオラマ調変換処理のためのフィルタ、減色絵画調変換処理のためのフィルタ、および重ね塗り絵画調変換処理のためのフィルタからなるフィルタ群を、ぼけ無しフィルタ群とも称する。
 また、選択部22は、漫画調変換部23乃至シャープネス処理部28が保持しているフィルタの使用頻度を保持している。選択部22は、保持している各フィルタの使用頻度に基づいて、ぼけ無しフィルタ群のなかから、最も使用頻度の低いフィルタを選択する。
 選択部22はフィルタを選択すると、選択されたフィルタを有するブロックに、供給された入力画像を供給し、処理はステップS15に進む。例えば、減色絵画調変換処理のためのフィルタが選択された場合、選択部22は、入力画像を絵画調変換部26に供給し、減色絵画調変換処理のためのフィルタの使用頻度に1を加算する。
 これに対して、ステップS12において、ぼけた画像であると判定された場合、処理はステップS14に進む。ステップS14において、選択部22は、漫画調変換部23乃至シャープネス処理部28が保持しているフィルタの使用頻度に基づいて、ぼけている画像に対して予め定められたフィルタから、1つのフィルタを選択する。
 例えば、ぼけた入力画像に対しては、シャープネス処理のためのフィルタ、減色絵画調変換処理のためのフィルタ、ジオラマ調変換処理のためのフィルタの何れかのフィルタが用いられて出力画像が生成される。
 つまり、ぼけた入力画像には、シャープネス処理、減色絵画調変換処理、またはジオラマ調変換処理の何れかの画像処理が施されて出力画像とされる。入力画像がぼけている場合、入力画像からシャープなエッジを得ることはできないので、エッジを必要としない画像処理が選択されて、入力画像がぼけ感の薄い出力画像に変換される。
 このように、ぼけた入力画像に対してシャープネス処理、減色絵画調変換処理、またはジオラマ調変換処理を施せば、ぼけた入力画像を、ぼけのないユーザの鑑賞に堪え得る出力画像に変換することができる。すなわち、出力画像は、入力画像の全体が加工されたものであるため、入力画像がユーザにより撮像されたものであるときには、出力画像は、ユーザの撮像時の光景とは異なる画像、例えばタッチの粗い絵画のような画像となる。したがって、得られた出力画像を表示すれば、ユーザに見苦しさを感じさせることもなく、フェードインやズームなどの単調な表示効果よりも、より大きいインパクトをユーザに対して与えることができる。
 なお、以下、ぼけた入力画像に対して用いられる、シャープネス処理のためのフィルタ、減色絵画調変換処理のためのフィルタ、およびジオラマ調変換処理のためのフィルタからなるフィルタ群を、ぼけ有りフィルタ群とも称する。
 選択部22は、保持している各フィルタの使用頻度に基づいて、ぼけ有りフィルタ群のなかから、最も使用頻度の低いフィルタを選択する。
 そして、選択部22は、選択したフィルタを有するブロックに、供給された入力画像を供給し、処理はステップS15に進む。例えば、ジオラマ調変換処理のためのフィルタが選択された場合、選択部22は、入力画像をジオラマ調変換部25に供給し、ジオラマ調変換処理のためのフィルタの使用頻度に1を加算する。
 ステップS13またはステップS14において、フィルタが選択されると、ステップS15において、漫画調変換部23乃至シャープネス処理部28のうちの、選択部22から入力画像が供給されたブロックは、供給された入力画像に対してフィルタ処理を施す。
 例えば、選択部22によりジオラマ調変換処理のためのフィルタが選択されて、選択部22からジオラマ調変換部25に入力画像が供給された場合、ジオラマ調変換部25は、供給された入力画像に、保持しているフィルタを用いたフィルタ処理を施す。つまり、ジオラマ調変換部25は、入力画像にジオラマ調変換処理を施して、入力画像をジオラマ調の出力画像に変換する。
 そして、ジオラマ調変換部25は、ジオラマ調変換処理により得られた、ジオラマ調の出力画像を出力部29に供給し、処理はステップS16に進む。
 ステップS16において、出力部29は、供給された出力画像を、図示せぬ表示装置に出力し、表示装置に出力画像を表示させる。
 ステップS17において、画像処理装置11は、処理を終了するか否かを判定する。例えば、スライドショー表示の対象となる全ての入力画像が出力画像に変換されて出力された場合、処理は終了すると判定される。
 ステップS17において、終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、次の入力画像が出力画像に変換される。
 これに対して、ステップS17において、終了すると判定された場合、画像処理装置11の各部は行っている処理を終了し、画像変換処理は終了する。
 このようにして、画像処理装置11は、入力画像のぼけ度を検出し、その検出結果に基づいて入力画像に画像処理を施し、入力画像を出力画像に変換する。
 このように、ぼけ度に応じて選択された画像処理を入力画像に施すことで、ぼけた入力画像でも、ユーザの鑑賞に堪え得る出力画像に変換して表示させることができる。これにより、従来は、破棄されていたぼけた画像も有効に活用することができるとともに、ユーザに新鮮さを感じさせることができる。
 また、ぼけていない入力画像にも画像処理を施し、その結果得られた出力画像を表示することで、出力画像を鑑賞するユーザに強いインパクトを与えることができ、ユーザをより楽しませることができる。しかも、画像処理装置11では、各フィルタの使用頻度に応じてフィルタ(画像処理)が選択されるため、同じフィルタが連続して選択されるようなこともない。しがって、ユーザが出力画像の鑑賞に飽きてしまうこともない。
 以上のように、画像処理装置11によれば、入力画像のぼけ度に基づいて、適切なフィルタを選択し、選択されたフィルタにより入力画像を加工するという簡単な処理で、入力画像の撮像時とは異なる風合いの出力画像を生成することができる。これにより、ユーザに対して、より効果的に画像を表示することができるようになる。
 なお、以上においては、入力画像から得られた出力画像をスライドショー表示させると説明したが、出力画像を記録するようにしたり、1つの出力画像だけを表示させたりするようにしてもよい。また、スライドショー時には、出力画像と、その元の入力画像との何れか一方から他方へフェードイン、フェードアウトさせながら画像の表示を切り換えるようにしてもよい。さらに、同じ入力画像に対して異なるフィルタによるフィルタ処理で得られた複数の出力画像を、フェードイン、フェードアウトさせながら表示させてもよい。
〈第2の実施の形態〉
[画像処理装置の構成]
 さらに、以上においては、使用頻度に応じて画像処理(フィルタ)を選択すると説明したが、入力画像から、いくつかの特徴の特徴量を抽出し、それらの特徴量に応じてフィルタを選択するようにしてもよい。例えば、入力画像から、入力画像の解像度、色の分布、色の偏り、入力画像の画素の画素値の階調数、ぼけの度合い、エッジ量、エッジ分布、テクスチャ量、テクスチャ分布のうちの少なくとも1つが抽出され、フィルタを選択するための特徴量とされる。
 そのような場合、例えば、画像処理装置は、図7に示すように構成される。なお、図7において、図1における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
 図7の画像処理装置51は、ぼけ度検出部21、エッジ複雑度検出部61、サイズ検出部62、色分布複雑度検出部63、色偏り検出部64、選択部22乃至絵画調変換部27、および出力部29から構成される。また、画像処理装置51に供給された入力画像は、ぼけ度検出部21、エッジ複雑度検出部61乃至色偏り検出部64、および選択部22に供給される。
 ぼけ度検出部21、およびエッジ複雑度検出部61乃至色偏り検出部64のそれぞれは、供給された入力画像から、入力画像の特徴量を抽出し、その特徴量を示すスコアを選択部22に供給する。そして、選択部22は、それらのスコアに基づいて入力画像に施す画像処理を選択する。
 ぼけ度検出部21は、入力画像から特徴量としてぼけ度を検出し、その検出結果を特徴量を示すスコアとして選択部22に供給する。
 エッジ複雑度検出部61は、供給された入力画像に基づいて、入力画像に含まれるエッジの量を示すエッジ複雑度を求め、選択部22に供給する。このエッジ複雑度の値(スコア)は、入力画像により多くのエッジが含まれ、入力画像が複雑な絵柄であるほど大きくなる。
 サイズ検出部62は、供給された入力画像に基づいて、入力画像上のオブジェクト(被写体)の境界を囲む矩形の領域、すなわち、いわゆるバウンディングボックスの大きさを示すボックスサイズを求め、選択部22に供給する。このボックスサイズの値(スコア)は、バウンディングボックスの大きさが大きく、入力画像におけるエッジの集中する部分の締まり度合いが低いほど、大きくなる。
 色分布複雑度検出部63は、供給された入力画像に基づいて、入力画像における色の分布の複雑さを示す色分布複雑度を求め、選択部22に供給する。この色分布複雑度の値(スコア)は、色分布が複雑であり、入力画像が複雑な絵柄であるほど大きくなる。
 色偏り検出部64は、供給された入力画像に基づいて、入力画像における色の偏りの度合いを示す色偏り度を求め、選択部22に供給する。この色偏り度の値(スコア)は、入力画像における色の偏りが大きいほど、大きくなる。
 選択部22は、ぼけ度検出部21、およびエッジ複雑度検出部61乃至色偏り検出部64から供給された特徴量、すなわちぼけ度、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度に基づいて、入力画像に施す画像処理(フィルタ)を選択する。
 具体的には、画像処理は、漫画調変換処理、アニメ調変換処理、ジオラマ調変換処理、減色絵画調変換処理、および重ね塗り絵画調変換処理のなかから選択される。選択部22は、漫画調変換部23乃至絵画調変換部27のうち、選択した画像処理を行うブロックに、供給された入力画像を供給する。
 入力画像から抽出された各特徴の特徴量を用いれば、例えば図8に示すように、選択部22は、供給された入力画像に対して、どの画像処理がより効果的であるかを知ることができる。図8では、ぼけの有無、エッジ分布の複雑さ、ボックスサイズ、色分布の複雑さ、色の偏りの有無のそれぞれがどのような状態であるときに、各画像処理がより効果的であるかが示されている。
 例えば、減色絵画調変換処理は、エッジがばらばらに存在し、多くの色で表現された画像に対して効果的である。すなわち、減色絵画調変換処理は、エッジ分布および色分布が複雑で、色の偏りがない画像に対して効果的であり、そのような特徴を有する入力画像を、減色絵画調変換処理によって、より鑑賞に堪え得ると予測される出力画像に変換することができる。なお、入力画像における、ぼけの有無と、バウンディングボックスのサイズは、入力画像に対して減色絵画調変換処理が効果的であるか否かには、影響を及ぼさない。
 また、重ね塗り絵画調変換処理は、単純なエッジ分布および色分布で、特定の色が多い画像に対して効果的である。すなわち、重ね塗り絵画調変換処理は、エッジ分布および色分布が単純で、バウンディングボックスの大きさが小さく、かつ色の偏りがある画像に対して効果的である。なお、入力画像におけるぼけの有無は、入力画像に対して重ね塗り絵画調変換処理が効果的であるか否かには、影響を及ぼさない。
 さらに、ジオラマ調変換処理は、単純な色分布で、バウンディングボックスの小さい画像に対して効果的である。すなわち、ジオラマ調変換処理は、エッジ分布および色分布が単純で、バウンディングボックスの大きさが小さく、かつ色の偏りがない画像に対して効果的である。なお、入力画像におけるぼけの有無は、入力画像に対してジオラマ調変換処理が効果的であるか否かには、影響を及ぼさない。
 さらに、アニメ調変換処理は、ぼけがなく、少ない数の色で構成される画像に対して効果的である。すなわち、アニメ調変換処理は、ぼけがなく、エッジ分布および色分布が単純で、かつ色の偏りがある画像に対して効果的である。なお、入力画像における、バウンディングボックスのサイズは、入力画像に対してアニメ調変換処理が効果的であるか否かには、影響を及ぼさない。
 さらに、漫画調変換処理は、ぼけがなく、エッジ分布が単純な画像に対して効果的である。すなわち、漫画調変換処理は、ぼけがなく、エッジ分布が単純であるが色分布は複雑で、かつ色の偏りがない画像に対して効果的である。なお、入力画像における、バウンディングボックスのサイズは、入力画像に対して漫画調変換処理が効果的であるか否かには、影響を及ぼさない。また、色分布および色の偏りも、漫画調変換処理が効果的であるか否かには、あまり影響がない。
 このように、入力画像の特徴が分かれば、入力画像に対してどの画像処理が効果的であるかが分かるので、選択部22は、例えば、図9に示すように、入力画像の各特徴の特徴量に基づいて画像処理を選択する。
 図9では、各特徴を示す「ぼけ度」、「エッジ複雑度」、「ボックスサイズ」、「色分布複雑度」、および「色偏り度」のそれぞれの欄には、記号「○」(丸)または「×」(ばつ)が記されている。この記号「○」(丸)は、特徴量(スコア)が所定の閾値未満である場合を表しており、記号「×」(ばつ)は、特徴量が閾値以上である場合を表している。
 具体的には、選択部22は、各特徴の特徴量と、特徴ごとに定められた閾値とを比較して、画像処理の選択を行う。
 例えば、エッジ複雑度および色分布複雑度が閾値以上であり、かつ色偏り度が閾値未満である場合、減色絵画調変換処理が選択される。また、エッジ複雑度、ボックスサイズ、および色分布複雑度が閾値未満であり、かつ色偏り度が閾値以上である場合、重ね塗り絵画調変換処理が選択される。
 さらに、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度が閾値未満である場合、ジオラマ調変換処理が選択され、ぼけ度、エッジ複雑度、および色分布複雑度が閾値未満であり、色偏り度が閾値以上である場合、アニメ調変換処理が選択される。さらに、また、ぼけ度、エッジ複雑度、および色偏り度が閾値未満であり、かつ色分布複雑度が閾値以上である場合、漫画調変換処理が選択される。
 次に、図10乃至図13を参照して、図7のエッジ複雑度検出部61乃至色偏り検出部64のそれぞれの構成について説明する。
 図10は、エッジ複雑度検出部61のより詳細な構成例を示す図である。
 エッジ複雑度検出部61は、フィルタ処理部91、平均値算出部92、距離算出部93、距離算出部94、およびスコア算出部95から構成される。
 フィルタ処理部91は、供給された入力画像のR、G、Bのそれぞれの成分のみからなるR画像、G画像、およびB画像を生成し、それらのR画像、G画像、およびB画像にエッジを抽出するフィルタ処理を施して、平均値算出部92に供給する。平均値算出部92は、フィルタ処理部91から供給されたR画像、G画像、およびB画像の画素ごとの平均値を求めて1つの画像を生成し、距離算出部93および距離算出部94に供給する。
 距離算出部93は、平均値算出部92から供給された画像と、予め用意された、簡素な画像との距離を算出し、スコア算出部95に供給する。ここで、簡素な画像とは、例えば専門家などにより撮像された、エッジの複雑度が小さく、よく撮れた画像、つまり一般的に評価の高い画像をいう。
 距離算出部94は、平均値算出部92から供給された画像と、予め用意された、複雑な画像との距離を算出し、スコア算出部95に供給する。ここで、複雑な画像とは、例えば素人などにより撮像された、エッジの複雑度が大きく、あまりよく撮れていない画像、つまり一般的に評価の低い画像をいう。
 スコア算出部95は、距離算出部93から供給された距離と、距離算出部94から供給された距離とを用いてエッジ複雑度を算出し、選択部22に供給する。
 図11は、図7のサイズ検出部62のより詳細な構成例を示す図である。
 サイズ検出部62は、フィルタ処理部121、平均値算出部122、幅算出部123、幅算出部124、およびスコア算出部125から構成される。なお、フィルタ処理部121および平均値算出部122は、図10のフィルタ処理部91および平均値算出部92と同様であるため、その説明は省略する。
 幅算出部123は、平均値算出部122から供給された画像を用いて、入力画像におけるバウンディングボックスの所定の方向(以下、x方向であるとする)の幅を求め、スコア算出部125に供給する。幅算出部124は、平均値算出部122から供給された画像を用いて、入力画像におけるバウンディングボックスのx方向と垂直な方向(以下、y方向であるとする)の幅を求め、スコア算出部125に供給する。
 スコア算出部125は、幅算出部123および幅算出部124から供給されたx方向およびy方向の幅に基づいて、ボックスサイズを算出し、選択部22に供給する。
 図12は、図7の色分布複雑度検出部63のより詳細な構成例を示す図である。
 色分布複雑度検出部63は、色別ヒストグラム生成部151、ヒストグラム生成部152、距離算出部153、距離算出部154、およびスコア算出部155から構成される。
 色別ヒストグラム生成部151は、供給された入力画像から、入力画像のR、G、Bの各成分の画素値の範囲をビンとした、色ごとのヒストグラムを生成し、ヒストグラム生成部152に供給する。ヒストグラム生成部152は、色別ヒストグラム生成部151から供給された、R、G、およびBの各色成分のヒストグラムから、1つのヒストグラムを生成し、距離算出部153および距離算出部154に供給する。
 距離算出部153は、ヒストグラム生成部152から供給されたヒストグラムと、予め用意された、簡素な画像から得られたヒストグラムとの距離を算出し、スコア算出部155に供給する。距離算出部154は、ヒストグラム生成部152から供給されたヒストグラムと、予め用意された、複雑な画像から得られたヒストグラムとの距離を算出し、スコア算出部155に供給する。
 スコア算出部155は、距離算出部153および距離算出部154から供給された距離に基づいて、色分布複雑度を算出し、選択部22に供給する。
 図13は、図7の色偏り検出部64のより詳細な構成例を示す図である。
 色偏り検出部64は、変換部181、ヒストグラム生成部182、およびスコア算出部183から構成される。
 変換部181は、供給された入力画像を、R、G、Bの各成分の画素値を有する画像から、H(色相)、S(彩度)、V(明度)の各成分の画素値を有する画像に変換し、ヒストグラム生成部182に供給する。ヒストグラム生成部182は、変換部181から供給されたH、S、Vの各成分を有する入力画像から、入力画像上の所定の条件を満たす画素のヒストグラムを生成し、スコア算出部183に供給する。
 スコア算出部183は、ヒストグラム生成部182から供給されたヒストグラムに基づいて、色偏り度を算出し、選択部22に供給する。
[画像処理装置の動作の説明]
 次に、図14のフローチャートを参照して、図7の画像処理装置51による画像変換処理について説明する。
 なお、ステップS41の処理は、図6のステップS11の処理と同様であるので、その説明は省略する。
 ステップS42において、エッジ複雑度検出部61は、エッジ複雑度検出処理を行ってエッジ複雑度を求め、選択部22に供給する。また、ステップS43において、サイズ検出部62は、サイズ検出処理を行ってボックスサイズを求め、選択部22に供給する。
 ステップS44において、色分布複雑度検出部63は、色分布複雑度検出処理を行って色分布複雑度を求め、選択部22に供給する。さらに、ステップS45において、色偏り検出部64は、色偏り検出処理を行って色偏り度を求め、選択部22に供給する。
 なお、ステップS42乃至ステップS45において行われるエッジ複雑度検出処理、サイズ検出処理、色分布複雑度検出処理、および色偏り検出処理の詳細は後述する。
 このようにして、ぼけ度検出部21、およびエッジ複雑度検出部61乃至色偏り検出部64により特徴量が求められ、選択部22に供給されると、処理はステップS46に進む。
 ステップS46において、選択部22は、フィルタ選択処理を行って、入力画像に施す画像処理に用いられるフィルタを選択する。なお、フィルタ選択処理の詳細は後述するが、フィルタ選択処理において、選択部22に供給された特徴量が用いられてフィルタが選択される。フィルタが選択されると、選択部22から、選択されたフィルタを保持しているブロック、すなわち漫画調変換部23乃至絵画調変換部27の何れかに入力画像が供給される。
 そして、その後、ステップS47乃至ステップS49の処理が行われて、画像変換処理は終了するが、これらの処理は図6のステップS15乃至ステップS17の処理のそれぞれと同様であるので、その説明は省略する。
 このようにして、画像処理装置51は、供給された入力画像から複数の特徴の特徴量を求め、その特徴量により定まる適切な画像処理により、入力画像を出力画像に変換する。これにより、より簡単に、入力画像に対してより効果的な画像処理を選択して出力画像を生成することができ、その結果、より効果的に出力画像を表示することができるようになる。
 次に、図15のフローチャートを参照して、図14のステップS42の処理に対応するエッジ複雑度検出処理について説明する。このエッジ複雑度検出処理は、図10のエッジ複雑度検出部61により行われる。
 ステップS71において、フィルタ処理部91は、供給された入力画像に対して、例えば、ラプラシアンフィルタなどのエッジを抽出するフィルタを用いたフィルタ処理を施す。すなわち、フィルタ処理部91は、入力画像からR画像、G画像、およびB画像を生成し、それらのR画像、G画像、およびB画像にフィルタ処理を施して平均値算出部92に供給する。
 ステップS72において、平均値算出部92は、フィルタ処理部91から供給されたR画像、G画像、およびB画像の画素ごとの平均値を求め、1つの画像を生成する。つまり、生成される画像の画素の画素値は、その画素と同じ位置にあるR画像、G画像、およびB画像の画素のそれぞれの平均値とされる。平均値算出部92は、平均値を求めて得られた画像を正規化して、縦方向に100画素、横方向に100画素などの所定の大きさの画像とし、距離算出部93および距離算出部94に供給する。
 ステップS73において、距離算出部93および距離算出部94は、平均値算出部92から供給された画像と、予め用意された簡素な画像および複雑な画像との距離を算出し、スコア算出部95に供給する。
 例えば、平均値算出部92からの画像と、簡素な画像(または複雑な画像)との距離は、簡素な画像に対して、フィルタ処理部91により行われるフィルタ処理、および平均値算出部92による平均値を求める処理が施されて得られた画像と、平均値算出部92からの画像とのユークリッド距離とされる。したがって、このようにして得られる距離は、入力画像と、簡素な画像(または複雑な画像)とのエッジの複雑さの類似の度合いを示している。
 ステップS74において、スコア算出部95は、距離算出部93から供給された距離と、距離算出部94から供給された距離との差分を求めることでエッジ複雑度のスコア(値)を算出し、選択部22に供給する。このようにして得られたエッジ複雑度の値は、入力画像と複雑な画像との距離が近いほど大きくなり、より入力画像におけるエッジが複雑であることになる。
 エッジ複雑度が求められて選択部22に供給されると、エッジ複雑度検出処理は終了し、その後、処理は図14のステップS43に進む。
 また、以下、図16のフローチャートを参照して、図14のステップS43に対応するサイズ検出処理について説明する。このサイズ検出処理は、図11のサイズ検出部62により行われる。
 なお、ステップS101およびステップS102の処理は、図15のステップS71およびステップS72の処理と同様であるので、その説明は省略する。すなわち、フィルタ処理部121により入力画像にフィルタ処理が施され、平均値算出部122により、フィルタ処理部121から供給されたR画像、G画像、およびB画像の画素ごとの平均値が求められ、得られた画像が正規化される。
 ステップS103において、幅算出部123および幅算出部124は、平均値算出部122から供給された画像を用いて、入力画像におけるバウンディングボックスのx方向およびy方向の幅を求め、スコア算出部125に供給する。
 例えば、幅算出部123は、平均値算出部122からの画像における、y方向に並ぶ画素からなるラインをyラインとして、yラインごとに、そのyラインを構成する画素の画素値の合計値であるyライン値を求める。
 そして幅算出部123は、yラインごとに求めたyライン値を用いて、画像に含まれるエッジの総量の98パーセントのエッジの量が含まれる、連続して並ぶyラインからなる領域のx方向の幅を、バウンディングボックスのx方向の幅Wxとして求める。つまり、求められた領域に含まれるyラインのyライン値の合計値は、画像を構成する全てのyラインのyライン値の合計値の98%以上の値となる。
 同様に、幅算出部124は、平均値算出部122からの画像における、x方向に並ぶ画素からなるラインをxラインとして、xラインごとに、そのxラインを構成する画素の画素値の合計値であるxライン値を求める。そして幅算出部124は、xラインごとに求めたxライン値を用いて、画像に含まれるエッジの総量の98パーセントのエッジの量が含まれる、連続して並ぶxラインからなる領域のy方向の幅を、バウンディングボックスのy方向の幅Wyとして求める。
 ステップS104において、スコア算出部125は、幅算出部123および幅算出部124から供給された幅Wxおよび幅Wyに基づいて、ボックスサイズのスコアを算出し、選択部22に供給する。例えば、1から、正規化された幅Wxと幅Wyとの積が減算されて得られた値の逆数が、ボックスサイズの値(スコア)とされる。
 具体的には、平均値算出部122が平均値を求めて得られた画像を、x方向に100画素、y方向に100画素の大きさに正規化した場合、幅Wxおよび幅Wyは、それぞれ100で除算されることで正規化される。つまり、「1-(Wx/100)×(Wy/100)」の逆数がボックスサイズの値とされる。
 このようにして求められたボックスサイズの値は、バウンディングボックスの大きさが大きいほど大きくなり、入力画像におけるエッジの集中する領域の締まり度合いがより低いことを示している。求められたボックスサイズが選択部22に供給されると、サイズ検出処理は終了し、その後、処理は図14のステップS44に進む。
 次に、図17のフローチャートを参照して、図14のステップS44の処理に対応する色分布複雑度検出処理について説明する。なお、この色分布複雑度検出処理は、図12の色分布複雑度検出部63により行われる。
 ステップS131において、色別ヒストグラム生成部151は、供給された入力画像を用いて、入力画像のR、G、Bの各色の成分ごとのヒストグラムを生成し、ヒストグラム生成部152に供給する。
 ステップS132において、ヒストグラム生成部152は、色別ヒストグラム生成部151から供給された色ごとのヒストグラムから、1つのヒストグラムを生成し、距離算出部153および距離算出部154に供給する。例えば、ヒストグラム生成部152は、色ごとのヒストグラムを正規化し、正規化された色ごとのヒストグラムから、入力画像の画素値の所定の範囲をビンとした、16の3乗個のビンからなる1つのヒストグラムを生成する。
 ステップS133において、距離算出部153および距離算出部154は、ヒストグラム生成部152から供給されたヒストグラムと、予め用意された簡素な画像および複雑な画像から得られたヒストグラムのそれぞれとの距離を、K-NN法などにより算出する。ここで、簡素な画像および複雑な画像から得られたヒストグラムのそれぞれは、ヒストグラム生成部152により生成されるヒストグラムと同じ処理により生成されたヒストグラムである。
 例えば、距離算出部153は、ヒストグラム生成部152からのヒストグラムと、簡素な画像のヒストグラムとの各ビンの頻度値の差分の合計値を、それらのヒストグラム同士の距離とする。距離算出部153は、複数の簡素な画像について、ヒストグラム生成部152からのヒストグラムとの距離を求め、スコア算出部155に供給する。
 同様に、距離算出部154は、ヒストグラム生成部152からのヒストグラムと、複雑な画像のヒストグラムとの各ビンの頻度値の差分の合計値を、それらのヒストグラム同士の距離とする。距離算出部154は、複数の複雑な画像について、ヒストグラム生成部152からのヒストグラムとの距離を求め、スコア算出部155に供給する。
 ステップS134において、スコア算出部155は、距離算出部153および距離算出部154から供給された距離に基づいて、色分布複雑度のスコアを算出し、選択部22に供給する。
 例えば、スコア算出部155は、距離算出部153および距離算出部154から供給された距離のなかから、その距離の値の小さい順にK個の距離を選択する。そして、スコア算出部155は、選択したK個の距離のうち、簡素な画像のヒストグラムとの距離の数と、複雑な画像のヒストグラムとの距離の数との差を求め、求められた差を色分布複雑度の値(スコア)とする。つまり、K個の距離のうちの、距離算出部153から供給された距離の個数と、距離算出部154から供給された距離の個数との差が色分布複雑度とされる。
 このようにして求められた色分布複雑度の値は、入力画像における色分布の複雑さが、複雑な画像における色分布の複雑さにより近いほど大きくなり、入力画像における色分布がより複雑であることを示している。
 色分布複雑度が求められて選択部22に供給されると、色分布複雑度検出処理は終了し、処理は図14のステップS45に進む。
 次に、図18のフローチャートを参照して、図14のステップS45の処理に対応する色偏り検出処理について説明する。この色偏り検出処理は、図13の色偏り検出部64により行われる。
 ステップS161において、変換部181は、供給された入力画像を、H、S、Vの各成分の画素値を有する画像に変換し、ヒストグラム生成部182に供給する。
 ステップS162において、ヒストグラム生成部182は、変換部181から供給された画像から、所定の条件を満たす画素のヒストグラムを生成し、スコア算出部183に供給する。例えば、所定の条件として、画素のV成分の値が0.15より大きく0.95未満である値であり、かつ画素のS成分の値が0.2より大きい値であることが条件とされ、変換部181からの画像から、その条件を満たす画素が抽出される。そして、抽出された画素から、画素のH成分の値の範囲をビンとしたヒストグラムが生成され、スコア算出部183に供給される。
 ステップS163において、スコア算出部183は、ヒストグラム生成部182から供給されたヒストグラムに基づいて色偏り度のスコアを算出し、選択部22に供給する。例えば、スコア算出部183は、ヒストグラムの各ビンの頻度値の合計値の5%以上の値を頻度値として有する、最も頻度値の高いビンの中央値Nを求め、所定の数、例えば20から中央値Nを減算して得られた値を色偏り度の値(スコア)とする。
 このようにして求められた色偏り度の値は、中央値N、つまりH(色相)成分が小さいほど大きくなり、入力画像において色の偏りが大きいことを示している。求められた色偏り度が選択部22に供給されると色偏り検出処理は終了し、処理は図14のステップS46に進む。
 さらに、図19のフローチャートを参照して、図14のステップS46の処理に対応するフィルタ選択処理について説明する。このフィルタ選択処理は図7の選択部22により行われる。
 ステップS191において、選択部22は、ぼけ度検出部21から供給されたぼけ度に基づいて、供給された入力画像がぼけた画像であるか否かを判定する。例えば、ぼけ度が予め定められた閾値以上である場合、入力画像はぼけた画像であると判定される。
 ステップS191において、ぼけた画像ではないと判定された場合、ステップS192において、選択部22は、色分布複雑度検出部63のスコア算出部155から供給された色分布複雑度に基づいて、入力画像における色分布が複雑であるか否かを判定する。例えば、色分布複雑度が予め定められた閾値以上である場合、色分布が複雑であると判定される。
 ステップS192において色分布が複雑でないと判定された場合、ステップS193において、選択部22は、入力画像に施す画像処理のフィルタとして、入力画像をアニメ調の画像に変換するフィルタを選択する。
 すなわち、入力画像はぼけた画像ではなく色分布が単純なので、図9に示したように、画像処理としてアニメ調変換処理が選択される。選択部22は、供給された入力画像を、アニメ調変換処理を行うアニメ調変換部24に供給し、フィルタ選択処理は終了する。そして、その後、処理は図14のステップS47に進む。
 これに対して、ステップS192において、色分布が複雑であると判定された場合、ステップS194において、選択部22は、入力画像に施す画像処理のフィルタとして、入力画像を漫画調の画像に変換するフィルタを選択する。
 すなわち、入力画像はぼけた画像ではなく色分布が複雑なので、図9に示したように、画像処理として漫画調変換処理が選択される。選択部22は、供給された入力画像を、漫画調変換処理を行う漫画調変換部23に供給し、フィルタ選択処理は終了する。そして、その後、処理は図14のステップS47に進む。
 また、ステップS191において、ぼけた画像であると判定された場合、ステップS195において、選択部22は、エッジ複雑度検出部61のスコア算出部95から供給されたエッジ複雑度に基づいて、入力画像のエッジ分布が複雑であるか否かを判定する。例えば、エッジ複雑度が予め定められた閾値以上である場合、エッジ分布が複雑であると判定される。
 ステップS195において、エッジ分布が複雑でないと判定された場合、ステップS196において、選択部22は、色偏り検出部64のスコア算出部183から供給された色偏り度に基づいて、入力画像に色の偏りがあるか否かを判定する。例えば、色偏り度が予め定められた閾値以上である場合、色の偏りがあると判定される。
 ステップS196において、色の偏りがないと判定された場合、ステップS197において、選択部22は、入力画像に施す画像処理のフィルタとして、入力画像をジオラマ調の画像に変換するフィルタを選択する。
 すなわち、入力画像のエッジ分布が単純であり、色の偏りはないので、図9に示したように、画像処理としてジオラマ調変換処理が選択される。選択部22は、供給された入力画像を、ジオラマ調変換処理を行うジオラマ調変換部25に供給し、フィルタ選択処理は終了する。そして、その後、処理は図14のステップS47に進む。
 これに対して、ステップS196において色の偏りがあると判定された場合、ステップS198において、選択部22は、入力画像に施す画像処理のフィルタとして、入力画像を重ね塗り絵画調の画像に変換するフィルタを選択する。
 すなわち、入力画像のエッジ分布が単純であり、色の偏りがあるので、図9に示したように、画像処理として重ね塗り絵画調変換処理が選択される。選択部22は、供給された入力画像を、重ね塗り絵画調変換処理を行う絵画調変換部27に供給し、フィルタ選択処理は終了する。そして、その後、処理は図14のステップS47に進む。
 また、ステップS195において、エッジ分布が複雑であると判定された場合、ステップS199において、選択部22は、入力画像に施す画像処理のフィルタとして、入力画像を減色絵画調の画像に変換するフィルタを選択する。
 すなわち、入力画像のエッジ分布が複雑であるので、図9に示したように、画像処理として減色絵画調変換処理が選択される。選択部22は、供給された入力画像を、減色絵画調変換処理を行う絵画調変換部26に供給し、フィルタ選択処理は終了する。そして、その後、処理は図14のステップS47に進む。
 このようにして、選択部22は、入力画像から抽出された特徴量に基づいて、入力画像に対してより適した画像処理を選択し、その画像処理を行うブロックに入力画像を供給する。このように、特徴量を用いることで、より簡単に、入力画像に対してより効果的な画像処理を選択することができる。
〈第3の実施の形態〉
[画像処理装置の構成]
 なお、以上においては、入力画像全体に画像処理が施されると説明したが、入力画像の一部の領域にだけ画像処理が施されたり、一部の領域と、他の領域とに異なる画像処理が施されたりしてもよい。
 そのような場合、画像処理装置は、例えば図20に示すように構成される。なお、図20において、図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 画像処理装置231は、注視領域検出部241、ぼけ度検出部21、エッジ複雑度検出部61乃至色偏り検出部64、選択部22乃至絵画調変換部27、および出力部29から構成される。
 注視領域検出部241は、供給された入力画像上の被写体の領域が有する特徴の特徴量を抽出することで入力画像から被写体を検出し、入力画像における被写体の含まれる注視領域を特定するための情報である被写体マップを生成する。そして注視領域検出部241は、生成した被写体マップをぼけ度検出部21、エッジ複雑度検出部61乃至色偏り検出部64、および選択部22に供給する。
 ここで、被写体の検出は、ユーザが入力画像を一瞥した場合に、ユーザが注目すると推定される入力画像上の物体、つまりユーザが目を向けると推定される物体が被写体であるとして行われる。したがって、被写体は必ずしも人に限られる訳ではない。
 ぼけ度検出部21およびエッジ複雑度検出部61乃至色偏り検出部64は、注視領域検出部241からの被写体マップを用いて、供給された入力画像における注視領域と、注視領域以外の領域である背景領域とから特徴量を抽出し、選択部22に供給する。すなわち、注視領域および背景領域のそれぞれについて、ぼけ度、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度が求められる。
 選択部22は、ぼけ度検出部21およびエッジ複雑度検出部61乃至色偏り検出部64からの特徴量に基づいて、注視領域または背景領域の少なくとも一方の領域について、その領域に施す画像処理を選択する。なお、両方の領域に画像処理が施される場合には、領域ごとに画像処理が選択される。
 また、選択部22は、供給された入力画像と、注視領域検出部241からの被写体マップとを、選択された画像処理を行うブロックに供給する。出力部29は、漫画調変換部23乃至絵画調変換部27から供給された出力画像、つまり注視領域の画像と、背景領域の画像とを必要に応じて合成し、最終的に得られた出力画像を出力する。
 さらに、注視領域検出部241は、例えば、図21に示すように構成される。
 すなわち、注視領域検出部241は、輝度情報抽出部271、色情報抽出部272、顔情報抽出部273、および被写体マップ生成部274から構成される。
 輝度情報抽出部271は、供給された入力画像に基づいて、入力画像の各領域における、輝度に関する情報を示す輝度情報マップを生成し、被写体マップ生成部274に供給する。
 輝度情報抽出部271は、輝度画像生成部291、ピラミッド画像生成部292、差分算出部293、および輝度情報マップ生成部294から構成される。
 輝度画像生成部291は、供給された入力画像を用いて、入力画像の画素の輝度値を、画素の画素値とする輝度画像を生成し、ピラミッド画像生成部292に供給する。ここで、輝度画像の任意の画素の画素値は、その画素と同じ位置にある入力画像の画素の輝度値を示している。
 ピラミッド画像生成部292は、輝度画像生成部291から供給された輝度画像を用いて、互いに解像度の異なる複数の輝度画像を生成し、それらの輝度画像を輝度のピラミッド画像として差分算出部293に供給する。
 例えば、レベルL1乃至レベルL8までの8つの解像度の階層のピラミッド画像が生成され、レベルL1のピラミッド画像が最も解像度が高く、レベルL1からレベルL8まで順番にピラミッド画像の解像度が低くなるものとする。
 この場合、輝度画像生成部291により生成された輝度画像が、レベルL1のピラミッド画像とされる。また、レベルLi(但し、1≦i≦7)のピラミッド画像における、互いに隣接する4つの画素の画素値の平均値が、それらの画素と対応するレベルL(i+1)のピラミッド画像の1つの画素の画素値とされる。したがって、レベルL(i+1)のピラミッド画像は、レベルLiのピラミッド画像に対して縦横半分(割り切れない場合は切り捨て)の画像となる。
 差分算出部293は、ピラミッド画像生成部292から供給された複数のピラミッド画像のうち、互いに階層の異なる2つのピラミッド画像を選択し、選択したピラミッド画像の差分を求めて輝度の差分画像を生成する。なお、各階層のピラミッド画像は、それぞれ大きさ(画素数)が異なるので、差分画像の生成時には、より小さい方のピラミッド画像が、より大きいピラミッド画像に合わせてアップコンバートされる。
 差分算出部293は、予め定められた数だけ輝度の差分画像を生成すると、生成したそれらの差分画像を正規化し、輝度情報マップ生成部294に供給する。輝度情報マップ生成部294は、差分算出部293から供給された差分画像に基づいて輝度情報マップを生成し、被写体マップ生成部274に供給する。
 また、色情報抽出部272は、供給された入力画像に基づいて、入力画像の各領域における、色に関する情報を示す色情報マップを生成し、被写体マップ生成部274に供給する。
 色情報抽出部272は、RG差分画像生成部295、BY差分画像生成部296、ピラミッド画像生成部297、ピラミッド画像生成部298、差分算出部299、差分算出部300、色情報マップ生成部301、および色情報マップ生成部302から構成される。
 RG差分画像生成部295は、供給された入力画像を用いて、入力画像の画素のR(赤)成分とG(緑)成分との差分を、画素の画素値とするRG差分画像を生成し、ピラミッド画像生成部297に供給する。RG差分画像の任意の画素の画素値は、その画素と同じ位置にある入力画像の画素のRの成分と、Gの成分との差分の値を示している。
 BY差分画像生成部296は、供給された入力画像を用いて、入力画像の画素のB(青)成分とY(黄)成分との差分を、画素の画素値とするBY差分画像を生成し、ピラミッド画像生成部298に供給する。BY差分画像の任意の画素の画素値は、その画素と同じ位置にある入力画像の画素のB(青)成分と、Y(黄)成分との差分の値を示している。なお、入力画像のY(黄)成分の値は、入力画像のR、G、およびBの各色の成分の値(画素値)から求められる。
 ピラミッド画像生成部297およびピラミッド画像生成部298は、RG差分画像生成部295およびBY差分画像生成部296から供給されたRG差分画像およびBY差分画像を用いて、互いに解像度の異なる複数のRG差分画像およびBY差分画像を生成する。そして、ピラミッド画像生成部297およびピラミッド画像生成部298は、生成したそれらのRG差分画像およびBY差分画像を、RGの差分のピラミッド画像、およびBYの差分のピラミッド画像として差分算出部299および差分算出部300に供給する。
 例えば、RGの差分のピラミッド画像、およびBYの差分のピラミッド画像として、輝度のピラミッド画像の場合と同様に、それぞれレベルL1乃至レベルL8までの8つの解像度の階層のピラミッド画像が生成される。
 差分算出部299および差分算出部300は、ピラミッド画像生成部297およびピラミッド画像生成部298から供給された複数のピラミッド画像のうち、互いに階層の異なる2つのピラミッド画像を選択し、選択したピラミッド画像の差分を求めてRGの差分の差分画像、およびBYの差分の差分画像を生成する。なお、各階層のピラミッド画像は、それぞれ大きさが異なるので、差分画像の生成時には、より小さい方のピラミッド画像がアップコンバートされて、より大きい方のピラミッド画像と同じ大きさとされる。
 差分算出部299および差分算出部300は、予め定められた数だけRGの差分の差分画像、およびBYの差分の差分画像を生成すると、生成したそれらの差分画像を正規化し、色情報マップ生成部301および色情報マップ生成部302に供給する。色情報マップ生成部301および色情報マップ生成部302は、差分算出部299および差分算出部300から供給された差分画像に基づいて色情報マップを生成し、被写体マップ生成部274に供給する。色情報マップ生成部301ではRGの差分の色情報マップが生成され、色情報マップ生成部302ではBYの差分の色情報マップが生成される。
 顔情報抽出部273は、供給された入力画像に基づいて、入力画像の各領域における、被写体としての人の顔に関する情報を示す顔情報マップを生成し、被写体マップ生成部274に供給する。顔情報抽出部273は、顔検出部303および顔情報マップ生成部304から構成される。
 顔検出部303は、供給された入力画像から被写体としての人の顔の領域を検出し、その検出結果を顔情報マップ生成部304に供給する。顔情報マップ生成部304は、顔検出部303からの検出結果に基づいて顔情報マップを生成し、被写体マップ生成部274に供給する。
 なお、以下、輝度情報抽出部271乃至顔情報抽出部273から出力される、輝度情報マップ乃至顔情報マップのそれぞれを個々に区別する必要のない場合、単に情報マップとも称する。これらの情報マップに含まれる情報は、被写体の含まれる領域により多く含まれる特徴の特徴量を示す情報とされ、その情報が入力画像の各領域に対応させて並べられたものが情報マップとされる。つまり、情報マップは、入力画像の各領域における特徴量を示す情報であるといえる。
 したがって、各情報マップにおける、より情報量の多い領域、つまり特徴量の多い領域に対応する入力画像上の領域は、より被写体が含まれる可能性の高い領域となり、各情報マップにより入力画像における被写体の含まれる領域を特定することができる。
 被写体マップ生成部274は、輝度情報マップ生成部294、色情報マップ生成部301、色情報マップ生成部302、および顔情報マップ生成部304から供給された輝度情報マップ、色情報マップ、および顔情報マップを線形結合し、被写体マップを生成する。すなわち、輝度情報マップ乃至顔情報マップの各領域の情報(特徴量)が、同じ位置にある領域ごとに重み付き加算されて被写体マップが生成される。被写体マップ生成部274は、生成した被写体マップをぼけ度検出部21、エッジ複雑度検出部61乃至色偏り検出部64、および選択部22に供給する。
[画像処理装置の動作の説明]
 次に、図22のフローチャートを参照して、図20の画像処理装置231による画像変換処理について説明する。
 ステップS231において、注視領域検出部241は、注視領域検出処理を行って入力画像から注視領域を検出する。すなわち、注視領域検出部241は、入力画像から被写体マップを生成し、ぼけ度検出部21、エッジ複雑度検出部61乃至色偏り検出部64、および選択部22に供給する。なお、注視領域検出処理の詳細は後述する。
 また、注視領域検出処理が行われると、その後、ステップS232乃至ステップS236の処理が行われるが、これらの処理は、図14のステップS41乃至ステップS45の処理のそれぞれと同様であるので、その説明は省略する。
 すなわち、ぼけ度検出部21、およびエッジ複雑度検出部61乃至色偏り検出部64において、各特徴の特徴量が求められて選択部22に供給される。なお、ステップS232乃至ステップS236の処理においては、注視領域検出部241により生成された被写体マップに基づいて、入力画像の注視領域および背景領域ごとに特徴量が求められる。つまり、注視領域のぼけ度、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度が求められ、また、背景領域のぼけ度、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度が求められる。
 ステップS237において、選択部22は、ぼけ度検出部21から供給された、注視領域および背景領域のぼけ度に基づいて、それらのぼけ度の差の絶対値が所定の閾値未満であるか否かを判定する。
 ステップS237において、絶対値が閾値未満であると判定された場合、ステップS238において、選択部22は、注視領域に対するフィルタ選択処理を行って、入力画像の注視領域に対して施す画像処理に用いるフィルタを選択する。
 なお、この注視領域に対するフィルタ選択処理は、図19を参照して説明したフィルタ選択処理と同様であるので、その説明は省略する。但し、注視領域に対するフィルタ選択処理では、注視領域のぼけ度、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度が用いられて、注視領域に対する画像処理が選択される。
 選択部22は、注視領域に対するフィルタ、つまり画像処理を選択すると、供給された入力画像と、注視領域検出部241からの被写体マップとを、選択した画像処理を行うブロックに供給し、そのブロックに入力画像の注視領域への画像処理を指示する。
 ステップS239において、漫画調変換部23乃至絵画調変換部27のうちの、選択部22から入力画像および被写体マップが供給されたブロックは、供給された被写体マップを用いて、入力画像の注視領域に対してフィルタ処理を施す。
 例えば、選択部22により減色絵画調変換処理が選択された場合、絵画調変換部26は、被写体マップを用いて、入力画像の注視領域に減色絵画調変換処理を施して、入力画像における注視領域の部分の出力画像を生成する。絵画調変換部26は、生成した注視領域の部分の出力画像を出力部29に供給する。
 ステップS240において、選択部22は、背景領域に対するフィルタ選択処理を行って、入力画像の背景領域に対して施す画像処理に用いるフィルタを選択する。
 なお、この背景領域に対するフィルタ選択処理は、図19を参照して説明したフィルタ選択処理と同様であるので、その説明は省略する。但し、背景領域に対するフィルタ選択処理では、背景領域のぼけ度、エッジ複雑度、ボックスサイズ、色分布複雑度、および色偏り度が用いられて、背景領域に対する画像処理が選択される。
 選択部22は、背景領域に対するフィルタ、つまり画像処理を選択すると、供給された入力画像と、注視領域検出部241からの被写体マップとを、選択した画像処理を行うブロックに供給し、そのブロックに入力画像の背景領域への画像処理を指示する。
 ステップS241において、漫画調変換部23乃至絵画調変換部27のうちの、選択部22から入力画像および被写体マップが供給されたブロックは、供給された被写体マップを用いて、入力画像の背景領域に対してフィルタ処理を施す。
 例えば、選択部22によりアニメ調変換処理が選択された場合、アニメ調変換部24は、被写体マップを用いて、入力画像の背景領域にアニメ調変換処理を施して、入力画像における背景領域の部分の出力画像を生成する。アニメ調変換部24は、生成した背景領域の部分の出力画像を出力部29に供給する。
 背景領域の部分の出力画像が出力部29に供給されると、その後、処理はステップS247に進む。
 また、ステップS237において、ぼけ度の差の絶対値が閾値未満ではないと判定された場合、ステップS242において、選択部22は、注視領域のぼけ度が背景領域のぼけ度よりも大きいか否かを判定する。
 ステップS242において注視領域のぼけ度が大きいと判定された場合、ステップS243において、選択部22は、注視領域に対するフィルタ選択処理を行って、フィルタを選択する。なお、ステップS243の処理は、ステップS238の処理と同様であるので、その説明は省略する。
 選択部22は、フィルタ、すなわち画像処理を選択すると、その画像処理を行うブロックに、注視領域検出部241からの被写体マップと、供給された入力画像とを供給し、入力画像の注視領域に対する画像処理を指示する。
 ステップS244において、漫画調変換部23乃至絵画調変換部27のうちの、選択部22から入力画像および被写体マップが供給されたブロックは、供給された被写体マップを用いて、入力画像の注視領域に対してフィルタ処理を施す。そして、フィルタ処理により得られた注視領域の部分の画像が、注視領域の部分の出力画像とされる。
 また、画像処理を行うブロックは、被写体マップを用いて、入力画像の背景領域を抽出し、その背景領域をそのまま背景領域の部分の出力画像とする。画像処理を行うブロックは、フィルタ処理により得られた注視領域の部分の出力画像と、背景領域の部分の出力画像とを出力部29に供給する。
 出力部29に、注視領域の部分の出力画像と、背景領域の部分の出力画像とが供給されると、その後、処理はステップS247に進む。このように、注視領域が背景領域よりも大きくぼけている場合には、入力画像の注視領域に画像処理が施され、ぼけていない背景領域には画像処理は施されず、そのままとされる。
 また、ステップS242において、注視領域のぼけ度が大きくないと判定された場合、すなわち注視領域のぼけ度よりも背景領域のぼけ度が大きい場合、ステップS245において、選択部22は背景領域に対するフィルタ選択処理を行って、フィルタを選択する。なお、ステップS245の処理は、ステップS240の処理と同様であるので、その説明は省略する。
 選択部22は、フィルタ、すなわち画像処理を選択すると、その画像処理を行うブロックに、注視領域検出部241からの被写体マップと、供給された入力画像とを供給し、入力画像の背景領域に対する画像処理を指示する。
 ステップS246において、漫画調変換部23乃至絵画調変換部27のうちの、選択部22から入力画像および被写体マップが供給されたブロックは、供給された被写体マップを用いて、入力画像の背景領域に対してフィルタ処理を施す。そして、フィルタ処理により得られた背景領域の部分の画像が、背景領域の部分の出力画像とされる。
 また、画像処理を行うブロックは、被写体マップを用いて、入力画像の注視領域を抽出し、その注視領域をそのまま注視領域の部分の出力画像とする。画像処理を行うブロックは、フィルタ処理により得られた背景領域の部分の出力画像と、注視領域の部分の出力画像とを出力部29に供給する。
 出力部29に、注視領域の部分の出力画像と、背景領域の部分の出力画像とが供給されると、その後、処理はステップS247に進む。このように、背景領域が注視領域よりも大きくぼけている場合には、入力画像の背景領域に画像処理が施され、ぼけていない注視領域には画像処理は施されず、そのままとされる。
 ステップS241、ステップS244、またはステップS246の処理が行われて、出力部29に注視領域の部分の出力画像と、背景領域の部分の出力画像とが供給されると、ステップS247において、出力部29は、供給された注視領域の部分の出力画像と、背景領域の部分の出力画像とを合成して、最終的な1つの出力画像を生成する。
 このようにして得られる出力画像は、注視領域と背景領域とに個別に選択された画像処理が施された画像、または注視領域か背景領域の何れか一方に画像処理が施された画像となる。このように、最終的な出力画像が得られると、その後、ステップS248およびステップS249の処理が行われて、画像変換処理は終了するが、これらの処理は、図6のステップS16およびステップS17の処理と同様であるので、その説明は省略する。
 このようにして、画像処理装置231は、入力画像における注視領域と背景領域との少なくとも一方に画像処理を施して、入力画像を出力画像に変換する。これにより、入力画像の領域ごとに、より効果的な画像処理を簡単に選択して、出力画像を生成することができる。その結果、より効果的に出力画像を表示することができるようになる。
 例えば、入力画像の背景領域のみがぼけている場合には、注視領域をそのままとし、背景領域に画像処理を施すことで、注視領域内の被写体を、入力画像の撮像時の光景とは別空間に置くことができる。したがって、出力画像の鑑賞時に、ユーザに強いインパクトを与えることができ、出力画像の鑑賞をより楽しませることができる。
 また、入力画像の注視領域および背景領域のぼけの度合いが殆ど同じである場合には、それらの両方の領域に、それぞれ選択された画像処理を施すことで、領域ごとにことなる風合いの出力画像を表示させ、出力画像の鑑賞をより楽しませることができる。
 なお、注視領域や背景領域に画像処理を施す場合、例えば、入力画像における顔検出を優先し、注視領域に人の顔が含まれるときには、注視領域における人の顔の領域はそのままとし、人の顔のない領域に対して画像処理を施すようにしてもよい。例えば、人の顔の領域の検出は、注視領域検出部241において生成される顔情報マップから特定することができる。
 また、注視領域や背景領域に施す画像処理を選択する場合、それらの領域に対して、異なる画像処理を施した出力画像をいくつか生成しておき、生成した出力画像から、各領域に施す画像処理を選択するようにしてもよい。この場合、例えばSeam Carvingのように、注視領域の部分の出力画像と、背景領域の部分の出力画像との境界ラインの結合性がエネルギーとして評価され、その評価に基づいて、それらの領域の出力画像が、合成時によりスムーズに連結される画像処理が選択される。
 さらに、被写体マップは、マスクとして用いられてもよい。例えば、入力画像の注視領域にのみ画像処理を施す場合、被写体マップがマスクとして用いられて入力画像の注視領域にのみ画像処理が施され、その結果、得られた画像が出力画像とされる。これにより、出力部29において、注視領域の部分の出力画像と、背景領域の部分の出力画像とを合成する必要がなくなり、より迅速に出力画像を得ることができるようになる。
 次に、図23のフローチャートを参照して、図22のステップS231の処理に対応する注視領域検出処理について説明する。
 ステップS281において、輝度画像生成部291は、供給された入力画像を用いて輝度画像を生成し、ピラミッド画像生成部292に供給する。例えば、輝度画像生成部291は、入力画像の画素のR、G、およびBの各成分の値に、成分ごとに予め定められた係数を乗算し、係数の乗算された各成分の値の和を、入力画像の画素と同じ位置にある輝度画像の画素の画素値とする。つまり、輝度成分(Y)および色差成分(Cb,Cr)からなるコンポーネント信号の輝度成分が求められる。なお、画素のR、G、およびBの各成分の値の平均値が、輝度画像の画素の画素値とされてもよい。
 ステップS282において、ピラミッド画像生成部292は、輝度画像生成部291から供給された輝度画像に基づいて、レベルL1乃至レベルL8の各階層のピラミッド画像を生成し、差分算出部293に供給する。
 ステップS283において、差分算出部293は、ピラミッド画像生成部292から供給されたピラミッド画像を用いて差分画像を生成して正規化し、輝度情報マップ生成部294に供給する。正規化は、差分画像の画素の画素値が、例えば0乃至255の間の値となるように行われる。
 具体的には、差分算出部293は、各階層の輝度のピラミッド画像のうち、レベルL6およびレベルL3、レベルL7およびレベルL3、レベルL7およびレベルL4、レベルL8およびレベルL4、並びにレベルL8およびレベルL5の各階層の組み合わせのピラミッド画像の差分を求める。これにより、合計5つの輝度の差分画像が得られる。
 例えば、レベルL6およびレベルL3の組み合わせの差分画像が生成される場合、レベルL6のピラミッド画像が、レベルL3のピラミッド画像の大きさに合わせてアップコンバートされる。つまり、アップコンバート前のレベルL6のピラミッド画像の1つの画素の画素値が、その画素に対応する、アップコンバート後のレベルL6のピラミッド画像の互いに隣接するいくつかの画素の画素値とされる。そして、レベルL6のピラミッド画像の画素の画素値と、その画素と同じ位置にあるレベルL3のピラミッド画像の画素の画素値との差分が求められ、その差分が差分画像の画素の画素値とされる。
 これらの差分画像を生成する処理は、輝度画像にバンドパスフィルタを用いたフィルタ処理を施して、輝度画像から所定の周波数成分を抽出することと等価である。このようにして得られた差分画像の画素の画素値は、各レベルのピラミッド画像の輝度値の差、つまり入力画像における所定の画素における輝度と、その画素の周囲の平均的な輝度との差分を示している。
 一般的に、画像において周囲との輝度の差分の大きい領域は、その画像を見る人の目を引く領域であるので、その領域は被写体の領域である可能性が高い。したがって、各差分画像において、より画素値の大きい画素が、より被写体の領域である可能性の高い領域であることを示しているということができる。
 ステップS284において、輝度情報マップ生成部294は、差分算出部293から供給された差分画像に基づいて輝度情報マップを生成し、被写体マップ生成部274に供給する。
 例えば、輝度情報マップ生成部294は、供給された5つの差分画像を、予め求められた差分画像ごとの重みにより重み付き加算し、1つの画像を求める。すなわち、各差分画像の同じ位置にある画素の画素値のそれぞれに重みが乗算されて、重みが乗算された画素値の総和が求められる。
 なお、輝度情報マップの生成時において、各差分画像が同じ大きさとなるように、差分画像のアップコンバートが行われる。このようにして得られた輝度情報マップによれば、入力画像において、輝度の差の大きい領域、つまり入力画像を一瞥した観察者の目に付きやすい領域を簡単に検出することができる。
 ステップS285において、RG差分画像生成部295は、供給された入力画像を用いて、RG差分画像を生成し、ピラミッド画像生成部297に供給する。
 ステップS286において、BY差分画像生成部296は、供給された入力画像を用いてBY差分画像を生成し、ピラミッド画像生成部298に供給する。
 ステップS287において、ピラミッド画像生成部297およびピラミッド画像生成部298は、RG差分画像生成部295からのRG差分画像、およびBY差分画像生成部296からのBY差分画像を用いて、ピラミッド画像を生成する。
 例えば、ピラミッド画像生成部297は、解像度の異なる複数のRG差分画像を生成することにより、レベルL1乃至レベルL8の各階層のピラミッド画像を生成し、差分算出部299に供給する。同様に、ピラミッド画像生成部298は、解像度の異なる複数のBY差分画像を生成することにより、レベルL1乃至レベルL8の各階層のピラミッド画像を生成し、差分算出部300に供給する。
 ステップS288において、差分算出部299および差分算出部300は、ピラミッド画像生成部297およびピラミッド画像生成部298から供給されたピラミッド画像に基づいて差分画像を生成して正規化し、色情報マップ生成部301および色情報マップ生成部302に供給する。差分画像の正規化では、例えば、画素の画素値が0乃至255の間の値となるようにされる。
 例えば、差分算出部299は、各階層のRGの差分のピラミッド画像のうち、レベルL6およびレベルL3、レベルL7およびレベルL3、レベルL7およびレベルL4、レベルL8およびレベルL4、並びにレベルL8およびレベルL5の各階層の組み合わせのピラミッド画像の差分を求める。これにより、合計5つのRGの差分の差分画像が得られる。
 同様に、差分算出部300は、各階層のBYの差分のピラミッド画像のうち、レベルL6およびレベルL3、レベルL7およびレベルL3、レベルL7およびレベルL4、レベルL8およびレベルL4、並びにレベルL8およびレベルL5の各階層の組み合わせのピラミッド画像の差分を求める。これにより、合計5つのBYの差分の差分画像が得られる。
 これらの差分画像を生成する処理は、RG差分画像またはBY差分画像にバンドパスフィルタを用いたフィルタ処理を施して、RG差分画像またはBY差分画像から所定の周波数成分を抽出することと等価である。このようにして得られた差分画像の画素の画素値は、各レベルのピラミッド画像の特定の色成分の差、つまり入力画像の画素における特定の色の成分と、その画素の周囲の平均的な特定の色の成分との差分を示している。
 一般的に、画像において周囲と比べて目立つ色の領域、つまり特定の色成分の周囲との差分の大きい領域は、その画像を見る人の目を引く領域であるので、その領域は被写体の領域である可能性が高い。したがって、各差分画像において、より画素値の大きい画素が、より被写体の領域である可能性の高い領域であることを示しているということができる。
 ステップS289において、色情報マップ生成部301および色情報マップ生成部302は、差分算出部299からの差分画像、および差分算出部300からの差分画像を用いて色情報マップを生成し、被写体マップ生成部274に供給する。
 例えば、色情報マップ生成部301は、差分算出部299から供給されたRGの差分の差分画像を、予め求められた差分画像ごとの重みにより重み付き加算して、1つのRGの差分の色情報マップとする。
 同様に、色情報マップ生成部302は、差分算出部300から供給されたBYの差分の差分画像を、予め求められた重みにより重み付き加算して、1つのBYの差分の色情報マップとする。なお、色情報マップの生成時において、各差分画像が同じ大きさとなるように、差分画像のアップコンバートが行われる。
 このようにして得られた色情報マップによれば、入力画像において、特定の色成分の差の大きい領域、つまり入力画像を一瞥した観察者の目に付きやすい領域を簡単に検出することができる。
 ステップS290において、顔検出部303は、供給された入力画像から、人の顔の領域を検出し、その検出結果を顔情報マップ生成部304に供給する。例えば、顔検出部303は、入力画像に対してガボアフィルタを用いたフィルタ処理を施し、入力画像から人の目、口、鼻などの特徴的な領域を抽出することにより、入力画像における顔の領域を検出する。
 ステップS291において、顔情報マップ生成部304は、顔検出部303からの検出結果を用いて顔情報マップを生成し、被写体マップ生成部274に供給する。
 例えば、入力画像からの顔の検出結果として、顔が含まれると推定される入力画像上の矩形の領域(以下、候補領域と称する)が複数検出されたとする。ここで、入力画像上の所定の位置近傍に複数の候補領域が検出され、それらの候補領域の一部が互いに重なることもあることとする。すなわち、例えば、入力画像上の1つの顔の領域に対して、その顔を含む複数の領域が候補領域として得られた場合には、それらの候補領域の一部が互いに重なることになる。
 顔情報マップ生成部304は、顔の検出により得られた候補領域に対して、候補領域ごとに、入力画像と同じ大きさの検出画像を生成する。この検出画像は、検出画像上における処理対象の候補領域と同じ領域内の画素の画素値が、候補領域とは異なる領域内の画素の画素値よりも大きい値とされる。
 また、検出画像上の画素の画素値は、より人の顔が含まれる可能性が高いと推定された候補領域の画素と同じ位置の画素ほど、画素値が大きくなる。顔情報マップ生成部304は、このようにして得られた検出画像を足し合わせて、1つの画像を生成して正規化し、顔情報マップとする。したがって、顔情報マップ上において、入力画像上の複数の候補領域の一部が重なる領域と同じの領域の画素の画素値は大きくなり、より顔が含まれる可能性が高いことになる。なお、正規化は、顔情報マップの画素の画素値が、例えば0乃至255の間の値となるようにされる。
 このようにして得られた顔情報マップによれば、入力画像において、被写体としての人の顔の領域を簡単に検出することができる。
 ステップS292において、被写体マップ生成部274は、輝度情報マップ生成部294、色情報マップ生成部301、色情報マップ生成部302、および顔情報マップ生成部304から供給された輝度情報マップ、色情報マップ、および顔情報マップを用いて、被写体マップを生成する。
 例えば、被写体マップ生成部274は、情報マップごとに予め求められている重みを用いて各情報マップを線形結合し、さらに、その結果得られたマップの画素値に、予め求められた重みを乗算して正規化し、被写体マップとする。
 つまり、これから求めようとする被写体マップ上の注目する位置(画素)を注目位置とすると、各情報マップの注目位置と同じ位置(画素)の画素値に、情報マップごとの重みが乗算され、重みの乗算された画素値の総和が、注目位置の画素値とされる。さらに、このようにして求められた被写体マップの各位置の画素値に、被写体マップに対して予め求められた重みが乗算されて正規化され、最終的な被写体マップとされる。
 なお、より詳細には、色情報マップとして、RGの差分の色情報マップと、BYの差分の色情報マップとが用いられて、被写体マップが生成される。また、正規化は、被写体マップの各画素の画素値が、0から1までの間の値となるようになされる。
 被写体マップ生成部274は被写体マップを生成すると、生成した被写体マップをぼけ度検出部21、エッジ複雑度検出部61乃至色偏り検出部64、および選択部22に供給し、注視領域検出処理は終了する。注視領域検出処理が終了すると、その後、処理は図22のステップS232に進む。
 このようにして、注視領域検出部241は、入力画像の注視領域を特定するための被写体マップを生成し、出力する。これにより、画像処理装置231では、入力画像における、ユーザが目を向ける注視領域と、その他の領域である背景領域とのそれぞれに、より効果的な画像処理を施すことができるようになり、その結果、より効果的に出力画像を表示することができるようになる。
 なお、以上においては、入力画像から輝度に関する情報、色に関する情報、および人の顔に関する情報を抽出して被写体マップを生成すると説明したが、その他、エッジに関する情報や動きに関する情報を入力画像から抽出し、被写体マップの生成に用いてもよい。
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
 そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
 11 画像処理装置, 21 ぼけ度検出部, 22 選択部, 23 漫画調変換部, 24 アニメ調変換部, 25 ジオラマ調変換部, 26 絵画調変換部, 27 絵画調変換部, 28 シャープネス処理部, 51 画像処理装置, 61 エッジ複雑度検出部, 62 サイズ検出部, 63 色分布複雑度検出部, 64 色偏り検出部, 231 画像処理装置, 241 注視領域検出部

Claims (15)

  1. 入力画像に基づいて、前記入力画像のぼけの度合いを検出する検出手段と、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いの検出結果に基づいて選択する選択手段と、
     選択された前記画像処理を前記入力画像に施す画像処理手段と
     を備える画像処理装置。
  2.  前記画像処理は、前記入力画像の解像度、色、前記入力画像の画素の画素値の階調数、テクスチャ、エッジ、またはビットレートのうちの少なくとも1つを減らす処理である
     請求項1に記載の画像処理装置。
  3.  前記選択手段は、前記ぼけの度合いを示す値が予め定められた閾値以上である場合、予め定められたいくつかの前記画像処理のうちの何れかを選択し、前記ぼけの度合いを示す値が前記閾値未満である場合、前記いくつかの前記画像処理とは組み合わせの異なる、他のいくつかの前記画像処理のうちの何れかを選択する
     請求項1に記載の画像処理装置。
  4.  前記選択手段は、前記ぼけの度合いを示す値と、各前記画像処理のこれまでに選択された頻度とに基づいて、前記画像処理を選択する
     請求項3に記載の画像処理装置。
  5.  入力画像に基づいて、前記入力画像のぼけの度合いを検出する検出手段と、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いの検出結果に基づいて選択する選択手段と、
     選択された前記画像処理を前記入力画像に施す画像処理手段と
     を備える画像処理装置の画像処理方法であって、
     前記検出手段が前記入力画像の前記ぼけの度合いを検出し、
     前記選択手段が前記画像処理を選択し、
     前記画像処理手段が前記入力画像に、選択された前記画像処理を施す
     ステップを含む画像処理方法。
  6.  入力画像に基づいて、前記入力画像のぼけの度合いを検出し、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いの検出結果に基づいて選択し、
     選択された前記画像処理を前記入力画像に施す
     ステップを含む処理をコンピュータに実行させるプログラム。
  7.  入力画像に基づいて、前記入力画像から複数の特徴の特徴量を抽出する抽出手段と、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記複数の特徴の特徴量に基づいて選択する選択手段と、
     選択された前記画像処理を前記入力画像に施す画像処理手段と
     を備える画像処理装置。
  8.  前記特徴量として、前記入力画像の解像度、色の分布、色の偏り、前記入力画像の画素の画素値の階調数、ぼけの度合い、エッジ量、エッジ分布、テクスチャ量、またはテクスチャ分布のうちの少なくとも1つが前記入力画像から抽出される
     請求項7に記載の画像処理装置。
  9.  入力画像に基づいて、前記入力画像から複数の特徴の特徴量を抽出する抽出手段と、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記複数の特徴の特徴量に基づいて選択する選択手段と、
     選択された前記画像処理を前記入力画像に施す画像処理手段と
     を備える画像処理装置の画像処理方法であって、
     前記抽出手段が前記入力画像から前記特徴量を抽出し、
     前記選択手段が前記画像処理を選択し、
     前記画像処理手段が前記入力画像に、選択された前記画像処理を施す
     ステップを含む画像処理方法。
  10.  入力画像に基づいて、前記入力画像から複数の特徴の特徴量を抽出し、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記複数の特徴の特徴量に基づいて選択し、
     選択された前記画像処理を前記入力画像に施す
     ステップを含む処理をコンピュータに実行させるプログラム。
  11.  入力画像から、前記入力画像上の被写体の領域が有する特徴の第1の特徴量を抽出することで、前記被写体の領域を特定するための被写体特定情報を生成する生成手段と、
     前記入力画像および前記被写体特定情報に基づいて、前記入力画像上の前記被写体の領域である被写体領域のぼけの度合いと、前記入力画像上の前記被写体領域以外の領域である背景領域のぼけの度合いとを検出する検出手段と、
     前記入力画像に基づいて、前記被写体領域と前記背景領域とから、前記ぼけの度合いとは異なる複数の特徴の第2の特徴量を抽出する抽出手段と、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いおよび前記第2の特徴量に基づいて選択する選択手段と、
     選択された前記画像処理を、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に施す画像処理手段と
     を備える画像処理装置。
  12.  前記選択手段は、前記被写体領域および前記背景領域のそれぞれに対して、前記画像処理を選択し、
     前記画像処理手段は、前記被写体領域および前記背景領域のそれぞれに対して、選択された前記画像処理を施す
     請求項11に記載の画像処理装置。
  13.  前記選択手段は、前記被写体領域または前記背景領域のうちの前記ぼけの度合いのより大きい領域に対する前記画像処理を選択し、
     前記画像処理手段は、前記ぼけの度合いのより大きい領域に対して、選択された前記画像処理を施す
     請求項11に記載の画像処理装置。
  14.  入力画像から、前記入力画像上の被写体の領域が有する特徴の第1の特徴量を抽出することで、前記被写体の領域を特定するための被写体特定情報を生成する生成手段と、
     前記入力画像および前記被写体特定情報に基づいて、前記入力画像上の前記被写体の領域である被写体領域のぼけの度合いと、前記入力画像上の前記被写体領域以外の領域である背景領域のぼけの度合いとを検出する検出手段と、
     前記入力画像に基づいて、前記被写体領域と前記背景領域とから、前記ぼけの度合いとは異なる複数の特徴の第2の特徴量を抽出する抽出手段と、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いおよび前記第2の特徴量に基づいて選択する選択手段と、
     選択された前記画像処理を、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に施す画像処理手段と
     を備える画像処理装置の画像処理方法であって、
     前記生成手段が前記被写体特定情報を生成し、
     前記検出手段が前記被写体領域および前記背景領域の前記ぼけの度合いを検出し、
     前記抽出手段が前記被写体領域および前記背景領域から前記第2の特徴量を抽出し、
     前記選択手段が前記画像処理を選択し、
     前記画像処理手段が、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に、選択された前記画像処理を施す
     ステップを含む画像処理方法。
  15.  入力画像から、前記入力画像上の被写体の領域が有する特徴の第1の特徴量を抽出することで、前記被写体の領域を特定するための被写体特定情報を生成し、
     前記入力画像および前記被写体特定情報に基づいて、前記入力画像上の前記被写体の領域である被写体領域のぼけの度合いと、前記入力画像上の前記被写体領域以外の領域である背景領域のぼけの度合いとを検出し、
     前記入力画像に基づいて、前記被写体領域と前記背景領域とから、前記ぼけの度合いとは異なる複数の特徴の第2の特徴量を抽出し、
     前記入力画像に含まれる情報の情報量を削減することにより前記入力画像を加工する複数の画像処理のうちの何れかを、前記ぼけの度合いおよび前記第2の特徴量に基づいて選択し、
     選択された前記画像処理を、前記入力画像の前記被写体領域または前記背景領域の少なくとも一方の領域に施す
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2009/071090 2008-12-18 2009-12-18 画像処理装置および方法、並びにプログラム WO2010071189A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US12/867,228 US8923612B2 (en) 2008-12-18 2009-12-18 Image processing apparatus and method, and program
BRPI0907809-6A BRPI0907809A2 (pt) 2008-12-18 2009-12-18 Aparelho e método de processamento de imagem e programa que faz um computador executar um processo
RU2010133657/08A RU2469403C2 (ru) 2008-12-18 2009-12-18 Устройство, способ и программа обработки изображения
EP09833491.5A EP2381414A4 (en) 2008-12-18 2009-12-18 IMAGE PROCESSING DEVICE, METHOD AND PROGRAM
CN200980104875.3A CN102187365B (zh) 2008-12-18 2009-12-18 图像处理设备和方法以及程序
US14/546,258 US9569827B2 (en) 2008-12-18 2014-11-18 Image processing apparatus and method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008322450A JP5487610B2 (ja) 2008-12-18 2008-12-18 画像処理装置および方法、並びにプログラム
JP2008-322450 2008-12-18

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/867,228 A-371-Of-International US8923612B2 (en) 2008-12-18 2009-12-18 Image processing apparatus and method, and program
US14/546,258 Continuation US9569827B2 (en) 2008-12-18 2014-11-18 Image processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
WO2010071189A1 true WO2010071189A1 (ja) 2010-06-24

Family

ID=42268856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/071090 WO2010071189A1 (ja) 2008-12-18 2009-12-18 画像処理装置および方法、並びにプログラム

Country Status (8)

Country Link
US (2) US8923612B2 (ja)
EP (1) EP2381414A4 (ja)
JP (1) JP5487610B2 (ja)
CN (1) CN102187365B (ja)
BR (1) BRPI0907809A2 (ja)
RU (1) RU2469403C2 (ja)
TW (1) TWI450213B (ja)
WO (1) WO2010071189A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150392A (ja) * 2010-01-19 2011-08-04 Casio Computer Co Ltd 絵画風画像表示装置および絵画風画像表示方法
JP2011197998A (ja) * 2010-03-19 2011-10-06 Casio Computer Co Ltd 画像処理装置及び画像処理方法
CN102737369A (zh) * 2011-03-31 2012-10-17 卡西欧计算机株式会社 图像处理装置及图像处理方法
JP2012215927A (ja) * 2011-03-31 2012-11-08 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013131077A (ja) * 2011-12-21 2013-07-04 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム、画像処理システム
JP2013178798A (ja) * 2013-04-17 2013-09-09 Casio Comput Co Ltd 画調変換装置およびプログラム
JP2017123176A (ja) * 2017-02-07 2017-07-13 カシオ計算機株式会社 表示制御装置及びプログラム

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5487610B2 (ja) * 2008-12-18 2014-05-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8340411B2 (en) * 2010-03-05 2012-12-25 Xerox Corporation Smart image resizing with color-based entropy and gradient operators
JP2012033012A (ja) * 2010-07-30 2012-02-16 Casio Comput Co Ltd 画調変換装置、画調変換システム、画調変換方法及びプログラム
JP5083389B2 (ja) * 2010-07-30 2012-11-28 カシオ計算機株式会社 画調変換装置、画調変換システム、画調変換方法及びプログラム
JP2012049837A (ja) * 2010-08-27 2012-03-08 Casio Comput Co Ltd 画像表示装置
JP5440573B2 (ja) * 2010-08-31 2014-03-12 カシオ計算機株式会社 画像処理システム、サーバー、画像処理方法並びに画像処理プログラム
JP5777309B2 (ja) * 2010-09-06 2015-09-09 キヤノン株式会社 撮像装置及びその制御方法、並びに画像処理装置及びその制御方法
JP5633296B2 (ja) * 2010-10-18 2014-12-03 カシオ計算機株式会社 画像制御装置及びプログラム
FR2968811A1 (fr) * 2010-12-13 2012-06-15 Univ Paris Diderot Paris 7 Methode de detection et de quantification du flou dans une image numerique.
TWI497455B (zh) * 2011-01-19 2015-08-21 Hon Hai Prec Ind Co Ltd 具有求救功能的電子裝置及求救方法
JP5682330B2 (ja) * 2011-01-27 2015-03-11 カシオ計算機株式会社 画像出力装置、画像出力方法及びプログラム
JP5603796B2 (ja) * 2011-02-10 2014-10-08 株式会社キーエンス 画像検査装置、画像検査方法、及びコンピュータプログラム
JP5807489B2 (ja) * 2011-09-28 2015-11-10 カシオ計算機株式会社 画像処理装置及び画像処理方法、並びにプログラム
JP5569504B2 (ja) * 2011-10-31 2014-08-13 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
WO2013107037A1 (en) * 2012-01-20 2013-07-25 Thomson Licensing Blur measurement
US10401305B2 (en) * 2012-02-15 2019-09-03 Kla-Tencor Corporation Time-varying intensity map generation for reticles
WO2013142079A1 (en) 2012-03-20 2013-09-26 Kla-Tencor Corporation Using reflected and transmission maps to detect reticle degradation
JP2013219462A (ja) * 2012-04-05 2013-10-24 Sharp Corp 画像処理装置、画像表示装置、画像処理方法、コンピュータプログラム及び記録媒体
JP2013257844A (ja) * 2012-06-14 2013-12-26 Casio Comput Co Ltd 画像変換装置、画像変換方法及びプログラム
TW201421423A (zh) * 2012-11-26 2014-06-01 Pixart Imaging Inc 影像感測器及其運作方法
US9390494B2 (en) 2012-12-13 2016-07-12 Kla-Tencor Corporation Delta die intensity map measurement
RU2563333C2 (ru) * 2013-07-18 2015-09-20 Федеральное государственное унитарное предприятие "Научно-производственное объединение автоматики имени академика Н.А. Семихатова" Бесплатформенная инерциальная навигационная система
JP6102602B2 (ja) 2013-07-23 2017-03-29 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
RU2548927C1 (ru) * 2013-12-05 2015-04-20 Федеральное государственное унитарное предприятие "Научное объединение автоматики имени академика Н.А. Семихатова" Система астронавигации
JP2015187602A (ja) * 2014-03-14 2015-10-29 株式会社リコー 測色装置、方法、及びプログラム
US10218918B2 (en) 2014-05-19 2019-02-26 Sony Corporation Image processing device and method with image process effect selection based upon flow vector patterns
RU2560086C1 (ru) * 2014-07-02 2015-08-20 Самсунг Электроникс Ко., Лтд. Система и способ для временного дополнения видео
US9870637B2 (en) * 2014-12-18 2018-01-16 Intel Corporation Frame removal and replacement for stop-action animation
US10255687B2 (en) * 2015-02-05 2019-04-09 Pixart Imaging Inc. Distance measurement system applicable to different reflecting surfaces and operating method thereof
KR101726844B1 (ko) * 2015-03-25 2017-04-13 네이버 주식회사 만화 데이터 생성 시스템 및 방법
US10074205B2 (en) 2016-08-30 2018-09-11 Intel Corporation Machine creation of program with frame analysis method and apparatus
WO2018042388A1 (en) * 2016-09-02 2018-03-08 Artomatix Ltd. Systems and methods for providing convolutional neural network based image synthesis using stable and controllable parametric models, a multiscale synthesis framework and novel network architectures
CN106528758B (zh) * 2016-10-28 2021-07-27 腾讯科技(深圳)有限公司 一种选取图片方法及装置
US11170486B2 (en) 2017-03-29 2021-11-09 Nec Corporation Image analysis device, image analysis method and image analysis program
EP3649618A1 (en) 2017-07-03 2020-05-13 Artomatix Ltd. Systems and methods for providing non-parametric texture synthesis of arbitrary shape and/or material data in a unified framework
US10997697B1 (en) * 2018-12-28 2021-05-04 Gopro, Inc. Methods and apparatus for applying motion blur to overcaptured content
CN109859299B (zh) * 2019-03-27 2020-12-22 腾讯科技(深圳)有限公司 人像图片处理方法、装置、计算机可读存储介质和计算机设备
CN112991151B (zh) * 2021-02-09 2022-11-22 北京字跳网络技术有限公司 图像处理方法、图像生成方法、装置、设备和介质
CN112862726B (zh) * 2021-03-12 2023-11-10 湖南国科微电子股份有限公司 图像处理方法、装置及计算机可读存储介质
CN113627314A (zh) * 2021-08-05 2021-11-09 Oppo广东移动通信有限公司 人脸图像模糊检测方法、装置、存储介质与电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077591A (ja) * 2000-09-05 2002-03-15 Minolta Co Ltd 画像処理装置および撮像装置
JP2002300373A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd 画像処理方法、画像処理装置、記録媒体及びプログラム
JP2003233799A (ja) * 2002-02-08 2003-08-22 Minolta Co Ltd 画像処理方法
JP2005182196A (ja) 2003-12-16 2005-07-07 Canon Inc 画像表示方法および画像表示装置
JP2005303983A (ja) * 2004-01-06 2005-10-27 Sony Corp 画像処理装置および方法、プログラム並びに記録媒体
JP2006024192A (ja) * 2004-06-10 2006-01-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5453844A (en) * 1993-07-21 1995-09-26 The University Of Rochester Image data coding and compression system utilizing controlled blurring
US6850236B2 (en) * 1998-02-17 2005-02-01 Sun Microsystems, Inc. Dynamically adjusting a sample-to-pixel filter in response to user input and/or sensor input
US7620527B1 (en) * 1999-05-10 2009-11-17 Johan Leo Alfons Gielis Method and apparatus for synthesizing and analyzing patterns utilizing novel “super-formula” operator
JP4053185B2 (ja) * 1999-06-22 2008-02-27 富士フイルム株式会社 画像処理方法および装置
US7610836B2 (en) * 2000-08-14 2009-11-03 Sd3, Llc Replaceable brake mechanism for power equipment
JP2002007591A (ja) 2000-06-26 2002-01-11 Konica Corp 顔画像情報記憶管理システム、顔画像情報記憶管理方法
US7257273B2 (en) * 2001-04-09 2007-08-14 Mingjing Li Hierarchical scheme for blur detection in digital image using wavelet transform
US7181082B2 (en) * 2002-12-18 2007-02-20 Sharp Laboratories Of America, Inc. Blur detection system
KR101089426B1 (ko) * 2003-09-11 2011-12-07 파나소닉 주식회사 시각 처리 장치, 시각 처리 방법, 시각 처리 프로그램 및 반도체 장치
JP2005309560A (ja) * 2004-04-19 2005-11-04 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP4479457B2 (ja) * 2004-05-27 2010-06-09 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2006024193A (ja) * 2004-06-07 2006-01-26 Fuji Photo Film Co Ltd 画像補正装置、画像補正プログラム、画像補正方法、および画像補正システム
EP1605402A2 (en) * 2004-06-10 2005-12-14 Sony Corporation Image processing device and method, recording medium, and program for blur correction
JP4585456B2 (ja) * 2006-01-23 2010-11-24 株式会社東芝 ボケ変換装置
RU2337501C2 (ru) * 2006-12-27 2008-10-27 Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет Способ компенсации размытости изображения движущихся объектов и устройство для его реализации
JP5487610B2 (ja) * 2008-12-18 2014-05-07 ソニー株式会社 画像処理装置および方法、並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077591A (ja) * 2000-09-05 2002-03-15 Minolta Co Ltd 画像処理装置および撮像装置
JP2002300373A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd 画像処理方法、画像処理装置、記録媒体及びプログラム
JP2003233799A (ja) * 2002-02-08 2003-08-22 Minolta Co Ltd 画像処理方法
JP2005182196A (ja) 2003-12-16 2005-07-07 Canon Inc 画像表示方法および画像表示装置
JP2005303983A (ja) * 2004-01-06 2005-10-27 Sony Corp 画像処理装置および方法、プログラム並びに記録媒体
JP2006024192A (ja) * 2004-06-10 2006-01-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2381414A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150392A (ja) * 2010-01-19 2011-08-04 Casio Computer Co Ltd 絵画風画像表示装置および絵画風画像表示方法
JP2011197998A (ja) * 2010-03-19 2011-10-06 Casio Computer Co Ltd 画像処理装置及び画像処理方法
CN102737369A (zh) * 2011-03-31 2012-10-17 卡西欧计算机株式会社 图像处理装置及图像处理方法
JP2012215927A (ja) * 2011-03-31 2012-11-08 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013131077A (ja) * 2011-12-21 2013-07-04 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム、画像処理システム
JP2013178798A (ja) * 2013-04-17 2013-09-09 Casio Comput Co Ltd 画調変換装置およびプログラム
JP2017123176A (ja) * 2017-02-07 2017-07-13 カシオ計算機株式会社 表示制御装置及びプログラム

Also Published As

Publication number Publication date
BRPI0907809A2 (pt) 2015-07-14
CN102187365A (zh) 2011-09-14
EP2381414A1 (en) 2011-10-26
TW201027456A (en) 2010-07-16
EP2381414A4 (en) 2013-04-24
US20150071530A1 (en) 2015-03-12
JP2010146264A (ja) 2010-07-01
US9569827B2 (en) 2017-02-14
JP5487610B2 (ja) 2014-05-07
RU2010133657A (ru) 2012-02-20
TWI450213B (zh) 2014-08-21
RU2469403C2 (ru) 2012-12-10
CN102187365B (zh) 2013-10-09
US8923612B2 (en) 2014-12-30
US20110235905A1 (en) 2011-09-29

Similar Documents

Publication Publication Date Title
JP5487610B2 (ja) 画像処理装置および方法、並びにプログラム
Rivera et al. Content-aware dark image enhancement through channel division
EP1413986B1 (en) Enhancing the tonal and spatial characteristics of digital images using selective spatial filters
JP5397059B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
US7755670B2 (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP2010055194A (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
EP1372109A2 (en) Method and system for enhancing portrait images
JP2012521708A (ja) 色周波数に基づく顕著性マップを用いて画像を修正する方法及び装置
JP2004158006A (ja) デジタル画像の色調特性および空間特性を強調する方法
JP2001126075A (ja) 画像処理方法および装置並びに記録媒体
US20210374925A1 (en) Image Enhancement System and Method
JP2009059060A (ja) 動体画像抽出装置及びプログラム
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
KR100694153B1 (ko) 매핑 함수에 기반한 이미지 처리 방법 및 장치
Chandrasekharan et al. Fuzzy transform for contrast enhancement of nonuniform illumination images
JP2011054081A (ja) 画像処理装置および方法、並びにプログラム
Abebe et al. Towards an automatic correction of over-exposure in photographs: Application to tone-mapping
JP2014016688A (ja) 顕著性マップを利用した非写実変換プログラム、装置及び方法
JP4146506B1 (ja) モザイク画像生成装置、方法及びプログラム
JP3543103B2 (ja) カラー画像処理方法および処理装置
JP2011076302A (ja) 輪郭抽出装置、輪郭抽出方法、および輪郭抽出プログラム
JP2011150594A (ja) 画像処理装置および方法、並びにプログラム
JP3731741B2 (ja) カラー動画像処理方法および処理装置
Zolliker et al. Image fusion for optimizing gamut mapping
JP4708866B2 (ja) ルックアップテーブル作成装置および方法,ならびにルックアップテーブル作成プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980104875.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2009833491

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12867228

Country of ref document: US

Ref document number: 2010133657

Country of ref document: RU

WWE Wipo information: entry into national phase

Ref document number: 5100/CHENP/2010

Country of ref document: IN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09833491

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI0907809

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20100811