WO2016098323A1 - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2016098323A1
WO2016098323A1 PCT/JP2015/006170 JP2015006170W WO2016098323A1 WO 2016098323 A1 WO2016098323 A1 WO 2016098323A1 JP 2015006170 W JP2015006170 W JP 2015006170W WO 2016098323 A1 WO2016098323 A1 WO 2016098323A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
attribute
information
pixel
input image
Prior art date
Application number
PCT/JP2015/006170
Other languages
English (en)
French (fr)
Inventor
剛志 柴田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2016564678A priority Critical patent/JP6645442B2/ja
Priority to US15/529,547 priority patent/US10540735B2/en
Publication of WO2016098323A1 publication Critical patent/WO2016098323A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • G06T5/70
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Definitions

  • the present invention relates to image processing, and more particularly to an information processing apparatus, information processing method, and recording medium related to parameter adjustment in image processing.
  • An information processing apparatus that restores an image uses, for example, the following operation in order to restore a degraded image that has deteriorated due to blurring, noise, or a reduction in resolution.
  • the information processing apparatus generates a temporary restored image (candidate restored image) based on a target degraded image (hereinafter also referred to as an input image) using the default parameters.
  • the information processing apparatus generates an image that simulates (applies) a deterioration process such as blur (blurring effect) to the restored image.
  • the information processing apparatus corrects the restored image so that the difference between the image generated using the simulation and the target degraded image is minimized.
  • a solution for example, a pixel value in an image
  • the information processing apparatus cannot uniquely determine a solution. Therefore, the information processing apparatus uses, for example, a constraint (for example, regularization) on the solution in order to uniquely determine the solution. That is, the information processing apparatus uses regularization to constrain the solution and uniquely determine the solution.
  • the regularization used as the constraint is, for example, a constraint that suppresses a change in pixel value between adjacent pixels in the restored image.
  • the information processing apparatus uniquely determines a solution as a restored image using the regularization described above (see, for example, Patent Document 1).
  • the technique described in Patent Document 1 uses regularization strength in order to achieve both a clear texture area and noise suppression in a flat area. Specifically, the technique described in Patent Document 1 is based on the direction of change between adjacent pixels and the magnitude of change in pixel value for the pixels constituting the input image, and the pixel value between adjacent pixels in the restored image. The regularization strength is determined so that the difference amount of.
  • restoring an image may be referred to as reconstructing the image. Therefore, the restored image may be called a reconstructed image.
  • Patent Document 1 requires parameters corresponding to the amount of change in pixel value and the regularization strength in order to determine the regularization strength. For this reason, the information processing apparatus needs to receive these values from the user prior to image processing.
  • the image quality desired for an image differs depending on the object included in the image, the purpose of the image, and the user of the image. For example, how much the noise of the flat portion in the image is suppressed differs depending on the use of the image and the user of the image. Therefore, a user of an information processing apparatus that processes an image needs to set an appropriate parameter value or adjust the parameter value to an appropriate value for the image processing apparatus in accordance with the purpose of the image processing. there were.
  • the technique described in Patent Document 1 has a problem that it is difficult to adjust (set) parameters in image processing. Therefore, the technique described in Patent Document 1 has a problem that an appropriate restored image cannot be provided.
  • An object of the present invention is to provide an information processing apparatus, an information processing method, and a recording medium that solve the above-described problems and allow a user to adjust (specify) appropriate parameters in image processing more easily. is there.
  • An information processing apparatus includes an amount-of-change calculating unit that calculates an amount of change between a value of a predetermined pixel of an input image and a value of a pixel around the pixel in an input image to be processed; Attribute reliability calculation means for calculating attribute reliability, which is the reliability of the attribute of the pixel of the input image, based on the attribute that is the property of the pixel of the specified area in the input image and the amount of change; Based on the image quality information that is the image quality information and the attribute reliability, the regularization strength estimation means for estimating the regularization strength of the pixels in the input image and the reconstructed image that is the reconstructed input image using the regularization strength.
  • Image reconstructing means for generating a composition image.
  • a data processing method calculates an amount of change between a value of a predetermined pixel of an input image and values of pixels around the pixel in an input image to be processed, and is designated in the input image.
  • the attribute reliability that is the reliability of the attribute of the pixel of the input image is calculated based on the attribute that is the property of the pixel in the selected area and the change amount, and the image quality information that is the image quality information in the attribute and the attribute trust
  • the regularization strength of the pixels in the input image is estimated, and a reconstructed image that is an image obtained by reconstructing the input image using the regularization strength is generated.
  • the recording medium includes a process for calculating a change amount between a value of a predetermined pixel of the input image and values of pixels around the pixel in the input image to be processed, and designation in the input image Processing for calculating attribute reliability, which is the reliability of the attribute of the pixel of the input image, based on the attribute which is the property of the pixel in the region and the amount of change, and image quality information which is image quality information in the attribute Based on the attribute reliability, the computer performs processing for estimating the regularization strength of the pixels in the input image and processing for generating a reconstructed image that is an image reconstructed from the input image using the regularization strength.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an example of the operation of the information processing apparatus according to the first embodiment.
  • FIG. 3 is a block diagram illustrating an example of another configuration of the information processing apparatus according to the first embodiment.
  • FIG. 4 is a block diagram illustrating an example of still another configuration of the information processing apparatus according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of an image displayed by the information processing apparatus according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of designation of a teacher information area in the information processing apparatus according to the first embodiment.
  • FIG. 7 is a diagram illustrating an example of attribute reliability calculated by the information processing apparatus according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of an image reconstructed by the information processing apparatus according to the first embodiment.
  • FIG. 9 is a block diagram illustrating an example of the configuration of the information processing apparatus according to the second embodiment.
  • FIG. 10 is a flowchart illustrating an example of the operation of the information processing apparatus according to the second embodiment.
  • FIG. 11 is a block diagram illustrating an example of a configuration of the teacher information receiving unit according to the first embodiment.
  • the “input image” is an image received by the information processing apparatus according to the embodiment of the present invention.
  • Reconstructed image is an image reconstructed (restored) based on the input image.
  • the reconstructed image is not limited to an image that is finally output by the information processing apparatus according to the embodiment, but includes an image that is generated as a candidate in the middle of processing.
  • an image generated as a candidate may be a final image, the reconstructed image may be referred to as an output image in the following description.
  • Degraded image is an image generated by simulating (applying) a degradation process to a reconstructed image.
  • the deterioration process is not particularly limited.
  • the deterioration process is, for example, blurring (bluring), adding noise (superimposing), or reducing the resolution.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus 500 according to the first embodiment of the present invention.
  • the direction of the arrow in the drawing shows an example, and does not limit the direction of the signal between the blocks.
  • the information processing apparatus 500 includes an image processing unit 20, an image receiving unit 10, and an image output unit 30.
  • the image receiving unit 10 receives an input image from another device (not shown) (for example, an imaging device such as a camera or a scanner, or a device that processes an image such as an editing device).
  • another device for example, an imaging device such as a camera or a scanner, or a device that processes an image such as an editing device.
  • the editing device displays a plurality of images on the touch panel. The user operates the touch panel to select an image. Then, the image receiving unit 10 may receive an image selected by the user from the editing device.
  • the image receiving unit 10 may record the received input image in a storage unit (for example, a memory) (not shown).
  • a storage unit for example, a memory
  • the format of the image data in the present embodiment is not particularly limited. However, in the following description, for convenience of explanation, it is assumed that an image is represented using a vertical vector in which pixel values of pixels included in the image are arranged in raster scan order.
  • the vertical vector [Y] of the input image received by the image receiving unit 10 is referred to as the input image vector [Y].
  • the input image vector [Y] (Y 1 ,..., Y i ,..., Y M ).
  • t the superscript “t” described in parentheses means a transposed matrix.
  • a vertical vector with M elements is equivalent to an M ⁇ 1 matrix. Therefore, the superscript “t” in the above-mentioned vector means a vertical vector (a vector in which vector elements are arranged vertically).
  • the pixel values of the pixels of the reconstructed image are represented using vertical vectors arranged in raster scan order.
  • the vertical vector [X] of the reconstructed image is referred to as a reconstructed image vector [X].
  • the reconstructed image vector [X] (X 1 ,..., X i ,..., X M ′ ) t .
  • the image output unit 30 outputs the reconstructed image reconstructed by the image processing unit 20.
  • the image output unit 30 may include, for example, a display device (not shown) and display (output) the reconstructed image on the display device.
  • the image output unit 30 may transmit (output) the reconstructed image via a network to a display device (not shown) (for example, the editing device described above).
  • the image processing unit 20 generates (reconstructs) a reconstructed image based on the input image. Therefore, the image processing unit 20 includes a teacher information receiving unit 210, a change amount calculating unit 220, an attribute reliability calculating unit 230, a regularization strength estimating unit 240, and an image reconstruction unit 250.
  • the image processing unit 20 may include a storage unit (not shown). In that case, each configuration may store each piece of information described later in the storage unit, and take out each piece of information from the storage unit. In the following description, for convenience of explanation, each configuration will be described as passing information directly. However, this does not exclude delivery of information using the storage unit.
  • the image processing unit 20 may use a storage unit for delivering some or all of the information.
  • the image output unit 30 may acquire a reconstructed image from the storage unit.
  • the storage unit may have the same configuration as the storage unit in the description of the image receiving unit 10 described above.
  • the teacher information receiving unit 210 In receiving the input image, the teacher information receiving unit 210, together with the input image, the designated area (area information), the attribute in the area (attribute information), and information on the image quality desired in the attribute (image quality information) Receive information including Hereinafter, information including attribute information and image quality information is referred to as “teacher information”. However, the teacher information may include other information (for example, region information or preprocessing information).
  • the preprocessing information is information related to processing (preprocessing) executed by the image reconstruction unit 250 described later before image reconstruction.
  • the preprocessing is, for example, correction processing (brightness correction, white balance processing, or color correction), filter processing, or noise removal processing.
  • “Area information” is information indicating a range designated in the input image.
  • the area information in the present embodiment is not particularly limited.
  • the area information may be, for example, information representing a predetermined shape in the input image (for example, the center position and radius if circular).
  • the area information may be a set of coordinates of the outline of the area.
  • the attribute is the property of the image in the specified area.
  • the attributes in the present embodiment are not particularly limited.
  • the attribute may be a property of a change in pixel value in a region, such as a texture region (a region in which the pixel value repeats regular changes to some extent) or a flat region (a region in which there are few pixel changes).
  • the attribute may be the type of an object (object) included in the image, such as a car or a person.
  • the attribute may be the type of material of the object included in the image, such as iron or wood.
  • the attribute may be a property related to a physical quantity of an object included in an image, such as temperature or density.
  • the attribute may be an optical property of an object included in the image, such as brightness or color.
  • the attribute may be a property related to the number of objects included in the image, such as the number of people or the number.
  • Image quality information is information for setting the regularization strength (that is, the degree of constraint), which will be described in detail later, in the area where the attribute is specified.
  • a texture area and a flat area are specified as attribute information given by the user.
  • the regularization strength of the texture region is “0” and the regularization strength of the flat region is “1”.
  • the regularization strength in this case is a value indicating the degree of suppression (value range is 0 to 1).
  • strength is large is an area
  • the image quality information may directly set the regularization intensity in the pixel.
  • the image quality information is not limited to this.
  • the image quality information may be a parameter value in a predetermined calculation formula used for calculating the regularization intensity.
  • the teacher information receiving method is not particularly limited.
  • the teacher information receiving unit 210 may receive the input teacher information (region information, attribute information, and image quality information) from the editing apparatus in accordance with reception of the input image. Therefore, FIG. 1 shows the connection from the image receiving unit 10 to the teacher information receiving unit 210 by using a broken arrow.
  • the teacher information receiving unit 210 may receive information included in the teacher information (region information, attribute information, and image quality information) at a time or may be received individually.
  • the operation of the teacher information receiving unit 210 will be described more specifically.
  • FIG. 11 is a block diagram illustrating an example of the configuration of the teacher information receiving unit 210.
  • the direction of the arrow in the drawing shows an example, and does not limit the direction of the signal between the blocks.
  • the teacher information receiving unit 210 includes an area specifying unit 211 and a teacher information acquiring unit 212.
  • the area designation unit 211 receives designation of an area for acquiring teacher information in the reconstructed image.
  • the area specifying unit 211 includes a display device (for example, a liquid crystal display) and an input device (for example, a touch panel) not shown. Then, the area specifying unit 211 displays the reconstructed image on the display device (liquid crystal display).
  • FIG. 5 is a diagram illustrating an example of an image displayed by the area specifying unit 211.
  • the user of the information processing apparatus 500 operates the input device (touch panel) of the area specifying unit 211 displaying the image to specify the area (area information) used as the teacher information on the reconstructed image.
  • FIG. 6 is a diagram showing an example of designation of an area used as teacher information.
  • black lines shown in the eyes, clothing portions, and the like are designations of regions with large changes (for example, texture regions).
  • the gray line shown on the cheek around the mouth and the background wall is the designation of an area with little change (for example, a flat area).
  • the area specifying unit 211 is not limited to a touch panel as an input device, and other devices such as a mouse or a tablet may be used.
  • the area specifying unit 211 transmits the specified area (area information) to the teacher information acquiring unit 212.
  • the teacher information acquisition unit 212 acquires attributes (attribute information) in the designated area.
  • the teacher information acquisition unit 212 may receive the attribute information for each of the designated areas shown in FIG.
  • the area designation unit 211 when the area designation unit 211 receives designation of an area, it may be received including attributes.
  • the area designating unit 211 can select a color for designating the area. For example, designation using black is designated as a texture area, and designation using gray is designated as a flat area.
  • the area designating unit 211 may receive an input from the touch panel designating the color as the area designation. In that case, the area specifying unit 211 may transmit area information and attribute information regarding the specified area to the teacher information acquiring unit 212.
  • the teacher information acquisition unit 212 acquires image quality information (for example, the regularization strength of the pixels of the reconstructed image) regarding the designated area. And the teacher information acquisition part 212 should just process the information received from the area
  • image quality information for example, the regularization strength of the pixels of the reconstructed image
  • the teacher information receiving unit 210 uses the regularization strength in the input image as the image quality information.
  • the present embodiment is not limited to this.
  • the teacher information receiving unit 210 may acquire the image quality information as described below.
  • the image reconstruction unit 250 described later reconstructs (generates) a reconstructed image based on a plurality of regularization strengths. Then, the teacher information receiving unit 210 transmits a plurality of reconstructed images to a device operated by the user. The user's device displays the received plurality of reconstructed images. The user device may be included in the information processing device 500.
  • the device operated by the user requests the user to select an image close to the desired image quality in the case of the texture region and an image close to the desired image quality in the case of the flat region. Then, the device operated by the user notifies the teacher information receiving unit 210 of information (for example, an identifier or number of the image) of each image selected by the user.
  • the teacher information receiving unit 210 sets the regularization strength in the image selected as the texture region as the regularization strength when the attribute is the texture region.
  • the teacher information receiving unit 210 sets the regularization strength in the image selected as the flat region as the regularization strength when the attribute is the flat region.
  • the teacher information receiving part 210 should just use said regularization intensity
  • the change amount calculation unit 220 calculates the change amount of the pixel value between the value of the pixel in the input image and the value of the peripheral pixel of the pixel for each pixel.
  • the peripheral pixels are pixels adjacent to the target pixel (for example, four pixels including upper and lower, right and left pixels, or eight pixels including diagonally positioned pixels).
  • the peripheral pixels may include a predetermined range of pixels adjacent to the adjacent pixels. It is desirable that the change amount calculation unit 220 calculates the change amount for all the pixels of the input image.
  • the input image may include an image that is not suitable for processing. In such a case, the change amount calculation unit 220 may calculate the change amount for some pixels of the input image.
  • the information processing apparatus 500 receives an instruction for a non-target region from, for example, a device operated by the user. Then, the change amount calculation unit 220 does not have to calculate the change amount of the region.
  • the change amount calculated by the change amount calculation unit 220 is not particularly limited.
  • the change amount calculation unit 220 may calculate a change vector (magnitude of change) and a direction unit vector (direction of change) as the amount of change as follows.
  • the magnitude of change between the i-th pixel and the surrounding pixels is dY i .
  • the M ⁇ 2 matrix in which the two direction unit vectors [N] i are vertically arranged in the raster scan order in this way is referred to as a direction unit vector [N].
  • the change vector [dY] may be determined so that the filter used for image processing has a larger value as the absolute value of the pixel value of the image obtained by multiply-adding the input image is larger.
  • a filter used for image processing is, for example, a Sobel filter, a Prewitt filter, a Laplacian filter, or a Gabor filter.
  • a Sobel filter for example, a Sobel filter, a Prewitt filter, a Laplacian filter, or a Gabor filter.
  • Two vectors obtained by multiply-adding Sobel filters in the x direction and the y direction on the input image are an x direction change vector [Y x ] and a y direction change vector [Y y ], respectively.
  • the y-direction change vector [Y y ] is [Y y1 ,..., Y yi ,..., Y yM ) t .
  • the change amount calculation unit 220 applies Y xi and Y yi to Equation 1 shown below to obtain the magnitude of change in the pixel value at the pixel i (i-th element of the displacement vector [dY]). dY i can be calculated.
  • the change amount calculation unit 220 calculates the direction unit vector [N] based on the already calculated magnitudes of changes in pixel values in the x and y directions. For example, the change amount calculation unit 220 applies the direction change vector value (Y xi , Y yi ) of the i-th pixel and the magnitude of change (dY i ) to the pixel value in Equations 2 and 3, and i
  • the direction unit vector [N] i (N xi , N yi ) of the change in the pixel value of the th pixel is calculated.
  • the change amount calculation unit 220 uses the Sobel filter to calculate the edge segment and the magnitude and direction of change in the pixel value on a scale larger than the edge segment has been described.
  • the present embodiment is not limited to this.
  • the change amount calculation unit 220 may calculate the magnitude and direction of the change in pixel value at a plurality of different scales.
  • the change amount calculation unit 220 calculates the magnitude and direction of change in pixel values on L different scales.
  • the scale is expressed using a distance between pixels.
  • this embodiment is not limited to the distance between pixels as a scale.
  • the smallest scale is R 1
  • the lth scale from the smallest is R 1 .
  • the change amount calculation unit 220 interpolates and enlarges the Sobel filters in the x direction and the y direction by R 1 times.
  • the change amount calculation unit 220 generates an image obtained by multiply-adding the Sobel filter expanded by interpolation on the input image.
  • the x-direction change vector and the y-direction change vector at this time are [y xl ] and [y yl ], respectively.
  • the x-direction change vector [y xl ] is [y xl1 ,..., Y xli ,..., Y xlM ) t It is.
  • the change amount calculation unit 220 the size dy li of change in pixel value in the pixel i, with y xli and y yli, calculated as Equation 4 below.
  • the change amount calculation unit 220 may generate a vertical vector [dy l ] in which the change magnitudes dy li in each pixel are arranged in the raster scan order as the change magnitudes in the scale.
  • the change amount calculation unit 220 may use mathematical expressions similar to the mathematical expressions 2 and 3 for this calculation.
  • the method of calculating the magnitude and direction of the change in pixel value at L different scales is not limited to the above description.
  • the change amount calculation unit 220 indicates the magnitude and direction of change in the pixel value of the l-th smallest scale in the i-th pixel for each pixel whose distance from the i-th pixel is equal to or less than R l .
  • the average value of the magnitude and direction of the change in the pixel value may be used.
  • the change amount calculation unit 220 may include the value of the pixel as the magnitude of the change in addition to the magnitude of the change from the surrounding pixels. This is because even if the change has the same magnitude, the effect of the change differs between a small pixel value and a large pixel value.
  • the attribute reliability calculation unit 230 calculates the reliability for each attribute of the pixel of the input image using the attribute included in the teacher information and the calculated amount of change in the pixel of the input image. For example, when a texture area and a flat area are designated as attributes, the attribute reliability calculation unit 230 calculates a reliability as a texture area and a reliability as a flat area in the input image. It is desirable that the attribute reliability calculation unit 230 calculates the reliability for all pixels of the input image. However, the attribute reliability calculation unit 230 may calculate the reliability for some of the pixels of the input image, similar to the change amount calculation unit 220 described above.
  • the attribute reliability calculation unit 230 calculates the attribute reliability for one or more attributes.
  • the method for calculating the reliability in the present embodiment is not particularly limited.
  • the method for calculating the reliability may be selected according to the actual desired image.
  • the attribute reliability calculation unit 230 constructs a discriminator based on the attribute information and the amount of change in the pixel value corresponding to the attribute information. Then, the attribute reliability calculation unit 230 may calculate the attribute reliability by applying the discriminator to an image portion of an area not included in the pixel area for which the attribute is specified. Note that the attribute reliability calculation unit 230 may determine the pixel region for which the attribute is specified based on the region information.
  • the attribute reliability calculation unit 230 may calculate the reliability of the pixel portion for which the attribute is specified. That is, the attribute reliability calculation unit 230 may calculate the reliability for all pixels of the input image without distinguishing the areas. In this case, the attribute reliability calculation unit 230 may not receive the region information.
  • the attribute reliability calculation unit 230 may operate as follows.
  • an SVM Serial Vector Machine
  • Each variable input attribute information e.g., 0 in texture region, such as taking the 1 in a flat region
  • t i representing the a xi] i
  • the kernel is represented by K (•, •).
  • the kernel is a kernel function (inner product in the feature space) in the pattern recognition technique.
  • the attribute reliability calculation unit 230 can calculate the attribute reliability ⁇ j of the pixel j by substituting the change amount ⁇ j in the pixel j into Equation 5 shown below.
  • Equation 5 the variable i is a subscript for distinguishing elements of the support vector set (S).
  • ⁇ in Equation 5 represents the sum of all the elements of the support vector set (S).
  • FIG. 7 is a diagram showing an example of attribute reliability calculated based on the teacher information shown in FIG. FIG. 7 shows the reliability of each pixel using brightness.
  • the white portion is the portion with the highest reliability as the flat region.
  • the black part is the part with the lowest reliability as the flat region.
  • a black part is a part with the highest reliability as a texture area
  • the regularization strength estimation unit 240 estimates (calculates) the regularization strength ( ⁇ ) in the pixel of the input image based on the attribute reliability calculated by the attribute reliability calculation unit 230 and the image quality information.
  • the regularization strength estimation unit 240 desirably estimates the regularization strength ⁇ for all pixels of the input image.
  • the attribute reliability calculation unit 230 may estimate the regularization strength ⁇ for some pixels of the input image, similar to the change amount calculation unit 220 described above.
  • the method for estimating the regularization strength ⁇ is not particularly limited.
  • the attribute information includes a flat region and a texture region
  • the image quality information is a regularization strength in the flat region and the texture region.
  • the present embodiment is not limited to this.
  • the regularization strength estimation unit 240 may calculate the regularization strength ⁇ j at the pixel j using Formula 6 shown below.
  • regularized intensity estimating unit 240 Using Equation 6, regularized intensity estimating unit 240, a regularization strength lambda j at pixel j, a value close attribute reliability and high in regularization strength lambda 1 as a predetermined attribute, the predetermined attribute of the If the attribute reliability is low, a value close to ⁇ 0 is calculated.
  • a vector in which the regularization intensity ⁇ j in all pixels is arranged in the raster scan order is [ ⁇ ].
  • the image quality information is information in which the regularization strength ⁇ 1 of the texture region is “0” and the regularization strength ⁇ 0 of the flat region is “1” as in the example described above.
  • the teacher information receiving unit 210 has received image quality information from the user of the information processing apparatus 500 that does not suppress the texture area but suppresses it in the flat area.
  • the attribute reliability calculation unit 230 calculates the attribute reliability ⁇ j as the texture region as the reliability ⁇ j for the attribute.
  • the information processing apparatus 500 does not need to receive image quality information for all attributes as teacher information.
  • the attributes are two types of areas (texture area and flat area).
  • the attribute reliability calculation unit 230 may calculate the reliability for the texture region as the attribute reliability ⁇ .
  • the regularization strength estimation unit 240 has a low attribute reliability, that is, the regularization strength of a pixel having an attribute that the user does not want (for example, a flat region) is opposite to the specified image quality information.
  • the regularization strength estimation unit 240 of the information processing apparatus 500 can estimate (calculate) the regularization strength that provides the user-desired image quality for the pixel of the user-desired attribute based on the teacher information. . Furthermore, the regularization strength estimation unit 240 can estimate (calculate) the regularization strength that leaves a user-desired image quality for pixels having attributes that are not desired by the user.
  • the image reconstruction unit 250 generates a reconstructed image that is an image obtained by reconstructing the input image based on the regularization intensity estimated by the regularization intensity estimation unit 240.
  • the method for reconstructing an image in the present embodiment is not particularly limited.
  • the image reconstruction unit 250 may reconstruct an image using the method described in Patent Document 1.
  • the image reconstruction unit 250 may generate a reconstructed image using image enhancement that enhances a specific frequency component in the above-described region where the regularization strength is high as the image reconstruction processing.
  • the image reconstruction unit 250 reconstructs (generates) an image using image enhancement processing (for example, high dynamic range imaging) that increases contrast in an area where the regularization intensity is high as image reconstruction processing. )
  • the image reconstruction unit 250 determines a regularization term “E reg ([X])” corresponding to the regularization strength applied to each pixel based on the regularization strength at each pixel of the input image.
  • the determined regularization term E reg ([X]) may include a component in the direction of change of the pixel value.
  • the image reconstruction unit 250 calculates the sum of the determined regularization term E reg ([X]) and the error term E data ([X]) for the input image as shown in Equation 7.
  • a certain optimization function (E (X)) is determined. In Equation 7, [] indicating a vector is omitted.
  • Equation 7 the error term E data ([X]) is an image (hereinafter referred to as blur) that simulates a deterioration process with respect to the reconstructed image [X] obtained by reconstructing the input image [Y]. This is a function that takes a smaller value as the difference between the input image and the input image is smaller.
  • ⁇ in Equation 7 is a parameter determined in advance by the user of the information processing apparatus 500.
  • E data ([X]) represents the relationship between the input image [Y] and the reconstructed image [X] using the input image [Y] and the blur matrix [B].
  • an image becomes a blurred image, that is, an unclear image due to various factors at the time of photographing the image (the lens of the optical system is out of focus or camera shake).
  • the blur function is a function that represents such an effect that an image becomes unclear.
  • An example of the blur function is a point spread function (PSF: Point Spread Function).
  • PSF Point Spread Function
  • the blur function is not limited to the point spread function.
  • the blur function may be another function as long as it is a function representing the degree of blur in the blur image.
  • the blur function is set in the information processing apparatus 500 in advance as a function determined by the user of the information processing apparatus 500.
  • the blur function (or the blur expressed using the blur function) is expressed using an N ⁇ N blur matrix [B].
  • N is the number of pixels. That is, the blur matrix [B] is a square matrix including the number of pixels in rows and columns.
  • the vertical vector of an image with M pixels is represented by [Z]
  • the vertical vector of an image blurred using a given blur function is represented by [Z] b .
  • the relationship between the vertical vector [Z] and the vertical vector [Z] b is expressed as Equation 8 below using the blur matrix [B].
  • the vertical vector [Z] represents a non-blurred image
  • the vertical vector [Z] b represents a blurred image
  • the input image [Y] is generally a blurred image. Therefore, the input image [Y] corresponds to the vertical vector [Z] b .
  • the reconstructed image [X] corresponds to the vertical vector [Z].
  • the error term E data ([X]) is a function including the input image [Y], the reconstructed image [X], and the blur matrix [B].
  • the error term E data ([X]) is a function that takes a smaller value as the error between the image (degraded image) blurred by applying the blur function [B] to the reconstructed image [X] and the input image is smaller. is there.
  • the error function E data ([X]) can be defined, for example, as a relational expression such as Expression 9 shown below.
  • Equation 9 p is a parameter set in advance by the user of the information processing apparatus 500.
  • ) on the right side of Equation 9 represents the norm of the vector.
  • the norm is a generalized length in analysis.
  • the subscript value (p) of the norm (double line) indicates the dimension. That is, “
  • the superscript value (p) represents a power.
  • Equation 10 the regularization term E reg ([X]) is expressed as, for example, Equation 10 below.
  • the matrix [D] is a matrix representing an image differential filter.
  • the matrix diag [ ⁇ ] is a diagonal matrix in which the regularization intensity at each pixel calculated by the regularization intensity estimation unit 240 is arranged diagonally.
  • the image reconstruction unit 250 generates (searches) a reconstructed image [X] that minimizes the value of the optimization function E ([X]) expressed by Equation 7.
  • the search method in the image reconstruction unit 250 is not particularly limited. Examples of the search method include a gradient method or a conjugate gradient method.
  • the image reconstruction unit 250 can search for each pixel value of the reconstructed image using these methods.
  • the teacher information includes the preprocessing information already described
  • the image reconstruction unit 250 executes image preprocessing based on the preprocessing information before image reconstruction using Equation 7. Also good.
  • FIG. 8 is a diagram showing an example of an image reconstructed based on the image shown in FIG. Compared with the image shown in FIG. 5, the image shown in FIG. 8 maintains the flatness of the flat areas such as the cheeks and the walls, and the texture areas such as the area around the eyes and the pattern of the clothes. The resolution has improved.
  • FIG. 2 is a flowchart showing an example of the operation of the information processing apparatus 500 according to the present embodiment.
  • the image receiving unit 10 receives an input image that is an image to be reconstructed (target image) (step S200).
  • the change amount calculation unit 220 calculates the change amount in the input image (step S202).
  • the attribute reliability calculation unit 230 calculates the attribute reliability based on the change amount and the teacher information (step S203).
  • the regularization strength estimation unit 240 estimates the regularization strength based on the attribute reliability (step S204).
  • the image reconstruction unit 250 generates (reconstructs) a reconstructed image from the input image using the regularization strength (step S205).
  • the image output unit 30 outputs a reconstructed image (step S206).
  • the output reconstructed image is displayed on a user device (not shown), for example.
  • the user device receives a correction request from the user, the user device transmits the correction request to the information processing device 500.
  • the information processing apparatus 500 When the information processing apparatus 500 receives an image correction request from the user (Yes in step S207), the information processing apparatus 500 returns to step S201 and repeats the above processing.
  • the information processing apparatus 500 receives at least teacher information as a correction request.
  • the teacher information received here may be a part of teacher information (for example, a part of attribute information and image quality information).
  • the information processing apparatus 500 ends the process.
  • the information processing apparatus 500 according to the first embodiment can achieve an effect that an appropriate parameter in image processing can be adjusted (designated) more easily.
  • the change amount calculation unit 220 calculates the change amount of the input image. Then, the attribute reliability calculation unit 230 calculates the attribute reliability based on the teacher information and the change amount. Then, the regularization strength estimation unit 240 estimates the regularization strength based on the teacher information and the attribute reliability. Then, the image reconstruction unit 250 reconstructs the input image using the regularization strength to generate a reconstructed image. As described above, information necessary as an input by the information processing apparatus 500 is teacher information.
  • the teacher information may include attribute information (attribute information) of a partial area of the input image and image quality information (image quality information) in the attribute.
  • attribute information and the image quality information are not a specification of fine parameter values, but a selection of a certain level of image property and a specification of selection of a desired image quality. That is, the designation of teacher information is a considerably simpler designation than the designation of parameters in a general image. In this way, the information processing apparatus 500 is for reconstructing an image by estimating an appropriate parameter (for example, regularization strength) based on a user's simple designation.
  • the user of the information processing apparatus 500 can designate correction of the re-editing process based on the reconstructed image generated by the information processing apparatus 500.
  • the information processing apparatus 500 can provide a simpler method in comparison with the parameter setting, that is, image discrimination in the user's image processing setting (instruction) instruction.
  • each component of the information processing apparatus 500 may be configured with a hardware circuit.
  • each component may be configured using a plurality of devices connected via a network.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the information processing apparatus 501 according to the first modification of the present embodiment.
  • the direction of the arrow in the drawing shows an example, and does not limit the direction of the signal between the blocks.
  • the information processing apparatus 501 includes a change amount calculation unit 220, an attribute reliability calculation unit 230, a regularization strength estimation unit 240, and an image reconstruction unit 250.
  • the information processing apparatus 501 receives the input image and teacher information (attribute information and image quality information) via a network (not shown) and the like, operates in the same manner as the image processing unit 20 of the information processing apparatus 500, and reconstructed images Is transmitted to another device via a network (not shown).
  • the information processing apparatus 501 may operate in the same manner as the information processing apparatus 500 by reading an input image and teacher information stored in a storage unit (not shown).
  • FIG. 3 shows region information with parentheses.
  • the information processing apparatus 501 configured in this way can obtain the same effects as the information processing apparatus 500.
  • each configuration of the information processing device 501 generates a reconstructed image based on the input image and the teacher information received via the network, similarly to the configuration of the information processing device 500. It is.
  • the information processing apparatus 501 is the minimum configuration in the embodiment of the present invention.
  • the plurality of components may be configured with one piece of hardware.
  • the information processing apparatus 500 may be realized as a computer apparatus including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the information processing apparatus 500 may be realized as a computer apparatus that further includes an input / output connection circuit (IOC: Input / Output Circuit) and a network interface circuit (NIC: Network Interface Circuit).
  • IOC Input / Output Circuit
  • NIC Network Interface Circuit
  • FIG. 4 is a block diagram showing an example of the configuration of the information processing apparatus 600 according to this modification.
  • the information processing apparatus 600 includes a CPU 610, a ROM 620, a RAM 630, an internal storage device 640, an IOC 650, and a NIC 680, and constitutes a computer device.
  • the CPU 610 reads a program from ROM 620.
  • the CPU 610 controls the RAM 630, the internal storage device 640, the IOC 650, and the NIC 680 based on the read program.
  • the computer including the CPU 610 controls these configurations, and realizes the function as the image processing unit 20 shown in FIG. That is, the computer including the CPU 610 realizes the functions of the teacher information receiving unit 210, the change amount calculating unit 220, the attribute reliability calculating unit 230, the regularization strength estimating unit 240, and the image reconstruction unit 250. .
  • the computer including the CPU 610 may further realize functions as the image receiving unit 10 and the image output unit 30 illustrated in FIG. 1.
  • the CPU 610 may use the RAM 630 or the internal storage device 640 as a temporary storage of a program when realizing each function.
  • the CPU 610 may read a program included in the recording medium 700 storing the program so as to be readable by a computer by using a recording medium reading device (not shown).
  • the CPU 610 may receive a program from an external device (not shown) via the NIC 680, store the program in the RAM 630, and operate based on the stored program.
  • ROM 620 stores programs executed by CPU 610 and fixed data.
  • the ROM 620 is, for example, a P-ROM (Programmable-ROM) or a flash ROM.
  • the RAM 630 temporarily stores programs executed by the CPU 610 and data.
  • the RAM 630 is, for example, a D-RAM (Dynamic-RAM).
  • the internal storage device 640 stores data and programs stored in the information processing device 600 for a long period of time. Further, the internal storage device 640 may operate as a temporary storage device for the CPU 610.
  • the internal storage device 640 is, for example, a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), or a disk array device.
  • the IOC 650 mediates data between the CPU 610, the input device 660, and the display device 670.
  • the IOC 650 is, for example, an IO interface card or a USB (Universal Serial Bus) card.
  • the input device 660 is a device that receives an input instruction from an operator of the information processing apparatus 600.
  • the input device 660 is, for example, a keyboard, a mouse, or a touch panel.
  • the input device 660 may function as the image receiving unit 10 or the teacher information receiving unit 210.
  • the display device 670 is a device that displays information to the operator of the information processing apparatus 600.
  • the display device 670 is a liquid crystal display, for example.
  • the display device 670 may operate as the image output unit 30 or the teacher information receiving unit 210 (region specifying unit 211).
  • the NIC 680 relays data exchange with an external device (not shown) via the network.
  • the NIC 680 is, for example, a LAN (Local Area Network) card.
  • the information processing apparatus 600 configured in this way can obtain the same effects as the information processing apparatus 500.
  • FIG. 9 is a block diagram illustrating an example of the configuration of the information processing apparatus 510 according to the second embodiment.
  • the direction of the arrow in the drawing shows an example, and does not limit the direction of the signal between the blocks.
  • the information processing apparatus 510 according to the second embodiment is compared with the information processing apparatus 500 according to the first embodiment, and the image processing unit 21 is replaced with the image processing unit 20. It differs in that it includes.
  • the image processing unit 21 includes a change amount calculation unit 221 and an attribute reliability calculation unit 231 instead of the change amount calculation unit 220 and the attribute reliability calculation unit 230, and further includes a learning image.
  • the difference is that a receiving unit 261 and a learning image teacher information receiving unit 271 are included. Therefore, the description of the same configuration and operation as in the first embodiment will be omitted, and the configuration and operation unique to this embodiment will be described.
  • the information processing apparatus 510 may be realized using a computer shown in FIG.
  • the learning image receiving unit 261 receives one or more images (learning images) different from the input image.
  • the learning image teacher information receiving unit 271 receives the teacher information corresponding to the learning image in the same manner as the teacher information receiving unit 210 receives the teacher information (first teacher information) corresponding to the input image. That is, the learning image teacher information receiving unit 271 receives teacher information (second teacher information) including attribute information of some pixels of the learning image and image quality information desired in the attribute.
  • the attribute information included in the second teacher information may be the same attribute information as the attribute information included in the first teacher information, or may be different attribute information.
  • the attribute information included in the second teacher information includes various attributes described in the first embodiment already described (for example, pixel properties, object types, materials, physical quantities, optical properties). Or information on numbers). Further, the second teacher information may include area information or preprocessing information.
  • the image reconstruction unit 250 may perform preprocessing using preprocessing information included in the second teacher information.
  • the learning image receiving unit 261 and the learning image teacher information receiving unit 271 may use all of the received learning image and teacher information, or a part of them.
  • the learning image receiving unit 261 and the learning image teacher information receiving unit 271 calculate the similarity between the input image and the learning image, and correspond to the learning image having the similarity in a predetermined range and the learning image.
  • Teacher information (second teacher information) may be used.
  • the calculation method of the similarity between the input image and the learning image used by the learning image receiving unit 261 and the learning image teacher information receiving unit 271 is not particularly limited.
  • the learning image reception unit 261 and the learning image teacher information reception unit 271 use the image feature amount (shift feature amount, Fisher vector, etc.) used in general image processing to determine the similarity. It may be calculated.
  • the change amount calculation unit 221 calculates the change amount based on the input image and the learning image.
  • the change amount calculation unit 221 may apply the same method as the change amount calculation unit 220 of the first embodiment to the input image and the learning image as a method of calculating the change amount.
  • the attribute reliability calculation unit 231 calculates the reliability corresponding to each attribute in all the pixels of the input image using the attribute in the input image and the learning image and the change amount calculated by the change amount calculation unit 221.
  • FIG. 10 is a flowchart showing an example of the operation of the information processing apparatus 510.
  • the same operations as those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the learning image receiving unit 261 receives the learning image
  • the learning image teacher information receiving unit 271 receives teacher information corresponding to the learning image (step S400).
  • the image receiving unit 10 receives an input image (step S200), and the teacher information receiving unit 210 receives teacher information for the input image (step S201).
  • the change amount calculation unit 221 calculates the change amount based on the input image and the learning image (step S402).
  • the attribute reliability calculation unit 231 calculates the attribute reliability based on the change amount and the teacher information of the input image and the learning image (S402).
  • the information processing apparatus 510 according to the second embodiment can achieve an effect that more accurate processing can be realized.
  • the learning image receiving unit 261 receives the learning image. Further, the learning image teacher information receiving unit 271 receives teacher information corresponding to the learning image.
  • the change amount calculation unit 221 calculates the change amount based on the learning image in addition to the input image. That is, the change amount calculation unit 221 calculates the change amount based on more images than the change amount calculation unit 220. Therefore, the change amount calculation unit 221 can calculate a change amount with higher accuracy than the change amount calculation unit 220.
  • the attribute reliability calculation unit 231 is based on the teacher information corresponding to the learning image and the amount of change with high accuracy described above. Attribute reliability is calculated. Therefore, the attribute reliability calculation unit 231 can calculate attribute reliability with higher accuracy than the attribute reliability calculation unit 230.
  • the regularization strength estimation unit 240 estimates the regularization strength based on the attribute reliability with high accuracy, it can estimate the regularization strength with higher accuracy.
  • the image reconstruction unit 250 can generate a reconstructed image with higher accuracy because it uses the regularization strength with high accuracy.
  • the learning image receiving unit 261 receives an image such as a monitoring camera image, a medical image, or a satellite image as a learning image.
  • the learning image teacher information receiving unit 271 receives, as teacher information, for example, an attribute transmitted by the user of the information processing apparatus 510 using the user's apparatus and image quality information desired in the attribute. .
  • the learning image teacher information receiving unit 271 may receive, as teacher information, an attribute and image quality information desired in the attribute from a device operated by a person different from the user.
  • the medical worker who has more experience in analyzing medical images than the medical worker can provide learning information (attribute information and image quality information) that is optimal for analyzing the medical image.
  • the information may be transmitted to the information processing apparatus 510.
  • the attribute information is information indicating whether the pixel is an affected part, for example.
  • the image quality information is, for example, information in which the regularization intensity of the region that is not the affected area is “1”.
  • the learning image teacher information receiving unit 271 receives the teacher information including the preprocessing information, the medical staff can share the experience and know-how regarding the preprocessing.
  • the learning image and the teacher information (attribute information and image quality information) received by the learning image receiving unit 261 and the learning image teacher information receiving unit 271 are other devices (for example, a server) Or the like may be stored in a recording device).
  • the information processing apparatus 510 may use information stored in the apparatus based on an instruction from a user of the information processing apparatus 510 as necessary.
  • the information processing apparatus 510 may store the change amount calculated by the change amount calculation unit 221 instead of the learning image received by the learning image reception unit 261.
  • recording the amount of change instead of the learning image enables users to share experiences and know-how regarding mutual image analysis while maintaining confidentiality of the image.
  • the present invention can be applied to the use of analyzing criminal investigation images or satellite images.
  • the present invention can also be applied to uses for analyzing medical images.
  • the present invention can also be applied to applications in which image analysis experience or know-how of image analysts is shared based on the regularization strength after calculation or use of teacher information in each image analysis.

Abstract

 画像処理における適切なパラメータを簡便に調整するため、本発明の情報処理装置は、処理の対象である入力画像において、入力画像の所定の画素の値と、画素の周辺の画素の値との変化量を算出する変化量算出手段と、入力画像における指定された領域の画素の性質である属性と、変化量とを基に、入力画像の画素の属性についての信頼度である属性信頼度を算出する属性信頼度算出手段と、属性における画質の情報である画質情報と、属性信頼度とを基に、入力画像における画素の正則化強度を推定する正則化強度推定手段と正則化強度を用いて入力画像を再構成した画像である再構成画像を生成する画像再構成手段とを含む情報処理装置。

Description

情報処理装置、情報処理方法、及び、記録媒体
 本発明は、画像処理に関し、特に、画像処理におけるパラメータの調整に関連する情報処理装置、情報処理方法、及び、記録媒体に関する。
 画像を復元する情報処理装置は、ぼかし、ノイズ、又は、低解像度化等に基づいて劣化した劣化画像を復元するために、例えば、次のような動作を用いる。まず、情報処理装置は、初期設定のパラメータを用いて、対象となる劣化画像(以下、入力画像とも呼ぶ)を基に暫定的な復元画像(候補となる復元画像)を生成する。そして、情報処理装置は、その復元画像に対してブラー(ぼかし効果)などの劣化過程をシミュレート(適用)した画像を生成する。そして、情報処理装置は、シミュレートを用いて生成した画像と、対象となる劣化画像との差が最小となるように、復元画像を修正する。
 しかし、一般的に、上記の処理における復元画像の候補となる解(例えば、画像における画素値)は、複数の解(画素値)を想定可能である。つまり、情報処理装置は、一般的には、解を一意に決定することができない。そこで、情報処理装置は、例えば、解を一意に決定するために、解に対する拘束(例えば、正則化)を用いる。つまり、情報処理装置は、正則化を用いて解を拘束し、解を一意に決定する。ここで、拘束として用いる正則化とは、例えば、復元画像における隣接する画素間の画素値の変化を抑えるような拘束である。情報処理装置は、上記の正則化を用いて、復元画像としての解を、一意に決定する(例えば、特許文献1を参照)。
 特許文献1に記載の技術は、テクスチャ領域の鮮明さと、平坦領域のノイズ抑制とを両立させるために、正則化強度を用いる。具体的には、特許文献1に記載の技術は、入力画像を構成する画素についての隣接画素間の変化の方向及び画素値の変化の大きさを基に、復元画像における隣接画素間の画素値の差分量が大きくなるように正則化強度を定める。
 なお、以下では、画像を復元することを、画像を再構成すると呼ぶ場合もある。そのため、復元画像を、再構成画像と呼ぶ場合もある。
国際公開第2013/011797号
 しかしながら、特許文献1に記載の技術は、正則化強度を定めるために、画素値の変化量及び正則化強度に対応したパラメータが必要である。そのため、情報処理装置は、画像処理に先立ち、利用者から、これらの値を受信することが必要である。
 しかし、一般的に、画像に所望される画質は、画像に含まれる物体、画像の用途、及び、画像の利用者のそれぞれに対応して、異なる。例えば、画像における平坦部のノイズをどの程度抑制するかは、画像の用途及び画像の利用者のそれぞれに対応して異なる。そのため、画像を処理する情報処理装置の利用者は、画像処理における目的に応じて、画像処理装置に対して、適切なパラメータの値を設定する又はパラメータの値を適切な値に調整する必要があった。しかし、パラメータの値を適切に調整(指定)することは、画像処理の専門家ではない一般的な利用者には困難であった。そのため、特許文献1に記載の技術を用いる利用者は、必ずしも、画像処理におけるパラメータを適切に設定(調整)できなかった。
 このように、特許文献1に記載の技術は、画像処理におけるパラメータの調整(設定)が難しいという問題点があった。そのため、特許文献1に記載の技術は、適切な復元画像を提供できないという問題点があった。
 本発明の目的は、上記問題点を解決し、利用者が、より簡便に、画像処理における適切なパラメータを調整(指定)できる情報処理装置、情報処理方法、及び、記録媒体を提供することにある。
 本発明の一形態における情報処理装置は、処理の対象である入力画像において、入力画像の所定の画素の値と、画素の周辺の画素の値との変化量を算出する変化量算出手段と、入力画像における指定された領域の画素の性質である属性と、変化量とを基に、入力画像の画素の属性についての信頼度である属性信頼度を算出する属性信頼度算出手段と、属性における画質の情報である画質情報と、属性信頼度とを基に、入力画像における画素の正則化強度を推定する正則化強度推定手段と正則化強度を用いて入力画像を再構成した画像である再構成画像を生成する画像再構成手段とを含む。
 本発明の一形態におけるデータ処理方法は、処理の対象である入力画像において、入力画像の所定の画素の値と、画素の周辺の画素の値との変化量を算出し、入力画像における指定された領域の画素の性質である属性と、変化量とを基に、入力画像の画素の属性についての信頼度である属性信頼度を算出し、属性における画質の情報である画質情報と、属性信頼度とを基に、入力画像における画素の正則化強度を推定し、正則化強度を用いて入力画像を再構成した画像である再構成画像を生成する。
 本発明の一形態における記録媒体は、処理の対象である入力画像において、入力画像の所定の画素の値と、画素の周辺の画素の値との変化量を算出する処理と、入力画像における指定された領域の画素の性質である属性と、変化量とを基に、入力画像の画素の属性についての信頼度である属性信頼度を算出する処理と、属性における画質の情報である画質情報と、属性信頼度とを基に、入力画像における画素の正則化強度を推定する処理と、正則化強度を用いて入力画像を再構成した画像である再構成画像を生成する処理とをコンピュータに実行させるプログラムをコンピュータ読み取り可能に記録する。
 本発明に基づけば、本発明の利用者が、より簡便に、画像処理における適切なパラメータを調整(指定)できるとの効果を奏することができる。
図1は、本発明における第1の実施の形態に係る情報処理装置の構成の一例を示すブロック図である。 図2は、第1の実施の形態に係る情報処理装置の動作の一例を示す流れ図である。 図3は、第1の実施の形態に係る情報処理装置の別の構成の一例を示すブロック図である。 図4は、第1の実施の形態に係る情報処理装置のさらに別の構成の一例を示すブロック図である。 図5は、第1の実施の形態に係る情報処理装置が表示する画像の一例を示す図である。 図6は、第1の実施の形態に係る情報処理装置における教師情報の領域の指定の一例を示す図である。 図7は、第1の実施の形態に係る情報処理装置が算出した属性信頼度の一例を示す図である。 図8は、第1の実施の形態に係る情報処理装置が再構成した画像の一例を示す図である。 図9は、第2の実施の形態に係る情報処理装置の構成の一例を示すブロック図である。 図10は、第2の実施の形態に係る情報処理装置の動作の一例を示す流れ図である。 図11は、第1の実施の形態に係る教師情報受信部の構成の一例を示すブロック図である。
 次に、本発明の実施の形態について図面を参照して説明する。
 なお、各図面は、本発明の実施の形態を説明するものである。ただし、本発明は、各図面の記載に限られるわけではない。また、各図面の同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。
 また、以下の説明に用いる図面において、本発明における実施の形態の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
 ここで、説明に先立ち、本発明における実施の形態の説明に用いる用語について整理する。なお、用語に説明における各動作の詳細は、後ほど説明する。
 「入力画像」とは、本発明における実施の形態に係る情報処理装置が受信する画像である。
 「再構成画像」とは、入力画像を基に再構成(復元)された画像である。なお、再構成画像は、実施形態に係る情報処理装置が最終的に出力する画像に限らず、処理の途中における候補として生成される画像を含む。ただし、候補として生成された画像が、最終的な画像となる場合もあるため、以下の説明では、再構成画像を、出力画像と呼ぶ場合もある。
 「劣化画像」とは、再構成画像に対して劣化過程をシミュレート(適用)して生成された画像である。ここで、劣化過程は、特に制限はない。劣化過程は、例えば、ぼかし(ブラー)、ノイズの付加(重畳)、又は、低解像度化である。
 <第1実施の形態>
 次に、発明における第1の実施の形態について図面を参照して説明する。
 [構成の説明]
 図1は、本発明における第1の実施の形態に係る情報処理装置500の構成の一例を示すブロック図である。図面中の矢印の方向は、一例を示すものであり、ブロック間の信号の向きを限定するものではない。
 図1に示されているように、第1の実施の形態に係る情報処理装置500は、画像処理部20と、画像受信部10と、画像出力部30とを含む。
 画像受信部10は、図示しない他の装置(例えば、カメラ若しくはスキャナのような撮像装置、又は、編集機器のような画像を処理する装置)から入力画像を受信する。例えば、編集機器が、タッチパネルに複数の画像を表示する。利用者が、そのタッチパネルを操作して、画像を選択する。そして、画像受信部10が、その編集機器から、利用者が選択した画像を受信してもよい。
 画像受信部10は、受信した入力画像を、図示しない記憶部(例えば、メモリ)に記録してもよい。
 なお、本実施の形態における画像データの形式は、特に制限されない。ただし、以下の説明では、説明の便宜のため、画像は、画像に含まれる画素の画素値を、ラスタスキャン順に並べた縦ベクトルを用いて表されるとする。
 また、画像受信部10が受信した入力画像の縦ベクトル〔Y〕は、入力画像ベクトル〔Y〕と呼ばれる。例えば、画像受信部10が受信した画像の画素数が、M個の場合、入力画像ベクトル〔Y〕は、〔Y〕=(Y,・・・,Y,・・・,Yとなる。ここで、括弧に記載した上付きの「t」は、転置行列を意味する。また、要素の数がMの縦ベクトルは、M×1の行列と同等である。そのため、上記のベクトルにおける上付き「t」は、縦ベクトル(ベクトルの要素を縦に並べたベクトル)を意味する。
 同様に、再構成画像の画素の画素値は、ラスタスキャン順に並べた縦ベクトルを用いて表される。以下、再構成画像の縦ベクトル〔X〕は、再構成画像ベクトル〔X〕と呼ばれる。例えば、再構成画像の画素数が、M’個の場合、再構成画像ベクトル〔X〕は、〔X〕=(X,・・・,X,・・・,XM’となる。
 なお、以下の説明では、説明の便宜のため、入力画像と再構成画像との画素数が等しい場合(すなわちM=M’の場合)について説明する。ただし、これは、説明の便宜のためであり、本実施の形態は、M=M’の場合に限定されない。本実施の形態は、入力画像の画素数と再構成画像の画素数とが、異なっていてもよい。
 画像出力部30は、画像処理部20が再構成した再構成画像を出力する。画像出力部30は、例えば、図示しないディスプレイ装置を含み、そのディスプレイ装置に再構成画像を表示(出力)してもよい。あるいは、画像出力部30は、ネットワークを介して、図示しない表示装置(例えば、上記の編集機器)に再構成画像を送信(出力)してもよい。
 画像処理部20は、入力画像を基に、再構成画像を生成(再構成)する。そのため、画像処理部20は、教師情報受信部210と、変化量算出部220と、属性信頼度算出部230と、正則化強度推定部240と、画像再構成部250とを含む。
 なお、画像処理部20は、図示しない記憶部を含んでもよい。その場合、各構成は、記憶部に後ほど説明する各情報を保存し、記憶部から各情報を取り出してもよい。以下の説明では、説明の便宜のため、各構成が、情報を直接的に、受け渡すとして説明する。ただし、これは、上記の記憶部を用いて情報の受渡しを排除するものではない。画像処理部20は、一部又は全ての情報の受渡しに、記憶部を用いてもよい。画像出力部30は、この記憶部から再構成画像を取得してもよい。また、この記憶部は、上記の画像受信部10の説明における記憶部と同じ構成が用いられてもよい。
 教師情報受信部210は、入力画像の受信において、入力画像とともに、指定された領域(領域情報)と、その領域における属性(属性情報)と、その属性において所望される画質の情報(画質情報)とを含む情報を受信する。なお、以下、属性情報と画質情報とを含む情報を「教師情報」と呼ぶ。ただし、教師情報は、他の情報(例えば、領域情報、又は、前処理情報)を含んでもよい。ここで、前処理情報とは、後述する画像再構成部250が、画像再構成の前に実行する処理(前処理)に関する情報である。前処理とは、例えば、補正処理(明るさ補正、ホワイトバランス処理、又は、色調補正など)、フィルタ処理、又は、ノイズ除去処理である。
 「領域情報」は、入力画像において指定された範囲を表す情報である。本実施の形態における領域情報は、特に制限されない。領域情報は、例えば、入力画像における所定の形状を表す情報(例えば、円形なら、中心の位置と半径)でもよい。あるいは、領域情報は、領域の外形線の座標の集合でもよい。
 「属性」とは、指定された領域における画像の性質である。本実施の形態における属性は、特に制限されない。例えば、属性は、テクスチャ領域(画素値がある程度の規則的な変化を繰り返す領域)又は平坦領域(画素の変化が少ない領域)のような、領域における画素値の変化の性質でもよい。あるいは、属性は、車又は人などのように、画像に含まれる物体(対象物)の種類でもよい。あるいは、属性は、鉄又は木材などのように、画像に含まれる物体の材質の種類でもよい。あるいは、属性は、温度又は密度などのような、画像に含まれる物体の物理量に関する性質でもよい。あるいは、属性は、明るさ又は色彩などのような、画像に含まれる物体の光学的な性質でもよい。あるいは、属性は、人数又は個数などのような、画像に含まれる物体の数に関する性質でもよい。
 「画質情報」とは、属性が指定された領域において、後ほど詳細に説明する正則化の強度(つまり、拘束の程度)を設定するための情報である。
 例えば、利用者が与える属性情報として、テクスチャ領域及び平坦領域が、指定されたとする。そして、画質情報として、例えば、テクスチャ領域の正則化強度が「0」で、平坦領域の正則化強度が「1」と指定されたとする。この場合の正則化強度は、抑圧の程度を示す値(値の範囲は、0から1)である。そして、正則化強度の値が大きい領域は、抑制が大きい領域である。つまり、この画質情報は、テクスチャ領域では抑制を小さく、平坦領域では抑制を大きくする正則化強度の指定である。
 このように、画質情報は、画素における正則化強度を直接的に設定するものでもよい。ただし、画質情報は、これに限られない。画質情報は、正則化強度を算出に用いられる所定の算出式におけるパラメータの値でもよい。
 また、本実施の形態は、教師情報の受信方法を特に制限されない。
 例えば、上記の説明に用いた編集機器において、利用者が、画像を選択後、選択した画像において、タッチパネルを操作して、領域(領域情報)を指定し、さらに、その領域の属性情報及び画質情報を入力する。その後、教師情報受信部210が、入力画像の受信に合わせて、編集装置から、上記の入力された教師情報(領域情報、属性情報、及び、画質情報)を受信してもよい。そのため、図1は、画像受信部10から教師情報受信部210への接続を、破線の矢印を用いて示した。なお、教師情報受信部210は、教師情報に含まれる情報(領域情報、属性情報、及び、画質情報)を一度に受信してもよく、個別に受信してもよい。
 この教師情報受信部210の動作を、より具体的に説明する。
 図11は、教師情報受信部210の構成の一例を示すブロック図である。図面中の矢印の方向は、一例を示すものであり、ブロック間の信号の向きを限定するものではない。
 図11に示されているように、教師情報受信部210は、領域指定部211と、教師情報取得部212とを含む。
 領域指定部211は、再構成画像における教師情報を取得する領域の指定を受信する。例えば、領域指定部211は、図示しない表示機器(例えば、液晶ディスプレイ)と入力機器(例えば、タッチパネル)とを含む。そして、領域指定部211は、表示機器(液晶ディスプレイ)に再構成画像を表示する。
 図5は、領域指定部211が表示する画像の一例を示す図である。
 つまり、図5に示す画像が、領域指定部211に含まれる表示機器に表示されているとする。
 そして、情報処理装置500の利用者は、画像を表示している領域指定部211の入力機器(タッチパネル)を操作して、再構成画像上における教師情報として用いる領域(領域情報)を指定する。
 図6は、教師情報として用いる領域の指定の一例を示す図である。図6において、目及び服の部分等に示されている黒い線が、変化の大きな領域(例えば、テクスチャ領域)の指定である。また、口の周りの頬及び背景の壁に示されている灰色の線が、変化の少ない領域(例えば、平坦領域)の指定である。
 なお、領域指定部211は、入力機器として、タッチパネルに限らず、マウス又はタブレットなど他の機器を用いてもよい。
 領域指定部211は、指定された領域(領域情報)を教師情報取得部212に送信する。
 次に、教師情報取得部212は、指定された領域における属性(属性情報)を取得する。例えば、教師情報取得部212は、図6に示されている指定された領域それぞれについて、属性情報を受信すればよい。なお、領域指定部211が、領域の指定を受信する場合に、属性を含めて受信してもよい。例えば、領域指定部211は、領域の指定における色を選択できるようにしておく。例えば、黒色を用いた指定をテクスチャ領域の指定と、灰色を用いた指定を平坦領域の指定とする。そして、領域指定部211は、色を指定したタッチパネルからの入力を、領域の指定として、受信すればよい。その場合、領域指定部211は、指定された領域に関する領域情報と属性情報とを教師情報取得部212に送信すればよい。
 次に、教師情報取得部212は、指定された領域に関する画質情報(例えば、再構成画像の画素の正則化強度)を取得する。そして、教師情報取得部212は、領域指定部211から受信した情報と、自分で取得した情報とを合わせて、教師情報として処理すればよい。
 なお、上記の説明において、教師情報受信部210が、画質情報として、入力画像における正則化強度を用いる場合を説明した。しかし、本実施の形態は、これに限定されない。例えば、教師情報受信部210は、画質情報を、以下で説明するように取得してもよい。
 まず、後述する画像再構成部250が、複数の正則化強度を基に、再構成画像を再構成(生成)する。そして、教師情報受信部210は、複数の再構成画像を、利用者が操作する装置に送信する。利用者の装置は、受信した複数の再構成画像を表示する。なお、この利用者装置は、情報処理装置500に含まれていてもよい。
 次に、利用者が操作する装置が、利用者に、テクスチャ領域の場合に所望する画質に近い画像と、平坦領域の場合に所望する画質に近い画像との選択を要求する。そして、利用者が操作する装置は、利用者が選択したそれぞれの画像の情報(例えば、画像の識別子又は番号)を、教師情報受信部210に通知する。教師情報受信部210は、テクスチャ領域の場合として選択された画像における正則化強度を、属性がテクスチャ領域の場合の正則化強度とする。同様に、教師情報受信部210は、平坦領域の場合として選択された画像における正則化強度を、属性が平坦領域の場合の正則化強度とする。そして、教師情報受信部210は、上記の正則化強度を画質情報として用いればよい。
 変化量算出部220は、入力画像における画素の値と、その画素の周辺画素の値との間の画素値の変化量を、画素毎に、算出する。ここで、周辺画素とは、対象となる画素に隣接する画素(例えば、上下左右の4個、又は、斜めの位置の画素を含めた8個)である。さらに、周辺画素は、隣接する画素に隣接する所定の範囲の画素を含んでもよい。変化量算出部220は、入力画像の全ての画素に対して変化量を算出することが望ましい。ただし、入力画像が、処理にふさわしくない画像を含む場合もある。このような場合、変化量算出部220は、入力画像の一部の画素に対しての変化量を算出してもよい。例えば、入力画像が、明らかに対象外である物体を含んでいるとする。この場合、情報処理装置500は、例えば、利用者の操作する装置から対象外の領域の指示を受信する。そして、変化量算出部220は、その領域の変化量を算出しなくてもよい。
 変化量算出部220が算出する変化量は、特に制限されない。変化量算出部220は、例えば、以下のように、変化量として、変化ベクトル(変化の大きさ)と方向単位ベクトル(変化の方向)とを算出してもよい。
 i番目の画素における周辺画素との間の変化の大きさはdYである。そして、変化の大きさ(dY)をラスタスキャン順に並べた縦ベクトルである変化ベクトル〔dY〕は、〔dY〕=(dY,・・・,dY,・・・,dYで表される。また、i(i=1,2,・・・,M)番目の画素における直交する二軸(x軸とy軸)のそれぞれの方向であるx方向及びy方向の二方向の変化を含む変化の方向単位ベクトル〔N〕は、〔N〕=(Nxi,Nyi)で表される。以下、このように、二つの方向単位ベクトル〔N〕をラスタスキャン順に縦に並べたM×2の行列は、方向単位ベクトル〔N〕と呼ばれる。
 変化ベクトル〔dY〕及び方向単位ベクトル〔N〕を算出する方法の一例について、詳細に説明する。
 まず、変化ベクトル〔dY〕を算出する方法について説明する。
 変化ベクトル〔dY〕は、画像処理に用いるフィルタを、入力画像に積和演算した画像の画素値の絶対値が大きいほど、大きな値になるように定められればよい。
 ここで、画像処理に用いられるフィルタは、例えば、ソーベルフィルタ(Sobel filter)、プレヴィットフィルタ(Prewitt filter)、ラプラシアンフィルタ(Laplacian filter)、又は、ガボールフィルタ(Gabor filter)である。以下、一例として、ソーベルフィルタを用いた場合について説明する。
 入力画像に、x方向及びy方向のソーベルフィルタを積和演算して得られた2つのベクトルは、それぞれ、x方向変化ベクトル〔Y〕及びy方向変化ベクトル〔Y〕である。例えば、入力された画像の画素数が、M個の場合、x方向変化ベクトル〔Y〕は、〔Y〕=(Yx1,・・・,Yxi,・・・,YxMである。また、y方向変化ベクトル〔Y〕は、〔Y〕=(Yy1,・・・,Yyi,・・・,YyMである。このとき、変化量算出部220は、Yxi及びYyiを以下に示す数式1に適用して、画素iにおける画素値の変化の大きさ(変位ベクトル〔dY〕のi番目の要素)であるdYを算出できる。
 [数式1]
Figure JPOXMLDOC01-appb-I000001
 次に、画素値の変化の方向を算出する方法について説明する。
 変化量算出部220は、方向単位ベクトル〔N〕を、既に算出したx方向及びy方向への画素値の変化の大きさを基に算出する。例えば、変化量算出部220は、i番目の画素の方向変化ベクトルの値(Yxi、Yyi)及び画素値に変化の大きさ(dY)を数式2及び数式3に適用して、i番目の画素の画素値の変化の方向単位ベクトル〔N〕=(Nxi、Nyi)を算出する。
 [数式2]
Figure JPOXMLDOC01-appb-I000002
 [数式3]
Figure JPOXMLDOC01-appb-I000003
 以上の説明では、変化量算出部220が、ソーベルフィルタを用いて、エッジセグメント、及び、エッジセグメントより大きなスケールにおける画素値の変化の大きさ及び方向を算出する場合を説明した。しかし、本実施の形態は、これに限定されない。例えば、変化量算出部220は、複数の異なるスケールにおける画素値の変化の大きさ及び方向を算出してもよい。
 具体的な一例として、変化量算出部220が、L種類の異なるスケールにおける画素値の変化の大きさ及び方向を算出する場合について説明する。以下の説明において、スケールは、画素間の距離を用いて表現されるとする。ただし、本実施の形態は、スケールとして、画素間の距離に限定されない。
 L個の異なるスケールは、異なる距離のスケールを、スケールの小さな方から大きさ順に並べたベクトル〔R〕=(R,・・・,R,・・・,R)を用いて表されるとする。例えば、L個のスケールの中で、最も小さなスケールは、Rとなり、小さい方からl番目のスケールは、Rとなる。以下、一例として、l番目に小さいスケールにおける画素値の変化の大きさ及び方向を算出する場合について説明する。
 まず、変化量算出部220は、x方向及びy方向のソーベルフィルタをR倍に補間拡大する。次に、変化量算出部220は、補間拡大したソーベルフィルタを入力画像に積和演算した画像を生成する。この時のx方向変化ベクトル及びy方向変化ベクトルは、それぞれ〔yxl〕及び〔yyl〕である。例えば、入力された画像の画素数が、M個の場合、x方向変化ベクトル〔yxl〕は、〔yxl〕=(yxl1,・・・,yxli,・・・,yxlMである。また、y方向変化ベクトル〔yyl〕は、〔yyl〕=(yyl1,・・・,yyli,・・・,yylMである。このとき、変化量算出部220は、画素iにおける画素値の変化の大きさdyliを、yxli及びyyliを用いて、以下に示す数式4のように算出する。
 [数式4]
Figure JPOXMLDOC01-appb-I000004
 そして、変化量算出部220は、そのスケールにおける変化の大きさとして、各画素における変化の大きさdyliをラスタスキャン順に並べた縦ベクトル〔dy〕を生成すればよい。
 そして、変化量算出部220は、画素値の変化の方向を算出として、既に算出したx方向及びy方向への画素値の変化の大きさを基に、どの方向に最も画素値が変化しているかを決定(算出)する。例えば、変化量算出部220は、i番目の画素の画素値の変化の方向として、i番目の画素の画素値の変化の大きさyxli、yyli及びdyliを用いて、変化の方向を表す方向単位ベクトル〔n〕li=(nxli,nyli)を算出すればよい。変化量算出部220は、この算出に、数式2及び3と同様の数式を用いればよい。
 なお、本実施の形態において、L種類の異なるスケールでの画素値の変化の大きさ及び方向を算出する方法は、上記の説明に限定されない。例えば、変化量算出部220は、i番目の画素におけるl番目に小さいスケールの画素値の変化の大きさ及び方向を、それぞれ、i番目の画素との距離がR以下である全ての画素の画素値の変化の大きさ及び方向の平均値としてもよい。なお、変化量算出部220は、変化の大きさとして、周辺画素との変化の大きさに加え、画素の値を含ませてもよい。これは、同じ大きさの変化でも、画素の値が小さい場合と大きな場合では、変化の影響が異なるためである。
 属性信頼度算出部230は、教師情報の含まれる属性と、算出された入力画像の画素における変化量とを用いて、入力画像の画素について、各属性に対する信頼度を算出する。例えば、属性としてテクスチャ領域と平坦領域とが指定された場合、属性信頼度算出部230は、入力画像における、テクスチャ領域としての信頼度と、平坦領域としての信頼度とを算出する。属性信頼度算出部230は、入力画像の全ての画素について、信頼度を算出することが望ましい。ただし、属性信頼度算出部230は、上記の変化量算出部220と同様に、入力画像の一部の画素に対しての信頼度を算出してもよい。
 なお、属性信頼度算出部230が属性信頼度を算出する属性の数は、特に制限はない。属性信頼度算出部230は、1つ又は複数の属性に対して属性信頼度を算出する。
 また、本実施の形態における信頼度を算出する方法は、特に制限されない。例えば、信頼度を算出する方法は、実際の所望される画像に応じて選択されればよい。
 例えば、属性信頼度算出部230は、属性情報と、属性情報に対応する画素値の変化量とを基に識別器を構築する。そして、属性信頼度算出部230は、属性を指定した画素の領域に含まれない領域の画像の部分に、上記の識別器を適用して、属性の信頼度を算出してもよい。なお、属性信頼度算出部230は、領域情報を基に、属性を指定した画素の領域を判別すればよい。
 ただし、属性信頼度算出部230は、属性を指定した画素の部分についても、信頼度を算出してもよい。つまり、属性信頼度算出部230は、領域を区別せず、入力画像の全ての画素を対象に信頼度を算出してもよい。この場合、属性信頼度算出部230は、領域情報を受信しなくてもよい。
 より具体的には、属性信頼度算出部230は、次のように動作してもよい。以下の説明では、識別器として、パターン認識モデルの一つであるSVM(Support Vector Machine)を用いる。各変数は、シードとして入力した属性情報(例えば、テクスチャ領域で0、平坦領域で1を取るなど)を表すtと、対応する当該画素における変化量を表すξと、事前の学習に基づいて算出された係数を表すa及びhである。カーネルはK(・,・)で表される。なお、カーネルとは、パターン認識技術におけるカーネル関数(特徴空間における内積)である。このとき、属性信頼度算出部230は、画素jにおける変化量ξを、以下に示す数式5に代入して、画素jの属性信頼度ηを算出することができる。
 [数式5]
Figure JPOXMLDOC01-appb-I000005
 数式5において、変数iは、サポートベクトルの集合(S)の要素を区別するための添え字である。つまり、数式5のΣは、サポートベクトルの集合(S)の要素の全てにおいての総和を示す。
 図7は、図6に示されている教師情報を基に算出された属性信頼度の一例を示す図である。図7は、各画素における信頼度を、明度を用いて示している。図7において、白の部分が、平坦領域として最も信頼度が高い部分である。反対に、黒い部分が、平坦領域として、最も信頼度が低い部分である。あるいは、テクスチャ領域の属性に注目した場合、黒い部分が、テクスチャ領域として最も信頼度が高い部分である。
 正則化強度推定部240は、属性信頼度算出部230が算出した属性信頼度と、画質情報とを基に、入力画像の画素における正則化強度(λ)を推定(算出)する。正則化強度推定部240は、入力画像の全ての画素について、正則化強度λを推定することが望ましい。ただし、属性信頼度算出部230は、上記の変化量算出部220と同様に、入力画像の一部の画素に対しての正則化強度λを推定してもよい。
 本実施の形態において、正則化強度λを推定する手法は、特に制限されない。
 ここでは、正則化強度λを推定する方法の一例として、属性情報が、平坦領域及びテクスチャ領域を含み、画質情報が、平坦領域及びテクスチャ領域における正則化強度の場合について説明する。ただし、本実施の形態は、これに限定されない。
 ここで、画素jにおける所定の属性に対する属性信頼度はη、その属性に対する正則化強度はλ、その他の属性に対する正則化強度はλである。この場合、正則化強度推定部240は、画素jにおける正則化強度λを、以下に示す数式6を用いて算出すればよい。
 [数式6]
Figure JPOXMLDOC01-appb-I000006
 数式6を用いると、正則化強度推定部240は、画素jにおける正則化強度λとして、所定の属性としての属性信頼度が高いと正則化強度λに近い値を、所定の属性としての属性信頼度が低いとλに近い値を算出する。なお、以下では、全画素での正則化強度λを、ラスタスキャン順に並べたベクトルを〔λ〕とする。
 例えば、画質情報が、例えば、既に説明した例のように、テクスチャ領域の正則化強度λが「0」、平坦領域の正則化強度λが「1」である情報とする。つまり、教師情報受信部210が、情報処理装置500の利用者から、テクスチャ領域では抑圧せず、平坦領域では抑圧するような画質情報を受信したとする。そして、属性信頼度算出部230が、属性に対する信頼度ηとして、テクスチャ領域としての属性信頼度ηを算出したとする。この場合、正則化強度推定部240は、テクスチャ領域では属性信頼度ηが高いため、正則化強度λとして、λ(=0)に近い値を算出する。一方、正則化強度推定部240は、平坦領域では属性信頼度ηが低いため、正則化強度λとして、λ(=1)に近い値を算出する。このように、正則化強度推定部240は、利用者所望の画質情報(テクスチャ領域では抑圧せず、平坦領域では抑圧する)に沿うように、正則化強度λを推定(算出)できる。
 なお、情報処理装置500は、教師情報として、全ての属性に対する画質情報を受信する必要はない。例えば、属性が、二種類の領域(テクスチャ領域と平坦領域)とする。そして、一の属性に対する画質情報が、他の属性に対する画質情報の反対(例えば、片方の属性の正則化強度が0ならば、もう一つの属性の正則化強度が1)であるとする。この場合、教師情報受信部210は、教師情報として、例えば、属性情報として「属性=テクスチャ領域」、画質情報として「正則化強度=0」を受信してもよい。つまり、教師情報は、一の属性に関する情報でもよい。なお、この教師情報は、利用者の所望の属性の画質に相当する。
 この場合、属性信頼度算出部230は、属性信頼度ηとして、テクスチャ領域に対する信頼度を算出すればよい。
 そして、正則化強度推定部240は、数式6の正則化強度λとして教師情報の「0」を用いる。さらに、正則化強度推定部240は、正則化強度λに対する正則化強度λとして、正則化強度λ(=0)の反対の値である「1」を設定する。そして、正則化強度推定部240は、上記の処理を実行すればよい。
 その結果、正則化強度推定部240は、利用者が所望の一の属性(例えば、テクスチャ領域)としての属性信頼性が高い画素を指定した画質情報に沿った正則化強度(λ=0に近い値)を推定(算出)する。一方、正則化強度推定部240は、属性信頼度が低い、つまり利用者が所望していない属性(例えば、平坦領域)である画素の正則化強度としては、指定された画質情報とは反対となる正則化強度(λ=1に近い値)を推定(算出)する。
 このように、情報処理装置500の正則化強度推定部240は、教師情報を基に、利用者所望の属性の画素に、利用者所望の画質となるような正則化強度を推定(算出)できる。さらに、正則化強度推定部240は、利用者所望でない属性の画素に、利用者所望の画質から離れるような正則化強度を推定(算出)できる。
 画像再構成部250は、正則化強度推定部240が推定した正則化強度を基に、入力画像を再構成した画像である再構成画像を生成する。本実施の形態における画像を再構成する方法は、特に制限されない。例えば、画像再構成部250は、特許文献1に記載された方法を用いて、画像を再構成してもよい。あるいは、画像再構成部250は、画像の再構成処理として、上述の正則化強度が強い領域における特定の周波数成分を強調するような画像強調を用いて、再構成画像を生成してもよい。あるいは、画像再構成部250は、画像の再構成処理として、正則化強度が強い領域において、コントラストを大きくする画像の強調処理(例えば、ハイダイナミックレンジイメージング)を用いて、画像を再構成(生成)してもよい。
 より具体的な再構成の一例として、以下、再構成として超解像を用いる場合について説明する。
 画像再構成部250は、入力画像の各画素における正則化強度に基づいて、各画素に適用する正則化強度に応じた正則化項「Ereg(〔X〕)」を決定する。決定された正則化項Ereg(〔X〕)は、画素値の変化の方向の成分を含んでもよい。そして、画像再構成部250は、入力画像に対して、数式7に示されるように、決定した正則化項Ereg(〔X〕)と、誤差項Edata(〔X〕)との和である最適化関数(E(X))を決定する。なお、数式7において、ベクトルを示す〔〕を省略した。
 [数式7]
Figure JPOXMLDOC01-appb-I000007
 数式7において、誤差項Edata(〔X〕)は、入力画像〔Y〕を再構成した再構成画像〔X〕に対して、劣化過程(ぼけ(ブラー)など)をシミュレートした画像(以下、劣化画像と呼ぶ)と、入力画像との差が小さいほど、小さい値を取る関数である。ただし、数式7におけるτは、予め情報処理装置500の利用者が定めたパラメータである。
 誤差項Edata(〔X〕)は、入力画像〔Y〕と再構成画像〔X〕との関係を、入力画像〔Y〕とボケ行列〔B〕とを用いて表す。一般的に、画像は、画像を撮影する際の各種の要因(光学系のレンズの焦点が合わないこと、又は、手振れなど)のために、ぶれた画像、つまり、不鮮明な画像となる。
 ボケ関数は、このような、画像が不鮮明になる効果を表す関数である。ボケ関数として、例えば、点広がり関数(PSF:Point Spread Function)が挙げられる。ただし、ボケ関数は、点広がり関数に限定されない。ボケ関数は、ボケ画像におけるボケの程度を表す関数であれば、他の関数でもよい。ボケ関数は、予め、情報処理装置500の利用者が決定した関数として、情報処理装置500に設定されている。以下で、ボケ関数(又は、ボケ関数を用いて表されるボケ)は、N×Nのボケ行列〔B〕を用いて表される。ここで、Nは、画素の数である。つまり、ボケ行列〔B〕は、画素の数の行と列とを含む正方行列である。
 ここで、画素数がMである画像の縦ベクトルは、〔Z〕で表され、与えられたボケ関数を用いてぼかされた画像の縦ベクトルは、〔Z〕で表される。このとき、縦ベクトル〔Z〕と縦ベクトル〔Z〕との関係は、ボケ行列〔B〕を用いて、以下に示す数式8のように表される。
 [数式8]
Figure JPOXMLDOC01-appb-I000008
 なお、縦ベクトル〔Z〕は、ぼけていない画像を表し、縦ベクトル〔Z〕は、ぼけている画像を表す。ここで、入力画像〔Y〕は、一般的に、ぼけている画像である。そのため、入力画像〔Y〕は、縦ベクトル〔Z〕に対応する。また、再構成画像〔X〕は、縦ベクトル〔Z〕に対応する。
 そして、誤差項Edata(〔X〕)は、入力画像〔Y〕と再構成画像〔X〕とボケ行列〔B〕とを含む関数である。誤差項Edata(〔X〕)は、再構成画像〔X〕にぼけ関数〔B〕を適用してぼかした画像(劣化画像)と入力画像との誤差が小さいほど、小さい値を取る関数である。誤差関数Edata(〔X〕)は、例えば、以下に示す数式9のような関係式として定義可能である。
 [数式9]
Figure JPOXMLDOC01-appb-I000009
 数式9において、pは、情報処理装置500の利用者が予め設定するパラメータである。また、数式9の右辺における縦の二重線(||・||)は、ベクトルのノルムを表す。ここで、ノルムとは、解析学において、長さの一般化したものである。ノルム(二重線)の下付の値(p)は、次元を示す。つまり、「||・||」は、p次元のノルムを表す。なお、上付きの値(p)は、累乗を表す。
 一方、正則化項Ereg(〔X〕)は、例えば、以下の数式10のように表される。
 [数式10]
Figure JPOXMLDOC01-appb-I000010
 数式10において、行列〔D〕は、画像の微分フィルタを表す行列である。行列diag〔λ〕は、正則化強度推定部240が算出した各画素における正則化強度を、対角に並べた対角行列である。
 画像再構成部250は、数式7で表された最適化関数E(〔X〕)の値が最小となる再構成画像〔X〕を生成(探索)する。画像再構成部250における探索の方法は、特に制限されない。探索の方法としては、例えば、勾配法又は共役勾配法などが挙げられる。画像再構成部250は、これらの方法を用いて、再構成画像の各画素値を探索できる。なお、教師情報が、既に説明した前処理情報を含む場合、画像再構成部250は、前処理情報に基づいて、数式7を用いた画像再構成の前に、画像の前処理を実行してもよい。
 図8は、図5に示されている画像を基に再構成した画像の一例を示す図である。図8に示されている画像は、図5に示されている画像と比較すると、頬及び壁など平坦領域の平坦さを保ったまま、目の周り及び服の模様の部分等のテクスチャ領域の解像度が向上している。
 [動作の説明]
 次に、図面を参照して本実施の形態に係る情報処理装置500の動作について説明する。
 図2は、本実施の形態に係る情報処理装置500の動作の一例を示す流れ図である。
 まず、画像受信部10が、再構成したい画像(対象となる画像)である入力画像を受信する(ステップS200)。
 次に、教師情報受信部210が、入力画像に対する教師情報を受信する(ステップS201)。
 さらに、変化量算出部220が、入力画像における変化量を算出する(ステップS202)。
 次に、属性信頼度算出部230が、変化量と教師情報とを基に、属性信頼度を算出する(ステップS203)。
 次に、正則化強度推定部240が、属性信頼度を基に、正則化強度を推定する(ステップS204)。
 次に、画像再構成部250が、正則化強度を用いて、入力画像から再構成画像を生成(再構成)する(ステップS205)。
 画像出力部30は、再構成画像を出力する(ステップS206)。
 出力された再構成画像は、例えば、図示しない利用者の装置に表示される。そして、利用者の装置が、利用者からの修正依頼を受信した場合、利用者の装置は、修正依頼を情報処理装置500に送信する。
 情報処理装置500は、利用者からの画像の修正依頼を受信した場合(ステップS207でYes)、情報処理装置500は、ステップS201に戻り、上記の処理を繰り返す。なお、情報処理装置500は、修正依頼として、少なくとも、教師情報を受信する。ただし、ここで受信する教師情報は、一部の教師情報(例えば、一部の属性情報と画質情報)でもよい。
 利用者からの画像の修正依頼を受信しない場合(ステップS207でNo)、情報処理装置500は、処理を終了する。
 [効果の説明]
 次に、本実施の形態の効果について説明する。
 第1の実施の形態に係る情報処理装置500は、画像処理における適切なパラメータをより簡便に調整(指定)できるとの効果を奏することができる。
 その理由は、次のとおりである。
 変化量算出部220が、入力画像の変化量を算出する。そして、属性信頼度算出部230が、教師情報と変化量とを基に、属性信頼度を算出する。そして、正則化強度推定部240が、教師情報と属性信頼度を基に、正則化強度を推定する。そして、画像再構成部250が、正則化強度を用いて、入力画像を再構成して再構成画像を生成する。このように、情報処理装置500が入力として必要な情報は、教師情報である。
 そして、本実施の形態において教師情報は、入力画像の一部の領域の属性の情報(属性情報)と、その属性における画質との情報(画質情報)と含めばよい。このように、属性情報及び画質情報は、細かなパラメータの値の指定ではなく、ある程度の画像の性質の分類の選択と、希望の画質の選択の指定とである。つまり、教師情報の指定は、一般的な画像におけるパラメータの指定に対して、かなり簡便な指定である。このように、情報処理装置500は、利用者の簡便な指定を基に、適切なパラメータ(例えば、正則化強度)を推定して、画像を再構成するためである。
 また、情報処理装置500の利用者は、情報処理装置500が生成した再構成画像を基に、再編集処理の修正を指定できる。つまり、情報処理装置500は、利用者の画像処理の設定(指示)の指示において、画像の判別という、パラメータの設定と比較して簡便な方法を提供できるためである。
 このように、情報処理装置500は、利用者に簡便な指定を提供できるためである。
 [変形例1]
 以上の説明した情報処理装置500は、次のように構成される。
 例えば、情報処理装置500の各構成部は、ハードウェア回路で構成されてもよい。
 また、情報処理装置500において、各構成部は、ネットワークを介して接続した複数の装置を用いて、構成されてもよい。
 図3は、本実施の形態の変形例1に係る情報処理装置501の構成の一例を示すブロック図である。図面中の矢印の方向は、一例を示すものであり、ブロック間の信号の向きを限定するものではない。
 情報処理装置501は、変化量算出部220と、属性信頼度算出部230と、正則化強度推定部240と、画像再構成部250とを含む。そして、情報処理装置501は、入力画像と教師情報(属性情報と画質情報)とを図示しないネットワークなどを介して受信し、情報処理装置500の画像処理部20と同様に動作し、再構成画像を図示しないネットワークなどを介して他の装置に送信する。あるいは、情報処理装置501は、図示しない記憶部が保存している入力画像と教師情報とを読み出して、情報処理装置500と同様に動作してもよい。なお、既に情報処理装置500において説明した通り、情報処理装置501は、領域情報を受信しなくてもよい。そのため、図3は、括弧を付けて領域情報を示している。
 このように構成された情報処理装置501は、情報処理装置500と同様の効果を得ることができる。
 その理由は、上記のとおり、情報処理装置501の各構成が、ネットワークを介して受信した入力画像と教師情報とを基に、情報処理装置500の構成と同様に、再構成画像を生成するためである。
 なお、情報処理装置501は、本発明の実施の形態における最小構成である。
 [変形例2]
 また、情報処理装置500において、複数の構成部は、1つのハードウェアで構成されてもよい。
 また、情報処理装置500は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含むコンピュータ装置として実現されてもよい。情報処理装置500は、上記構成に加え、さらに、入出力接続回路(IOC:Input / Output Circuit)と、ネットワークインターフェース回路(NIC:Network Interface Circuit)とを含むコンピュータ装置として実現されてもよい。
 図4は、本変形例に係る情報処理装置600の構成の一例を示すブロック図である。
 情報処理装置600は、CPU610と、ROM620と、RAM630と、内部記憶装置640と、IOC650と、NIC680とを含み、コンピュータ装置を構成している。
 CPU610は、ROM620からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、内部記憶装置640と、IOC650と、NIC680とを制御する。そして、CPU610を含むコンピュータは、これらの構成を制御し、図1に示される、画像処理部20としての機能を実現する。すなわち、CPU610を含むコンピュータは、教師情報受信部210と、変化量算出部220と、属性信頼度算出部230と、正則化強度推定部240と、画像再構成部250としての各機能を実現する。CPU610を含むコンピュータは、さらに、図1に示す画像受信部10と、画像出力部30としての機能を実現してもよい。
 CPU610は、各機能を実現する際に、RAM630又は内部記憶装置640を、プログラムの一時記憶として使用してもよい。
 また、CPU610は、コンピュータで読み取り可能にプログラムを記憶した記録媒体700が含むプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。あるいは、CPU610は、NIC680を介して、図示しない外部の装置からプログラムを受け取り、RAM630に保存して、保存したプログラムを基に動作してもよい。
 ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、P-ROM(Programmable-ROM)又はフラッシュROMである。
 RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、D-RAM(Dynamic-RAM)である。
 内部記憶装置640は、情報処理装置600が長期的に保存するデータ及びプログラムを記憶する。また、内部記憶装置640は、CPU610の一時記憶装置として動作してもよい。内部記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)又はディスクアレイ装置である。
 ここで、ROM620と内部記憶装置640は、不揮発性(non-transitory)の記録媒体である。一方、RAM630は、揮発性(transitory)の記録媒体である。そして、CPU610は、ROM620、内部記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記録媒体又は揮発性記録媒体を用いて動作可能である。
 IOC650は、CPU610と、入力機器660及び表示機器670とのデータを仲介する。IOC650は、例えば、IOインターフェースカード又はUSB(Universal Serial Bus)カードである。
 入力機器660は、情報処理装置600の操作者からの入力指示を受け取る機器である。入力機器660は、例えば、キーボード、マウス、又は、タッチパネルである。入力機器660は、画像受信部10、又は、教師情報受信部210として機能してもよい。
 表示機器670は、情報処理装置600の操作者に情報を表示する機器である。表示機器670は、例えば、液晶ディスプレイである。表示機器670は、画像出力部30、又は、教師情報受信部210(領域指定部211)として動作してもよい。
 NIC680は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC680は、例えば、LAN(Local Area Network)カードである。
 このように構成された情報処理装置600は、情報処理装置500と同様の効果を得ることができる。
 その理由は、情報処理装置600のCPU610が、プログラムに基づいて情報処理装置500と同様の機能を実現できるためである。
 <第2の実施の形態>
 次に、図面を参照して、第2の実施の形態について説明する。
 [構成の説明]
 図9は、第2の実施の形態に係る情報処理装置510の構成の一例を示すブロック図である。図面中の矢印の方向は、一例を示すものであり、ブロック間の信号の向きを限定するものではない。
 図9に示されているように、第2の実施の形態に係る情報処理装置510は、第1の実施の形態の情報処理装置500と比較し、画像処理部20に換えて画像処理部21を含む点で異なる。
 画像処理部21は、画像処理部20と比較し、変化量算出部220及び属性信頼度算出部230に換えて、変化量算出部221及び属性信頼度算出部231を含み、さらに、学習用画像受信部261と、学習画像用教師情報受信部271とを含む点で異なる。そのため、第1の実施の形態と同様の構成及び動作の説明を省略し、本実施の形態に特有の構成及び動作について説明する。
 なお、情報処理装置510は、図4に示すコンピュータを用いて実現されてもよい。
 学習用画像受信部261は、入力画像とは異なる1枚以上の画像(学習用画像)を受信する。
 学習画像用教師情報受信部271は、教師情報受信部210が入力画像に対応する教師情報(第1の教師情報)を受信するのと同様に、学習用画像に対応する教師情報を受信する。すなわち、学習画像用教師情報受信部271は、学習用画像の一部の画素における属性情報と、その属性において所望される画質情報とを含む教師情報(第2の教師情報)を受信する。なお、第2の教師情報が含む属性情報は、第1の教師情報に含まれる属性情報と同様の属性情報でもよく、異なる属性情報でもよい。また、第2の教師情報に含まれる属性情報の属性は、既に説明した第1の実施の形態に説明における各種の属性(例えば、画素の性質、物体の種類、材質、物理量、光学的な性質又は数の情報)でもよい。さらに、第2の教師情報は、領域情報又は前処理情報を含んでもよい。そして、画像再構成部250は、第2の教師情報に含まれる前処理情報を用いて、前処理を実行してもよい。なお、学習用画像受信部261及び学習画像用教師情報受信部271は、受信した学習画像及び教師情報の全てを用いてもよく、一部を用いてもよい。例えば、学習用画像受信部261及び学習画像用教師情報受信部271は、入力画像と学習画像との類似度を算出し、所定の範囲の類似度となった学習画像及びその学習画像に対応する教師情報(第2の教師情報)を用いてもよい。ここで、学習用画像受信部261及び学習画像用教師情報受信部271が用いる入力画像と学習画像との類似度の算出方法は、特に制限されない。例えば、学習用画像受信部261及び学習画像用教師情報受信部271は、一般的な画像処理で用いられている画像特徴量(シフト特徴量、又は、フィッシャーベクトルなど)を用いて、類似度を算出してもよい。
 変化量算出部221は、入力画像と学習用画像とを基に、変化量を算出する。変化量算出部221は、変化量を算出する方法として、第一の実施の形態の変化量算出部220と同様の方法を、入力画像と学習画像とに適用すればよい。
 属性信頼度算出部231は、入力画像及び学習用画像における属性と、変化量算出部221が算出した変化量とを用いて、入力画像の全画素における各属性に対応する信頼度を算出する。
 [動作の説明]
 次に、図面を参照して本実施の形態に係る情報処理装置510の動作について説明する。
 図10は、情報処理装置510の動作の一例を示す流れ図である。なお、図2と同様の動作には、同じ符号を付し、その詳細な説明を省略する。
 まず、学習用画像受信部261が、学習用画像を受信し、学習画像用教師情報受信部271が、学習用画像に対応する教師情報を受信する(ステップS400)。
 次に、第1の実施の形態と同様に、画像受信部10が、入力画像を受信し(ステップS200)、教師情報受信部210が、入力画像に対する教師情報を受信する(ステップS201)。
 そして、変化量算出部221が、入力画像及び学習用画像を基に変化量を算出する(ステップS402)。
 次に、属性信頼度算出部231が、変化量と、入力画像及び学習用画像の教師情報とを基に、属性信頼度を算出する(S402)。
 以下の動作は、第1の実施の形態と同様のため、詳細な説明を省略する。
 [効果の説明]
 次に、第2の実施の形態の効果について説明する。
 第2の実施の形態に係る情報処理装置510は、第1の実施の形態の効果に加え、より精度の高い処理を実現できるとの効果を奏することができる。
 その理由は、次のとおりである。
 学習用画像受信部261が、学習画像を受信する。さらに、学習画像用教師情報受信部271が、学習用画像に対応した教師情報を受信する。
 そして、変化量算出部221が、入力画像に加え、学習画像を基に変化量を算出する。つまり、変化量算出部221は、変化量算出部220と比べ、より多くの画像を基に変化量を算出する。そのため、変化量算出部221は、変化量算出部220より精度の高い変化量を算出できる。
 さらに、属性信頼度算出部231は、第1の実施の形態と同様の入力画像と対応する教師情報に加え、学習用画像と対応する教師情報と上記の精度が高い変化量とを基に、属性信頼度を算出する。そのため、属性信頼度算出部231は、属性信頼度算出部230より精度の高い属性信頼度を算出できる。
 さらに、正則化強度推定部240は、精度の高い属性信頼度を基に、正則化強度を推定するため、より精度の高い正則化強度を推定することができる。
 そして、画像再構成部250は、精度の高い正則化強度を用いるため、より精度の高い再構成画像を生成できるためである。
 [具体的な動作例]
 次に、第二の実施の形態に係る情報処理装置510のより具体的な動作例について説明する。
 学習用画像受信部261は、学習画像として、例えば、監視カメラ画像、医療画像、又は、衛星画像などの画像を受信する。
 また、学習画像用教師情報受信部271は、教師情報として、例えば、情報処理装置510の利用者が利用者の装置を用いて送信した属性と、その属性において所望される画質情報とを受信する。
 あるいは、学習画像用教師情報受信部271は、教師情報としては、利用者とは異なる者が操作する装置から、属性と、その属性において所望される画質情報とを受信してもよい。
 例えば、利用者が医療従事者の場合、その医療従事者より医療画像の分析に対する経験が豊富な医療従事者が、医療画像を分析するために最適となる学習情報(属性情報と画質情報)を、情報処理装置510に送信してもよい。この場合、属性情報は、例えば、画素が患部であるか否かを示す情報である。また、画質情報は、例えば、患部でない領域の正則化強度を「1」とする情報である。そして、利用者である医療従事者は、経験が豊富な医療従事者が入力した学習情報を用いて、入力画像を再構成する。このような作業を基に、医療従事者は、お互いの画像分析に対する経験及びノウハウを共有することが可能となる。さらに、学習画像用教師情報受信部271が、前処理情報を含む教師情報を受信する場合、医療従事者は、前処理に関する経験及びノウハウを共有することが可能となる。
 なお、実施の形態において、学習用画像受信部261、及び、学習画像用教師情報受信部271が受信する学習画像及び教師情報(属性情報及び画質情報)は、図示しない他の装置(例えば、サーバなどの記録装置)に保存されていてもよい。この場合、情報処理装置510は、必要に応じて、例えば、情報処理装置510の利用者の指示を基に、その装置に保存されている情報を使用すればよい。
 あるいは、情報処理装置510は、学習用画像受信部261が受信する学習画像の替わりに、変化量算出部221が算出した変化量を保存してもよい。このように、学習画像でなく、変化量を記録しておくことは、画像の機密性を保持したまま、利用者同士における、相互の画像分析に対する経験及びノウハウを共有することを可能とする。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成及び詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2014年12月17日に出願された日本出願特願2014-255158を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、犯罪捜査画像又は衛星画像を分析する用途に適用できる。また、本発明は、医療画像を分析する用途にも適用可能である。さらに、本発明は、それらの各画像分析において、算出後の正則化強度、又は、教師情報の利用を基に、画像分析者における画像分析の経験又はノウハウを共有するという用途にも適用できる。
 10 画像受信部
 20 画像処理部
 21 画像処理部
 30 画像出力部
 210 教師情報受信部
 211 領域指定部
 212 教師情報取得部
 220 変化量算出部
 221 変化量算出部
 230 属性信頼度算出部
 231 属性信頼度算出部
 240 正則化強度推定部
 250 画像再構成部
 261 学習用画像受信部
 271 学習画像用教師情報受信部
 500 情報処理装置
 501 情報処理装置
 510 情報処理装置
 600 情報処理装置
 610 CPU
 620 ROM
 630 RAM
 640 内部記憶装置
 650 IOC
 660 入力機器
 670 表示機器
 680 NIC
 700 記録媒体

Claims (10)

  1.  処理の対象である入力画像において、前記入力画像の所定の画素の値と、前記画素の周辺の画素の値との変化量を算出する変化量算出手段と、
     前記入力画像における指定された領域の画素の性質である属性と、前記変化量とを基に、前記入力画像の画素の属性についての信頼度である属性信頼度を算出する属性信頼度算出手段と、
     前記属性における画質の情報である画質情報と、前記属性信頼度とを基に、前記入力画像における画素の正則化強度を推定する正則化強度推定手段と
     前記正則化強度を用いて前記入力画像を再構成した画像である再構成画像を生成する画像再構成手段と
     を含む情報処理装置。
  2.  前記画像再構成手段が、
     前記正則化強度に基づく正則化の強さを画素毎に表す正則化項と、前記再構成画像を劣化させた画像である劣化画像と前記入力画像との画素の差分を表す誤差項とに基づいて、前記再構成画像を生成する
     請求項1に記載の情報処理装置。
  3.  前記正則化強度推定手段が、
     各画素において、前記属性信頼度が高いほど前記属性における前記画質情報に沿うように前記正則化強度を推定し、前記属性信頼度が低いほど前記属性における前記画質情報から離れるような前記正則化強度を推定する
     請求項1又は2に記載の情報処理装置。
  4.  前記属性信頼度算出手段が、
     前記属性が指定された領域の情報である領域情報を基に、
     前記属性の信頼度を算出する
     請求項1ないし3のいずれか1項に記載の情報処理装置。
  5.  前記入力画像を受信する画像受信手段と、
     前記再構成画像を出力する画像出力手段と、
     前記属性の情報と前記画質情報とを含む教師情報を受信する教師情報受信手段とをさらに含み、
     前記教師情報受信手段が、
     前記画像出力手段が出力した前記再構成画像における所定の領域の画素の前記正則化強度を前記画質情報として受信する
     請求項1ないし4のいずれか1項に記載の情報処理装置。
  6.  前記画像再構成手段が、複数の再構成画像を生成し、
     前記画像出力手段が、前記複数の再構成画像を出力し、
     前記教師情報受信手段が、前記画像出力手段が出力した複数の前記再構成画像における、複数の領域の画素の前記正則化強度を前記画質情報として受信する
     請求項5に記載の情報処理装置。
  7.  前記教師情報受信手段が、
     前記再構成画像における前記画素の正則化強度の領域を指定する領域指定手段と、
     前記指定された領域の教師情報として前記領域の画素の属性と正則化強度とを取得する教師情報取得手段とをさらに含む、
     請求項5又は6に記載の情報処理装置。
  8.  前記入力画像とは異なる画像である学習用画像を受信する学習用画像受信手段と、
     前記学習用画像に対応する第2の教師情報を受信する学習画像用教師情報受信手段とをさらに含み、
     前記変化量算出手段が、
     前記学習用画像を基に前記変化量を算出し、
     前記属性信頼度算出手段が、
     前記学習用画像の第2の教師情報を用いて前記属性信頼度を算出する
     請求項1ないし7のいずれか1項に記載の情報処理装置。
  9.  処理の対象である入力画像において、前記入力画像の所定の画素の値と、前記画素の周辺の画素の値との変化量を算出し、
     前記入力画像における指定された領域の画素の性質である属性と、前記変化量とを基に、前記入力画像の画素の属性についての信頼度である属性信頼度を算出し、
     前記属性における画質の情報である画質情報と、前記属性信頼度とを基に、前記入力画像における画素の正則化強度を推定し、
     前記正則化強度を用いて前記入力画像を再構成した画像である再構成画像を生成する
     情報処理方法。
  10.  処理の対象である入力画像において、前記入力画像の所定の画素の値と、前記画素の周辺の画素の値との変化量を算出する処理と、
     前記入力画像における指定された領域の画素の性質である属性と、前記変化量とを基に、前記入力画像の画素の属性についての信頼度である属性信頼度を算出する処理と、
     前記属性における画質の情報である画質情報と、前記属性信頼度とを基に、前記入力画像における画素の正則化強度を推定する処理と、
     前記正則化強度を用いて前記入力画像を再構成した画像である再構成画像を生成する処理と
     をコンピュータに実行させるプログラムをコンピュータに読み取り可能に記録する記録媒体。
PCT/JP2015/006170 2014-12-17 2015-12-10 情報処理装置、情報処理方法、及び、記録媒体 WO2016098323A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016564678A JP6645442B2 (ja) 2014-12-17 2015-12-10 情報処理装置、情報処理方法、及び、プログラム
US15/529,547 US10540735B2 (en) 2014-12-17 2015-12-10 Information processing device, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014255158 2014-12-17
JP2014-255158 2014-12-17

Publications (1)

Publication Number Publication Date
WO2016098323A1 true WO2016098323A1 (ja) 2016-06-23

Family

ID=56126231

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/006170 WO2016098323A1 (ja) 2014-12-17 2015-12-10 情報処理装置、情報処理方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US10540735B2 (ja)
JP (1) JP6645442B2 (ja)
WO (1) WO2016098323A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109564675A (zh) * 2016-07-25 2019-04-02 日本电气株式会社 信息处理设备、信息处理方法以及记录介质
KR20200026435A (ko) * 2018-09-03 2020-03-11 네이버 주식회사 스킴―픽셀cnn을 이용한 이미지 자동 생성 방법 및 이미지 자동 생성 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200127766A (ko) * 2019-05-03 2020-11-11 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
CN113706425A (zh) * 2021-06-02 2021-11-26 上海深至信息科技有限公司 一种图像增强系统及便携式多普勒成像仪

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072901A (ja) * 2008-09-18 2010-04-02 Toshiba Corp 画像処理装置およびその方法
WO2013011797A1 (ja) * 2011-07-21 2013-01-24 日本電気株式会社 劣化復元システム、劣化復元方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072901A (ja) * 2008-09-18 2010-04-02 Toshiba Corp 画像処理装置およびその方法
WO2013011797A1 (ja) * 2011-07-21 2013-01-24 日本電気株式会社 劣化復元システム、劣化復元方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109564675A (zh) * 2016-07-25 2019-04-02 日本电气株式会社 信息处理设备、信息处理方法以及记录介质
CN109564675B (zh) * 2016-07-25 2023-12-19 日本电气株式会社 信息处理设备、信息处理方法以及记录介质
KR20200026435A (ko) * 2018-09-03 2020-03-11 네이버 주식회사 스킴―픽셀cnn을 이용한 이미지 자동 생성 방법 및 이미지 자동 생성 장치
KR102103727B1 (ko) 2018-09-03 2020-04-24 네이버 주식회사 스킴―픽셀cnn을 이용한 이미지 자동 생성 방법 및 이미지 자동 생성 장치

Also Published As

Publication number Publication date
US20170316542A1 (en) 2017-11-02
JPWO2016098323A1 (ja) 2017-10-05
JP6645442B2 (ja) 2020-02-14
US10540735B2 (en) 2020-01-21

Similar Documents

Publication Publication Date Title
Liu et al. Robust color guided depth map restoration
US20090110285A1 (en) Apparatus and method for improving image resolution using fuzzy motion estimation
JP6645442B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US8903195B2 (en) Specification of an area where a relationship of pixels between images becomes inappropriate
JP6390173B2 (ja) 情報処理装置、情報処理システム、画像処理方法、及び、プログラム
Tian et al. Joint image registration and super-resolution from low-resolution images with zooming motion
US10475229B2 (en) Information processing apparatus and information processing method
US20200118250A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
Jeong et al. Multi-frame example-based super-resolution using locally directional self-similarity
Wang et al. Blurred image restoration using knife-edge function and optimal window Wiener filtering
JPWO2018225133A1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
CN113256529A (zh) 图像处理方法、装置、计算机设备及存储介质
JP7328096B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6581359B2 (ja) 情報処理装置及びその制御方法及びプログラム及び記憶媒体、並びに、ビデオカメラ
WO2019123554A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
KR101341617B1 (ko) 단일 영상의 오차모델을 기반으로 한 고해상도 영상 복원장치 및 방법
JP4887491B2 (ja) 医用画像処理方法及びその装置、プログラム
EP3932319A1 (en) Learning method, learning device, generative model and program
JP2017010094A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6997969B2 (ja) 画像合成システム、画像合成方法、および画像合成プログラム記録媒体
Khattab et al. Regularized multiframe Super-Resolution image reconstruction using linear and nonlinear filters
US20130120461A1 (en) Image processor and image processing method
Wang et al. Fast convergence strategy for multi-image superresolution via adaptive line search
JP2023003763A (ja) 学習装置、画像処理装置、学習処理方法、及びプログラム
Gedkhaw et al. Superresolution Reconstruction in Automatic Thai Sign Language Feature Extraction Using Adaptive Triangulation Interpolation.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15869532

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016564678

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15529547

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15869532

Country of ref document: EP

Kind code of ref document: A1