WO2015151279A1 - フォーカス評価を補助するための装置、プログラム及び方法 - Google Patents

フォーカス評価を補助するための装置、プログラム及び方法 Download PDF

Info

Publication number
WO2015151279A1
WO2015151279A1 PCT/JP2014/059983 JP2014059983W WO2015151279A1 WO 2015151279 A1 WO2015151279 A1 WO 2015151279A1 JP 2014059983 W JP2014059983 W JP 2014059983W WO 2015151279 A1 WO2015151279 A1 WO 2015151279A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
value
edge component
elements
pixel
Prior art date
Application number
PCT/JP2014/059983
Other languages
English (en)
French (fr)
Inventor
伊藤 秀敏
合志 清一
Original Assignee
リーダー電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リーダー電子株式会社 filed Critical リーダー電子株式会社
Priority to PCT/JP2014/059983 priority Critical patent/WO2015151279A1/ja
Priority to PCT/JP2015/060736 priority patent/WO2015152424A1/ja
Priority to JP2016511656A priority patent/JP6325656B2/ja
Publication of WO2015151279A1 publication Critical patent/WO2015151279A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • the present invention relates to a technique for assisting in confirming whether a human is in focus (hereinafter referred to as “focus evaluation”) when shooting a moving image or a still image with a camera or the like.
  • focus evaluation when shooting a moving image or a still image with a camera or the like has been generally evaluated by paying attention to a pixel representing an edge of an image (for example, a pixel representing an outline of an object).
  • a pixel representing an edge of an image for example, a pixel representing an outline of an object.
  • the luminance value constituting the image data is normalized, and a filter operation using HPF is performed on the normalized image data to obtain a filter operation value for each pixel.
  • a technique for coloring a pixel having a filter calculation value larger than an edge threshold with a specific color is described (see paragraphs [0080] to [0092] and FIGS. 6 to 11 of the document).
  • the pixel representing the edge generally has a large filter calculation value after the filter calculation using HPF.
  • JP 2010-114556 A Japanese Patent No. 5320538 Japanese Patent No. 5396626
  • the contour enhancement processing does not sufficiently assist the focus evaluation for an image having few edges and having few pixels whose luminance changes rapidly from neighboring pixels, that is, an image having a small high frequency component as a spatial frequency component. .
  • the edge enhancement processing may not provide sufficient assistance for focus evaluation.
  • one pixel to which a specific color is assigned may be crushed due to reduction and may not be displayed.
  • an image is sometimes captured at 4K (4096 pixels ⁇ 2160 pixels), and when such an image is confirmed on a small, low-resolution monitor equipped with a camera, the image has to be reduced and displayed.
  • the conventional contour enhancement processing does not provide sufficient assistance for focus evaluation. For this reason, when shooting a video at 4K, it is actually the case that a large 4K monitor is brought in and the focus of the shot image is evaluated.
  • the pixel representing the edge may be one index for evaluating the focus, but the focus is not evaluated only by that.
  • Information useful for focus evaluation is also included in pixels that are not pixels that represent edges. For example, the atmosphere of the edge of the entire screen can be confirmed from a pixel that is not a pixel representing the edge. However, this information has not been utilized in assisting focus evaluation in the conventional contour enhancement processing.
  • the present invention has been made in view of the above problems.
  • the apparatus is means for generating an edge component from a first image, wherein the first image includes a plurality of pixels, the edge component includes a plurality of elements, and the value of each element of the edge component is a first value.
  • Edge component generating means corresponding to the value of each pixel of the first image after removing at least the direct current component from the spatial frequency component in the image of the image, and means for generating the second image from the edge component,
  • the second image includes a plurality of pixels, and the means includes image generation means including means for determining the color of each pixel of the second image as a function of the value of each element of the edge component.
  • the apparatus is configured to output an image based on the newly generated second image to the display unit in response to a new input of the first image to the edge component generation unit. .
  • the edge component generation means may include means for performing nonlinear processing on the value of each element of the edge component.
  • the value of the element of the edge component after the nonlinear processing is an output of a nonlinear function having the value of the element of the edge component before the nonlinear processing as an input.
  • the edge component generation means may include means for applying at least a two-dimensional high-pass filter to the first image to remove at least a direct current component from the spatial frequency component in the first image.
  • the edge component generation means includes a first direction one-dimensional high-pass filter means for the first image, a second direction one-dimensional high-pass filter means for the first image, and an output of the first direction one-dimensional high-pass filter means. And a means for synthesizing the output of the two-way one-dimensional high-pass filter means.
  • the edge component generation means changes the value of the element to a value obtained by multiplying the value of the element of the edge component by a predetermined coefficient, and when the value of the element of the edge component is larger or smaller than a predetermined threshold.
  • One or both of the means for changing the value to the threshold value may be provided.
  • the edge component generation means replaces the value of an element having an absolute value larger than the absolute value of the surrounding element in the edge component with a value obtained from the value of the surrounding element;
  • the edge component may include one or both of spreading filter means for replacing an element value having an absolute value smaller than the absolute value of the surrounding element value with a value obtained from the surrounding element value.
  • the isolated point removal filter means specifies a continuous region of 3 elements ⁇ 3 elements in the edge component, and the product of the maximum value that the element can take and the first ratio in the elements excluding the central element of the region.
  • the number of elements having an absolute value less than or equal to the threshold value is obtained, and when the obtained number of elements is equal to or greater than the first number, The value can be configured to replace the value of the center element of the region.
  • the spreading filter means specifies a continuous area of 3 elements ⁇ 3 elements in the edge component, and in elements other than the element at the center of the area, the product of the maximum value that the element can take and the second ratio is used as an absolute value.
  • the number of elements having a value that is greater than or equal to the threshold value is obtained, and when the number of obtained elements is the second number or more, the median value of the element values excluding the central element of the area, It can be configured to replace the value of the central element.
  • the first image is generated from the original image
  • the original image includes a plurality of pixels
  • the value of each pixel of the first image is derived from the color of the corresponding pixel of the original image.
  • the apparatus replaces at least a part of the original image with the second image and / or superimposes the original image and the second image, thereby outputting an image output to the display unit. Further image generation means for generating the image may be further provided.
  • C out is a value that specifies the color of a certain pixel in the superimposed image
  • C in1 and C in2 are values that specify the color of the corresponding pixel in the original image and the second image, respectively.
  • the further image generating means may include means for adjusting the color of the original image.
  • Another embodiment of the present invention is a program that causes a computer to function as a focus evaluation auxiliary device.
  • Another embodiment of the present invention is a focus evaluation assisting method.
  • This method is a step of generating an edge component from a first image by an edge component generation means, wherein the first image includes a plurality of pixels, the edge component includes a plurality of elements, and each element of the edge component Is obtained from the edge component by the edge component generation step corresponding to the value of each pixel of the first image after removing at least the direct current component from the spatial frequency component in the first image.
  • Generating a second image, wherein the second image includes a plurality of pixels the step including determining a color of each pixel of the second image as a function of a value of each element of the edge component.
  • an image generation step and an image output step of outputting an image based on the second image to the display means by the image output means are repeated in response to a new input of the first image.
  • the edge component generation step may include a step of performing nonlinear processing on the value of each element of the edge component.
  • the value of the element of the edge component after the nonlinear processing is an output of a nonlinear function having the value of the element of the edge component before the nonlinear processing as an input.
  • the edge component generation step may include a two-dimensional high-pass filter application step for the first image.
  • the edge component generation step includes a first direction one-dimensional high-pass filter application step for the first image, a second direction one-dimensional high-pass filter application step for the first image, a first direction one-dimensional high-pass filter application step, And a step of synthesizing the output obtained by the second direction one-dimensional high-pass filter applying step.
  • the edge component generation step includes the step of changing the value of the element to a value obtained by multiplying the value of the element of the edge component by a predetermined coefficient, and when the value of the element of the edge component is larger or smaller than a predetermined threshold value.
  • One or both of changing the value to a threshold value may be included.
  • the edge component generation step replaces the value of an element having an absolute value greater than the absolute value of the surrounding element in the edge component with a value obtained from the value of the surrounding element;
  • the isolated point removal filter applying step includes a step of specifying a continuous area of 3 elements ⁇ 3 elements in the edge component, and a maximum value and a first ratio that the element can take in elements excluding the central element of the area And a step of obtaining the number of elements having a value whose absolute value is less than or equal to the threshold value, and the element at the center of the region is excluded when the number of obtained elements is equal to or greater than the first number Replacing the value of the element at the center of the region with the median of the values of the elements.
  • the spreading filter applying step includes a step of specifying a continuous region of 3 elements ⁇ 3 elements in the edge component, and a product of the maximum value that the element can take and the second ratio in the elements other than the central element of the region. And determining the number of elements having a value whose absolute value is equal to or greater than the threshold, and the value of the element excluding the central element in the region when the number of determined elements is equal to or greater than the second number And replacing the value of the element at the center of the region with the median value of.
  • the first image is generated from the original image
  • the original image includes a plurality of pixels
  • the value of each pixel of the first image is derived from the color of the corresponding pixel of the original image.
  • the display is performed by replacing at least a part of the original image with the second image and / or superimposing the second image on the original image by the further image generation means. It may further comprise a further image generation step for generating an image to be output to the means.
  • the additional image generation means C out ⁇ C in1 + ⁇ C in2 ( ⁇ is a real number satisfying 0 ⁇ ⁇ ⁇ 1, ⁇ is a real number satisfying 0 ⁇ ⁇ ⁇ 1)
  • the step of obtaining the color of a certain pixel in the superimposed image can be included.
  • C out is a value that specifies the color of a certain pixel in the superimposed image
  • C in1 and C in2 are values that specify the color of the corresponding pixel in the original image and the second image, respectively. is there.
  • the further image generation step may further include a step of adjusting the color of the original image.
  • the luminance change between pixels in an image is displayed in a continuous manner using a color corresponding to the luminance change. Therefore, even on a small and low-resolution screen, focus evaluation is relatively easy from the edge atmosphere grasped from the entire image.
  • the edge atmosphere means a distribution of luminance change between pixels over the entire image.
  • desired enhancement can be performed on the edge component by generating a frequency that does not exist in the spatial frequency of the edge component before nonlinear processing by a nonlinear function.
  • removal of at least a direct current component from a frequency component in the first image can be realized by a one-dimensional high-pass filter or a two-dimensional high-pass filter. Since the operation speed of the one-dimensional high-pass filter is higher, when the one-dimensional high-pass filter is used, the removal of at least the direct current component from the frequency component in the first image can be realized at a higher speed.
  • the value of the edge component can be converted into a manageable range by amplifying or limiting the value of the edge component.
  • noise can be reduced by smoothing edge components.
  • the original image or the second image can be relatively emphasized by adjusting the color of the original image.
  • FIG. 3 shows a flowchart of a focus evaluation assisting method according to an embodiment of the present invention.
  • 2 shows an alternative configuration of the edge component generation step 120 in FIG.
  • a first image is shown.
  • a two-dimensional high-pass filter is shown.
  • Edge components are shown. It shows the effect of non-linear processing when using E 3 as a non-linear function f (E).
  • a one-dimensional high-pass filter is shown.
  • the function for assigning the color of the pixel of the 2nd picture is shown.
  • the figure corresponding to the edge component before smoothing step 131 execution in Drawing 1a is shown.
  • the figure corresponding to the edge component after execution of the smoothing step 131 in FIG. 1a is shown.
  • 4B is a graph showing isolated points 411 and worm-eaten 412 in FIG.
  • FIG. 12 shows a flowchart of the spreading filter application step 133 in FIG.
  • the region specified in the edge component is shown.
  • An original image (first image) is shown.
  • a second image is shown.
  • a display image generated by superimposing the original image and the second image is shown.
  • a display image generated by partially overlapping the original image and the second image is shown.
  • 5 shows a display image generated by superimposing an original image and a second image imaged using a function different from that shown in FIG. 5b.
  • FIG. 6 shows a display image generated by partially superimposing an original image and a second image imaged using a function different from FIG. 1 is a block diagram of a focus evaluation assisting apparatus that is an embodiment of the present invention.
  • FIG. 6 shows an alternative configuration of the edge component generation means 620 in FIG. 6a.
  • FIG. 1a is a flowchart of a method for assisting focus evaluation. Note that the configuration shown in this flowchart is merely an example, and some steps are not essential as described below.
  • the method starts from step 110 in which a first image is input.
  • the first image is, for example, 1 of a moving image (consisting of a plurality of frames.
  • a moving image displayed on a camera finder or monitor for capturing a still image) is currently captured by the camera. It may be derived from a frame, one frame of a moving image already recorded by a camera (hereinafter referred to as “original image”), or the like.
  • the first image includes a plurality of pixels.
  • the value of each pixel of the first image is derived from the color of the corresponding pixel of the original image. In the following description, it is assumed that the value is the luminance value of the pixel of the original image. Note that the value of each pixel of the first image is an arbitrary value that can be derived from the color of the original image pixel, such as the R, G, or B value of the pixel color of the original image, or the chroma (saturation) value. It may be.
  • the luminance value is used as the pixel value of the first image
  • the first image can be regarded as an image in which the color is expressed in grayscale
  • the derivation of the value of the first pixel may be simply using the color (value) of the pixel of the original image.
  • the method continues with step 120 of generating edge components from the first image.
  • the edge component is a component obtained by removing at least a direct current component from a spatial frequency component in the first image.
  • the edge component includes a plurality of elements, and the value of each element of the edge component corresponds to the value of each pixel of the first image after removing at least the direct current component from the spatial frequency component in the first image.
  • the edge component is represented by an array including the same number of elements as the number of pixels of the first image.
  • the method for removing at least the DC component from the spatial frequency component in the first image is arbitrary, but in the present embodiment, it is realized by executing step 121 of applying a two-dimensional high-pass filter (HPF) to the first image. is doing. Alternatively, it can be realized by two one-dimensional high-pass filter applying steps 121a and 121b, as will be described later with respect to FIG. Further, at least a direct current component can be removed from the first image by subtracting the first image obtained by applying the low-pass filter from the first image instead of applying the high-pass filter.
  • the two-dimensional high-pass filter will be described with reference to FIGS. 2a to 2c.
  • FIG. 2b is an example of a two-dimensional high-pass filter.
  • a filter having a size of 3 elements ⁇ 3 elements is used, but the size may be as desired.
  • the coefficients f ij (i and j are integers where 0 ⁇ i ⁇ 3 and 0 ⁇ j ⁇ 3, respectively) of the example high-pass filter can take the following values.
  • coefficient values are merely examples, and it is needless to say that any coefficient that functions as a high-pass filter can be used.
  • FIG. 2c is an example of an edge component.
  • This edge component is obtained by applying the two-dimensional high-pass filter illustrated in FIG. 2B to the first image, and the value of each element is calculated by the following equation.
  • I xy (x ⁇ 0, y ⁇ 0, w ⁇ x, h ⁇ y) of the region outside the image may be calculated as an arbitrary value, for example, 0.
  • E xy of the element of the edge component calculated by the above equation can be both positive and negative.
  • E1 xy and E2 xy are values of edge component elements before and after nonlinear processing, respectively, and f (E) is an arbitrary nonlinear function. If the possible value of E exceeds the domain of f (E) to be used, it was obtained by multiplying E by a rational number, adding an offset of a rational number to E, or taking the absolute value of E. It is possible to calculate f (E) with E being a value within the domain of f (E).
  • non-linear functions include, but are not limited to, the functions E p , sin p (E) and log p (E) (p is a rational number), rational multiplication of these functions, and offsets of rational numbers in these functions And a function obtained by one or more of combining these functions.
  • f (E) can be a function as follows.
  • the non-linear function can also be realized using a table. For example, all values that can be taken by E xy and predetermined outputs corresponding to the respective values are stored in a table, and when nonlinear processing is performed, the output is calculated using a function as this table. be able to.
  • FIG. 2d is a graph representing the effect of nonlinear processing when using Equation (4) as f (E), and this graph is connected to a plot representing the values of the elements of the edge component before nonlinear processing.
  • a curve 211 and a curve 212 connected with plots representing the values of the elements of the edge components after nonlinear processing are included.
  • the horizontal axis of the graph represents a continuous element having an edge component
  • the vertical axis represents the value of the element.
  • Equation (4) is a nonlinear function in which the output / input ratio increases as the input increases.
  • the curve 212 after the nonlinear process has a sharper peak 213 than the curve 211 before the nonlinear process. This means that the edge component element having a larger value becomes larger and the difference from the element having a smaller value is emphasized as compared with a case where the gain is simply increased.
  • the edge component generation step 120 may further include an amplification / limiter application step 123.
  • the value of the element of the edge component after the nonlinear processing step 122 (after the two-dimensional high-pass filter applying step 121 if the nonlinear processing step 122 is not included) is multiplied by a predetermined coefficient to the value.
  • One or both of changing the value of the element and changing the value to the threshold when the value of the element is greater than or less than a predetermined threshold is performed.
  • the edge component generation step 120 applies a one-dimensional high-pass filter in the direction perpendicular to the line (vertical direction of the first image) instead of the step 121 of applying a two-dimensional high-pass filter.
  • Step 121a and step 121b of applying a one-dimensional high-pass filter in the sample direction (the same lateral direction) parallel to the line can be included.
  • the final edge component E xy can be obtained by step 124 of combining the first edge component E Lxy and the second edge component E Sxy obtained by the two one-dimensional high-pass filters, respectively.
  • FIG. 2e is an example of a one-dimensional high-pass filter.
  • a filter having a size of 3 elements is used, but the size may be as desired.
  • the coefficients of the example high-pass filter can take the following values.
  • the value of the coefficient is an example, and an arbitrary coefficient functioning as a high-pass filter can be used. It goes without saying that the coefficient may be different in the direction perpendicular to the line and the sample direction parallel to the line.
  • I xy (x ⁇ 0, y ⁇ 0, w ⁇ x, h ⁇ y) of the region outside the image may be calculated as an arbitrary value, for example, 0.
  • nonlinear processing steps 122a and 122b and amplification / limiter application steps 123a and 123b is applied to the first edge component E Lxy and the second edge component E Sxy , respectively.
  • steps are similar to the non-linear processing step 122 and the amplification / limiter application step 123 described above.
  • step 130 a second image is generated.
  • This step includes step 134 of imaging the edge component by assigning a color according to the value of the element of the edge component.
  • FIG. 3 shows three graphs with the edge component value E xy as the horizontal axis and the R, G, and B component values J Rxy , J Gxy, and J Bxy of the pixels of the second image as the vertical axis, respectively. Is shown.
  • the second image can be generated by assigning the value of the second pixel by the following function.
  • J Rxy E xy + offset
  • J Gxy E xy + offset (11)
  • J Bxy E xy + offset
  • offset is an arbitrary offset value.
  • the second image is represented by shading from white to black.
  • the second image can be generated by any technique that determines the color of each pixel of the second image as a function of the value of each element of the edge component.
  • the step 130 for generating the second image may include a smoothing step 131 before the imaging step 134.
  • the smoothing step 131 includes one or both of an isolated point removing filter applying step 132 and a spreading filter applying step 133.
  • the isolated point removal filter application step 132 and the spread filter application step 133 will be described with reference to FIGS. 4a to 4f.
  • FIG. 4a shows an image 410 including an isolated point 411 and a worm-eaten 412 in which the edge component is imaged by binarizing the absolute value of each element value with an appropriate threshold value for the sake of explanation.
  • a white pixel indicates that the absolute value of the corresponding element value is greater than or equal to a certain threshold value, and a black pixel is less than the certain threshold value.
  • the isolated point 411 is an element having an edge component that has a value that is larger than the absolute value of the value of the surrounding element, preferably a value that is significantly larger than the absolute value of the value of the surrounding element.
  • the worm-eaten 412 is an element having a value that is smaller than the absolute value of the value of the surrounding element, preferably an absolute value that is significantly smaller than the absolute value of the value of the surrounding element.
  • the isolated points 411 and the worm-eaten 412 are also shown as different expressions in FIG. 4C using a graph in which the horizontal axis is a continuous element having an edge component and the vertical axis is the value of the element.
  • Such isolated points 411 and worm eaters 412 may occur due to the nature of the first image.
  • the application of the isolated point removal filter removes the isolated point 411, and the application of the spread filter removes the worm-eating 412.
  • the purpose is to replace the median value, average value, maximum value, or minimum value of the values of surrounding elements.
  • An example of an isolated point removal filter and a spread filter will be described below.
  • any filter for example, a median filter capable of removing a protruding value, can be used as long as it can achieve the above-described purpose. Needless to say.
  • FIG. 4d is a flowchart of an exemplary isolated point removal filter.
  • the filter first executes step 431 which identifies a 3 element ⁇ 3 element continuous region 450 (see FIG. 4f) in the edge component.
  • the value of the central element 451 is E XY
  • the value of the peripheral element 452 is E xy
  • the maximum value that the element can take is E max
  • the peripheral elements excluding the central element 451 of the specified region 450 In step 452, step 432 is performed to determine the number of elements having a value E xy whose absolute value is equal to or less than the threshold value, using the product of E max and the first ratio as a threshold value.
  • the first ratio may be 10%.
  • step 433 is executed to determine whether or not the obtained number of elements is greater than or equal to the first number.
  • the first number may be three. If the determination is true, step 434 is executed to replace the value E XY of the central element 451 with the median value of the values E xy of the surrounding elements 452.
  • the value E XY of the central element 451 is 100
  • the value E xy of the eight surrounding elements 452 is ⁇ 33, 10, 15, ⁇ 20, ⁇ 5, 5, ⁇ 42, 12 ⁇
  • the maximum value E Assume that max 255.
  • the absolute value of E xy ⁇ 33, 10, 15, 20, 5, 5, 42, 12 ⁇
  • E is equal to or less than the threshold value 25.5. Since the absolute value of xy is ⁇ 10, 15, 20, 5, 5, 12 ⁇ , the number of elements whose absolute value of value xy is less than or equal to the threshold value is 6.
  • FIG. 4e is a flowchart of an exemplary spreading filter.
  • This filter first executes step 441 of specifying a continuous region 450 (see FIG. 4f) of 3 elements ⁇ 3 elements in the edge component.
  • the value of the central element 451 is E XY
  • the value of the peripheral element 452 is E xy
  • the maximum value that the element can take is E max
  • the peripheral elements excluding the central element 451 of the specified region 450 In step 452, step 442 is performed in which the product of E max and the second ratio is used as a threshold value to determine the number of elements having a value E xy whose absolute value is equal to or greater than the threshold value.
  • the second ratio may be 10%.
  • step 443 is performed for determining whether the number of elements obtained is equal to or greater than the second number.
  • the second number may be five. If the determination is true, step 444 is executed in which the value E XY of the central element 451 is replaced with the median value of the values E xy of the surrounding elements 452. Since a specific example for the spreading filter is similar to that for the isolated point removal filter, a description thereof will be omitted.
  • the smoothing step 131 includes both the isolated point removal filter application step 132 and the spread filter application step 133, either of these steps may be performed first, but empirically, the isolated point removal filter application step 132 is performed. It seems that a better result is obtained if it is executed first. Note that the first ratio and the second ratio described above may be different, and the first number and the second number may be the same.
  • the method can include a display image generation step 140.
  • the display image generation step 140 includes an image composition step 142.
  • FIGS. 5a and 5b show the original image (substantially corresponding to the first image because it is expressed in grayscale) and the second image, respectively, for the purpose of comparison with the synthesized image.
  • FIG. 5c shows a display image generated by combining the original image and the second image so as to overlap each other.
  • the color of a certain pixel in the superimposed image is a value that identifies the color (for example, the R, G, and B values of the color, or the R, G, and B values are each a 24-bit color value or 32 If it is stored as one value such as a bit color value, it can be obtained by calculating the value by the following equation.
  • C out ⁇ C in1 + ⁇ C in2 ( ⁇ is a real number satisfying 0 ⁇ ⁇ ⁇ 1, ⁇ is a real number satisfying 0 ⁇ ⁇ ⁇ 1) (12)
  • C out is a value that specifies the color of a certain pixel in the superimposed image
  • C in1 and C in2 are values that specify the color of the corresponding pixel in the original image and the second image, respectively. is there.
  • the value specifying the color of each pixel in the original image is assumed to be a positive value, but the value specifying the color of each pixel in the second image is the second value.
  • both positive and negative values may be taken.
  • the value specifying the color of a certain pixel is the first value.
  • the pixel representing the edge in the image after superimposition can be confirmed by subtracting by the value specifying the color of the corresponding pixel which is a negative value in the second image.
  • the equation (12) represents a general alpha blending equation.
  • the display image can also be generated by combining so that a part of the original image is replaced with the second image.
  • the position and size of the portion to be replaced can be arbitrarily designated by the user. It is also possible to combine images so that partial replacement of images and superposition are performed simultaneously.
  • FIG. 5d shows a display image 510 generated by performing partial replacement and superimposing of images simultaneously and superimposing a part 511 of the original image and the second image.
  • FIG. 5e shows a display image generated by combining the original image shown in FIG. 5a and the second image so as to overlap each other.
  • the second image in FIG. 5a is imaged using a function different from the function that generated the second image (second image shown in FIG. 5b).
  • the function used to generate the second image in FIG. 5e is configured to further add an offset to the values of each RGB color with respect to the function used to generate the second image in FIG. 5c. A brighter second image can be generated.
  • FIG. 5f corresponds to FIG. 5e when the partial replacement of the image is further performed.
  • the display image generation step 140 may include a step 141 for adjusting the color of the original image.
  • the color adjustment of the original image can be performed before the composition. For example, by reducing the contrast of the original image by the color adjustment, a display image in which pixels representing edges are more conspicuous may be generated.
  • step 150 an image based on the second image is output to a display means, such as a camera finder or monitor.
  • the image based on the second image is a display image generated when the present method includes the display image generation step 140, and is the second image itself when not including the display image generation step 140.
  • Focus is generally evaluated while moving a focus ring such as a camera during shooting.
  • the camera focus changes and the original image also changes. Therefore, since the input first image changes, the second image used for display must be updated. Accordingly, the steps involved in the method are repeated in response to a new input of the first image.
  • FIG. 6a is a block diagram of an apparatus for assisting focus evaluation. Note that the configuration shown in this block diagram is merely an example, and some means described below are not essential.
  • the graph shown in relation to the first image, the edge component, the second image, the original image before color adjustment, and the original image before color adjustment is shown for each means for explanation. It is a graph which shows what kind of output.
  • the horizontal axis and the vertical axis indicate a continuous pixel and a luminance value obtained from the pixel for the first image, the second image, the original image before color adjustment, and the original image after color adjustment, as edge components. Represents a certain continuous element and element value.
  • This apparatus includes first image generation means 610.
  • This means is a means for generating the first image from the original image.
  • This apparatus is provided with edge component generation means 620.
  • This means executes the edge component generation step 120. Therefore, the edge generation unit 620 is only required to remove at least a direct current component from the spatial frequency component included in the first image.
  • the two-dimensional high-pass filter unit 621 that executes the two-dimensional high-pass filter application step. It is realized by having. Alternatively, it can be realized by providing two one-dimensional high-pass filter means 624a and 624b, as will be described later with respect to FIG. 6b. It can also be realized by providing means for subtracting a low-pass filter applied to the first image from the first image.
  • the edge component generation unit 620 may further include one or both of a nonlinear processing unit 622 and an amplification / limiter unit 623 that execute the nonlinear processing step 122 and the amplification / limiter application step 123, respectively.
  • the edge generation unit 620 includes a filter buffer unit 624.
  • the filter buffer unit 624 is at least data used at a time by the two-dimensional high-pass filter unit 621, for example, 3 pixels ⁇ 3 pixels of the first image (corresponding to the size of the filter in the two-dimensional high-pass filter unit 621). Is a means for temporarily storing data representing and outputting the data to the two-dimensional high-pass filter means 621. If the number of pixels in the horizontal direction of the first image is set to w, the filter buffer means 624 considers the processing efficiency, and the continuous w pixels ⁇ 3 pixels (two-dimensional high-pass filter) of the first image at a time. Data corresponding to the vertical size of the means 621) may be temporarily stored.
  • the edge component generation unit 620 includes a one-dimensional high-pass filter unit 621a in the direction perpendicular to the line and a one-dimensional high-pass filter unit in the sample direction parallel to the line. 621b can be provided.
  • the one-dimensional high-pass filter means 621a and 621b execute the one-dimensional high-pass filter application steps 121a and 121b, respectively.
  • the edge component generation means 620 includes at least one of nonlinear processing means 622a and 622b and amplification / limiter application means 623a and 623b in a direction perpendicular to the line and in a sample direction parallel to the line. Can be provided.
  • the edge generation means 620 includes a line buffer means 624a, a sample buffer means 624b, and an edge synthesis means 626.
  • the line buffer means 624a has data corresponding to the size of the filter in the 1 line ⁇ 1D high-pass filter means 621a of the first image, for example, the number of pixels in the horizontal direction of the first image is w, and the size of the filter When the length is 3, data representing continuous w ⁇ 3 pixels is temporarily stored.
  • data representing continuous pixels in the direction perpendicular to the line is sequentially output to the one-dimensional high-pass filter 621a, and data used at one time by the one-dimensional high-pass filter 621b is output to the sample buffer unit 624b.
  • the sample buffer unit 624b temporarily stores data used at one time by the one-dimensional high-pass filter unit 621b and outputs the data to the one-dimensional high-pass filter unit 621b.
  • the edge component synthesis means 626 temporarily stores the first edge component E Lxy and the second edge component E Sxy and executes the edge component synthesis step 124.
  • the apparatus includes second image generation means 630 that executes the second image generation step 130.
  • the second image generating unit 630 includes an imaging unit 634 that executes the imaging step 134.
  • the second image generation unit 630 may further include a smoothing unit 631 that executes the smoothing step 131.
  • the smoothing means 631 includes one or both of an isolated point removal filter means 632 and a spread filter means 633 that execute the isolated point removal filter application step 132 and the spread filter application step 133, respectively.
  • the present apparatus can include display image generation means 640 for executing the display image generation step 140.
  • the display image generation means 640 includes image composition means 642 that executes the image composition step 142.
  • the display image generating unit 640 may further include a color adjusting unit 641 that executes Step 141 for adjusting the color of the original image.
  • the original image and the second image are input to the display image generation means 640. Therefore, the display image generation means 640 delays the timing of passing the original image to the image composition means 642 (and the color adjustment means 641 if present) when the input timing of the original image and the second image is significantly different.
  • the delay adjusting means 643 is included.
  • This apparatus is configured to output an image based on the second image to a display means (not shown).
  • the image based on the second image is a display image generated when the present apparatus includes the display image generating means 640, and is the second image itself when not including the display image generating means 640.
  • the device for assisting the focus evaluation has been described.
  • the input first image changes, so the second image used for display must be updated.
  • the apparatus is configured to output at least an image based on the newly generated second image to the display unit in response to a new input of the first image to the edge component generation unit 620. Is done.
  • the present invention can also be implemented as a program for assisting focus evaluation.
  • a program for assisting focus evaluation causes a computer to function as an apparatus for evaluating the focus described above.
  • the “computer” is a system provided with one or more of hardware / arithmetic / control devices, storage devices, input devices, and output devices.
  • the arithmetic / control device includes a CPU and an MPU.
  • the storage device includes a memory, a hard disk, an SSD, and the like.
  • the input device includes a chip pin, a mouse, a keyboard, a touch panel, a network interface, and the like.
  • Output devices include chip pins, network interfaces, displays, printers, speakers, and the like.
  • Two or more of the arithmetic / control device, the storage device, the input device, and the output device can be physically integrated by using an FPGA or a microcomputer. Those skilled in the art will be able to implement the present invention in cooperation with one or more of these hardware / resources of arithmetic / control devices, storage devices, input devices and output devices, and programs that are software. Will be clear.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 小型で低解像度のモニタで撮影された画像を確認する場合にも、フォーカス評価が容易になるようなフォーカス評価補助装置を提供すること。 フォーカス評価本装置は、第1の画像からエッジ成分を生成する手段であって、第1の画像は複数の画素を含み、エッジ成分は複数の要素を含み、エッジ成分の各要素の値は、第1の画像における空間周波数成分から少なくとも直流成分を除去した後の第1の画像の各画素の値に対応する、エッジ成分生成手段と、エッジ成分から第2の画像を生成する手段であって、第2の画像は複数の画素を含み、該手段は、エッジ成分の各要素の値の関数として、第2の画像の各画素の色を求める手段を含む、画像生成手段とを備えている。なお、本装置は、エッジ成分生成手段への第1の画像の新たな入力に応答して、新たに生成された第2の画像に基づく画像を表示手段へと出力するように構成されている。

Description

フォーカス評価を補助するための装置、プログラム及び方法
 本願発明は、カメラ等で動画又は静止画を撮影する際に、人間によるフォーカスが合っているかの確認(以下、「フォーカス評価」という。)を補助する技術に関する。
 従来,動画又は静止画をカメラ等で撮影するときのフォーカス評価は、一般的に、画像のエッジを表す画素(例えば、物体の輪郭を表す画素)に着目して評価されてきた。そのようなフォーカス評価を補助するために、輪郭強調処理を用いて、エッジを表す画素を強調する技術が存在する。
 例えば、特開平2010-114556号公報には、画像データを構成する輝度値を正規化し、正規化後の画像データに対してHPFを用いたフィルタ演算を行って画素ごとのフィルタ演算値を取得し、エッジ閾値より大きなフィルタ演算値を有する画素を特定の色で色づけする技術が記載されている(当該文献の段落[0080]~[0092]及び図6~11を参照)。ここで、エッジを表す画素は、一般的に、HPFを用いたフィルタ演算後に大きなフィルタ演算値を有する。
 また、フォーカス評価とは関わりなく、非線形処理を用いて入力画像信号に含まれない周波数成分を生成することにより、出力画像を強調する技術が存在する(特許5320538号公報及び特許5396626号公報を参照)。
特開平2010-114556号公報 特許5320538号公報 特許5396626号公報
 輪郭強調処理では、エッジを表す画素を強調している。従って、エッジがあまり存在せず、近隣画素から輝度が急激に変化する画素が少ない画像、即ち空間周波数成分として高周波成分が少ない画像に対しては、輪郭強調処理はフォーカス評価に対する十分な補助とならない。
 このような問題に対処するため、高周波成分の少ない画像に対して輪郭強調処理を行う際に、HPFのゲインを上げる、HPFの帯域を広げることが考えられる。しかしながら、単純にゲインを上げると、画像のノイズまで増加させてしまう。また、帯域を広げると、エッジである画素とエッジでない画素とをむしろ判別しづらくなる。なぜなら、例えば、特開平2010-114556号公報に記載の技術によると、高周波成分である画素のフィルタ演算値と、高周波成分でない画素のフィルタ演算値との差が小さくなるために、適切なエッジ閾値を設定しづらくなるためである。
 画像に十分な高周波成分が含まれない場合のほか、撮影環境により縮小して表示した場合も、輪郭強調処理ではフォーカス評価の十分な補助とならないときがある。例えば、特開平2010-114556号公報に記載の技術によると、特定の色が割り当てられた1画素が、縮小によりつぶれ、表示されなくなることがある。近年では4K(4096画素×2160画素)で画像が撮影されることもあり、そのような画像をカメラ搭載の小型で低解像度のモニタで確認する場合は画像を縮小表示せざるを得ず、とりわけ、従来技術の輪郭強調処理ではフォーカス評価の十分な補助とならない。そのため、4Kで映像を撮影する際には、わざわざ大型の4K対応モニタを持ち込んで、撮影された画像のフォーカス評価をしているのが実情である。
 出願人は、そもそも、エッジを表す画素は、フォーカスを評価する1つの指標になるかもしれないが、それのみをもってフォーカスの評価がなされるわけではないことに気付いた。エッジを表す画素でない画素にもフォーカス評価に有用な情報は含まれている。例えば、画面全体のエッジの雰囲気は、エッジを表す画素でない画素から確認することが可能である。しかしながら、従来技術の輪郭強調処理では、フォーカス評価の補助において、この情報が活用されてこなかった。
 本願発明は、上述の課題に鑑みてなされたものである。
 本発明の一実施形態は、フォーカス評価補助装置である。本装置は、第1の画像からエッジ成分を生成する手段であって、第1の画像は複数の画素を含み、エッジ成分は複数の要素を含み、エッジ成分の各要素の値は、第1の画像における空間周波数成分から少なくとも直流成分を除去した後の第1の画像の各画素の値に対応する、エッジ成分生成手段と、エッジ成分から第2の画像を生成する手段であって、第2の画像は複数の画素を含み、該手段は、エッジ成分の各要素の値の関数として、第2の画像の各画素の色を求める手段を含む、画像生成手段とを備えている。なお、本装置は、エッジ成分生成手段への第1の画像の新たな入力に応答して、新たに生成された第2の画像に基づく画像を表示手段へと出力するように構成されている。
 エッジ成分生成手段は、エッジ成分の各要素の値に対して非線形処理を行う手段を備えていてもよい。非線形処理後のエッジ成分の要素の値は、非線形処理前のエッジ成分の要素の値を入力とする非線形関数の出力である。
 エッジ成分生成手段は、第1の画像に2次元ハイパスフィルタを適用して、第1の画像における空間周波数成分から少なくとも直流成分を除去する手段を備えていてもよい。あるいは、エッジ成分生成手段は、第1の画像に対する第1方向1次元ハイパスフィルタ手段と、第1の画像に対する第2方向1次元ハイパスフィルタ手段と、第1方向1次元ハイパスフィルタ手段の出力と第2方向1次元ハイパスフィルタ手段の出力とを合成する手段とを備えていてもよい。
 エッジ成分生成手段は、エッジ成分の要素の値に所定の係数を乗算した値へと該要素の値を変更する手段、及び、エッジ成分の要素の値が所定の閾値より大きいか又は小さい場合にその値を閾値へと変更する手段の一方又は双方を備えていてもよい。
 エッジ成分生成手段は、エッジ成分において、周囲の要素の値の絶対値より大きな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える孤立点除去フィルタ手段と、エッジ成分において、周囲の要素の値の絶対値より小さな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える広げフィルタ手段との一方または双方を備えていてもよい。ここで、孤立点除去フィルタ手段は、エッジ成分において3要素×3要素の連続した領域を特定し、領域の中央の要素を除く要素において、要素がとり得る最大値と第1の割合との積を閾値として、絶対値が閾値以下となる値を有する要素の数を求め、求められた要素の数が第1の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換えるように構成することができる。広げフィルタ手段は、エッジ成分において3要素×3要素の連続した領域を特定し、領域の中央の要素を除く要素において、要素がとり得る最大値と第2の割合との積を閾値として、絶対値が閾値以上となる値を有する要素の数を求め、求められた要素の数が第2の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換えるように構成することができる。
 本装置において、第1の画像は原画像から生成され、原画像は複数の画素を含み、第1の画像の各画素の値は、原画像の対応する画素の色から導出される。本装置は、原画像の少なくとも一部を第2の画像で置き換えること、及び、原画像と第2の画像とを重ね合わせることの一方または双方を行うことにより、表示手段へと出力される画像を生成する更なる画像生成手段を更に備えていてもよい。なお、画像生成手段は、原画像と第2の画像との重ね合わせを行う場合に、
  Cout=αCin1+βCin2
         (αは0≦α≦1なる実数、βは0≦β≦1なる実数)
により重ね合わせ後の画像のある画素の色を求めるよう構成することができる。ここで、Coutは重ね合わせ後の画像のある画素の色を特定する値であり、Cin1及びCin2は、それぞれ、原画像及び第2の画像の対応する画素の色を特定する値である。また、更なる画像生成手段は、原画像を色調整する手段を備えていてもよい。
 本発明の別の一実施形態は、コンピュータをフォーカス評価補助装置として機能させるプログラムである。
 本発明のまた別の一実施形態は、フォーカス評価補助方法である。本方法は、エッジ成分生成手段により、第1の画像からエッジ成分を生成するステップであって、第1の画像は複数の画素を含み、エッジ成分は複数の要素を含み、エッジ成分の各要素の値は、第1の画像における空間周波数成分から少なくとも直流成分を除去した後の第1の画像の各画素の値に対応する、エッジ成分生成ステップと、画像生成手段により、エッジ成分から第2の画像を生成するステップであって、第2の画像は複数の画素を含み、該ステップは、エッジ成分の各要素の値の関数として、第2の画像の各画素の色を求めるステップを含む、画像生成ステップと、画像出力手段により、第2の画像に基づく画像を表示手段へと出力する画像出力ステップとを含んでいる。なお、本方法において、第1の画像の新たな入力に応答して、エッジ成分生成ステップ,画像生成ステップ及び画像出力ステップは繰り返される。
 エッジ成分生成ステップは、エッジ成分の各要素の値に対して非線形処理を行うステップを含んでいてもよい。非線形処理後のエッジ成分の要素の値は、非線形処理前のエッジ成分の要素の値を入力とする非線形関数の出力である。
 エッジ成分生成ステップは、第1の画像に対する2次元ハイパスフィルタ適用ステップを含んでいてもよい。あるいは、エッジ成分生成ステップは、第1の画像に対する第1方向1次元ハイパスフィルタ適用ステップと、第1の画像に対する第2方向1次元ハイパスフィルタ適用ステップと、第1方向1次元ハイパスフィルタ適用ステップ及び第2方向1次元ハイパスフィルタ適用ステップにより得られた出力を合成するステップとを含んでいてもよい。
 エッジ成分生成ステップは、エッジ成分の要素の値に所定の係数を乗算した値へと該要素の値を変更するステップ、及び、エッジ成分の要素の値が所定の閾値より大きいか又は小さい場合にその値を閾値へと変更するステップの一方又は双方を含んでいてもよい。
 エッジ成分生成ステップは、エッジ成分において、周囲の要素の値の絶対値より大きな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える孤立点除去フィルタ適用ステップと、エッジ成分において、周囲の要素の値の絶対値より小さな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える広げフィルタ適用ステップとの一方または双方を含んでいてもよい。ここで、孤立点除去フィルタ適用ステップは、エッジ成分において3要素×3要素の連続した領域を特定するステップと、領域の中央の要素を除く要素において、要素がとり得る最大値と第1の割合との積を閾値として、絶対値が閾値以下となる値を有する要素の数を求めるステップと、求められた要素の数が第1の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換えるステップとを含んでいてもよい。また、広げフィルタ適用ステップは、エッジ成分において3要素×3要素の連続した領域を特定するステップと、領域の中央の要素を除く要素において、要素がとり得る最大値と第2の割合との積を閾値として、絶対値が閾値以上となる値を有する要素の数を求めるステップと、求められた要素の数が第2の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換えるステップとを含んでいてもよい。
 本方法において、第1の画像は原画像から生成され、原画像は複数の画素を含み、第1の画像の各画素の値は、原画像の対応する画素の色から導出される。本方法は、更なる画像生成手段により、原画像の少なくとも一部を第2の画像で置き換えること、及び、原画像と第2の画像とを重ね合わせることの一方または双方を行うことにより、表示手段へと出力される画像を生成する更なる画像生成ステップを更に含んでいてもよい。なお、更なる画像生成ステップは、原画像と第2の画像との重ね合わせを行う場合に、更なる画像生成手段により、
  Cout=αCin1+βCin2
         (αは0≦α≦1なる実数、βは0≦β≦1なる実数)
により重ね合わせ後の画像のある画素の色を求めるステップを含むことができる。ここで、Coutは重ね合わせ後の画像のある画素の色を特定する値であり、Cin1及びCin2は、それぞれ、原画像及び第2の画像の対応する画素の色を特定する値である。また、更なる画像生成ステップは、更に、原画像を色調整するステップを含んでいてもよい。
 本発明によると、画像における画素間の輝度変化が、輝度変化に応じた色を用いて連続的な態様で表示される。従って、小さく解像度の低い画面においても、画像全体から把握されるエッジの雰囲気からフォーカス評価が比較的容易となる。なお、エッジの雰囲気とは、画像全体にわたる画素間の輝度変化の分布等のことを意味している。
 また、一実施形態によると、非線形関数により、非線形処理前のエッジ成分の空間周波数において存在しない周波数を生じさせることによって、エッジ成分に対して所望の強調を行うことできる。
 一実施形態によると、1次元ハイパスフィルタ又は2次元ハイパスフィルタにより、第1の画像における周波数成分からの少なくとも直流成分の除去を実現することができる。1次元ハイパスフィルタの動作速度はより高速であるため、1次元ハイパスフィルタを用いた場合には、第1の画像における周波数成分からの少なくとも直流成分の除去をより高速に実現することができる。
 一実施形態によると、エッジ成分の値を増幅し又はその値を制限することにより、エッジ成分の値を扱いやすい範囲に変換することができる。
 一実施形態によると、エッジ成分をスムージングすることにより、ノイズを低減することができる。
 更に、一実施形態によると、原画像と関連させて第2の画像を表示することにより、第2の画像からは認識できない原画像の特徴を同時に把握することができる。その際、原画像の色調整を行うことにより、原画像又は第2の画像を相対的に強調することができる。
本発明の一実施形態であるフォーカス評価補助方法のフローチャートを示している。 図1aにおけるエッジ成分生成ステップ120の代替構成を示している。 第1の画像を示している。 2次元ハイパスフィルタを示している。 エッジ成分を示している。 非線形関数f(E)としてEを用いたときの非線形処理の効果を示している。 1次元ハイパスフィルタを示している。 第2の画像の画素の色を割り当てるための関数を示している。 図1aにおけるスムージングステップ131実行前のエッジ成分に対応する図を示している。 図1aにおけるスムージングステップ131実行後のエッジ成分に対応する図を示している。 図4aにおける孤立点411及び虫食い412を表したグラフを示している。 図1aにおける孤立点除去フィルタ適用ステップ132のフローチャートを示している。 図1aにおける広げフィルタ適用ステップ133のフローチャートを示している。 エッジ成分において特定された領域を示している。 原画像(第1の画像)を示している。 第2の画像を示している。 原画像と第2の画像とを重ね合わせることにより生成された表示画像を示している。 原画像と第2の画像とを部分的に重ね合わせることにより生成された表示画像を示している。 原画像と、図5bとは異なる関数を用いて画像化された第2の画像とを重ね合わせることにより生成された表示画像を示している。 原画像と、図5bとは異なる関数を用いて画像化された第2の画像とを部分的に重ね合わせることにより生成された表示画像を示している。 本発明の一実施形態であるフォーカス評価補助装置のブロック図を示している。 図6aにおけるエッジ成分生成手段620の代替構成を示している。
 まず、本発明の一実施形態である、フォーカス評価を補助するための方法について説明する。
 図1aは、フォーカス評価を補助するための方法のフローチャートである。なお、このフローチャートに示された構成はあくまで一例であり、以下で説明されるように、幾つかのステップは必須でない。
 本方法は、まず、第1の画像を入力するステップ110から開始される。第1の画像は、例えば、カメラで現に撮影している動画(複数フレームから構成される。また、静止画を撮影するために、カメラのファインダーやモニタに表示される動画を含む。)の1フレームや、カメラで既に記録された動画の1フレーム等(以下、「原画像」という。)から導出されたものであってよい。
 第1の画像は複数の画素を含んでいる。第1の画像の各画素の値は、原画像の対応する画素の色から導出されるもので、以下の説明では、原画像の画素の輝度値であるものとする。なお、第1の画像の各画素の値は、原画像の画素の色のR、G又はBの値やクロマ(彩度)値等、原画像の画素の色から導出可能な任意の値であってよい。また、第1の画像の画素の値として輝度値を用いる場合、第1の画像は色がグレースケールで表現された画像とみなせることから、原画像において色がグレースケールで表現されている場合、第1の画素の値の導出は、原画像の画素の色(値)を単に用いることであってよい。
 次に、本方法は、第1の画像からエッジ成分を生成するステップ120に続く。ここで、エッジ成分とは、少なくとも、第1の画像における空間周波数成分から少なくとも直流成分を除去したものである。エッジ成分は複数の要素を含み、エッジ成分の各要素の値は、第1の画像における空間周波数成分から少なくとも直流成分を除去した後の第1の画像の各画素の値に対応する。本実施形態では、エッジ成分は、第1の画像の画素数と同じ数の要素を含む配列によって表されるものとする。
 第1の画像における空間周波数成分から少なくとも直流成分を除去する手法は任意であるが、本実施形態では、第1の画像に2次元ハイパスフィルタ(HPF)を適用するステップ121を実行することによって実現している。代替として、図1bに関して後述するように、2つの1次元ハイパスフィルタ適用ステップ121a及び121bによって実現することもできる。また、ハイパスフィルタを適用する代わりに、第1の画像から、第1の画像にローパスフィルタを適用したものを減算することによっても、第1の画像から少なくとも直流成分を除去することができる。以下、図2a~2cを参照して、2次元ハイパスフィルタについて説明する。
 図2aは第1の画像の例である。ここで、1つのマス目は1つの画素を表し、マス内の値Ixyはその画素の値、以下の説明では原画像の対応する画素の輝度値を表すものとする。なお、x及びyは、それぞれ0≦x<w及び0≦y<hである整数であり、w及びhは、それぞれ第1の画像の横方向及び縦方向の画素の数である。
 図2bは2次元ハイパスフィルタの例である。この例においては、大きさが3要素×3要素であるフィルタを用いているが、大きさは所望なものでよい。例示のハイパスフィルタの係数fij(i及びjは、それぞれ0≦i<3及び0≦j<3である整数)は、以下のような値をとることができる。
Figure JPOXMLDOC01-appb-M000001
 上記係数の値は例示であり、ハイパスフィルタとして機能する任意の係数を用いることができることは言うまでもない。
 図2cはエッジ成分の例である。このエッジ成分は、第1の画像に図2bに例示した二次元ハイパスフィルタを適用して得られたものであり、各要素の値は、以下の式により計算される。
Figure JPOXMLDOC01-appb-M000002
 上式を用いる際、画像外の領域のIxy(x<0,y<0,w≦x,h≦y)は任意の値、例えば0として計算してよい。なお、上式によって計算されるエッジ成分の要素の値Exyは、正負両方の値でありうる。
 エッジ成分生成ステップ120は、更に、非線形処理ステップ122を含んでいてもよい。この処理においては、以下の計算が行われる。
  E2xy=f(E1xy) (3)
 ここで、E1xy及びE2xyは、それぞれ非線形処理前及び後のエッジ成分の要素の値であり、f(E)は任意の非線形関数である。なお、Eのとり得る値が使用するf(E)の定義域を超える場合には、Eを有理数倍する、Eに有理数のオフセットを加える、Eの絶対値をとる等して得られた、f(E)の定義域内である値をEとしてf(E)を計算することができる。
 非線形関数としては、限定することなく例示すると、E、sin(E)及びlog(E)(pは有理数)なる関数、並びに、これら関数を有理数倍すること、これら関数に有理数のオフセットを加えること、及び、これら関数を組み合わせることのうちの1以上により得られた関数が挙げられる。具体的には、f(E)は以下のような関数であることができる。
Figure JPOXMLDOC01-appb-M000003
 非線形関数は、テーブルを用いて実現することもできる。例えば、Exyのとり得る全ての値と、各値に対応する予め定められた出力とをテーブルに記憶しておき、非線形処理を行う際に、このテーブルとしての関数を用いて出力を計算することができる。
 非線形関数は、所望する効果に応じて、適宜選択することができる。例えば、図2dは、f(E)として式(4)を用いたときの非線形処理の効果を表すグラフであり、このグラフは、非線形処理前のエッジ成分の要素の値を表すプロットをつないだ曲線211と非線形処理後のエッジ成分の要素の値を表すプロットをつないだ曲線212とを含んでいる。ここで、グラフの横軸はエッジ成分のある連続した要素を表し、縦軸はその要素の値を表している。式(4)は、出力/入力の比が、入力が大きいほど大きくなる非線形関数である。そのために、非線形処理後の曲線212は、非線形処理前の曲線211に比べて、より鋭いピーク213を有するようになっている。このことは、ゲインを単純に上げる場合に比べて、より大きな値を有するエッジ成分の要素はより大きくなり、小さな値を有する要素との差異が強調されることを意味している。
 エッジ成分生成ステップ120は、更に、増幅/リミッタ適用ステップ123を含んでいてもよい。このステップでは、非線形処理ステップ122の後(非線形処理ステップ122を含まない場合には、2次元ハイパスフィルタ適用ステップ121の後)のエッジ成分の要素の値に所定の係数を乗算した値へと該要素の値を変更すること、及び、要素の値が所定の閾値より大きいか又は小さい場合にその値を閾値へと変更することの一方又は双方が行われる。
 図1bに示されるように、エッジ成分生成ステップ120は、2次元ハイパスフィルタを適用するステップ121の代わりに、ラインに垂直な方向(第1の画像の縦方向)に1次元ハイパスフィルタを適用するステップ121a及びラインに平行なサンプル方向(同横方向)に1次元ハイパスフィルタを適用するステップ121bを含むことができる。この場合には、2つの1次元ハイパスフィルタによりそれぞれ得られた第1エッジ成分ELxy及び第2エッジ成分ESxyを合成するステップ124により、最終的なエッジ成分Exyを得ることができる。
 図2eは1次元ハイパスフィルタの例である。この例においては、大きさが3要素であるフィルタを用いているが、大きさは所望なものでよい。また、ラインに垂直な方向とラインに平行なサンプル方向とで異なる大きさのフィルタを用いてもよい。例示のハイパスフィルタの係数は、以下のような値をとることができる。
Figure JPOXMLDOC01-appb-M000004
 上記係数の値は例示であり、ハイパスフィルタとして機能する任意の係数を用いることができ、係数はラインに垂直な方向とラインに平行なサンプル方向とで異なってもよいことは言うまでもない。
 ラインに垂直な方向のハイパスフィルタの適用は、以下の式により表される。
Figure JPOXMLDOC01-appb-M000005
 ラインに平行なサンプル方向のハイパスフィルタの適用は、以下の式により表される。
Figure JPOXMLDOC01-appb-M000006
 上式を用いる際、画像外の領域のIxy(x<0,y<0,w≦x,h≦y)は任意の値、例えば0として計算してよい。
 エッジ成分合成ステップ124における合成手法は任意であるが、例えば、単純にExy=ELxy+ESxyという計算により合成することができる。
 図1bにおいて示されているように、第1エッジ成分ELxy及び第2エッジ成分ESxyに対して、それぞれ、非線形処理ステップ122a及び122b並びに増幅/リミッタ適用ステップ123a及び123bの少なくとも1つを適用することができ、これらステップは、上述した非線形処理ステップ122及び増幅/リミッタ適用ステップ123と同様である。
 次に、本方法は、第2の画像を生成するステップ130に続く。このステップは、エッジ成分の要素の値に応じて色を割り当てることによって、エッジ成分を画像化するステップ134を含む。
 以下、図3を参照して、第2の画像を生成する手法を説明する。図3は、エッジ成分の要素の値Exyを横軸として、第2の画像の画素の、R、G及びB成分の値JRxy、JGxy及びJBxyをそれぞれ縦軸として有する3つのグラフを示している。
 第2の画像は、これらグラフのプロットに示される関係でエッジ成分の要素の値から第2の画像の画素の色を割り当てることによって生成することができる。即ち、図3に示されたプロットを上のグラフから順にそれぞれ関数r(Exy)、g(Exy)及びb(Exy)とおくと、第2の画像の画素のRGB値(JRxy,JGxy,JBxy)は、以下のように表すことができる。
  JRxy=r(Exy
  JGxy=g(Exy) (10)
  JBxy=b(Exy
 なお、関数を定義すべき範囲は、エッジ成分の要素のとり得る値に応じて変化することは言うまでもない。
 代替手法として、第2の画素の値を以下の関数によって割り当てることにより、第2の画像を生成することができる。
  JRxy=Exy+offset
  JGxy=Exy+offset (11)
  JBxy=Exy+offset
 ここで、offsetは任意のオフセット値である。この手法によると、第2の画像は白から黒までの濃淡により表されることになる。
 上述の手法は、例示に過ぎない。第2の画像は、エッジ成分の各要素の値の関数として、第2の画像の各画素の色を求める任意の手法によって生成することができる。
 第2の画像を生成するステップ130は、画像化ステップ134の前に、スムージングステップ131を含んでいてもよい。スムージングステップ131は、孤立点除去フィルタ適用ステップ132及び広げフィルタ適用ステップ133の一方又は双方を含んでいる。以下、図4a~4fを参照して、孤立点除去フィルタ適用ステップ132と広げフィルタ適用ステップ133について説明する。
 図4aは、説明のために、エッジ成分を、適当な閾値によって各要素の値の絶対値を二値化することによって画像化した、孤立点411及び虫食い412を含む画像410を示している。図4a(及び後述の図4b)において、白い画素は対応する要素の値の絶対値がある閾値以上であることを示し、黒い画素は対応する要素の値の絶対値がある閾値未満であることを示す。なお、本来、孤立点411とは、エッジ成分において、周囲の要素の値の絶対値より大きな、好ましくは周囲の要素の値の絶対値に対して著しく大きな絶対値である値を有する要素であり、虫食い412とは、周囲の要素の値の絶対値より小さな、好ましくは周囲の要素の値の絶対値に対して著しく小さな絶対値である値を有する要素である。なお、孤立点411及び虫食い412については、図4cにおいて、横軸をエッジ成分のある連続した要素、縦軸をその要素の値とするグラフを用いて、別の表現としても示している。このような孤立点411及び虫食い412は、第1の画像の性質によって発生することがある。孤立点除去フィルタの適用は孤立点411を、広げフィルタの適用は虫食い412をそれぞれ除去すること、言い換えると、孤立点411及び虫食い412である要素の値を周囲の要素の値から求められた値、例えば、周囲の要素の値の中央値、平均値、最大値又は最小値で置き換えることを目的とする。以下に孤立点除去フィルタと広げフィルタの一例について説明するが、上述の目的を達成できるフィルタであれば、任意のフィルタ、例えば突出した値を取り除くことが可能なメディアンフィルタ、を用いることができることは言うまでもない。
 図4dは、例示の孤立点除去フィルタのフローチャートである。このフィルタは、まず、エッジ成分において3要素×3要素の連続した領域450(図4fを参照)を特定するステップ431を実行する。ここで、中央要素451の値をEXY、周囲要素452の値をExy、要素が取り得る最大値をEmaxとおくと、次に、特定された領域450の中央要素451を除く周囲要素452において、Emaxと第1の割合との積を閾値として、絶対値が閾値以下となる値Exyを有する要素の数を求めるステップ432を実行する。ここで、第1の割合は10%であってよい。更に、求められた要素の数が第1の数以上であるかどうかを判定するステップ433を実行する。ここで、第1の数は3であってよい。そして、判定が真であれば、周囲要素452の値Exyの中央値で、中央要素451の値EXYを置き換えるステップ434を実行する。
 例えば、中央要素451の値EXYは100であり、8つの周囲要素452の値Exyは{33,10,15,-20,-5,5,-42,12}であり、最大値Emax=255であると仮定する。ここで、閾値は255×10%=25.5であり、Exyの絶対値={33,10,15,20,5,5,42,12}であり、閾値25.5以下となるExyの絶対値は{10,15,20,5,5,12}であるから、値Exyの絶対値が閾値以下となる要素の数は6である。よって、求められた要素の数6は第1の数3以上であるから、中央要素451は孤立点であると判定され、その値EXY=100は7.5(周囲画素452の中央値。ここで、周囲画素452の数が8であるため、中央に近い2つの値Exy={5,10}の算術平均として中央値を求めている)に置き換えられる。
 図4eは、例示の広げフィルタのフローチャートである。このフィルタは、まず、エッジ成分において3要素×3要素の連続した領域450(図4fを参照)を特定するステップ441を実行する。ここで、中央要素451の値をEXY、周囲要素452の値をExy、要素が取り得る最大値をEmaxとおくと、次に、特定された領域450の中央要素451を除く周囲要素452において、Emaxと第2の割合との積を閾値として、絶対値が閾値以上となる値Exyを有する要素の数を求めるステップ442を実行する。ここで、第2の割合は10%であってよい。更に、求められた要素の数が第2の数以上であるかどうかを判定するステップ443を実行する。ここで、第2の数は5であってよい。そして、判定が真であれば、周囲要素452の値Exyの中央値で、中央要素451の値EXYを置き換えるステップ444を実行する。広げフィルタに対する具体例は、孤立点除去フィルタに対するものと類似するため、省略する。
 スムージングステップ131が孤立点除去フィルタ適用ステップ132及び広げフィルタ適用ステップ133の双方を含む場合、これらステップはどちらを先に実行してもよいが、経験的には、孤立点除去フィルタ適用ステップ132を先に実行した方が好ましい結果が得られるようである。なお、上述した第1の割合と第2の割合とは異なっていてもよいし、また、第1の数と第2の数は同じであってもよい。
 本方法は、表示画像生成ステップ140を含むことができる。表示画像生成ステップ140は、画像合成ステップ142を含む。図5a及び5bには、合成後の画像と対比する目的で、それぞれ原画像(グレースケールで表現したため、実質的に第1の画像を示したものに相当する)及び第2の画像を示した。図5cは、原画像と第2の画像とを重ね合わせるように合成することにより生成された表示画像を示している。
 重ね合わせ後の画像のある画素の色は、当該色を特定する値(例えば、当該色のR、G及びBの値のそれぞれ、又は、R、G及びBの値が24ビットカラー値や32ビットカラー値等1つの値として格納されている場合にはその値)を以下の式により計算することによって求めることができる。
  Cout=αCin1+βCin2
    (αは0≦α≦1なる実数、βは0≦β≦1なる実数) (12)
 ここで、Coutは重ね合わせ後の画像のある画素の色を特定する値であり、Cin1及びCin2は、それぞれ、原画像及び第2の画像の対応する画素の色を特定する値である。
 重みα及びβは、ユーザが任意に指定することができる。例えば、α=0.5、β=1のとき、重ね合わせ後の画像において、第2の画像は原画像よりも強調して現れることになる。また、一般的に、原画像の各画素の色を特定する値は正の値をとることが前提となっているが、第2の画像の各画素の色を特定する値は、第2の画像の生成の際に用いる上述した関数によっては、正負両方の値をとり得ることがある。そのような場合に、例えば、白とび(画素の色を特定する値が表現しうる最大の明るさ以上の明るさを有するものを撮影したために、ある画素の色を特定する値がその値のとり得る最大値となってしまうこと)が生じている原画像と第2の画像とをα=1、β=1として重ね合わせると、原画像における白飛びした画素の色を特定する値が第2の画像における負の値である対応する画素の色を特定する値によって減算され、重ね合わせ後の画像においてエッジを表す画素の確認ができるようになることがある。なお、β=1-αの関係を満たす場合、式(12)は一般的なアルファブレンディングの式を表すことになる。
 表示画像は、原画像の一部を第2の画像で置き換えるように合成することにより生成することもできる。ここで、置き換えるべき部分の位置やサイズは、ユーザが任意に指定することができる。なお、画像の部分置き換えと重ね合わせとを同時に行うように合成することも可能である。図5dは、画像の部分置き換えと重ね合わせとを同時に行い、原画像と第2の画像との一部511を重ね合わせることにより生成された表示画像510を示している。
 第2の画像の画像化に用いる関数を変えることにより、合成後の画像の表現を調整することができる。図5eは、図5aに示された原画像と、第2の画像とを重ね合わせるように合成することにより生成された表示画像を示しているが、図5eにおける第2の画像は、図5cにおける第2の画像(図5bに示された第2の画像)を生成した関数とは異なる関数を用いて、図5aに示された原画像から画像化されたものである。図5eにおける第2の画像の生成に用いた関数は、図5cにおける第2の画像の生成に用いた関数に対して、RGB各色の値にオフセットを更に加えるように構成されたものであり、より明るい第2の画像を生成可能である。図5fは、画像の部分置き換えを更に行った場合の図5eに対応する。
 表示画像生成ステップ140は、原画像の色調整を行うステップ141を含むことができる。このステップにより、合成前に原画像の色調整を行うことができ、例えば、色調整によって原画像のコントラストを下げることにより、エッジを表す画素がより目立つ表示画像を生成できる場合がある。
 そして、本方法は、表示手段、例えばカメラのファインダーやモニタに、第2の画像に基づく画像を出力するステップ150に進む。ここで、第2の画像に基づく画像とは、本方法が表示画像生成ステップ140を含む場合には生成された表示画像であり、含まない場合には第2の画像そのものである。
 以上、フォーカス評価を補助するための方法について説明してきた。フォーカスは、一般的に、撮影中にカメラ等のフォーカスリングを動かしながら評価される。フォーカスリングを動かすと、カメラのフォーカスは変化し、原画像も変化する。従って、入力される第1の画像は変化するため、表示のために用いられる第2の画像は更新されなければならない。従って、本方法が含むステップは、第1の画像の新たな入力に応答して、繰り返される。
 次に、本発明の一実施形態である、フォーカス評価を補助するための装置について説明する。
 図6aは、フォーカス評価を補助するための装置のブロック図である。なお、このブロック図に示された構成はあくまで一例であり、以下で説明される幾つかの手段は必須ではない。なお、この図において、第1の画像、エッジ成分、第2の画像、色調整前の原画像及び色調整前の原画像に関連して示されたグラフは、説明のために、各手段の出力がどのようなものなのかを示すグラフである。これらグラフの横軸及び縦軸は、第1の画像、第2の画像、色調整前の原画像及び色調整後の原画像については、ある連続した画素及び画素から求まる輝度値を、エッジ成分については、ある連続した要素及び要素の値を、それぞれ表している。
 本装置は、第1の画像生成手段610を備えている。この手段は、原画像から第1の画像を生成するための手段である。
 本装置は、エッジ成分生成手段620を備えている。この手段は、エッジ成分生成ステップ120を実行する。従って、エッジ生成手段620は、少なくとも、第1の画像に含まれる空間周波数成分から少なくとも直流成分を除去できればよいが、本実施形態では、2次元ハイパスフィルタ適用ステップを実行する2次元ハイパスフィルタ手段621を備えることにより実現している。代替として、図6bに関して後述するように、2つの1次元ハイパスフィルタ手段624a及び624bを備えることにより実現することもできる。また、第1の画像から、第1の画像にローパスフィルタを適用したものを減算する手段を備えることによっても実現することができる。エッジ成分生成手段620は、更に、非線形処理ステップ122及び増幅/リミッタ適用ステップ123をそれぞれ実行する非線形処理手段622及び増幅/リミッタ手段623の一方又は双方を備えていてもよい。
 エッジ生成手段620は、フィルタ用バッファ手段624を備えている。フィルタ用バッファ手段624は、少なくとも、2次元ハイパスフィルタ手段621で一度に用いるデータ、例えば、第1の画像の連続した3画素×3画素(2次元ハイパスフィルタ手段621におけるフィルタの大きさに対応)を表すデータを一時的に格納し、2次元ハイパスフィルタ手段621に出力する手段である。なお、第1の画像の横方向の画素数をwとおくと、フィルタ用バッファ手段624は、処理の効率を考え、一度に第1の画像の連続したw画素×3画素(2次元ハイパスフィルタ手段621の縦方向の大きさに対応)を表すデータを一時的に格納してもよい。
 図6bに示されるように、エッジ成分生成手段620は、2次元ハイパスフィルタ手段621の代わりに、ラインに垂直な方向の1次元ハイパスフィルタ手段621a及びラインに平行なサンプル方向の1次元ハイパスフィルタ手段621bを備えることができる。1次元ハイパスフィルタ手段621a及び621bは、それぞれ1次元ハイパスフィルタ適用ステップ121a及び121bを実行する。この図において示されているように、エッジ成分生成手段620は、ラインに垂直な方向及びラインに平行なサンプル方向の非線形処理手段622a及び622b並びに増幅/リミッタ適用手段623a及び623bの少なくとも1つを備えることができる。これら手段は、第1エッジ成分ELxy及び第2エッジ成分ESxyに対して非線形処理ステップ122及び増幅/リミッタ適用ステップ123を実行する(それぞれ、ステップ122a及び122b並びにステップ123a及び123bを実行する)ものである。
 2つの1次元ハイパスフィルタ手段を用いる場合、エッジ生成手段620は、ラインバッファ手段624a、サンプルバッファ手段624b及びエッジ合成手段626を備えている。ラインバッファ手段624aは、第1の画像の1ライン×1次元ハイパスフィルタ手段621aにおけるフィルタの大きさに相当するデータ、例えば、第1の画像の横方向の画素数がwであり、フィルタの大きさが3である場合、連続したw×3画素を表すデータを一時的に格納する。そして、格納したデータから、1次元ハイパスフィルタ621aには、ラインに垂直な方向の連続した画素を表すデータを逐次出力し、サンプルバッファ手段624bには、1次元ハイパスフィルタ621bで一度に用いるデータ、例えば、ラインに平行なサンプル方向の連続した3画素(1次元ハイパスフィルタ手段621bにおけるフィルタの大きさに対応)を逐次出力する。サンプルバッファ手段624bは、1次元ハイパスフィルタ手段621bで一度に用いるデータを一時的に格納し、1次元ハイパスフィルタ手段621bに出力する。また、エッジ成分合成手段626は、第1エッジ成分ELxy及び第2エッジ成分ESxyを一時的に格納し、エッジ成分合成ステップ124を実行するものである。
 本装置は、第2の画像生成ステップ130を実行する第2の画像生成手段630を備えている。第2の画像生成手段630は、画像化ステップ134を実行する画像化手段634を備えている。第2の画像生成手段630は、更に、スムージングステップ131を実行するスムージング手段631を備えていてもよい。スムージング手段631は、孤立点除去フィルタ適用ステップ132及び広げフィルタ適用ステップ133をそれぞれ実行する孤立点除去フィルタ手段632及び広げフィルタ手段633の一方又は双方を備えている。
 本装置は、表示画像生成ステップ140を実行する表示画像生成手段640を備えることができる。表示画像生成手段640は、画像合成ステップ142を実行する画像合成手段642を備えている。表示画像生成手段640は、更に、原画像の色調整を行うステップ141を実行する色調整手段641を備えていてもよい。
 表示画像生成手段640には、原画像と第2の画像とが入力される。そのため、表示画像生成手段640は、原画像と第2の画像との入力タイミングが大幅にずれる場合に原画像を画像合成手段642(及び、存在する場合には色調整手段641)に渡すタイミング遅延させるための遅延調整手段643を含んでいる。
 本装置は、第2の画像に基づく画像を図示しない表示手段へと出力するように構成されている。ここで、第2の画像に基づく画像とは、本装置が表示画像生成手段640を含む場合には生成された表示画像であり、含まない場合には第2の画像そのものである。
 以上、フォーカス評価を補助するための装置について説明してきた。フォーカス評価を補助するための方法に関して上述したように、フォーカス評価の際には、入力される第1の画像は変化するため、表示のために用いられる第2の画像は更新されなければならない。従って、本装置は、エッジ成分生成手段620への第1の画像の新たな入力に応答して、少なくとも、新たに生成された第2の画像に基づく画像を表示手段へと出力するように構成される。
 本発明は、フォーカス評価を補助するためのプログラムとしても実施可能である。そのようなプログラムは、コンピュータを、上述したフォーカスを評価するための装置として機能させるものである。
 ここで「コンピュータ」とは、ハードウェア資源である演算・制御装置と、記憶装置と、入力装置と、出力装置とのうちの1以上を備えたシステムのことである。演算・制御装置はCPU及びMPU等を含む。記憶装置は、メモリ、ハードディスク及びSSD等を含む。入力装置は、チップのピン、マウス、キーボード、タッチパネル及びネットワーク・インターフェース等を含む。出力装置は、チップのピン、ネットワーク・インターフェース、ディスプレイ、プリンタ及びスピーカ等を含む。FPGAやマイクロコンピュータ等を使用して、演算・制御装置と記憶装置と入力装置と出力装置とのうちの2以上を物理的に1つのものとすることもできる。これらハードウェア資源である演算・制御装置、記憶装置、入力装置及び出力装置のうちの1以上と、ソフトウェアであるプログラムとが協働して、本発明を実施することができることは、当業者には明らかであろう。
 以上、本発明の複数の実施形態について説明してきた。しかしながら、これら実施形態は本発明の例示に過ぎないことに注意されたい。本発明は、特許請求の範囲によってのみ特定され、上述の実施形態に対して様々な変形、修正、削除及び代替をした実施形態をも含んでいる。

Claims (21)

  1.  装置であって、
     第1の画像からエッジ成分を生成する手段であって、第1の画像は複数の画素を含み、エッジ成分は複数の要素を含み、エッジ成分の各要素の値は、第1の画像における空間周波数成分から少なくとも直流成分を除去した後の第1の画像の各画素の値に対応する、エッジ成分生成手段と、
     エッジ成分から第2の画像を生成する手段であって、第2の画像は複数の画素を含み、該手段は、エッジ成分の各要素の値の関数として、第2の画像の各画素の色を求める手段を含む、画像生成手段と
    を備え、第1の画像の新たな入力に応答して、新たに生成された第2の画像に基づく画像を表示手段へと出力するように構成された装置。
  2.  請求項1に記載の装置であって、エッジ成分生成手段は、エッジ成分の各要素の値に対して非線形処理を行う手段を備え、非線形処理後のエッジ成分の要素の値は、非線形処理前のエッジ成分の要素の値を入力とする非線形関数の出力である、装置。
  3.  請求項1に記載の装置であって、エッジ成分生成手段は、第1の画像に2次元ハイパスフィルタを適用して、第1の画像における空間周波数成分から少なくとも直流成分を除去する手段を備えた、装置。
  4.  請求項1に記載の装置であって、エッジ成分生成手段は、第1の画像に対する第1方向1次元ハイパスフィルタ手段と、第1の画像に対する第2方向1次元ハイパスフィルタ手段と、第1方向1次元ハイパスフィルタ手段の出力と第2方向1次元ハイパスフィルタ手段の出力とを合成する手段とを備えた、装置。
  5.  請求項1に記載の装置であって、エッジ成分生成手段は、エッジ成分の要素の値に所定の係数を乗算した値へと該要素の値を変更する手段、及び、エッジ成分の要素の値が所定の閾値より大きいか又は小さい場合にその値を閾値へと変更する手段の一方又は双方を備えた、装置。
  6.  請求項1に記載の装置であって、エッジ成分生成手段は、エッジ成分において、周囲の要素の値の絶対値より大きな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える孤立点除去フィルタ手段と、エッジ成分において、周囲の要素の値の絶対値より小さな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える広げフィルタ手段との一方または双方を備えた、装置。
  7.  請求項6に記載の装置であって、孤立点除去フィルタ手段は、
     エッジ成分において3要素×3要素の連続した領域を特定し、
     領域の中央の要素を除く要素において、要素がとり得る最大値と第1の割合との積を閾値として、絶対値が閾値以下となる値を有する要素の数を求め、
     求められた要素の数が第1の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換える
    ように構成され、広げフィルタ手段は、
     エッジ成分において3要素×3要素の連続した領域を特定し、
     領域の中央の要素を除く要素において、要素がとり得る最大値と第2の割合との積を閾値として、絶対値が閾値以上となる値を有する要素の数を求め、
     求められた要素の数が第2の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換える
    ように構成された、装置。
  8.  請求項1の装置であって、第1の画像は原画像から生成され、原画像は複数の画素を含み、第1の画像の各画素の値は、原画像の対応する画素の色から導出され、
     原画像の少なくとも一部を第2の画像で置き換えること、及び、原画像と第2の画像とを重ね合わせることの一方または双方を行うことにより、表示手段へと出力される画像を生成する更なる画像生成手段
    を更に備えた装置。
  9.  請求項8に記載の装置であって、画像生成手段は、原画像と第2の画像との重ね合わせを行う場合に、
      Cout=αCin1+βCin2
          (αは0≦α≦1なる実数、βは0≦β≦1なる実数)
    により重ね合わせ後の画像のある画素の色を求めるよう構成され、ここで、Coutは重ね合わせ後の画像のある画素の色を特定する値であり、Cin1及びCin2は、それぞれ、原画像及び第2の画像の対応する画素の色を特定する値である、装置。
  10.  請求項8又は9に記載の装置であって、更なる画像生成手段は、原画像を色調整する手段を備えた、装置。
  11.  請求項1から10の何れか一項に記載の装置としてコンピュータを機能させるプログラム。
  12.  方法であって、
     エッジ成分生成手段により、第1の画像からエッジ成分を生成するステップであって、第1の画像は複数の画素を含み、エッジ成分は複数の要素を含み、エッジ成分の各要素の値は、第1の画像における空間周波数成分から少なくとも直流成分を除去した後の第1の画像の各画素の値に対応する、エッジ成分生成ステップと、
     画像生成手段により、エッジ成分から第2の画像を生成するステップであって、第2の画像は複数の画素を含み、該ステップは、エッジ成分の各要素の値の関数として、第2の画像の各画素の色を求めるステップを含む、画像生成ステップと、
     画像出力手段により、第2の画像に基づく画像を表示手段へと出力する画像出力ステップと
    を含み、第1の画像の新たな入力に応答して、エッジ成分生成ステップ,画像生成ステップ及び画像出力ステップは繰り返される、方法。
  13.  請求項12に記載の方法であって、エッジ成分生成ステップは、エッジ成分の各要素の値に対して非線形処理を行うステップを含み、非線形処理後のエッジ成分の要素の値は、非線形処理前のエッジ成分の要素の値を入力とする非線形関数の出力である、方法。
  14.  請求項12に記載の方法であって、エッジ成分生成ステップは、第1の画像に対する2次元ハイパスフィルタ適用ステップを含む、方法。
  15.  請求項12に記載の方法であって、エッジ成分生成ステップは、第1の画像に対する第1方向1次元ハイパスフィルタ適用ステップと、第1の画像に対する第2方向1次元ハイパスフィルタ適用ステップと、第1方向1次元ハイパスフィルタ適用ステップ及び第2方向1次元ハイパスフィルタ適用ステップにより得られた出力を合成するステップとを含む、方法。
  16.  請求項12に記載の方法であって、エッジ成分生成ステップは、エッジ成分の要素の値に所定の係数を乗算した値へと該要素の値を変更するステップ、及び、エッジ成分の要素の値が所定の閾値より大きいか又は小さい場合にその値を閾値へと変更するステップの一方又は双方を含む、方法。
  17.  請求項12に記載の方法であって、エッジ成分生成ステップは、エッジ成分において、周囲の要素の値の絶対値より大きな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える孤立点除去フィルタ適用ステップと、エッジ成分において、周囲の要素の値の絶対値より小さな絶対値である値を有する要素の値を、該周囲の要素の値から求まる値で置き換える広げフィルタ適用ステップとの一方または双方を含む、方法。
  18.  請求項17に記載の方法であって、孤立点除去フィルタ適用ステップは、
     エッジ成分において3要素×3要素の連続した領域を特定するステップと、
     領域の中央の要素を除く要素において、要素がとり得る最大値と第1の割合との積を閾値として、絶対値が閾値以下となる値を有する要素の数を求めるステップと、
     求められた要素の数が第1の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換えるステップと
    を含み、広げフィルタ適用ステップは、
     エッジ成分において3要素×3要素の連続した領域を特定するステップと、
     領域の中央の要素を除く要素において、要素がとり得る最大値を引いた値と第2の割合との積を閾値として、絶対値が閾値以上となる値を有する要素の数を求めるステップと、
     求められた要素の数が第2の数以上であった場合に、領域の中央の要素を除く要素の値の中央値で、領域の中央の要素の値を置き換えるステップと
    を含む、方法。
  19.  請求項12に記載の方法であって、第1の画像は原画像から生成され、原画像は複数の画素を含み、第1の画像の各画素の値は、原画像の対応する画素の色から導出され、
     更なる画像生成手段により、原画像の少なくとも一部を第2の画像で置き換えること、及び、原画像と第2の画像とを重ね合わせることの一方または双方を行うことにより、表示手段へと出力される画像を生成する更なる画像生成ステップを更に含む方法。
  20.  請求項19に記載の方法であって、更なる画像生成ステップは、原画像と第2の画像との重ね合わせを行う場合に、更なる画像生成手段により、
      Cout=αCin1+βCin2
         (αは0≦α≦1なる実数、βは0≦β≦1なる実数)
    により重ね合わせ後の画像のある画素の色を求めるステップを含み、ここで、Coutは重ね合わせ後の画像のある画素の色を特定する値であり、Cin1及びCin2は、それぞれ、原画像及び第2の画像の対応する画素の色を特定する値である、方法。
  21.  請求項19又は20に記載の方法であって、更なる画像生成ステップは、更に、原画像を色調整するステップを含む、方法。
PCT/JP2014/059983 2014-04-04 2014-04-04 フォーカス評価を補助するための装置、プログラム及び方法 WO2015151279A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/059983 WO2015151279A1 (ja) 2014-04-04 2014-04-04 フォーカス評価を補助するための装置、プログラム及び方法
PCT/JP2015/060736 WO2015152424A1 (ja) 2014-04-04 2015-04-06 フォーカス評価を補助するための装置、プログラム及び方法
JP2016511656A JP6325656B2 (ja) 2014-04-04 2015-04-06 フォーカス評価を補助するための装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/059983 WO2015151279A1 (ja) 2014-04-04 2014-04-04 フォーカス評価を補助するための装置、プログラム及び方法

Publications (1)

Publication Number Publication Date
WO2015151279A1 true WO2015151279A1 (ja) 2015-10-08

Family

ID=54239639

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2014/059983 WO2015151279A1 (ja) 2014-04-04 2014-04-04 フォーカス評価を補助するための装置、プログラム及び方法
PCT/JP2015/060736 WO2015152424A1 (ja) 2014-04-04 2015-04-06 フォーカス評価を補助するための装置、プログラム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/060736 WO2015152424A1 (ja) 2014-04-04 2015-04-06 フォーカス評価を補助するための装置、プログラム及び方法

Country Status (2)

Country Link
JP (1) JP6325656B2 (ja)
WO (2) WO2015151279A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020113648A1 (zh) * 2018-12-04 2020-06-11 惠科股份有限公司 显示面板的驱动方法、驱动电路和显示装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106686453A (zh) * 2016-12-05 2017-05-17 广州视源电子科技股份有限公司 一种图像显示方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016783A (ja) * 2008-07-07 2010-01-21 Ricoh Co Ltd 撮像装置
JP2010114556A (ja) * 2008-11-05 2010-05-20 Sony Corp 撮像装置、画像処理装置および画像処理方法
JP2013074395A (ja) * 2011-09-27 2013-04-22 Ricoh Co Ltd 撮像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285710B1 (en) * 1993-10-13 2001-09-04 Thomson Licensing S.A. Noise estimation and reduction apparatus for video signal processing
JP2003134352A (ja) * 2001-10-26 2003-05-09 Konica Corp 画像処理方法及び装置並びにプログラム
JP2011029870A (ja) * 2009-07-24 2011-02-10 Sony Corp 表示信号処理装置、表示信号処理方法、表示装置および電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016783A (ja) * 2008-07-07 2010-01-21 Ricoh Co Ltd 撮像装置
JP2010114556A (ja) * 2008-11-05 2010-05-20 Sony Corp 撮像装置、画像処理装置および画像処理方法
JP2013074395A (ja) * 2011-09-27 2013-04-22 Ricoh Co Ltd 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020113648A1 (zh) * 2018-12-04 2020-06-11 惠科股份有限公司 显示面板的驱动方法、驱动电路和显示装置
US11455964B2 (en) 2018-12-04 2022-09-27 HKC Corporation Limited Driving method for display panel displaying according to the adjusted display area, driving circuit, and display device

Also Published As

Publication number Publication date
JP6325656B2 (ja) 2018-05-16
JPWO2015152424A1 (ja) 2017-04-13
WO2015152424A1 (ja) 2015-10-08

Similar Documents

Publication Publication Date Title
JP4290193B2 (ja) 画像処理装置
JP6461165B2 (ja) 画像の逆トーンマッピングの方法
JP6635799B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2008511048A (ja) 画像処理方法、及び画像処理用コンピュータソフトウェア
US8488899B2 (en) Image processing apparatus, method and recording medium
KR101668829B1 (ko) 공간 주파수 상에서 인간 시각 특성이 반영된 텍스처 향상 방법 및 장치
JP5614550B2 (ja) 画像処理方法、画像処理装置及びプログラム
JP6325656B2 (ja) フォーカス評価を補助するための装置、プログラム及び方法
JP6624061B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラムを記憶する記録媒体
JP7437921B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7365206B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5247628B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP5247633B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP2007042124A (ja) ノイズ除去方法および装置並びにプログラム
JP2005182232A (ja) 輝度補正装置および輝度補正方法
JP5349204B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP5247634B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
TWI390958B (zh) 影像濾波電路及應用其之影像處理電路及影像處理方法
JP2008021219A (ja) 画像処理装置及び方法
KR101332030B1 (ko) 영상 확대방법 및 이를 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP2004172815A (ja) 映像信号処理装置
JP5247627B2 (ja) 画像処理装置及び方法、並びに画像表示装置
JP5383385B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP6858073B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4483407B2 (ja) 映像信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14888410

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14888410

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP