WO2013161111A1 - 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム - Google Patents

画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム Download PDF

Info

Publication number
WO2013161111A1
WO2013161111A1 PCT/JP2012/079702 JP2012079702W WO2013161111A1 WO 2013161111 A1 WO2013161111 A1 WO 2013161111A1 JP 2012079702 W JP2012079702 W JP 2012079702W WO 2013161111 A1 WO2013161111 A1 WO 2013161111A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
difference
unit
roughness
Prior art date
Application number
PCT/JP2012/079702
Other languages
English (en)
French (fr)
Inventor
廣美 平野
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to JP2013509350A priority Critical patent/JP5248719B1/ja
Priority to US14/356,039 priority patent/US9330447B2/en
Priority to ES12875596.4T priority patent/ES2575009T3/es
Priority to EP12875596.4A priority patent/EP2765555B1/en
Publication of WO2013161111A1 publication Critical patent/WO2013161111A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image evaluation device, an image selection device, an image evaluation method, a recording medium, and a program, and appropriately evaluates the roughness of the image.
  • Patent Document 1 proposes a technique that objectively evaluates an evaluation target image obtained by performing image processing on an original image using entropy.
  • an original image before image processing is required as a comparison image in addition to an evaluation target image.
  • Non-Patent Document 1 research is also proceeding on pseudo Hilbert scanning that passes through all the pixels of the rectangular image and satisfies the condition that the pixels that are close in the path are also close in the rectangular image. Applications such as image compression are being promoted.
  • the present invention solves the above-described problems, and an object thereof is to provide an image evaluation device, an image selection device, an image evaluation method, a recording medium, and a program for appropriately evaluating the roughness of an image. .
  • An image evaluation apparatus includes: A blurring unit for generating a second image obtained by blurring the first image; A different portion for generating a third image representing a difference in pixel value of each pixel between the first image and the second image; A scanning unit that scans each pixel included in the third image to obtain a difference between pixel values of adjacent pixels, and obtains an appearance probability for each of the obtained differences; A calculation unit for calculating entropy from the occurrence probabilities for each obtained difference; An output unit that outputs the entropy is provided as an evaluation value of the roughness of the first image.
  • the scanning unit may be configured to scan each pixel included in the third image from left to right and from top to bottom.
  • the scanning unit may be configured to scan each pixel included in the third image along a space filling curve.
  • the pixel value of each pixel included in the third image is a pixel value at the position of the pixel in the first image in a predetermined color space and a pixel value at the position of the pixel in the second image. It can be configured to be a distance.
  • the difference between the pixel values of the adjacent pixels can be configured to be the distance between the pixel values of the adjacent pixels in a predetermined color space.
  • An image selection device provides: A reception unit for receiving a plurality of images depicting one target; An acquisition unit that acquires the evaluation value of the roughness of each of the plurality of received images by the image evaluation device, A selection unit that selects an image with the lowest roughness from the received plurality of images based on the acquired evaluation value of the roughness is provided.
  • An image evaluation method includes: An image evaluation apparatus having a blur part, a difference part, a scanning part, a calculation part, and an output part is executed, A blurring step in which the blurring unit generates a second image obtained by blurring the first image; A different step in which the different part generates a third image representing a difference in pixel values of the pixels of the first image and the second image; A scanning step in which the scanning unit scans each pixel included in the third image to obtain a difference between pixel values of adjacent pixels, and obtains an appearance probability for each of the obtained differences; A calculation step in which the calculation unit calculates entropy from the occurrence probability for each of the obtained differences; The output unit includes an output step of outputting the entropy as an evaluation value of the roughness of the first image.
  • a computer-readable recording medium is provided.
  • Computer A blurring unit for generating a second image obtained by blurring the first image; A different portion for generating a third image representing a difference in pixel value of each pixel between the first image and the second image; A scanning unit that scans each pixel included in the third image to obtain a difference between pixel values of adjacent pixels, and obtains an appearance probability for each of the obtained differences; A calculation unit for calculating entropy from the occurrence probabilities for each obtained difference; A program that functions as an output unit that outputs the entropy is recorded as an evaluation value of the roughness of the first image.
  • a program provides a computer, A blurring unit for generating a second image obtained by blurring the first image; A different portion for generating a third image representing a difference in pixel value of each pixel between the first image and the second image; A scanning unit that scans each pixel included in the third image to obtain a difference between pixel values of adjacent pixels, and obtains an appearance probability for each of the obtained differences; A calculation unit for calculating entropy from the occurrence probabilities for each obtained difference; The evaluation value of the roughness of the first image is configured to function as an output unit that outputs the entropy.
  • the program of the present invention can be recorded on a computer-readable non-transitory recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory. . These recording media can be distributed and sold independently of the computer.
  • the program of the present invention is loaded from a recording medium as described above onto a computer readable / writable recording medium such as a RAM (Random Access Memory), temporarily recorded, and then stored in a CPU (Central Processing Unit) can be configured to read, interpret, and execute a program recorded in the RAM or the like.
  • a computer readable / writable recording medium such as a RAM (Random Access Memory)
  • a CPU Central Processing Unit
  • the program of the present invention can be distributed and sold via a transitory transmission medium such as a computer communication network, independently of the computer on which the program is executed.
  • an image evaluation device it is possible to provide an image evaluation device, an image selection device, an image evaluation method, a recording medium, and a program that appropriately evaluate the roughness of an image.
  • the image evaluation apparatus can be realized by executing a predetermined program on various computers such as a server computer and a personal computer.
  • the computer uses the RAM as a temporary storage area or an output destination of the processing result when the CPU executes a program, receives an instruction from a user by an input device such as a keyboard or a mouse,
  • This is hardware that outputs the result of processing to an output device such as a display or performs the above input / output by communicating with other devices via a NIC (Network Interface Card). It can be omitted as appropriate.
  • images to be processed by the CPU are recorded on the hard disk of the computer.
  • images are managed by a file system and various databases together with information about a photographer, a shooting date and time, a shooting location, and a shooting target.
  • the image evaluation apparatus is realized by a plurality of computers connected via a dedicated communication line, a communication line, or a computer communication network such as the Internet, executing the above processing in parallel, distributed, or in parallel. It is also possible to speed up the process.
  • an electronic circuit design is created from a program, and a dedicated electronic circuit is configured based on the design, thereby evaluating the image of the present invention. It is also possible to implement the device.
  • FPGA Field Programmable Gate Array
  • the image to be evaluated is obtained as a result of photographing a real object with a digital camera, or as a result of scanning a film or paper with a scanner, and is an image that can be digitally processed.
  • the image a has a rectangular shape, has a width a.W dots, a height a.H dots, and is expressed as a set of a.W ⁇ a.H pixels.
  • the position of each pixel will be referred to in the following order from the upper left. That is, the first element of coordinates representing pixel positions is defined by the horizontal axis from left to right, and the second element of the coordinates is defined by the vertical axis from top to bottom.
  • the pixel value of the pixel at the coordinates (x, y) included in the image a is expressed as a [x, y].
  • Each pixel value is represented by a three-dimensional vector of scalar values for monochrome images and red, green, and blue for color images.
  • digital representation is used.
  • the pixel value takes an integer value from 0 to 255
  • three pixel values of red, green, and blue are used. Each takes an integer value from 0 to 255.
  • the absolute value of the difference between the scalar values of the pixel values can be adopted for a monochrome image.
  • the pixel value vector distance (the square root of the sum of squares of the differences between the red, green, and blue elements), the square distance (the square sum of the differences of the red, green, and blue elements), and the Manhattan distance (red , The sum of absolute values of differences between green and blue).
  • a method of using an image obtained by making a color image monochrome as a distance between two pixel values included in the color image That is, the absolute value of the difference between the pixel values (scalar values) of two monochrome pixels obtained by converting the two color pixels into monochrome is adopted as the distance between the pixel values of the two color pixels.
  • each pixel included in the image is scanned. That is, processing for arranging pixels included in an image in a row is executed.
  • FIG. 1A, FIG. 1B, and FIG. 1C are explanatory diagrams illustrating paths for scanning pixels. Hereinafter, description will be given with reference to these drawings.
  • an image 11 composed of 8 ⁇ 8 pixels is scanned by paths 12a, 12b, and 12c.
  • the coordinates of the i-th pixel of the image a are (i mod a.W, i div a.W).
  • x div y means integer division (result of dividing x by y)
  • x mod y means a remainder in integer division (remainder of dividing x by y).
  • the second method is to calculate the coordinates of the i-th pixel of image a, (A) If i div (aW ⁇ 2) is an even number, (i mod aW, i div aW) (B) If i div (aW ⁇ 2) is an odd number, (aW ⁇ (i mod aW) ⁇ 1, i div aW) is set.
  • each pixel of the image 11 is scanned along the path 12a. That is, first, the horizontal scanning is performed from the left end to the right end, and when the right end is reached, the scanning is performed vertically downward by 1 dot, the horizontal scanning is performed from the right end to the left end, and when the left end is reached, the scanning is performed downward by 1 dot. It moves vertically and repeats scanning horizontally from the left end to the right end.
  • the third method is a method using pseudo Hilbert scanning as disclosed in Non-Patent Document 1.
  • the second method pixels vertically adjacent in the image are separated during scanning, but in this method, the pixels included in the image 11 are adjacent to each other as shown in FIG. 1C. If they are aligned or adjacent to each other in the vertical direction, the degree and frequency of proximity in the scanning path 12c will be greater than in the case of FIG. 1B.
  • the pixel value of the i-th pixel in the path 12 in the scanning of the image 11 is represented as a (i).
  • the column of pixel values a (0), a (1), a (2), ..., a (a.W ⁇ a.H-1) obtained by scanning are the following pixel values:
  • FIG. 2 is an explanatory diagram showing a schematic configuration of the image evaluation apparatus according to the present embodiment
  • FIG. 3 is a flowchart showing a control flow of image evaluation processing executed by the image evaluation apparatus.
  • the image evaluation apparatus 101 includes a blur unit 102, a difference unit 103, a scanning unit 104, a calculation unit 105, and an output unit 106, as shown in FIG.
  • the functions of these units are realized by a computer executing a predetermined program.
  • the image evaluation apparatus 101 will be described on the assumption that the first image a is an evaluation target.
  • any one of the above-described various scanning paths is selected and applied to all the images to be processed.
  • the information of the first image a and all the images to be processed later will be recorded on a recording medium such as a hard disk, transmitted and received via a computer communication network, or temporarily stored in a RAM or the like. By storing in the area, various processes can be performed.
  • the blurring unit 102 generates a second image b in which the first image a is blurred (step S301).
  • the blur processing can be realized by applying a so-called smoothing filter to the image.
  • “ ⁇ ” means substitution.
  • two-dimensional smoothing can also be performed.
  • two-dimensional smoothing can also be performed.
  • b [x, y] ⁇ [a [x-1, y] + a [x + 1, y] + a [x, y-1] + a [x, y + 1] + B ⁇ b [x, y]] / (B + 4)
  • smoothing is performed by taking a weighted average of a certain pixel and its upper, lower, left and right adjacent pixels.
  • blurring is performed by taking the average of the pixel value at a desired position and the pixel value at the next position.
  • the desired position is the last pixel of the second image b
  • the next position is outside the range of the first image a. Therefore, in this case, the pixel value of the pixel at the last position of the first image a is used as it is.
  • FIG. 4A is an explanatory diagram showing the state of pixel values obtained when the first image a composed of a rough image depicting this object is scanned.
  • FIG. 4B is an explanatory diagram showing the state of pixel values obtained when the first image a composed of a smooth image depicting a certain object is scanned.
  • FIG. 5A is an explanatory diagram illustrating a state of pixel values obtained when the second image b with respect to the first image a illustrated in FIG. 4A is scanned.
  • FIG. 5B is an explanatory diagram illustrating a state of pixel values obtained when the second image b with respect to the first image a illustrated in FIG. 4B is scanned.
  • the horizontal axis represents the order in the scanning path
  • the vertical axis represents the pixel value of the pixels in the order.
  • a case where the pixel value is a scalar value is shown.
  • the pixel value of the first image a changes smoothly, but there are peaks protruding in some places and depressions in the bottom.
  • FIG. 5A is a pixel value of the second image b obtained by smoothing the coarse first image a according to FIG. 4A
  • FIG. 5B is a diagram of the second image b obtained by smoothing the smooth first image a according to FIG. 4B. It is a pixel value.
  • 5A and 5B is similar to the change in the first image a in FIGS. 4A and 4B when viewed as a whole.
  • the addition / subtraction / division of the pixel value is based on the same calculation method as the addition / subtraction / division of a normal scalar value or vector value. However, if each element is normalized to an integer value, the sizes of the first image a and the second image b are the same. Can be sized.
  • the different unit 103 generates a third image c representing the difference between the first image a and the second image b (step S302).
  • the difference between the first image a and the second image b is expressed by the distance between the pixel values arranged at the same position in the image.
  • the third image c has the same vertical and horizontal sizes as the first image a and the second image b.
  • the third image c can be generated.
  • the pixels may be operated based on other orders. For example, c [x, y] ⁇
  • the operation may be performed along a row or a column of pixels in the image.
  • FIGS. 6A and 6B show the state of the pixel values of the first image a shown in FIGS. 4A and 4B and the state of the pixel values of the second image b shown in FIGS. 5A and 5B. It is explanatory drawing showing the mode of a pixel value.
  • FIG. 6A and 6B show the state of the pixel values of the first image a shown in FIGS. 4A and 4B and the state of the pixel values of the second image b shown in FIGS. 5A and 5B.
  • the third image c shown in FIG. 6B is generated from the smooth first image a, and the peak portion and the bottom portion corresponding to noise hardly appear and the pixel value is 0 or a value close to 0. .
  • the third image c shown in FIG. 6A is generated from the coarse first image a, and a peak portion and a bottom portion corresponding to noise protrude and remain.
  • the pixel value is 0 or a value close to 0 in a portion without noise.
  • entropy is used in the present invention in order to set the degree of such protrusion and remaining as an evaluation value.
  • the scanning unit 104 scans each pixel included in the third image c, and obtains the appearance probability of the difference between the pixel values of adjacent pixels (step S303).
  • each pixel value may be a one-dimensional array or an associative array.
  • each element of the array t is accessed like t [x].
  • the number of elements may be a value obtained by adding 1 to the maximum value DMAX that can be a distance between pixel values.
  • the array t may be an associative array using a hash or the like. Since most of the pixel value differences are extremely close to 0, the memory can be used efficiently by using a hash or the like. In this case, the setting that the default value of each element of the array t is 0 may be executed.
  • each element t [x] of the array t needs to be able to store the maximum pixel value distance.
  • each pixel value of the first image a, the second image b, and the third image c can be expressed by an integer value between 0 and 255. Therefore, a 1-byte area may be secured for each element of the array representing these.
  • the image size can have various sizes, but the widely used image size can be expressed by 2-byte integers in both width and height. Therefore, it is sufficient to secure a 4-byte area for each element of the array t.
  • the third image c can be viewed as a one-dimensional array when scanned along the path, and corresponds to a two-dimensional array when viewed as a normal image representation. Therefore, it is possible to apply various techniques for enumerating the distribution of values of each element of the array in parallel and in parallel.
  • the calculation unit 105 calculates entropy E from the appearance probability p (d) for each difference obtained for each difference d (step S304).
  • E - ⁇ d ⁇ keys (t) p (d) ⁇ log (p (d))
  • the output unit 106 outputs entropy E as the roughness evaluation value of the first image a (step S305).
  • the entropy E calculated as described above is high. Therefore, the entropy E can be used as an index of image roughness.
  • Patent Document 1 the evaluation target image is compared with the original image to obtain the roughness of the evaluation target image.
  • the roughness of the first image a is obtained only from the first image a to be evaluated.
  • the second image b obtained by blurring the first image a and the third image c representing the difference between the first image a and the second image b are sequentially generated from the first image a.
  • the appearance frequency of each pixel value in the three images c is counted up. Therefore, high-speed calculation is possible by using a CPU or coprocessor having multimedia computing hardware for obtaining image blurring or difference.
  • the pixel value c (i) is the distance between b (i) and a (i), and b (i) can be obtained from the pixel values of the pixels near the i-th pixel of the first image a. it can. Therefore, if each c (i) is directly obtained from the pixel values of necessary pixels of the first image a and the array t is updated with the obtained values, the second image b and the third image c are stored. Therefore, it is possible to reduce the memory usage by omitting the image storage area.
  • the peripheral edge of the second image b has a filter that is smaller than the first image a by D dots in the top, bottom, left, and right.
  • the vertical and horizontal size of the image does not change before and after the blur by changing the range of the image area in which the averaging calculation is performed.
  • the latter two-dimensional blur filter can be used as it is in the above embodiment.
  • the former two-dimensional blur filter is applied to the above embodiment,
  • the method (a) ignores the peripheral edges when entropy is calculated.
  • the pixels corresponding to the peripheral edge D dots are handled as having no difference in pixel values between the first image a and the second image b.
  • the background around the edge of the image is displayed and there is often no important information. Further, in the number of pixels for the peripheral edge D dots and the number of other pixels, the latter is generally more in each stage. Therefore, even if the methods (a) and (b) are employed, sufficient results can be obtained as an index for evaluating the roughness of the image.
  • the pixel value of each pixel in the third image represents the difference between the pixel values of the pixels arranged at the same position in the first image and the second image.
  • the correspondence of the positions can be arbitrarily changed. That is, the difference in the pixel value at each position of the first image and the second image can be expressed by the pixel at the same position in the third image, but does not necessarily need to match.
  • the difference between the pixels at each position in the first image and the second image can be stored in the pixel at the mirror image position or the inverted position at each position in the third image.
  • the pixel value of each pixel in the third image represents the difference between the pixel values of the pixels arranged at positions corresponding to the respective pixels in the first image and the second image.
  • each shop owner In an electronic shopping mall in which a plurality of shop owners exhibit the same product, each shop owner often prepares an image that captures or depicts the product.
  • These images include images prepared in advance by the manufacturer of the product, images of the product itself taken by each store owner with a digital camera, etc., and each of these stores has an advertising phrase, store name, store logo, price There are images that have been modified with information such as
  • the image evaluation method according to the above-described embodiment can be used to appropriately select a representative image showing a product when a plurality of images depicting a product are prepared.
  • the image selection device performs such image selection.
  • the present image selection apparatus can be applied for any purpose when selecting any one of a plurality of images. For example, when a user of a digital camera shoots an object several times in succession, in the case of automatically selecting an image with the best shooting result, or in a moving image configured by arranging a plurality of frame images in order
  • the present invention can also be applied to a case where a frame image representing the moving image is selected from the frame images.
  • This image selection apparatus can be realized by causing a computer to execute a predetermined program, as with the image evaluation apparatus 101 described above, and can also be implemented as an electronic circuit using an FPGA or the like.
  • FIG. 7 is an explanatory diagram showing a schematic configuration of the image selection device according to the present embodiment.
  • FIG. 8 is a flowchart showing the flow of processing of the image selection method executed by the image selection apparatus.
  • the image selection device 601 includes a reception unit 602, an acquisition unit 603, and a selection unit 604.
  • the reception unit 602 first receives a plurality of images depicting one target by starting the program (step S701). ).
  • a plurality of images are typically recorded on a hard disk, but a mode of sequentially acquiring from a computer communication network may be adopted.
  • the acquisition unit 603 acquires the evaluation value of the roughness of each of the received plurality of images by the image evaluation apparatus 101 (step S702).
  • the image evaluation apparatus 101 can independently evaluate the roughness of each image without comparing the original image and other images. Therefore, the evaluation value of the roughness can be calculated in parallel or in parallel.
  • the selection unit 604 selects the image with the lowest roughness, that is, the image with the lowest entropy from the received plurality of images based on the acquired evaluation value of the roughness (step S703). The process ends.
  • the obtained roughness is the entropy of a non-smooth part in the image.
  • the entropy increases when the image contains a lot of noise or when new information (for example, an image of a character string in a promotional phrase) is overwritten on the image.
  • an image evaluation device it is possible to provide an image evaluation device, an image selection device, an image evaluation method, a recording medium, and a program that appropriately evaluate the roughness of an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 画像の粗度を適切に評価する画像評価装置(101)を提供する。ぼかし部(102)は、第1画像aをぼかした第2画像bを生成する。相違部(103)は、第1画像aと第2画像bとの相違を表す第3画像cを生成する。第3画像cの各画素の画素値は、第1画像aおよび第2画像bにおける同じ位置の画素の画素値の相違を表す。走査部(104)は、第3画像cに含まれる各画素を走査して、隣接する画素の画素値の相違を求め、当該相違ごとの出現確率を求める。計算部(105)は、求められた相違ごとの出現確率からエントロピーを計算する。出力部(106)は、第1画像aの粗度の評価値として、エントロピーを出力する。

Description

画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
 本発明は、画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラムに関し、画像の粗度(roughness)を適切に評価するものである。
 従来から、画像評価を行う技術が提案されている。たとえば、特許文献1には、原画像に画像処理を施した評価対象画像の評価を、エントロピーを利用して客観的に行う技術が提案されている。この技術では、評価対象画像のほか、対比用画像として、画像処理を施す前の原画像が必要とされる。
 このほか、非特許文献1には、長方形画像の画素をすべて通過しつつ、経路中で近傍にある画素は、長方形画像内でも近傍にあるような条件を満たす擬似ヒルベルト走査についても研究が進められており、画像圧縮などでの応用が進められている。
特開平10-200893号公報
Jian Zhang,Sei-ichiro Kamata and Yoshifumi Ueshige, A Pseudo-hilbert Scan Algorithm for Arbitrarily-Sized Rectangle Region, ADVANCES IN MACHINE VISION,IMAGE PROCESSING,AND PATTERN ANALYSIS, Lecture Notes in Computer Science,Volume 4153/2006,290-299, DOI: 10.1007/11821045_31,2006年
 しかしながら、評価対象画像を、別途用意された他の対比用画像と比較せずに、当該評価対象画像のみを参照して、客観的な評価をしたい、という要望は強い。
 この評価において、画像の粗度を画像のサイズを意識することなく求めたい、という、さらなる要望もある。
 本発明は、上記のような課題を解決するもので、画像の粗度を適切に評価する画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラムを提供することを目的とする。
 本発明の第1の観点に係る画像評価装置は、
 第1画像をぼかした第2画像を生成するぼかし部、
 前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違部、
 前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査部、
 前記求められた相違ごとの出現確率からエントロピーを計算する計算部、
 前記第1画像の粗度の評価値として、前記エントロピーを出力する出力部
 を備えるように構成する。
 また、本発明の画像評価装置において、
 前記走査部は、前記第3画像に含まれる各画素を、左から右へ、上から下へ、走査する
 ように構成することができる。
 また、本発明の画像評価装置において、
 前記走査部は、前記第3画像に含まれる各画素を、空間充填曲線に沿って走査する
 ように構成することができる。
 また、本発明の画像評価装置において、
 前記第3画像に含まれる各画素の画素値は、所定の色空間における前記第1画像の当該各画素の位置における画素値と、前記第2画像の当該各画素の位置における画素値と、の距離である
 ように構成することができる。
 また、本発明の画像評価装置において、
 前記隣接する画素の画素値の相違は、所定の色空間における当該隣接する画素の画素値の距離である
 ように構成することができる。
 本発明の第2の観点に係る画像選択装置は、
 1つの対象を描写した複数の画像を受け付ける受付部、
 前記受け付けられた複数の画像のそれぞれの粗度の評価値を、上記の画像評価装置により、取得する取得部、
 前記取得された粗度の評価値により、前記受け付けられた複数の画像から、最も粗度が低い画像を選択する選択部
 を備えるように構成する。
 本発明の第3の観点に係る画像評価方法は、
 ぼかし部、相違部、走査部、計算部、出力部を有する画像評価装置が実行し、
 前記ぼかし部が、第1画像をぼかした第2画像を生成するぼかし工程、
 前記相違部が、前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違工程、
 前記走査部が、前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査工程、
 前記計算部が、前記求められた相違ごとの出現確率からエントロピーを計算する計算工程、
 前記出力部が、前記第1画像の粗度の評価値として、前記エントロピーを出力する出力工程
 を備えるように構成する。
 本発明の第4の観点に係るコンピュータ読取可能な記録媒体は、
 コンピュータを、
 第1画像をぼかした第2画像を生成するぼかし部、
 前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違部、
 前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査部、
 前記求められた相違ごとの出現確率からエントロピーを計算する計算部、
 前記第1画像の粗度の評価値として、前記エントロピーを出力する出力部
 として機能させるプログラムを記録するように構成する。
 本発明の第5の観点に係るプログラムは、コンピュータを、
 第1画像をぼかした第2画像を生成するぼかし部、
 前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違部、
 前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査部、
 前記求められた相違ごとの出現確率からエントロピーを計算する計算部、
 前記第1画像の粗度の評価値として、前記エントロピーを出力する出力部
 として機能させるように構成する。
 本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読み取り可能な非一時的(non-transitory)な記録媒体に記録することができる。また、これらの記録媒体は、コンピュータとは独立して配布・販売することができる。
 また、本発明のプログラムは、上記のような記録媒体から、RAM(Random Access Memory)等のコンピュータによる読み書き可能な記録媒体にロードされ、一時的(temporary)に記録された上で、CPU(Central Processing Unit)が、当該RAM等に記録されたプログラムを読み出して解釈、実行するように構成することができる。
 さらに、本発明のプログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網等の一時的(transitory)な伝送媒体を介して配布・販売することができる。
 本発明によれば、画像の粗度を適切に評価する画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラムを提供することができる。
画素を走査する経路を説明する説明図である。 画素を走査する経路を説明する説明図である。 画素を走査する経路を説明する説明図である。 本実施形態に係る画像評価装置の概要構成を示す説明図である。 本実施形態に係る画像評価装置が実行する画像評価処理の制御の流れを示すフローチャートである。 ある物体を描写する粗い画像からなる第1画像aを走査したときに得られる画素値の様子を表す説明図である。 ある物体を描写する滑らかな画像からなる第1画像aを走査したときに得られる画素値の様子を表す説明図である。 図4Aに示す第1画像aに対する第2画像bを走査したときに得られる画素値の様子を表す説明図である。 図4Bに示す第1画像aに対する第2画像bを走査したときに得られる画素値の様子を表す説明図である。 図4Aに示した第1画像aの画素値の様子、ならびに、図5Aに示した第2画像bの画素値の様子に対応する、第3画像cの画素値の様子を表す説明図である。 図4Bに示した第1画像aの画素値の様子、ならびに、図5Bに示した第2画像bの画素値の様子に対応する、第3画像cの画素値の様子を表す説明図である。 本実施形態に係る画像選択装置の概要構成を示す説明図である。 当該画像選択装置が実行する画像選択方法の処理の流れを示すフローチャートである。
 以下に本発明の実施形態を説明する。なお、本実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
 本発明に係る画像評価装置は、サーバ用コンピュータやパーソナルコンピュータ等、各種のコンピュータにおいて、所定のプログラムを実行することにより実現することができる。
 ここで、コンピュータとは、CPUがプログラムを実行することによって、RAMを一時的な記憶域や処理の結果の出力先として利用し、キーボードやマウス等の入力装置によりユーザからの指示を受け付けたり、ディスプレイ等の出力装置に処理の結果を出力したり、NIC(Network Interface Card)を介して他の機器と通信することにより上記の入出力を行ったりするハードウェアであり、入出力用の機器は、適宜省略することも可能である。
 コンピュータのハードディスク等には、CPUが実行するプログラムのほか、CPUによる処理の対象となる画像が記録される。多くの場合、画像は、撮影者、撮影日時、撮影場所、撮影対象の情報とともに、ファイルシステムや各種のデータベースによって管理される。
 なお、専用の接続線や通信回線、インターネットなどのコンピュータ通信網を介して接続された複数のコンピュータが、上記の処理を並列、分散、並行して実行することにより、本発明に係る画像評価装置の処理の高速化を図ることも可能である。
 このほか、FPGA(Field Programmable Gate Array)等の技術を応用することにより、プログラムから電子回路の設計を作成し、当該設計に基づいて、専用の電子回路を構成することによって、本発明の画像評価装置を実現することも可能である。
 (評価の対象となる画像)
 本実施形態では、画像の粗度を評価する。評価の対象となる画像は、ディジタルカメラで現実の物体を撮影した結果や、フィルムや紙などをスキャナでスキャンした結果得られるもので、ディジタル処理が可能な画像である。
 以下では、理解を容易にするため、画像aは、長方形の形状をしており、幅a.Wドット、高さa.Hドットであり、a.W×a.H個の画素の集合として表現されているものとする。各画素の位置を、左上から順に、以下のように参照することとする。すなわち、左から右への横軸により、画素位置を表す座標の第1要素が定められ、上から下への縦軸により、当該座標の第2要素が定められる。
  (0,0),(1,0),(2,0),...,(a.W-1,0),
  (0,1),(1,1),(2,1),...,(a.W-1,1),
  (0,2),(1,2),(2,2),...,(a.W-1,2),
  ...,
  (0,a.H-2),(1,a.H-2),(2,a.H-2),...,(a.W-1,a.H-2),
  (0,a.H-1),(1,a.H-1),(2,a.H-1),...,(a.W-1,a.H-1)
 さらに、画像aに含まれる座標(x,y)における画素の画素値をa[x,y]と表記するものとする。
 各画素値は、モノクロ画像ではスカラー値、カラー画像では、赤、緑、青の3次元ベクトルにより表現される。本実施形態では、ディジタル表現を利用するが、たとえば、8ビットモノクロ画像では、画素値は、0から255までの整数値をとり、24ビットカラー画像では、赤、緑、青の3つの画素値のそれぞれが、0から255までの整数値をとる。
 2つの画素値同士の距離は、モノクロ画像では、画素値のスカラー値の差の絶対値を採用することができる。カラー画像では、画素値のベクトルの距離(赤、緑、青の各要素の差の自乗和の平方根)、自乗距離(赤、緑、青の各要素の差の自乗和)、マンハッタン距離(赤、緑、青の差の絶対値の総和)などを採用することができる。
 また、カラー画像に含まれる2つの画素の画素値の距離としてカラー画像をモノクロ化した画像を利用する手法もある。すなわち、2つのカラー画素をモノクロ化した2つのモノクロ画素の画素値(スカラー値)の差の絶対値を、当該2つのカラー画素の画素値の距離として採用するのである。
 以下、2つの画素値p,qの距離を、|p-q|と表記することとする。
 本実施形態では、画像に含まれる各画素を走査する。すなわち、画像に含まれる画素を一列に並べる処理が実行される。
 上記のように、画像aの画素は全部でa.W×a.H個ある。そこで、画素を一列に並べたときの、i (i = 0,1,2,...,a.W×a.H-1)番目の画素の座標を、以下のような種々の走査の手法によって求めることとする。
 図1A、図1B、図1Cは、画素を走査する経路を説明する説明図である。以下、これらの図を参照して説明する。これらの図では、8×8個の画素からなる画像11を、経路12a、12b、12cによって走査している。
 第1の手法は、画像aのi番目の画素の座標を、(i mod a.W,i div a.W)とするものである。ここで、x div yは整数除算(xをyで割り算した結果)を意味し、x mod yは整数除算における剰余(xをyで割り算した余り)を意味する。図1Aに示すように、この手法では、画像11の各画素を、経路12aに沿って走査する。すなわち、まず、左端から右端へ水平に走査を実行し、右端に到達したら、1ドット下へ垂直に移動して、左端から右端へ水平に走査を実行することを繰り返す。
 第2の手法は、画像aのi番目の画素の座標を、
  (a)i div (a.W×2)が偶数であれば、(i mod a.W,i div a.W)とし、
  (b)i div (a.W×2)が奇数であれば、(a.W - (i mod a.W) - 1,i div a.W)とする。
 図1Bに示すように、この手法では、画像11の各画素を、経路12aに沿って走査する。すなわち、まず、左端から右端へ水平に走査を実行し、右端に到達したら、1ドット下へ垂直に移動して、右端から左端へ水平に走査を実行し、左端に到達したら、1ドット下へ垂直に移動して、左端から右端へ水平に走査を実行することを繰り返す。
 第3の手法は、非特許文献1に開示されるような擬似ヒルベルト走査を用いる手法である。上記第2の手法においては、画像内において上下に隣り合う画素は、走査の際に離間してしまうが、本手法では、図1Cに示すように、画像11に含まれる画素は、左右に隣り合っていたり、上下に隣り合っていたりすると、走査の経路12c内において近接する度合ならびに頻度が、図1Bの場合よりも多くなる。
 以下では、理解を容易にするため、画像11の走査における経路12中でのi番目の画素の画素値をa(i)と表記することとする。
 走査によって得られる画素値の列a(0),a(1),a(2),...,a(a.W×a.H-1)は、以下の画素値
  a[0,0],a[1,0],a[2,0],...,a[a.W-1,0],
  a[0,1],a[1,1],a[2,1],...,a[a.W-1,1],
  a[0,2],a[1,2],a[2,2],...,a[a.W-1,2],
  ...,
  a[0,a.H-2],a[1,a.H-2],a[2,a.H-2],...,a[a.W-1,a.H-2],
  a[0,a.H-1],a[1,a.H-1],a[2,a.H-1],...,a[a.W-1,a.H-1]
の順序を入れ換えたものに相当する。
 (画像評価装置)
 図2は、本実施形態に係る画像評価装置の概要構成を示す説明図であり、図3は、画像評価装置が実行する画像評価処理の制御の流れを示すフローチャートである。以下、これらの図を参照して説明する。
 本実施形態に係る画像評価装置101は、図2に示す通り、ぼかし部102、相違部103、走査部104、計算部105、出力部106を備える。これら各部の機能は、所定のプログラムをコンピュータが実行することによって実現される。
 以下、画像評価装置101は、第1画像aを評価の対象とすることを想定して説明する。また、上記の種々の走査経路のうち、いずれか一つを選択して、処理の対象となる全画像について適用するものとする。
 ここで、第1画像aならびに後述する処理の対象となる全画像の情報は、ハードディスクなどの記録媒体に記録したり、コンピュータ通信網を介して送受、配信したり、RAM等の一時的な記憶領域に格納することで、各種の処理が進められる。
 まず、画像評価装置101において、ぼかし部102は、第1画像aをぼかした第2画像bを生成する(ステップS301)。ここで、ぼかし(blur)処理は、いわゆる平滑化フィルタを画像に施すことにより実現することができる。
 なお、第1画像aと第2画像bの縦横サイズは同じである。すなわち、
  a.W = b.W,a.H = b.H
が成立する。
 さて、第1画像aの各画素の平滑化の単純な手法は、上記の走査を利用すれば、以下のように行うことが可能である。たとえば、
  b(i) ← 〔a(i)+a(i+1)〕/2, (i = 0,1,...,a.W×a.H-2);
  b(i) ←  a(i),       (i = a.W×a.H-1)
とする手法では、隣りの画素との平均をとることにより、平滑化する。ここで、「←」は代入を意味する。
 このほか、所定の正定数Bを用いて、
  b(i) ←  a(i),              (i = 0);
  b(i) ← 〔a(i-1)+B×a(i)+a(i+1)〕/(B+2), (i = 1,2,...,W×a.H-2);
  b(i) ←  a(i),              (i = a.W×a.H-1)
とする手法では、経路中の前後の画素との重み付き平均をとることにより、平滑化がなされる。
 上記の走査の手法によらず、2次元的な平滑化を行うことも可能である。たとえば、整数x,yについて、
  b[x,y] ←〔a[x-1,y]+a[x+1,y]+a[x,y-1]+a[x,y+1]+B×b[x,y]〕/(B+4),
    (x = 1,2,...,a.W-2; y = 1,2,...,a.H-2);
  b[x,y] ← a[x,y],  (x=0 or x=a.W-1 or y=0 or y=a.H-1)
とする手法では、ある画素と、その上下左右の隣接画素と、の重み付き平均をとることにより、平滑化がなされる。
 このほか、種々のぼかし、平滑化のための画像フィルタを適用することにより、本ステップにおけるぼかし処理を実行することが可能である。
 なお、上記の手法では、第2画像b内の所望の位置の画素の画素値を求めるために、第1画像aにおいて、所望の位置の画素の画素値を参照するほか、所望の位置の周辺にある画素値を参照して、平均化の処理を行う。このため、所望の位置の周辺がすべて第1画像a内にある場合と、第1画像aの外側にはみ出る場合と、で、平均化の処理を変えている。
 たとえば、上記の最も単純な手法では、所望の位置の画素値と、次の位置の画素値と、の平均をとることで、ぼかしを行っている。
 したがって、所望の位置が、第2画像bの最後の画素である場合には、次の位置は、第1画像aの範囲外となる。そこで、この場合には、第1画像aの最後の位置の画素の画素値をそのまま利用している。他の2つの手法においても同様である。
 図4Aは、この物体を描写する粗い画像からなる第1画像aを走査したときに得られる画素値の様子を表す説明図である。
 図4Bは、ある物体を描写する滑らかな画像からなる第1画像aを走査したときに得られる画素値の様子を表す説明図である。
 図5Aは、図4Aに示す第1画像aに対する第2画像bを走査したときに得られる画素値の様子を表す説明図である。
 図5Bは、図4Bに示す第1画像aに対する第2画像bを走査したときに得られる画素値の様子を表す説明図である。
 以下、これらの図を参照して説明する。
 図4A、4B、5A、5Bにおける横軸は、走査の経路における順序を、縦軸は、当該順序における画素の画素値を、それぞれ表現している。これらの図では、画素値がスカラー値である場合を示している。
 図4Bに示す画像では、第1画像aの画素値は、概ね滑かに変化している。
 一方、図4Aに示す画像では、第1画像aの画素値は、概ね滑かに変化しているが、ところどころに突出したピークや陥没したボトムがある。
 これらは、画像撮影時のノイズ等に相当するものであり、このようなノイズが多ければ多いほど、粗度が高く、画像の品質は低い、と考えられる。
 図5Aは、図4Aに係る粗い第1画像aを平滑化した第2画像bの画素値であり、図5Bは、図4Bに係る滑らかな第1画像aを平滑化した第2画像bの画素値である。
 図5A、5Bのそれぞれの画素値の変化は、互いに類似しているが、これはぼかしによって、ピークやボトムが緩和されているからである。
 また、図5A、5Bのそれぞれの画素値の変化は、全体として見れば、図4A、4Bの第1画像aにおける変化とも類似している。
 なお、画素値の加減乗除は、通常のスカラー値やベクトル値の加減乗除と同じ計算手法によるが、各要素を整数値に正規化すれば、第1画像aと第2画像bのサイズを同じ大きさにすることができる。
 次に、相違部103は、第1画像aと第2画像bとの相違を表す第3画像cを生成する(ステップS302)。
 第1画像aと第2画像bの相違は、画像内において同じ位置に配置されている画素値の距離により表現される。ここで、第3画像cは、第1画像a、第2画像bと、その縦横サイズは等しい。
  a.W = b.W = c.W,a.H = b.H = c.H
 上記の経路に沿って順に画素を走査し、
  c(i) ← |b(i)-a(i)|,  (i = 0,1,2,...,a.W×a.H-1)
のように第3画像cの画素値を定めることとすれば、第3画像cを生成することができる。ただし、他の順序に基づいて画素を操作することとしても良い。たとえば、
  c[x,y] ← |b[x,y] - a[x,y]|,
    (x = 0,1,...,a.W-1; y = 0,1,...,a.H-1)
のように、画像内の画素の行や列に沿って操作しても良い。
 図6A、6Bは、図4A、4Bに示した第1画像aの画素値の様子、ならびに、図5A、5Bに示した第2画像bの画素値の様子に対応する、第3画像cの画素値の様子を表す説明図である。以下、本図を参照して説明する。
 図6Bに示す第3画像cは、滑らかな第1画像aから生成されたもので、ノイズに相当するピーク部分やボトム部分はほとんど現れず、画素値が0もしくは0に近い値となっている。
 一方、図6Aに示す第3画像cは、粗い第1画像aから生成されたもので、ノイズに相当するピーク部分やボトム部分が突出して残存している。ただし、ノイズのない部分は、画素値が0もしくは0に近い値となっている。
 したがって、このような突出して残存している度合を評価値とするために、本発明では、エントロピーを用いるのである。
 このため、走査部104は、第3画像cに含まれる各画素を走査して、隣接する画素の画素値の相違の出現確率を求める(ステップS303)。
 ここでも、上記と同様に、画素の行や列に沿っても良いし、以下のように、経路に沿って順に画素を走査することとしても良い。画素値の相違の出現確率を求めるには、まず、各画素値の頻度を求める必要がある。この頻度を記憶するための、配列tを用意する。配列tは、一次元配列、もしくは、連想配列とすることができる。以下、配列tの各要素には、t[x]のようにアクセスするものとする。
 ここで、配列tとして通常の一次元配列を採用する場合、その要素数は、画素値の距離としてありうる最大値DMAXに1を加算した値を採用すれば良い。
 たとえば、第1画像a、第2画像bが8ビット表現モノクロ画像である場合、各画素値も、0~255のいずれかの値をとる。そこで、距離として画素値の差の絶対値を採用した場合には、第3画像cの各要素も0~255の値をとるから、8ビット表現モノクロ画像とすることができ、DMAX = 255である。
 第1画像a、第2画像bが24ビット表現のカラー画像であり、距離として画素値の各要素の差の自乗和を採用した場合には、DMAX = 255×255×3 = 195075となる。
 なお、頻度を求めるためには、配列tの各要素の初期値として、0を設定する必要がある。したがって、配列tとして一次元配列を採用する場合には、頻度を数える前に、
  t[d] ← 0,  (d = 0,1,...,DMAX)
を実行する必要がある。
 このほか、配列tを、ハッシュなどを利用した連想配列としても良い。画素値の差は、ほとんどが0に極めて近いから、ハッシュ等を利用することで、効率よくメモリを利用することができる。この場合は、配列tの各要素のデフォルト値が0である、という設定を実行すれば良い。
 ここで、配列tの各要素t[x]は、画素値の距離の最大値を格納できる必要がある。
 8ビット表現のモノクロ画像を第1画像aとして採用した場合、第1画像a、第2画像b、第3画像cの各画素値は、0~255の間の整数値で表現できる。したがって、これらを表現する配列の各要素には、1バイトの領域を確保すれば良い。
 一方、画像サイズとしては、さまざまな大きさがありうるが、広く利用されている画像サイズは、幅、高さとも、2バイト整数で表現できる。したがって、配列tの各要素には、4バイトの領域を確保すれば良いことになる。
 さて、頻度を求めるための最も単純な手法は、以下のように、経路に沿って数え上げを行うことである。
  t[c(i)] ← t[c(i)] + 1,  (i = 0,1,…,a.W×a.H-1)
 なお、第3画像cは、経路に沿って走査した場合には1次元配列として見ることができるし、通常の画像表現として見た場合には2次元配列に相当する。したがって、配列の各要素の値の分布を並行・並列に数え上げるための種々の技術を適用することも可能である。
 さて、配列tの各要素t[d]に画素値の相違がdである画素の頻度が得られたら、相違dの出現確率p(d)は、
  p(d) = t[d]/(a.W×a.H)
と計算することができる。
 そこで、計算部105は、各相違dに対して求められた相違ごとの出現確率p(d)からエントロピーEを計算する(ステップS304)。
 ここで、第3画像cの画素値(第1画像aと第2画像bの画素値の相違)として出現した整数値の集合を、keys(t)と表記するものとする。すなわち、d∈keys(t)であるならば、t[d]>0であり、d∈keys(t)でないならば、t[d]=0である。
  keys(t) = {d | d∈{0,1,...,DMAX},t[d]>0}
 すると、エントロピーEは、以下のように計算することができる。
  E = - Σd∈keys(t) p(d)×log〔p(d)〕
 ステップS301~S303で用いられる演算は、すべて整数による演算で可能であったが、エントロピーの計算の際には、log〔・〕の計算に自然対数もしくは常用対数を採用するため、浮動小数点演算もしくは固定小数点演算を採用することになる。
 最後に、出力部106は、第1画像aの粗度の評価値として、エントロピーEを出力する(ステップS305)。
 上記のように、第1画像aが粗い場合には、画素値にピークやボトムが出現するため、第3画像cにおいても、非零の画素値が多数、様々な値で出現する。このため、上記のように計算されるエントロピーEは高くなる。したがって、エントロピーEを、画像の粗度の指標として利用することができる。
 特許文献1では、評価対象の画像と原画像を対比して、評価対象の画像の粗度を求めている。一方、本手法では、評価対象の第1画像aのみから、第1画像aの粗度を求めている。
 すなわち、本手法では、基準とすべき原画像が存在しないような場合であっても、適切に評価対象の画像の粗度を計算することができるのである。
 なお、上記の手法は、画像に描画されている物体の輪郭を抽出する手法とほぼ同様であるため、第1画像aに撮影されている物体の形状が複雑であれば、計算されるエントロピーも高くなる。
 しかしながら、同じ物体を撮影した2つの画像の粗度を比較する場合には、物体の形状の複雑度に由来するエントロピー成分は、ほぼ同程度となる。
 また、画像のピクセル数が異なる場合であっても、画像内で物体が占める面積の割合が同程度であれば、当該物体が画像に描画されていることに由来するエントロピー成分は、同程度となる。
 したがって、2つの画像から得られたエントロピーをそのまま比較することで、2つの画像の粗度を簡易に比較することができるのである。
 なお、上記実施形態では、第1画像aから、第1画像aをぼかした第2画像b、第1画像aと第2画像bの相違を表す第3画像cを順次生成してから、第3画像cの各画素値の出現頻度を数え上げている。したがって、画像のぼかしや差分を求めるマルチメディア演算ハードウェアを有するCPUやコプロセッサを利用すれば、高速な計算が可能となる。
 一方、画素値c(i)は、b(i)とa(i)の距離であり、b(i)は、第1画像aのi番目の画素の近傍の画素の画素値から求めることができる。したがって、各c(i)を第1画像aの必要な画素の画素値から直接求め、求められた値によって配列tを更新することとすれば、第2画像b、第3画像cを記憶するための画像の記憶領域を省略して、メモリの使用量の低減化を図ることもできる。
 なお、従来の手法においては、異なるサイズの画像の品質を比較する際に、画像サイズを揃える必要があるが、上記実施形態においては、全画素を走査する処理や画像をぼかす処理を行うことで、画像のサイズを直接扱わなくとも、画像の粗度を比較することが可能となる。
 さて、従来の2次元的ぼかしフィルタでは、所望位置の上下左右Dドットの周辺の画素、すなわち、(2×D+1)×(2×D+1)個の画素の画素値を参照して、重み付き平均をとる手法が広く利用される。このため、第2画像bの周囲の縁は、上下左右とも、Dドット分だけ、第1画像aよりも小さくなるフィルタがある。画像の周囲の縁については、平均化の計算を行う画像の領域の範囲を変化させることで、ぼかし前とぼかし後で画像の縦横サイズが変化しないフィルタもある。
 後者の2次元的ぼかしフィルタは、上記実施例でそのまま利用が可能である。一方、前者の2次元的ぼかしフィルタを上記実施例に適用する場合には、
 (a)ぼかし以降の処理においては、第1画像aの周囲の縁を、上下左右とも、Dドット分だけ、除去して、第2画像bと同じ大きさとする、あるいは、
 (b)第2画像bの周囲の縁のDドット分の画素は、第1画像aと同じ画素値とする、
のいずれかの手法を採用すれば良い。
 上記(a)の手法では、周囲の縁Dドット分の画素は、第1画像aには存在するが、第2画像bには存在しない。そこで、上記(a)の手法は、エントロピーの計算の際に、周囲の縁を無視する。
 一方、上記(b)の手法では、周囲の縁Dドット分の画素には、第1画像aと第2画像bとの間に画素値の相違はない、として取り扱うことになる。
 一般に、画像の周囲の縁は背景が表示されており、重要な情報がないことが多い。また、周囲の縁Dドット分の画素の数と、それ以外の画素の数と、では、一般に、後者の方が各段に多い。したがって、上記(a)(b)のような手法を採用しても、画像の粗度の評価を行うための指標として十分な結果が得られる。
 上記の実施例では、第3画像における各画素の画素値は、第1画像、第2画像において同じ位置に配置される画素の画素値の相違を表すものとしていた。しかしながら、位置の対応関係は、任意に変更することが可能である。すなわち、第1画像ならびに第2画像の各位置における画素値の相違は、第3画像における同じ位置の画素によって表現することも可能であるが、必ずしも一致しなくとも良い。
 たとえば、第1画像および第2画像における各位置の画素同士の相違は、第3画像において、当該各位置の鏡像位置あるいは反転位置の画素に格納される、とすることができる。
 いずれの場合にも、第3画像における各画素の位置が与えられれば、それに対応する第1画像ならびに第2画像における画素の位置が決まる。
 したがって、一般には、第3画像における各画素の画素値は、第1画像ならびに第2画像における当該各画素に対応付けられる位置に配置される画素の画素値の相違を表すことになる。
 同じ商品を複数の商店主が出品する電子ショッピングモールでは、当該商品を撮影あるいは描写した画像が、各商店主によって用意されることが多い。
 これらの画像には、商品のメーカーがあらかじめ用意した画像、商品そのものを各商店主がディジタルカメラ等で撮影した画像、これらの画像に各商店主が宣伝文句や商店名、商店のロゴマーク、価格などの情報を付与して変更を施した画像などがある。
 一方で、電子ショッピングモールのユーザが商品を検索すると、検索結果の一覧には、商品の画像が表示されることも多い。この場合には、ある商品と、当該商品を出品している商店主と、を、まとめて一つの検索結果とし、当該商品の代表的な画像をユーザに提示したいことがある。
 上記実施例に係る画像評価の手法は、ある商品を描写する画像が複数用意されている場合に、その商品を示す代表的な画像を、適切に選択するために利用することができる。
 すなわち、画像の粗度が低い方が、ユーザにとって、商品の姿が見やすくなり、ユーザの好意を惹き起こすことができると考えられる。
 また、商店主が宣伝文句の追加などの編集をした場合には、画像の粗度が高くなる。したがって、画像の粗度が低い方が、このような編集がされていない現物に忠実な画像が得られやすいと考えられる。
 本実施形態に係る画像選択装置は、このような画像の選択を行うものである。なお、本画像選択装置は、複数の画像からいずれかを選択する場合には、どのような目的であっても適用が可能である。たとえば、ディジタルカメラのユーザが一つの物体を何回か続けて撮影した場合に、最も良い撮影結果の画像を自動選択する場合や、複数のフレーム画像が順に並べられることにより構成される動画像において、当該フレーム画像の中から、当該動画像を代表するフレーム画像を選択する場合等にも適用が可能である。
 本画像選択装置は、上記の画像評価装置101と同様に、コンピュータに所定のプログラムを実行させることによって実現することができるほか、FPGA等を利用して電子回路として実装することも可能である。
 図7は、本実施形態に係る画像選択装置の概要構成を示す説明図である。図8は、当該画像選択装置が実行する画像選択方法の処理の流れを示すフローチャートである。以下、これらの図を参照して説明する。
 図7に示すように、画像選択装置601は、受付部602、取得部603、選択部604を備える。
 所定のプログラムをコンピュータで実行することにより、画像選択装置601が実現される場合には、当該プログラムの起動によって、まず、受付部602が、1つの対象を描写した複数の画像を受け付ける(ステップS701)。
 ここで、複数の画像は、典型的にはハードディスクに記録されているが、コンピュータ通信網の中から順次取得する等の態様を採用しても良い。
 ついで、取得部603は、受け付けられた複数の画像のそれぞれの粗度の評価値を、上記の画像評価装置101により、取得する(ステップS702)。
 上記のように、上記の画像評価装置101では、原画像や他の画像との対比をせずに、各画像1枚ずつの粗度を独立して評価することが可能である。したがって、粗度の評価値は、並行、並列して計算することも可能である。
 最後に、選択部604は、取得された粗度の評価値により、受け付けられた複数の画像から、最も粗度が低い画像、すなわち、エントロピーが最も小さい画像を選択して(ステップS703)、本処理を終了する。
 上記のように、得られる粗度は、当該画像における滑らかでない部分のエントロピーである。画像にノイズが多数含まれる場合や、画像に新たな情報(たとえば、宣伝文句の文字列の画像等。)が上書きされている場合には、エントロピーが増大する。
 したがって、粗度が最低の画像を選択することにより、撮影対象を、見やすく、できるだけ忠実に描写している画像が選択されることになる。
 このように、本実施形態では、簡易な計算によって、複数の画像から、代表となる画像を適切に選択することが可能となる。
 本願においては、2012年4月25日に日本国において特許出願した特願2012-100211を基礎とする優先権を主張するものとし、指定国の法令が許す限り、当該基礎出願の内容を本願に取り込むものとする。
 本発明によれば、画像の粗度を適切に評価する画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラムを提供することができる。
  101 画像評価装置
  102 ぼかし部
  103 相違部
  104 走査部
  105 計算部
  106 出力部
  601 画像選択装置
  602 受付部
  603 取得部
  604 選択部

Claims (9)

  1.  第1画像をぼかした第2画像を生成するぼかし部、
     前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違部、
     前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査部、
     前記求められた相違ごとの出現確率からエントロピーを計算する計算部、
     前記第1画像の粗度の評価値として、前記エントロピーを出力する出力部
     を備えることを特徴とする画像評価装置。
  2.  請求項1に記載の画像評価装置であって、
     前記走査部は、前記第3画像に含まれる各画素を、左から右へ、上から下へ、走査する
     ことを特徴とする画像評価装置。
  3.  請求項1に記載の画像評価装置であって、
     前記走査部は、前記第3画像に含まれる各画素を、空間充填曲線に沿って走査する
     ことを特徴とする画像評価装置。
  4.  請求項1から3のいずれか1項に記載の画像評価装置であって、
     前記第3画像に含まれる各画素の画素値は、所定の色空間における前記第1画像の当該各画素の位置における画素値と、前記第2画像の当該各画素の位置における画素値と、の距離である
     ことを特徴とする画像評価装置。
  5.  請求項1から4のいずれか1項に記載の画像評価装置であって、
     前記隣接する画素の画素値の相違は、所定の色空間における当該隣接する画素の画素値の距離である
     ことを特徴とする画像評価装置。
  6.  1つの対象を描写した複数の画像を受け付ける受付部、
     前記受け付けられた複数の画像のそれぞれの粗度の評価値を、請求項1から5のいずれか1項に記載の画像評価装置により、取得する取得部、
     前記取得された粗度の評価値により、前記受け付けられた複数の画像から、最も粗度が低い画像を選択する選択部
     を備えることを特徴とする画像選択装置。
  7.  ぼかし部、相違部、走査部、計算部、出力部を有する画像評価装置が実行する画像評価方法であって、
     前記ぼかし部が、第1画像をぼかした第2画像を生成するぼかし工程、
     前記相違部が、前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違工程、
     前記走査部が、前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査工程、
     前記計算部が、前記求められた相違ごとの出現確率からエントロピーを計算する計算工程、
     前記出力部が、前記第1画像の粗度の評価値として、前記エントロピーを出力する出力工程
     を備えることを特徴とする画像評価方法。
  8.  コンピュータを、
     第1画像をぼかした第2画像を生成するぼかし部、
     前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違部、
     前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査部、
     前記求められた相違ごとの出現確率からエントロピーを計算する計算部、
     前記第1画像の粗度の評価値として、前記エントロピーを出力する出力部
     として機能させることを特徴とするプログラムを記録したコンピュータ読取可能な記録媒体。
  9.  コンピュータを、
     第1画像をぼかした第2画像を生成するぼかし部、
     前記第1画像と前記第2画像との各画素の画素値の相違を表す第3画像を生成する相違部、
     前記第3画像に含まれる各画素を走査して、隣接する画素の画素値の相違を求め、前記求められた相違ごとの出現確率を求める走査部、
     前記求められた相違ごとの出現確率からエントロピーを計算する計算部、
     前記第1画像の粗度の評価値として、前記エントロピーを出力する出力部
     として機能させることを特徴とするプログラム。
PCT/JP2012/079702 2012-04-25 2012-11-15 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム WO2013161111A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013509350A JP5248719B1 (ja) 2012-04-25 2012-11-15 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
US14/356,039 US9330447B2 (en) 2012-04-25 2012-11-15 Image evaluation device, image selection device, image evaluation method, recording medium, and program
ES12875596.4T ES2575009T3 (es) 2012-04-25 2012-11-15 Dispositivo de evaluación de imagen, dispositivo de selección de imagen, procedimiento de evaluación de imagen, medio de almacenamiento, y programa
EP12875596.4A EP2765555B1 (en) 2012-04-25 2012-11-15 Image evaluation device, image selection device, image evaluation method, recording medium, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012100211 2012-04-25
JP2012-100211 2012-04-25

Publications (1)

Publication Number Publication Date
WO2013161111A1 true WO2013161111A1 (ja) 2013-10-31

Family

ID=49482472

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079702 WO2013161111A1 (ja) 2012-04-25 2012-11-15 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム

Country Status (4)

Country Link
US (1) US9330447B2 (ja)
EP (1) EP2765555B1 (ja)
ES (1) ES2575009T3 (ja)
WO (1) WO2013161111A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104677314A (zh) * 2015-03-02 2015-06-03 合肥京东方光电科技有限公司 检测显示面板表面平坦度的装置及方法
US10339410B1 (en) * 2016-01-13 2019-07-02 Snap Inc. Color extraction of a video stream
US20200244950A1 (en) * 2017-06-28 2020-07-30 Gopro, Inc. Image Sensor Blemish Detection
US10880092B2 (en) * 2018-02-05 2020-12-29 Colossio, Inc. Compression and manipulation-resistant fuzzy hashing
CN112529831B (zh) * 2019-08-28 2024-05-24 深圳市熠摄科技有限公司 利用图像处理技术的地貌潜变观测设备
CN112526705A (zh) * 2020-12-07 2021-03-19 中国科学院长春光学精密机械与物理研究所 航天器光学载荷在轨自适应调焦方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10200893A (ja) 1997-01-14 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> 画像評価方法
JP2004272565A (ja) * 2003-03-07 2004-09-30 Ricoh Co Ltd 画像評価装置、画像評価方法、およびその方法をコンピュータが実行するためのプログラム
JP2009105637A (ja) * 2007-10-23 2009-05-14 Kyodo Printing Co Ltd 画像のぼけ判断方法、その装置及びそのプログラム
JP2011113526A (ja) * 2009-11-30 2011-06-09 Nikon Corp 画像判定装置および画像判定プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436979A (en) * 1992-08-21 1995-07-25 Eastman Kodak Company Process for detecting and mapping dirt on the surface of a photographic element
US20060008174A1 (en) * 2004-07-07 2006-01-12 Ge Medical Systems Global Technology Count adaptive noise reduction method of x-ray images
WO2006113583A2 (en) * 2005-04-15 2006-10-26 Mississippi State University Remote sensing imagery accuracy analysis method and apparatus
WO2006114003A1 (en) * 2005-04-27 2006-11-02 The Governors Of The University Of Alberta A method and system for automatic detection and segmentation of tumors and associated edema (swelling) in magnetic resonance (mri) images
JP4427001B2 (ja) * 2005-05-13 2010-03-03 オリンパス株式会社 画像処理装置、画像処理プログラム
US8538102B2 (en) * 2008-12-17 2013-09-17 Synarc Inc Optimised region of interest selection
SE536510C2 (sv) * 2012-02-21 2014-01-14 Flir Systems Ab Bildbehandlingsmetod för detaljförstärkning och brusreduktion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10200893A (ja) 1997-01-14 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> 画像評価方法
JP2004272565A (ja) * 2003-03-07 2004-09-30 Ricoh Co Ltd 画像評価装置、画像評価方法、およびその方法をコンピュータが実行するためのプログラム
JP2009105637A (ja) * 2007-10-23 2009-05-14 Kyodo Printing Co Ltd 画像のぼけ判断方法、その装置及びそのプログラム
JP2011113526A (ja) * 2009-11-30 2011-06-09 Nikon Corp 画像判定装置および画像判定プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIAN ZHANG; SEI-ICHIRO KAMATA; YOSHIFUMI UESHIGE: "A Pseudo-Hilbert Scan Algorithm for Arbitrarily-Sized Rectangle Region, ADVANCES IN MACHINE VISION, IMAGE PROCESSING, AND PATTERN ANALYSIS", LECTURE NOTES IN COMPUTER SCIENCE, vol. 4153, 2006, pages 290 - 299
See also references of EP2765555A4

Also Published As

Publication number Publication date
ES2575009T3 (es) 2016-06-23
US9330447B2 (en) 2016-05-03
US20140301640A1 (en) 2014-10-09
EP2765555A4 (en) 2015-04-01
EP2765555B1 (en) 2016-03-23
EP2765555A1 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
US10452905B2 (en) System and method for detecting objects in an image
CN107409166B (zh) 摇摄镜头的自动生成
WO2013161111A1 (ja) 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
JP4556813B2 (ja) 画像処理装置、及びプログラム
WO2017076040A1 (zh) 应用于连拍过程中的图像处理方法和装置
CN110827200A (zh) 一种图像超分重建方法、图像超分重建装置及移动终端
CN108027961A (zh) 用于逆色调映射的方法和装置
CN111131688B (zh) 一种图像处理方法、装置及移动终端
KR20110131949A (ko) 영상 처리 장치 및 방법
JP2021189527A (ja) 情報処理装置、情報処理方法及びプログラム
CN104853063B (zh) 一种基于sse2指令集的图像锐化方法
EP1963970A2 (fr) Procede pour fournir des donnees a un moyen de traitement numerique
JP5248719B1 (ja) 画像評価装置、画像選択装置、画像評価方法、記録媒体、ならびに、プログラム
US9619864B2 (en) Image processing apparatus and method for increasing sharpness of images
KR101105675B1 (ko) 영상 데이터 인페인팅 방법 및 장치
JP6155349B2 (ja) デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品
US20150221100A1 (en) Information processing apparatus and computer-readable storage medium storing program
JP6835227B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP6818585B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP4966167B2 (ja) 画像評価装置及びこの画像評価装置を有するカメラ
JP5085589B2 (ja) 画像処理装置および方法
JPWO2013001599A1 (ja) 商品画像処理装置、商品画像処理方法、情報記録媒体、ならびに、プログラム
JP5862370B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11232542B2 (en) Automated noise attenuation in frequency domains
Ghimpeteanu et al. Three Approaches to Improve Denoising Results that Do Not Involve Developing New Denoising Methods

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013509350

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12875596

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14356039

Country of ref document: US

Ref document number: 2012875596

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE