WO2006051792A1 - マッチング装置及び画像検索システム並びにヒストグラム近似復元装置、並びにマッチング方法及び画像検索方法並びにヒストグラム近似復元方法 - Google Patents

マッチング装置及び画像検索システム並びにヒストグラム近似復元装置、並びにマッチング方法及び画像検索方法並びにヒストグラム近似復元方法 Download PDF

Info

Publication number
WO2006051792A1
WO2006051792A1 PCT/JP2005/020471 JP2005020471W WO2006051792A1 WO 2006051792 A1 WO2006051792 A1 WO 2006051792A1 JP 2005020471 W JP2005020471 W JP 2005020471W WO 2006051792 A1 WO2006051792 A1 WO 2006051792A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel value
histogram
data
pair
Prior art date
Application number
PCT/JP2005/020471
Other languages
English (en)
French (fr)
Inventor
Seiichiro Kamata
Kazuyuki Tsuneyoshi
Original Assignee
Kitakyushu Foundation For The Advancement Of Industry, Science And Technology
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004329231A external-priority patent/JP4575751B2/ja
Priority claimed from JP2005078260A external-priority patent/JP4570995B2/ja
Application filed by Kitakyushu Foundation For The Advancement Of Industry, Science And Technology, Waseda University filed Critical Kitakyushu Foundation For The Advancement Of Industry, Science And Technology
Priority to US11/667,565 priority Critical patent/US8155451B2/en
Publication of WO2006051792A1 publication Critical patent/WO2006051792A1/ja
Priority to US11/667,566 priority patent/US7983482B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Definitions

  • Matching device image search system, histogram approximation restoration device, matching method, image search method, and histogram approximation restoration method
  • the present invention relates to a matching technique for determining the similarity between two objects and an image search technique using the matching technique.
  • An object is composed of a large number of data elements such as a still image, a moving image, sound, and text.
  • matching technology that compares two objects and determines their similarity to each other is extremely important.
  • matching technology is applied, such as image search, voice search, and literature search.
  • Patent Document 1 compares a set of all feature points for one image with a set of all feature points for another image, and the two are congruent.
  • the matching is performed by identifying the speaker by comparing the feature obtained by spectrum analysis of the speech uttered by the speaker with the feature stored in the database. Process.
  • matching processing for searching a document is performed by setting the appearance frequency of an index word appearing in a document as the feature amount of the document.
  • the conventional matching method as described above extracts a relatively small number of feature quantities from objects to be collated, and compares the similarity of the feature quantities. Therefore, it is easy to calculate with few variables, and high-speed processing is possible.
  • Improvement of matching accuracy is also required. To improve the matching accuracy, It is necessary to increase the number of points and make the feature quantity as high a dimensional vector as possible. However, if the number of feature points and the number of dimensions are increased excessively, the calculation process becomes complicated and the demand for high-speed processing cannot be met.
  • the "image features" used in this matching method are histograms of images generated using 600 different color 'bins.
  • this matching method uses a combination of the number of pixels corresponding to 600 different colors as “image features”, and assumes a 600-dimensional space. Then, the number of pixels of each color of the histogram is set as a coordinate in the 600-dimensional space, and the histogram (that is, “image feature”) is displayed as a point in the 600-dimensional space. Furthermore, this point is mapped onto a one-dimensional space by mapping it onto a space-filling curve that fills the 600-dimensional space.
  • Patent Document 1 Japanese Patent Laid-Open No. 2001-109885
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2004-294755
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2005-025465
  • Patent Document 4 Japanese Translation of Special Publication 2002-524789
  • Patent Document 5 JP 2002-150287 A
  • Patent Document 6 Japanese Unexamined Patent Application Publication No. 2004-312693
  • Patent Document 7 Japanese Unexamined Patent Publication No. 2003-312693
  • Non-patent document 1 Seiichiro Kamada, “Study on information compression of grayscale image using Hilbert scanning”, IEICE Transactions, Vol.J80-D-II, No.2, pp.426-433, February 1997 Disclosure of Invention
  • the points existing in the vicinity in the original space are not necessarily present in the vicinity on the space filling curve.
  • the distance increases when mapped to a one-dimensional space. Therefore, the similarity may be evaluated low, and an image that should be extracted as a similar image may not be extracted. Therefore, it can be easily estimated that the matching method described in Patent Document 4 is always high and matching accuracy cannot be obtained.
  • an object of the present invention is to provide a matching technique that can determine the similarity between two objects at high speed and with high accuracy.
  • Another object of the present invention is to provide an image search technique capable of searching for an image with high speed and high accuracy by applying the matching technique between objects.
  • a first configuration of the matching device of the present invention is a matching device that compares a reference object with a collated object and determines the similarity between the two objects.
  • the feature point of the object to be matched that is closest to the feature point of the reference object is searched, and a set of feature points of the reference object and the feature point of the object to be matched (hereinafter “A pairing means for generating a “pair set” and
  • Pair extracting means for generating a partial pair set by extracting a part of the pair from the pair set in ascending order of the distance between the paired feature points (hereinafter referred to as “pair distance”).
  • Evaluation scale calculation means for calculating an evaluation scale between the reference object and the object to be matched based on a pair distance of a pair belonging to the partial pair set;
  • determining means for determining similarity between the reference object and the object to be checked based on the evaluation scale.
  • object refers to data having a certain common purpose.
  • content such as still images, moving images, audio, text, and the like can be given.
  • Evaluation scale refers to a distance or similarity that serves as an evaluation standard for similarity between a reference object and a collated object. As an evaluation scale, the average value of the pair distances of the pairs belonging to the partial pair set, the average value of the pair distances of the pairs belonging to the partial pair set, and a weight proportional to the ratio of the number of pairs of the partial pair set to the total number of pairs. The multiplied value can be used.
  • determination of “similarity” by the determination means for example, methods such as threshold determination of an evaluation scale and comparison determination of evaluation scales for a plurality of objects to be compared are used.
  • the pair extraction means can be configured to generate a partial pair set obtained by extracting a predetermined number of the pairs from the pair set in ascending order of the pair distance. .
  • the pair on the end side with the larger pair distance is not evaluated in calculating the evaluation scale. Therefore, the influence of the pair of data elements that are separated by bijection among the corresponding data elements between both objects on the evaluation scale is reduced.
  • the number of feature point pairs constituting the partial pair set is approximately 50% of the total number of feature point pairs constituting the pair set.
  • the pair extraction means includes a pair distance from the pair set. It can be configured to generate a partial pair set by extracting the pairs whose separation is below a predetermined threshold.
  • a pair whose pair distance exceeds a predetermined threshold is considered to be a pair of data elements that are separated by bijection, and is not included in the calculation of the evaluation measure.
  • the pair extraction unit extracts the pair whose pair distance is a predetermined threshold or less from the pair set. Which generates
  • the evaluation scale calculation means calculates a pair distance S1 of pairs belonging to the partial pair set, calculates a value S2 obtained by multiplying the number of pairs not belonging to the partial pair set by a predetermined weight value, and calculates the sum S1.
  • An evaluation measure is calculated by dividing the sum S1 + S2 of the value S2 by the total number of pairs in the pair set.
  • a pair whose pair distance exceeds a predetermined threshold is regarded as a pair of data elements that are separated by bijection (hereinafter referred to as "discrete pair"), and the pair distance itself is I don't get involved in calculating the evaluation scale.
  • the ratio of the discrete vectors to the total pairs is transferred to the calculation of the evaluation scale as a value S2 obtained by multiplying the number of discrete pairs by a predetermined weight value. In other words, if the weight is adjusted appropriately, the similarity between the two objects is evaluated to be lower as the proportion of the discrete pairs increases, and the correlation between the similarity between the two objects and the evaluation scale can be increased.
  • the "weight value” is not particularly specified, but it is usually preferable to use a "predetermined threshold value” used by the pair extraction means when extracting the pair. Les. This is the upper limit value of the pair distance of a pair belonging to the subset pair set, and is a reasonable value to use as a weight value for enhancing the correlation between the similarity of both objects and the evaluation scale.
  • mapping means passes the feature points through all the data elements outside the respective objects. It is characterized by mapping above.
  • the space filling curve includes Hilbert curve and shell. Pinsky curves and Peano curves are known.
  • a fourth configuration of the matching device of the present invention is characterized in that, in the third configuration, the space filling curve is a Hilbert curve.
  • the Hilbert curve is suitable for filling a rectangular space such as a two-dimensional image.
  • a fifth configuration of the matching device of the present invention is characterized in that, in any one of the first to fourth configurations, each object is an image.
  • a sixth configuration of the matching device of the present invention is characterized in that, in the fifth configuration, the feature points are edge points.
  • edge points are easier to detect than other feature points, this configuration can realize stable and reliable image matching.
  • the first configuration of the histogram approximation restoration device of the present invention is the image data (hereinafter referred to as compressed image data) obtained by quantizing the pixel value of each pixel of the original image data and performing the run-length encoding.
  • compressed image data obtained by quantizing the pixel value of each pixel of the original image data and performing the run-length encoding.
  • a histogram approximate restoration device that approximately restores a pixel value histogram of the original image from “compressed image data”),
  • Each pixel value C 0 1,2, — of the compressed image data stored in the compressed image storage means
  • ⁇ and ⁇ are the total number of run lengths corresponding to the pixel values in the entire area or a specific partial area of the compressed image data (hereinafter referred to as “pixel value”) with respect to the total number of pixel values included in the compressed image data.
  • pixel value a specific partial area of the compressed image data
  • the pixel value frequency L of the discrete histogram data corresponding to the pixel value C is centered on the pixel value C.
  • the frequency of appearance of the pixel values of the original image data is approximately distributed by distributing and distributing the pixel values X of the pixel values X in the vicinity of the pixel value C so as to have a normal distribution of the standard deviation ⁇ .
  • an approximate histogram generating means for generating data is calculated.
  • the discrete histogram generating means calculates the pixel value frequency L for each pixel value of the compressed image data, so that the entire compressed image data is restored without restoring the compressed image data.
  • a histogram (discrete histogram data) of pixel values in a region or a specific partial region can be calculated. That is, since there is no decoding operation, discrete histogram data can be reproduced from compressed image data at high speed. Furthermore, the approximate histogram generation means performs continuous distribution on the pixel values by performing the above distribution and distribution on the discrete histogram data having discrete pixel value frequencies with respect to the pixel values. Approximate histogram with value frequency 'convert to data. As a result, the histogram data can be restored close to the original image data.
  • a second configuration of the histogram approximate restoration device of the present invention is the above-described first configuration, wherein the approximate histogram generation means includes:
  • the approximate histogram 'data is generated by distributing and distributing to the pixel value frequency L (x) of the pixel value X in the vicinity of the pixel value C so that the normal distribution represented by the distribution function G (x) is obtained.
  • the normal distribution function G (x) is expressed by the discrete histogram 'data ⁇ (C, L)
  • i l, 2,. Since it is a function of L and standard deviation ⁇ , it is possible to reconstruct histogram data that is close to the original image data simply by assuming standard deviation ⁇ .
  • a third configuration of the histogram approximate restoration device of the present invention is the first or second configuration, wherein the approximate histogram generation means includes:
  • the pixel value frequency L of the discrete histogram data corresponding to the pixel value C is centered on the pixel value C.
  • the compressed image data is obtained by quantizing a pixel value of each pixel of the original image data.
  • the run length is determined by determining the run length so that the variance of the pixel values of the original image data corresponding to the run is equal to or less than a predetermined threshold value ⁇ .
  • the approximate histogram generation means includes:
  • the compressed image data is obtained by quantizing a pixel value of each pixel of the original image data.
  • the run length is determined by determining the run length so that the variance of the pixel values of the original image data corresponding to the run is equal to or less than a predetermined threshold value ⁇ .
  • the approximate histogram generation means includes:
  • the standard deviation ⁇ is a smaller value of either C Z4 or the square root of the threshold ⁇ .
  • the value of the standard deviation ⁇ is set to C Z4 or the square root of the threshold ⁇ . Since this value is vj, it is possible to avoid overestimating the value of standard deviation ⁇ . This improves the accuracy of histogram 'data approximation restoration.
  • the first configuration of the image search system of the present invention is that image data of a compressed image obtained by quantizing the pixel value of each pixel of the original image data and performing run-length encoding (hereinafter referred to as "compression").
  • reference histogram storage means for storing pixel value histogram data of the reference image (hereinafter referred to as “reference histogram data”).
  • is the total number of run lengths corresponding to the pixel values in the entire area or a specific partial area of the compressed image data (hereinafter referred to as “pixel value frequency”)
  • the pixel value frequency L of the discrete histogram data corresponding to the pixel value C is centered on the pixel value C.
  • the appearance frequency of the pixel value of the original image data is approximately Approximate histogram to be expressedApproximate histogram generation means for generating data
  • Similarity calculation means for calculating the similarity between the reference histogram 'data and the approximate histogram' data stored in the reference histogram storage means;
  • Image selection means for selecting one or more of the compressed image data similar to the reference image based on the similarity of the compressed image data.
  • the discrete histogram generating means calculates the pixel value frequency L for each pixel value C of the compressed image data, so that the compressed image data can be restored without restoring the compressed image data. It is possible to calculate a histogram (discrete histogram. Data) of pixel values in the entire region or a specific partial region. Ie, reference histogram 'data, pressure Discrete histogram data can be reproduced at high speed from the reduced image data. Further, the approximate histogram generating means performs the above-described distribution and distribution on the discrete histogram 'data having a discrete pixel value frequency with respect to the pixel value, whereby a continuous pixel value with respect to the pixel value is obtained.
  • the similarity calculation means calculates a difference between the approximate histogram 'data and the reference histogram' data as the similarity. It is characterized by doing.
  • the similarity calculation means calculates the difference between the approximate histogram 'data and the reference histogram' data as the similarity, the calculation of the similarity is simplified, and image search is performed. Can be further shortened.
  • one or a plurality of the compressed image data selected by the image selection means in the first or second configuration is used as compressed image data of a candidate image.
  • First feature point extracting means for extracting feature points of the candidate image based on the compressed image data of each candidate image and calculating coordinates in the one-dimensional space of the feature points;
  • Second feature point extraction means for extracting feature points of the reference image and calculating coordinates in a one-dimensional space of the feature points
  • the feature point of the candidate image nearest to the feature point of the reference image is searched, and a set of feature point pairs of the reference image and the feature point of the candidate image (hereinafter referred to as “pair set”)
  • Pair extracting means for generating a partial pair set in which a part of the pair is extracted in ascending order of the distance between the pair of feature points (hereinafter referred to as “pair-distance”) from the pair set; ,
  • Determination means for determining similarity between the reference image and the candidate image based on the evaluation scale
  • the matching method of the present invention is a matching method for comparing and collating a reference object with an object to be collated, and determining the similarity between both objects,
  • mapping step for mapping feature points extracted from each object to the one-dimensional space by bijection expanding each data element of each object to the one-dimensional space
  • a feature point of the object to be matched that is closest to the feature point of the reference object is searched in the one-dimensional space, and a pair of feature points outside the reference object and the feature point of the object to be matched is found.
  • a pairing step that generates a set of hereinafter referred to as “pair set”),
  • a pair extraction step for generating a partial pair set by extracting a part of the pair from the pair set in ascending order of distance between the paired feature points (hereinafter referred to as “pair distance”);
  • An evaluation scale calculation step for calculating an evaluation scale between the reference object and the object to be matched based on a pair distance of a pair belonging to the partial pair set;
  • the histogram approximate restoration method of the present invention quantizes the pixel value of each pixel of the original image data and performs run-length encoding (hereinafter referred to as “compressed image data”). ) To approximate the pixel value histogram of the original image.
  • compressed image data run-length encoding
  • ⁇ and ⁇ are the total number of run lengths corresponding to the pixel values in the entire area or a specific partial area of the compressed image data (hereinafter referred to as “pixel value”) with respect to the total number of pixel values included in the compressed image data.
  • the pixel value frequency L of the discrete histogram data corresponding to the pixel value C is centered on the pixel value C.
  • the frequency of appearance of the pixel values of the original image data is approximately distributed by distributing and distributing the pixel values X of the pixel values X in the vicinity of the pixel value C so as to have a normal distribution of the standard deviation ⁇ .
  • an approximate histogram generation step for generating data is performed.
  • the first configuration of the image search method of the present invention is to compress image data (hereinafter referred to as “compressed image data”) obtained by quantizing the pixel value of each pixel of original image data and performing run-length encoding.
  • compressed image data obtained by quantizing the pixel value of each pixel of original image data and performing run-length encoding.
  • Image database in which multiple records are stored,
  • reference histogram storage means for storing pixel value histogram data of the reference image (hereinafter referred to as “reference histogram data”).
  • the pixel value frequency L of the discrete histogram data corresponding to the pixel value C is centered on the pixel value C.
  • the frequency of appearance of the pixel values of the original image data is approximately distributed by distributing and distributing the pixel values X of the pixel values X in the vicinity of the pixel value C so as to have a normal distribution of the standard deviation ⁇ .
  • a second configuration of the image search method of the present invention is that, in the first configuration, each of the compressed image data selected in the image selection step is used as compressed image data of a candidate image.
  • a first feature point extraction step for extracting feature points of the candidate image based on the compressed image data of the candidate image and calculating coordinates in a one-dimensional space of the feature points;
  • a feature point of the candidate image that is closest to the feature point of the reference image is searched in the one-dimensional space, and a set of pairs of feature points of the reference image and feature points of the candidate image (hereinafter referred to as feature points)
  • An evaluation scale calculation step for calculating an evaluation scale between the reference image and the candidate image based on a pair distance of a pair belonging to the partial pair set;
  • the first configuration of the program of the present invention is characterized in that the computer is caused to function as a matching device having any one of the first to sixth configurations by being read into the computer and executed.
  • a second configuration of the program of the present invention is characterized in that the computer is caused to function as the histogram approximation restoration device having any one of the first to fifth configurations by being read into a computer and executed.
  • a third configuration of the program of the present invention is characterized in that the computer is caused to function as the image search system having any one of the first to third configurations by being read and executed by the computer.
  • a plurality of feature points projected on a multidimensional space are mapped to a one-dimensional space, and the distance between the feature points of two objects in the one-dimensional space is calculated. Since the similarity between the two objects is determined based on this, the object matching calculation processing is facilitated, and the object matching is accelerated.
  • the present invention distributes pixels so that the pixels are normally distributed in the vicinity of the discrete pixel value histogram of the run-length code-compressed image data, so that the original from the discrete pixel value histogram is obtained. Since the approximate pixel value histogram of the continuous image is restored, it is possible to provide a method for efficiently and accurately restoring the pixel value histogram of the original image. In addition, since the similarity is obtained by comparing the approximated and restored pixel value histogram with the pixel value histogram of the reference image, the image data search can be performed at high speed. Due to such effects, the present invention contributes to speeding up and high accuracy of image search.
  • FIG. 1 is a block diagram showing a functional configuration of an image search device using a matching device 1 according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart showing an image search method using the matching method according to Embodiment 1 of the present invention.
  • FIG. 3 is an explanatory diagram of a mapping that maps feature points on a query image onto a Hilbert curve.
  • FIG. 4 is an explanatory diagram of a mapping that maps feature points on a data image onto a Hilbert curve.
  • FIG. 5 is a diagram showing pairs of feature points of a query image and feature points of a data image.
  • FIG. 6 is a diagram showing pairs of feature points of a query image and feature points of a data image.
  • FIG. 7 is a block diagram showing a functional configuration of an image search device using the matching device according to the second embodiment.
  • FIG. 8 is a flowchart showing image matching processing by the matching apparatus 1 according to the second embodiment.
  • FIG. 9 is an original image of a query image and a data image used for evaluation of the matching method of Example 2.
  • FIG. 10 is a binary edge image obtained by performing edge extraction of each image in FIG. (a) Binary edge image of the query image, (b) Binary edge image of the original image of the data image.
  • FIG. 11 is a data image obtained by adding various noises to the original image in FIG. (A) Gaussian
  • FIG. 12 is a diagram showing a comparison of calculation time between the matching method based on MHD minimization and the matching method of Example 2.
  • FIG. 13 is a block diagram showing a configuration of an image search system according to Embodiment 3 of the present invention.
  • FIG. 14 is a block diagram showing the configuration of the coarse search unit 34 in FIG.
  • 15 is a block diagram showing the configuration of the matching unit 38 in FIG.
  • FIG. 16 This is an example of dividing a section L of a dimensional image into sections L and L.
  • FIG. 17 is a schematic diagram showing an example of image data compressed by a run-length code.
  • FIG. 18 is a flowchart showing the flow of rough search processing.
  • FIG. 19 A discrete histogram in which region compressed data image force is also created.
  • FIG. 20 A histogram showing pixels distributed in the vicinity of pixel value C and a combined histogram.
  • FIG. 21 is a histogram of the original image.
  • FIG. 22 is a flowchart showing the flow of matching processing in matching unit. Explanation of symbols
  • Image output means Query image
  • Hilbert curve Image extraction means Image retrieval device Frame 'Memory area extraction means Area image storage means Coarse retrieval section
  • Histogram approximation restoration device Histogram creation means Reference histogram storage means Region extraction means Comparison calculation means Image selection means Region compressed image storage means Discrete histogram generation means Approximate histogram generation means 61 Edge extraction means
  • Example 1 an example applied to image matching will be described as an application example of the matching device according to the present invention.
  • FIG. 1 is a block diagram illustrating a functional configuration of an image search device using the matching device 1 according to the first embodiment of the present invention.
  • the image search device of this embodiment includes a matching device 1, an image input unit 2, an image database (hereinafter referred to as “image DB”) 5, and an image output unit 10.
  • the image input means 2 is an interface for inputting a query image that is a reference object or a data image that is an object to be collated.
  • the query image can be directly input from an imaging means such as a digital camera, or can be selected from an input form such as input from a recording medium or other information device power input via a communication line.
  • the image input means 2 is also used to input a data image stored in the image DB5.
  • the image DB 5 is a means for storing a data image, which is an object to be verified, together with position information of feature points mapped to a one-dimensional space by the mapping means 4. If the image input from the image input means 2 is a data image, the image information and the position information of the feature points are written in the image DB5. The matching device 1 compares the query image that is the reference object with the data image that is the object to be verified, and determines the similarity between the images.
  • the image output means 10 reads out from the image DB 5 and outputs the data image determined to be similar to the query image by the matching device 1.
  • the matching device 1 includes an edge extraction unit 3, a mapping unit 4, a pairing unit 6, a pair extraction unit 7, an evaluation scale calculation unit 8, and a determination unit 9.
  • the edge extraction unit 3 analyzes the image input from the image input unit 2 and extracts an edge as a feature point.
  • An edge is a boundary where the luminance or color of an image changes discontinuously.
  • the contour or ridgeline of the object is detected as an edge.
  • pixels belonging to edges are used as feature points. Further, in order to reduce the number of feature points and facilitate subsequent processing, only particularly prominent edges may be extracted, or intersections of a plurality of edges may be used as feature points.
  • the mapping unit 4 is a unit that maps the feature points extracted by the edge extraction unit 3 to a one-dimensional space.
  • the feature points extracted by the edge extraction means 3 are pixels of the two-dimensional image, and their positions are displayed in two-dimensional coordinates. This is bijective in a one-dimensional space so that the positions of feature points can be displayed in one-dimensional coordinates. This operation is hereinafter referred to as “mapping to a one-dimensional space”. A specific method for mapping to a one-dimensional space will be described later.
  • the pairing means 6 receives the position information of the feature points of the query image from the mapping means 4, and the position information of the feature points of the data image from the image DB5.
  • the pairing means 6 searches for the feature point of the data image nearest to each feature point of the query image in the one-dimensional space based on the position information of the feature points of both images. Then, a pair set of feature points of the query image and feature points of the data image is generated. The pair search method will be described later.
  • the pair extracting means 7 extracts a part of the pairs in order from the pair distance force and the last pair from the feature point pair set created by the pairing means 6 to create a partial pair set.
  • the evaluation scale calculation means 8 calculates the average value of the distances of the partial pair set created by the pair extraction means 7 as an evaluation scale.
  • the determination means 9 calculates an average value of distances as an evaluation measure between the query image and each data image. In comparison, it is determined that the data image having the smallest average distance is the data image closest to the query image. Further, the average value of the distance may be determined as a threshold value, and the data image (one or more) whose average value of the distance is smaller than the predetermined threshold value may be determined as a data image that approximates the query image.
  • the image search apparatus includes an image input unit 2, an edge extraction unit 3, a mapping unit 4, a pairing unit 6, a pair extraction unit 7, an evaluation scale calculation unit 8, a determination unit 9, It can also be realized by installing a program describing the processing procedure of each of the image output means 10 and providing the image DB 5 in the storage device of the computer.
  • the computer can be selected from a moderately suitable model such as an existing personal computer, but dedicated hardware may be designed and integrated on a board or chip.
  • FIG. 2 is a flowchart showing an image search method by the image search apparatus of the present embodiment.
  • the image search method will be described with reference to the step numbers given in this figure.
  • step S1 the image input means 2 reads a query image.
  • the data element (pixel) Cq is a point on the two-dimensional plane (Cq ER 2 ).
  • step S3 the mapping means 4 applies bijection to the edge image ⁇ Cq
  • the feature point Cqh is a point on the one-dimensional plane (Cqh eR).
  • Set ⁇ u I j l, 2,
  • FIG. 3 is an explanatory diagram of a mapping in which feature points on the query image are mapped onto the Hilbert curve.
  • Fig. 3 (a) shows the distribution of feature points Cq on the query image
  • Fig. 3 (b) shows the distribution of feature points Cqh on the Hilbert curve
  • Fig. 3 (c) shows the feature points Cqh. Shows an array of coordinates u sorted in ascending order.
  • the query image 11 is composed of 8 ⁇ 8 pixel forces.
  • the Hilbert curve 12 is a space filling curve that passes through all the pixels of the query image 11.
  • the coordinates u as shown in Fig. 3 (c)
  • the position of the point on the Hilbert curve is a one-dimensional coordinate (for example, a coordinate with the start point S of the Hilbenoleto curve as the origin, the direction from the start point S to the end point E, and the opposite direction in the positive direction). It is expressed by Therefore, the distance between two points on the Hilbert curve can be calculated as the difference between the one-dimensional coordinates.
  • the symbols II and II represent the Euclidean norm distance in the one-dimensional space.
  • step S8 the evaluation scale calculation means 8 calculates the partial pair set Ku of feature points by the following equation (2).
  • step S9 if all data images are read and the average value has been calculated, the process proceeds to step S10, and if not, the process returns to step S5.
  • step S10 the determination means 9 calculates the average value of the pair distances for all the data images, and the data image that has the minimum average value of the pair distances is the data image that most closely approximates the query image. It is determined that Then, the image output means 10 outputs the data image determined by the determination.
  • step S6 the following equation (3) may be used instead of equation (1).
  • equation (3) it is only necessary to search for V in the range where the coordinate value is larger than u, so the calculation time can be reduced and j 10)
  • the average of 4 pairs that become smaller is 0 ⁇ 50.
  • a data image is prepared such that the Hausdorff distance for a feature point is 2, 5, 8, 10, 26, and a pair set of feature points is generated between the query image and each data image.
  • the average value of the extracted pair distances was calculated by changing the number of pairs to be extracted.
  • Table 1 shows that when a pair set is created between feature points between the query image and each data image under the condition of Equation (1), 5 pairs in ascending order from the pair with the smallest distance ( Top5), 6 sets (top6), ..., 15 sets (topl5) are extracted, and the results of calculating the average values are summarized.
  • Table 2 shows three pairs in ascending order from the pair with the smallest distance when a pair set is created between the query image and each data image under the condition of Equation (3). Top3), 4 sets (top4), ..., 10 sets (top 10) are extracted, and the results of calculating their average values are summarized.
  • the force of taking the matching of a two-dimensional image as an example.
  • the object of matching according to the present invention is not limited to this. Any object that can describe its features by the coordinates of multiple feature points projected in an N-dimensional (N is a natural number of 2 or more) space can target speech, text, text, and other objects.
  • Example 2 the Hilbert scanning distance (HSD) d defined below is used as an evaluation scale.
  • Equation 5 d so-called I ⁇ ⁇ Vk 11) ( 4 )
  • the function p is defined by the following equation (5).
  • is a threshold value (constant).
  • FIG. 7 is a block diagram illustrating a functional configuration of an image search device using the matching device according to the second embodiment.
  • the image search apparatus according to the present embodiment is different from that shown in FIG.
  • the image cutout means 20 cuts out a partial image to be a collated object from the data image stored in the image DB 5 and outputs it to the pairing means 6.
  • a process for storing information on the data image in the image DB5 is performed.
  • FIG. 8 is a flowchart illustrating image matching processing by the matching apparatus 1 according to the second embodiment.
  • steps S1 to S4 are the same as those in FIG.
  • the position is set while sequentially moving from the upper left corner of the data image.
  • a pair whose II is equal to or smaller than a predetermined threshold ⁇ is extracted.
  • Let the set of extracted pairs be the partial pair set ⁇ (u, V, 2, ..., ⁇ , where P is the extracted
  • step S23 the evaluation scale calculation means 8 calculates the partial pair set ⁇ (u, V) according to the following equation (6).
  • step S24 if segmentation of the partial set of feature point coordinates corresponding to the collated partial image has been completed for the collated partial images at all positions, the process proceeds to step S10. Otherwise, go back to step S20.
  • step S10 the determination means 9 determines that the collated partial image having the smallest pair distance average value is the collated partial image that most closely approximates the query image. Then, the image output means 10 outputs the position coordinates of the verified partial image determined by the determination.
  • the image shown in FIG. 9A is used as the original image.
  • a part of this original image is cut out to create the query image in Fig. 9 (b).
  • the original image size is 512X256 pixels, and the query image size is 128X128 pixels.
  • the exact matching position of the query image in the original image is (28, 119) (note that the origin of the coordinate system is the coordinates of the upper left vertex of the original image, and the position of the category image is (Represented by the coordinates of the upper left vertex of the query image).
  • the original image in FIG. 9A is used as the data image A and collated with the query image.
  • images B to G with noise added to the data image in Fig. 9 (a) are created, and this is used as the data image and compared with the query image. .
  • Data image C is an image obtained by adding Poisson's noise (? ( ⁇ 3011 noise) to the original image in Fig. 9 (&).
  • is an image to which dispersion is added.
  • Data image F is an image in which 20% of edge points are randomly attached to the original image in Fig. 9 (a).
  • the data image G is an image in which 50% of edge points are randomly deleted from the original image in Fig. 9 (a).
  • Figures 10 (a) and 10 (b) show binary edge images obtained by performing edge extraction from the images in Figs. 9 (a) and 9 (b).
  • binary edge images obtained by performing edge extraction on data images B to G are shown in Fig. 1 (a) to (f).
  • the position in the data image of the partial image to be matched with the query image was detected using the matching method by minimizing (MHD).
  • MHD The matching method by minimizing
  • Table 3 and (Table 4) show the collation position and the root-mean-square (RMS) of the partial image detected by each method. Indicates.
  • RMS is defined by the following equation (7).
  • image A image A.
  • image B image C image D image E image F image G
  • HSD is the result of position detection by the matching method of Example 2. From this result, it can be seen that the matching method of the present invention is superior in matching accuracy and robust to noise compared to the methods of other comparative examples.
  • FIG. 12 is a diagram showing a comparison of calculation times between the matching method based on MHD minimization and the matching method according to the second embodiment.
  • MHD is the fastest calculation method among the Hausdorff distance measurements.
  • the matching method of Example 2 can reduce the calculation time to 1/10 or less compared to the conventional matching method given as a comparative example.
  • FIG. 13 is a block diagram showing the configuration of the image search system according to Embodiment 3 of the present invention.
  • the image search system according to the third embodiment includes the image input unit 2, the image search device 30, the image DB 5, and the image output unit 10.
  • the image retrieval system of this embodiment is used in a system for discriminating the type of fine particles by comparing an image similar to the fine particle image with the fine particle image stored in the image DB5.
  • the image input means 2 is an interface for inputting a reference image as a reference object or a data image as an object to be verified.
  • the image input means 2 includes a charge coupled device (CCD) 2a and an analog to digital converter (ADC) 2b.
  • CCD charge coupled device
  • ADC analog to digital converter
  • the image picked up by the CCD 2a is quantized by the ADC 2b and output to the image search device 30.
  • the image DB5 is a means for storing a compressed data image obtained by making a data image, which is an object to be verified, one-dimensional by Hilbert scanning and performing run-length encoding.
  • the image search device 30 searches the compressed data image stored in the image DB 5 for a data image that approximates the reference image input from the image input unit 2, and outputs the data image to the image output unit 10.
  • the image output means 10 is an interface for outputting a data image determined to be similar to the reference image by the image search device 30.
  • the image output means 10 is composed of an output device such as a display, a printer, an external storage device or the like.
  • the image search device 30 includes a frame 'memory 31, a region extraction unit 32, a region image storage unit 33, a rough search unit 34, an image encoding unit 35, a reference image storage unit 36, a candidate Complementary image storage means 37 and matching unit 38 are provided.
  • the frame 'memory 31 is a memory for storing an image picked up by the CCD 2a and digitized by the ADC 2b.
  • the area extracting means 32 extracts the image intermediate force partial image (for example, the image of the fine particle part) stored in the frame 'memory 31 as a reference image, and stores it in the area image storage means 33.
  • the coarse search unit 34 selects a compressed data image close to the reference image input from the image input means 2.
  • the image encoding unit 35 generates a compressed image by converting the image (two-dimensional image) input from the image input means 2 into a one-dimensional image using a Hilbert scan and performing run-length encoding. This compressed image is stored in the reference image storage means 36.
  • the matching unit 38 collates each compressed candidate image stored in the candidate image storage unit 37 with the compressed reference image stored in the reference image storage unit 36. Then, a compression candidate image most similar to the compression reference image is selected and output to the image output means 10.
  • FIG. 14 is a block diagram showing a configuration of coarse search unit 34 in FIG.
  • the rough search unit 34 includes a histogram approximation restoration device 41, a histogram creation unit 45, a reference histogram storage unit 46, a region extraction unit 47, a comparison calculation unit 48, and an image selection unit 49.
  • the histogram creating means 45 generates a histogram (hereinafter referred to as “reference histogram.data”) for the pixel values of each pixel included in the reference image stored in the area image storage means 33, and uses this as a reference. Stored in the histogram storage means 46.
  • the image DB5 stores a plurality of compressed data images.
  • the compressed data image is image data of a compressed image obtained by quantizing the pixel value of each pixel of the original image and performing run-length encoding. Details of this run-length encoding will be described later.
  • the area extraction unit 47 reads out the compressed data image from the image DB5 and outputs the entire data or cuts out a part of the area and outputs it. For example, when there is a fine particle image in a partial region of the compressed data image, only the portion of the fine particle image is extracted.
  • the histogram approximate restoration device 41 uses the compressed data image or its partial data (hereinafter referred to as "region compressed data image”) read from the image DB5 by the region extracting means 47, and the original image or its partial image pixels. Approximately restore the value histogram.
  • the histogram approximation restoration device 41 includes a region compressed image storage unit 51, a discrete histogram generation unit 52, and an approximate histogram generation unit 53.
  • the area compressed image storage means 51 temporarily stores the area compressed data image output from the area extraction means 47.
  • the discrete histogram generation means 52 is stored in the area compressed image storage means 51.
  • Discrete histogram data is generated from the stored region compressed data image.
  • Discrete histogram 'data will be described later.
  • the approximate histogram generation means 53 generates approximate histogram data by giving dispersion to the pixel value frequency for the discrete histogram ′ data output from the region compressed image storage means 51.
  • the comparison calculation means 48 calculates the similarity between the reference histogram data stored in the reference histogram storage means 46 and the approximate histogram data output from the approximate histogram generation means 53.
  • the image selection means 49 selects one or a plurality of compressed data images similar to the reference image based on the similarity of each compressed data image, and outputs them as candidate images.
  • FIG. 15 is a block diagram showing a configuration of matching unit 38 in FIG.
  • the matching unit 38 includes edge extraction means 61 and a matching device 62.
  • the edge extraction means 61 decodes each compressed candidate image output from the coarse search unit 34 to extract a one-dimensional image and extract an edge to obtain a one-dimensional edge image (hereinafter referred to as “one-dimensional candidate edge image”). Is generated.
  • the matching device 62 includes an edge extraction unit 63, a pairing unit 65, a pair extraction unit 67, an evaluation scale calculation unit 68, and a determination unit 69.
  • the edge extraction means 63 decodes the compressed image of the reference image output from the image encoding unit 35.
  • a one-dimensional reference image is generated.
  • the edge extraction means 63 analyzes this one-dimensional reference image, extracts edges as feature points, and generates a one-dimensional edge image (hereinafter referred to as “one-dimensional reference edge image”).
  • the pairing means 65 searches for the feature point of the candidate image nearest to each edge point of the reference image in the one-dimensional space. Then, a pair set of edge points of the reference image and edge points of the candidate image is generated.
  • the pair extraction means 67 extracts a part of the pairs in order from the pair with the smallest pair distance from the edge point pair set created by the pairing means 65 to create a partial pair set.
  • the evaluation scale calculation means 68 calculates the average value of the distances of the partial pair set created by the pair extraction means 67 as an evaluation scale.
  • the determination unit 69 compares the average value of distances, which is an evaluation scale, between the reference image and each candidate image, and the candidate image with the smallest average distance value is the candidate closest to the reference image. Judged to be an image.
  • the image output means 10 outputs the compression candidate image determined by the determination means 69 to be most approximate to the reference image.
  • image search system of the present embodiment may be configured as hardware as an LSI chip, but each component may be configured as a functional module by loading a program into a general-purpose computer. .
  • the compressed data image stored in the image DB5 of Figs. 13 and 14 will be described.
  • This compressed data image is obtained by making the original image one-dimensional by Hilbert running, quantizing the pixel value of each pixel, and performing run-length encoding.
  • the run length code ⁇ the run length is determined so that the variance of the pixel values of the original image corresponding to the run is not more than a predetermined threshold ⁇ in each run.
  • This compression algorithm is described in detail in Patent Documents 6 and 7 or Non-Patent Document 1. Here, only one example of the compression algorithm will be described.
  • a two-dimensional original image is scanned into a one-dimensional original image.
  • N is the number of pixels of the original image.
  • Equation (9) It is expressed by Equation (9) and Equation (10). Let N be the number of pixels in section L.
  • the bisection point is ⁇ ( ⁇ ⁇ ) that minimizes the following evaluation formula (14).
  • This bisection operation is recursively maxed until Eval is less than or equal to the predetermined threshold ⁇ and N is less than or equal to N.
  • the one-dimensional original image is divided into a plurality of sections. Run-length encoding is performed with each divided section as a run, and the average value of pixels in that section (run) as the pixel value in that run. As a result of this run-length coding, the original image that has been made one-dimensional is quantized with pixel values in each run, and the variance of the pixel values of the original image corresponding to that run is less than or equal to a predetermined threshold ⁇ in each run. . A plurality of compressed data images obtained in this way are stored in the image DB5.
  • FIG. 17 is a schematic diagram showing an example of image data compressed by run-length encoding.
  • the horizontal axis represents the scanning order, and the vertical axis represents the pixel value (luminance).
  • the numbers in parentheses indicate the pixel value (in this case, luminance) and the number after the run length.
  • a compressed data image is represented by the following equation (15). Where C is the pixel value, 1 is the run render, and N is the number of runs.
  • the coarse search unit 34 searches one or more image data similar to the reference image cut out from the captured image data from the image DB 5 to obtain candidates. Extract as an image. Then, the matching unit 38 collates the candidate image with the reference image, and extracts a candidate image most similar to the reference image.
  • description will be given in the order of extraction of candidate images in the coarse search unit 34 and extraction of candidate images most similar to the reference image in the matching unit 38.
  • reference histogram data is created from captured image data.
  • a subject such as a fine particle is imaged by the CCD 2a.
  • the image data output from the CCD 2a is digitized by the ADC 2b and stored in the frame 'memory 31 (see Fig. 13).
  • the area extraction unit 32 extracts a target area from the image stored in the frame 'memory 31 and stores it in the area image storage unit 33 as a reference image.
  • Various known methods can be used as the region extracting method by the region extracting means 32, but the description is omitted because it is not directly related to the present invention.
  • the histogram creation means 45 creates a histogram of pixel values from the reference image stored in the area image storage means 33, and stores it in the reference histogram storage means 46 as reference histogram 'data. save.
  • a rough search process for searching a compressed data image of an image similar to the reference image from the compressed data image stored in the image DB 5 is executed as follows.
  • FIG. 18 is a flowchart showing the flow of the rough search process.
  • the coarse search unit 3 4 initializes the number i of the compressed data image read from the image DB 5 to 1 (S21).
  • the area extracting unit 47 reads the i-th compressed data image from the image DB5 (S22). Then, a predetermined area (area compressed data image) is extracted from the read compressed data image (S43).
  • the region to be extracted may be a part of the compressed image or the entire compressed image depending on the purpose.
  • the extracted region compressed data image is stored in the region compressed image recording. Stored in the memory 51.
  • the discrete histogram generating means 52 generates discrete histogram data from the region compressed data image stored in the region compressed image storage means 51 (S44).
  • FIG. 19 is a discrete histogram created from the region compressed data image.
  • the horizontal axis represents the pixel value (luminance), and the vertical axis represents the pixel appearance frequency.
  • the frequency of pixel appearance is the sum of the run lengths of the intervals where the pixel values are equal.
  • the appearance frequency of a pixel having a pixel value of 70 is obtained by extracting all data having a pixel value of 70 from the entire region compressed data image and summing the run lengths of the data.
  • a set of runs whose pixel value is C in a region-compressed data image is denoted as L (C).
  • the reference histogram is generally expressed by the following equation (16).
  • L is the pixel value frequency (sum of run lengths)
  • M is the number of pixel values.
  • the frequency of appearance of pixels can be expressed as a normalized value obtained by dividing the pixel value frequency of each pixel value by the total number of pixels on one screen.
  • the approximate histogram generating means 53 generates approximate histogram 'data by giving dispersion to the pixel value frequency for the discrete histogram data output from the region compressed image storage means 51 (S 25). ).
  • the pixel value C in the pixel value histogram in Fig. 9 is a quantized value.
  • the comparison calculation means 48 calculates the similarity Si between the approximate histogram data output from the approximate histogram generation means 53 and the reference histogram data stored in the reference histogram storage means 46. (S26).
  • the similarity S is calculated from the difference between the approximate histogram data and the reference histogram data. That is, if the approximate histogram data is H (x) and the reference histogram 'data is H (X), the similarity S is expressed by equation (18).
  • X and X represent pixel values.
  • the image search device 1 determines whether or not the calculation of the similarity S has been completed for all the compressed data images stored in the image DB 5 (S27). I'm 1
  • the image selection means 49 selects one or more similar to the reference image based on the similarity of each compressed data image. Selected compressed data images (S29) and output them as candidate images (
  • a method for selecting a compressed data image by the image selection means 49 a method for selecting a compressed data image having a minimum similarity Si, or a compressed data image having a similarity S of a predetermined threshold value or less is selected. It is possible to select a method. Which method to use can be determined according to the application.
  • the coarse search unit 31 can search for an image by obtaining the similarity between the approximate histogram data directly restored from the compressed data image and the reference histogram data of the reference image. Since the amount of data in the image histogram is much smaller than that of raw image data, it is possible to search at a speed that is more than 10 times faster than when searching directly for image data.
  • the pixel value of each pixel of the original image is quantized, and the distribution of the pixel value of the original image corresponding to the run is distributed in each run.
  • the square root of the threshold ⁇ is the standard deviation ⁇ . You can also
  • the standard deviation ⁇ may be a smaller value of the square root of the threshold ⁇ or l / 4 (C / 4) of the pixel value C.
  • the matching unit 38 extracts the candidate image most similar to the reference image as follows.
  • the image encoding unit 35 encodes the reference image stored in the region image storage means 33.
  • the encoding method is the same as the encoding method used for encoding the compressed data image stored in the image DB5.
  • the candidate image encoded by the image encoding unit 35 is stored in the candidate image storage means 36.
  • FIG. 22 is a flowchart showing the flow of matching processing in matching unit 38.
  • step S41 the edge extraction unit 63 reads a compressed reference image from the compressed image storage unit 36.
  • the feature point Cqh is a point on the one-dimensional plane (Cqh GR).
  • step S43 the pairing means 6 uses the feature point Cqh on the Hilbert curve.
  • step S44 the edge extraction unit 61 reads one of the compressed candidate images stored in the candidate image storage unit 37.
  • a set of feature point coordinates ⁇ v I k l, 2, ', N'; V ⁇ V ⁇ — ⁇ v ⁇
  • step S47 the pair extraction unit 67 sets the pair set ⁇ (u, ⁇ )
  • ] 1,2,- ⁇ -j 10)
  • step S48 the evaluation scale calculating means 68 calculates the Hilbert scanning distance as an evaluation scale according to equation (4).
  • step S49 all candidate images are read out, and if the average value has been calculated, the process proceeds to step S50, and if not, the process returns to step S44.
  • step S50 the determination unit 69 calculates the Hilbert scanning distance for all candidate images, and determines that the candidate image with the minimum Hilbert scanning distance is the candidate image that most closely approximates the reference image. judge. Then, the image output means 10 outputs the candidate image determined by the determination.
  • the rough search unit 34 narrows down the candidate images by the coarse search using the histogram.
  • the image most similar to the reference image can be extracted from the image data at high speed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 2つのオブジェクトの類似性を高速かつ高精度に判定できるマッチング技術を提供する。  N次元空間に投影されたオブジェクトの特徴点の集合を比較して2つのオブジェクトの類似性を判定するマッチング方法において、前記集合を1次元空間に写像するマッピングステップ(S3)と、互いに最近傍に位置する前記第1のオブジェクトの特徴点と前記第2のオブジェクトの特徴点のペアの集合を生成するペアリングステップ(S6)と、前記特徴点のペアの集合から、前記ペアの距離が小さい順に、前記ペアの一部を抽出して、前記特徴点のペアの部分集合を作成する部分集合生成ステップ(S7)と、前記特徴点のペアの部分集合に属するペアの評価尺度を算出する平均値算出ステップ(S8)と、前記距離の平均値に基づいて、前記第1のオブジェクトと前記第2のオブジェクトの類似性を判定する判定ステップ(S10)とを有する。

Description

明 細 書
マッチング装置及び画像検索システム並びにヒストグラム近似復元装置、 並びにマッチング方法及び画像検索方法並びにヒストグラム近似復元方法
技術分野
[0001] 本発明は、 2つのオブジェクトの類似性を判定するマッチング技術及びそれを応用 した画像検索技術に関する。
背景技術
[0002] ある共通の目的をもったデータを「オブジェクト(object)」とレ、う。一般に、オブジェク トは、例えば静止画像、動画像、音声、文章などのように、多数のデータ要素により構 成される。情報検索の分野においては、 2つのオブジェクトを対比して、互いの類似 性を判定するマッチング技術が極めて重要である。マッチング技術が応用される分野 としては、画像検索、音声検索、文献検索など多岐に渡る。
[0003] 従来のマッチング技術としては、例えば、特許文献 1〜4に記載の技術が公知であ る。
[0004] 特許文献 1に記載のマッチング方法は、一の画像についての全ての特徴点の集合 と、他の画像についての全ての特徴点の集合を比較して、両者が合同である場合に
、一の画像と他の画像は同一であると判定する。
[0005] 特許文献 2に記載の話者認証装置では、話者の発した音声をスペクトル分析して 得た特徴量を、データベースに登録された特徴量と照合して話者を特定するマッチ ング処理を行う。
[0006] また特許文献 3の文書検索方法では、ある文書に出現する索引語の出現頻度を当 該文書の特徴量に定めて文書を検索するマッチング処理を行う。
[0007] 上記に挙げたような従来のマッチング方法は、照合対象のオブジェクトから比較的 少数の特徴量を抽出して、その特徴量の類似性を比較する。そのため、取り扱う変数 が少なぐ計算処理が簡単で、高速処理が可能である。
[0008] ところで、情報検索の分野においては、マッチング処理の高速化が要求される一方
、マッチング精度の向上も求められる。マッチング精度を向上させるには、特徴点の 点数を増やし、特徴量をできるだけ高次元ベクトルとすることが必要である。しかし、 特徴点の点数や次元を極端に増やすと、計算処理が複雑となり、高速処理の要求に 答えられなくなる。
[0009] そこで、特許文献 4に記載のマッチング方法では、 "画像の特徴"を N次元空間に 写像された写像点で表示する場合において、 2つの画像内の構成点を N次元空間を 充填する空間充填曲線に写像することによって、一次元空間に写像し、写像された 2 つの写像点間の距離により、当該 2つの画像間の類似性を評価する。
[0010] このマッチング方法に使用する"画像の特徴"は、 600個の異なるカラー'ビンを使 用して生成された画像のヒストグラムである。つまり、このマッチング方法は、 600色の 異なる色に対応する画素の数の組み合わせを"画像の特徴"とするものであり、 600 次元空間を仮定する。そして、ヒストグラムの各色の画素数を 600次元空間の座標と し、ヒストグラム(すなわち"画像の特徴")を、 600次元空間内の点として表示する。さ らに、この点を 600次元空間を充填する空間充填曲線上に写像することによって、一 次元空間に写像する。
[0011] 特許文献 1 :特開 2001— 109885号公報
特許文献 2:特開 2004— 294755号公報
特許文献 3 :特開 2005— 025465号公報
特許文献 4:特表 2002— 524789号公報
特許文献 5 :特開 2002— 150287号公報
特許文献 6 :特開 2004— 312693号公報
特許文献 7 :特開 2003— 312693号公報
非特許文献 1:鎌田清一郎, 「ヒルベルト走査を利用した濃淡画像の情報圧縮に関す る考察」,電子情報通信学会論文誌, Vol.J80-D-II, No.2, pp.426-433, 1997年 2月 発明の開示
発明が解決しょうとする課題
[0012] 上述のように、特許文献 4に記載のマッチング方法では、 N次元空間上の特徴点を 一次元空間に写像し、写像された一次元空間内の 2つの画像の特徴点間の距離を 用いて、 2つの画像の類似性を評価する。そのため、類似性評価が容易にできる。こ れは、空間充填曲線上で近傍に存在する点は元の空間においても近傍に存在する という性質を利用している。
[0013] し力 ながら、元の空間においても近傍に存在する点は、必ずしも空間充填曲線上 で近傍に存在するとは限らなレ、。すなわち、 2つの画像の特徴点が元の 600次元空 間において近接していたとしても、一次元空間に写像すると距離が大きくなる。従つ て、類似性を低く評価される場合があり、本来、類似画像として抽出されるべき画像 が抽出されない場合が生じる。従って、特許文献 4に記載のマッチング方法では、必 ずしも高レ、マッチング精度は得られなレ、ことが容易に推測される。
[0014] そこで、本発明の目的は、 2つのオブジェクトの類似性を高速かつ高精度に判定で きるマッチング技術を提供することにある。
[0015] また、本発明の他の目的は、前記オブジェクト間のマッチング技術を応用して、高 速かつ高精度に画像の検索を行うことのできる画像検索技術を提供することにある。
[0016] さらに、上記画像検索装置の前処理としての画像の粗検索に使用するための画像 検索技術及びそれに用いる画素値ヒストグラム近似復元技術を提供することを目的と する。
課題を解決するための手段
[0017] 本発明のマッチング装置の第 1の構成は、基準オブジェクトと被照合オブジェクトと を比較照合し、両オブジェクトの類似性を判定するマッチング装置であって、 前記各オブジェクトの各データ要素を一次元空間に展開する全単射 (bijection)に より、前記各オブジェクトから抽出された特徴点を前記一次元空間に写像する写像 手段と、
前記一次元空間において、前記基準オブジェクトの特徴点の最近傍にある前記被 照合オブジェクトの特徴点を探索し、前記基準オブジェクトの特徴点と前記被照合ォ ブジエタトの特徴点のペアの集合 (以下「ペア集合」とレ、う。)を生成するペアリング手 段と、
前記ペア集合から、ペアをなす両特徴点間の距離(以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出手段と、 前記部分ペア集合に属するペアのペア距離に基づき、前記基準オブジェクトと前 記被照合オブジェクトの間の評価尺度を算出する評価尺度演算手段と、
前記評価尺度に基づき、前記基準オブジェクトと前記被照合オブジェクトの類似性 を判定する判定手段とを備えたことを特徴としている。
[0018] この構成によれば、特徴点のペア集合から、ペア距離の小さいペアだけを抽出して 特徴点の部分ペア集合を生成し、この部分ペア集合に属するペアのペア距離に基 づいて評価尺度を算出するので、例外的に遠距離にあるペア、特に、元のオブジェ 外空間にあっては近距離にあつたが、写像手段による全単射により遠距離に写像さ れたペアの影響を排除して、両オブジェクトの類似性と評価尺度との相関を高めるこ とが可能となる。
[0019] ここで、「オブジェクト」とは、ある共通の目的をもったデータをレ、う。例えば、静止画 像、動画像、音声、文章などのようなコンテンツが挙げられる。
[0020] 「評価尺度」とは、基準オブジェクトと被照合オブジェクトの間の類似性の評価基準 となる距離又は類似度をいう。評価尺度としては、部分ペア集合に属するペアのペア 距離の平均値,部分ペア集合に属するペアのペア距離の平均値に全体のペア数に 対する部分ペア集合のペア数の割合に比例した重みを乗じた値などを使用すること ができる。
[0021] 判定手段による「類似性」の判定は、例えば、評価尺度の閾値判定や、複数の被照 合オブジェクトに対する評価尺度の比較判定などの方法が用いられる。
[0022] また、前記第 1の構成において、ペア抽出手段は、前記ペア集合から、ペア距離が 小さい順に、所定数の前記ペアを抽出した部分ペア集合を生成するように構成する こと力 Sできる。この場合、ペア距離の分布においてペア距離が大きい側の端側にある ペアについては、評価尺度の算出に当たっては評価されない。従って、両ォブジェク ト間の対応するデータ要素のうち、全単射により離ればなれとなったデータ要素のぺ ァが評価尺度に及ぼす影響が軽減される。
[0023] 尚、この場合、部分ペア集合を構成する特徴点のペアの数は、ペア集合を構成す る特徴点のペアの総数の 50 %程度とするのが良好である。
[0024] また、前記第 1の構成において、前記ペア抽出手段は、前記ペア集合から、ペア距 離が所定の閾値以下の前記ペアを抽出した部分ペア集合を生成するように構成する こと力 Sできる。この場合、ペア距離が所定の閾値を超えたペアは、全単射により離れ ばなれとなったデータ要素のペアであるとみなされ、評価尺度の計算には繰り込まれ なレ、。これにより、両オブジェクトの類似性と評価尺度との相関を高めることができる。
[0025] 本発明のマッチング装置の第 2の構成は、前記第 1の構成において、前記ペア抽 出手段は、前記ペア集合から、ペア距離が所定の閾値以下の前記ペアを抽出した 部分ペア集合を生成するものであり、
前記評価尺度演算手段は、前記部分ペア集合に属するペアのペア距離の和 S1を 算出し、前記部分ペア集合に属さないペア数に所定の加重値を乗じた値 S2を算出 し、前記和 S1と値 S2との和 S1 + S2を前記ペア集合の全ペア数で割ることにより評 価尺度を算出することを特徴とする。
[0026] この場合、ペア距離が所定の閾値を超えたペアは、全単射により離ればなれとなつ たデータ要素のペア(以下「離散ペア」という。)であるとみなされ、そのペア距離自体 は評価尺度の計算には繰り込まれなレ、。し力しながら、全体のペアに占める離散べ ァの割合は、離散ペア数に所定の加重値を乗じた値 S2として評価尺度の算出に繰 り込まれる。すなわち、加重値を適度に調節すれば、離散ペアの割合が多いほど両 オブジェクト間の類似性は低く評価され、両オブジェクトの類似性と評価尺度との相 関を高めることができる。
[0027] ここで、本発明において「加重値」は、特に特定はしないが、通常は、ペア抽出手段 がペアの抽出の際に使用する「所定の閾値」を用レ、ることが好ましレ、。部分ペア集合 に属するペアのペア距離の上限値であり、両オブジェクトの類似性と評価尺度との相 関を高めるための加重値として使用するのに合理的な値だからである。
[0028] 本発明のマッチング装置の第 3の構成は、前記第 1又は 2の構成において、前記写 像手段は、前記特徴点を前記各オブジェ外の全てのデータ要素を通過する空間充 填曲線上に写像することを特徴とする。
[0029] 空間充填曲線による写像は、元の空間における 2点の距離と、写像後の前記 2点の 距離の間に相関があるので、この構成によれば、オブジェクトの類似性と前記距離の 平均値の相関を高めることができる。尚、空間充填曲線にはヒルベルト曲線、シェル ピンスキー曲線、ペアノ曲線などが知られている。
[0030] 本発明のマッチング装置の第 4の構成は、前記第 3の構成において、前記空間充 填曲線はヒルベルト曲線であることを特徴とする。
[0031] ヒルベルト曲線の屈曲角は全て直角なので、ヒルベルト曲線は二次元画像のような 方形の空間を充填するのに適している。
[0032] 本発明のマッチング装置の第 5の構成は、前記第 1乃至 4の何れか一の構成にお いて、前記各オブジェクトは画像であることを特徴とする。
[0033] この構成によれば、多数の画素(データ要素)から構成される画像の少数の特徴点 に基づレ、て画像の照合を行うので、画像の照合を高速化することができる。
[0034] 本発明のマッチング装置の第 6の構成は、前記第 5の構成において、前記特徴点 はエッジ点であることを特徴とする。
[0035] エッジ点は他の特徴点に較べて検出が容易なので、この構成によれば安定確実な 画像の照合を実現することができる。
[0036] 本発明のヒストグラム近似復元装置の第 1の構成は、原画像データの各画素の画 素値を量子化するとともにランレングス符号化することにより得られた圧縮画像の画 像データ(以下「圧縮画像データ」という。)から、前記原画像の画素値ヒストグラムを 近似的に復元するヒストグラム近似復元装置であって、
前記圧縮画像記憶手段に記憶された前記圧縮画像データの各画素値 C 0=1,2,—
,Μ, Μは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データ の全体領域又は特定の部分領域における当該画素値に対応するランレングスの総 和(以下「画素値度数」という。 を算出することにより離散ヒストグラム 'データを生成 する離散ヒストグラム生成手段と、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( χ)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム 'データを生成する近似ヒストグラム生成手段と、を有することを特 徴とする。 [0037] この構成によれば、離散ヒストグラム生成手段は、圧縮画像データの各画素値 に 対し、上記画素値度数 Lを算出することにより、圧縮画像データの復元を行うことなく 圧縮画像データの全体領域又は特定部分領域における画素値のヒストグラム(離散 ヒストグラム ·データ)を算出することができる。すなわち、復号動作が伴わないので、 圧縮画像データから高速に離散ヒストグラム 'データを再生できる。更に、近似ヒストグ ラム生成手段は、画素値に対して離散的な画素値度数を持った離散ヒストグラム'デ ータに対して、上記分散配分を行うことによって、画素値に対して連続的な画素値度 数を持つ近似ヒストグラム 'データに変換する。これにより原画像データに近レ、ヒストグ ラム ·データを復元することができる。
[0038] 本発明のヒストグラム近似復元装置の第 2の構成は、前記第 1の構成において、前 記近似ヒストグラム生成手段は、
前記離散ヒストグラム ·データ { (C, L ) |i=l,2,■ ·■,M}の各画素値度数 L 0=1,2,·■ · ,Μ) を、 (数 1)の正規分布関数 G (x)で表される正規分布となるように画素値 Cの近傍の 画素値 Xの画素値度数 L (x)に分散配分することにより、前記近似ヒストグラム 'データ を生成することを特徴とする。
[0039] [数 1]
Figure imgf000009_0001
[0040] この構成によれば、上記正規分布関数 G (x)は離散ヒストグラム 'データ { (C, L ) |i=l ,2,· · ·,Μ}の各画素値 C、画素値度数 Lおよび標準偏差 σの関数なので、標準偏差 σを仮定するだけで、原画像データに近いヒストグラム 'データを復元することができ る。
[0041] 本発明のヒストグラム近似復元装置の第 3の構成は、前記第 1又は 2の構成におい て、前記近似ヒストグラム生成手段は、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σ =^/4の正規分布となるように当該画素値 Cの近傍の画素値 Xの画素 値度数 L (x)に分散配分することにより、前記原画像データの画素値の出現頻度を近 似的に表す近似ヒストグラム 'データを生成することを特徴とする。
[0042] この構成によれば、標準偏差 σの値を とするので、離散ヒストグラム 'データ { ( C , ϋ |ί=1,2,· · ·,Μ}から一意的に上記正規分布を決定することができる。これにより、 ヒストグラム ·データの復元を更に高速化できる。
[0043] 本発明のヒストグラム近似復元装置の第 4の構成は、前記第 1又は 2の構成におい て、前記圧縮画像データは、前記原画像データの各画素の画素値を量子化するとと もに、各ランにおいて当該ランに対応する原画像データの画素値の分散が所定の閾 値 Γ以下となるようにランレングスを決定することによりランレングス符号ィ匕されたもの であり、
前記近似ヒストグラム生成手段は、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σ = Γ 1/2の正規分布となるように当該画素値 Cの近傍の画素値 Xの画素 値度数 L (x)に分散配分することにより、前記原画像データの画素値の出現頻度を近 似的に表す近似ヒストグラム 'データを生成することを特徴とする。
[0044] この構成によれば、各ランに対応する原画像データの画素値の分散の閾値 Γの平 方根を標準偏差 σの値とするので、標準偏差 σの精度の良い推定値が得られ、ヒス トグラム ·データの近似復元の精度が向上する。
[0045] 本発明のヒストグラム近似復元装置の第 5の構成は、前記第 1又は 2の構成におい て、前記圧縮画像データは、前記原画像データの各画素の画素値を量子化するとと もに、各ランにおいて当該ランに対応する原画像データの画素値の分散が所定の閾 値 Γ以下となるようにランレングスを決定することによりランレングス符号ィ匕されたもの であり、
前記近似ヒストグラム生成手段は、
前記標準偏差 σが、 C Z4又は前記閾値 Γの平方根のうちの何れか小さい値であ ること
を特徴とする。
[0046] この構成によれば、標準偏差 σの値を C Z4又は前記閾値 Γの平方根のうちの何 れカ vj、さい値とするので、標準偏差 σの値が過大に推定されるのを避けることができ る。これにより、ヒストグラム 'データの近似復元の精度が向上する。
[0047] 本発明の画像検索システムの第 1の構成は、原画像データの各画素の画素値を量 子化するとともにランレングス符号化することにより得られた圧縮画像の画像データ( 以下「圧縮画像データ」という。 )が複数記憶された画像データベース、
及び、基準画像の画素値ヒストグラム ·データ(以下「基準ヒストグラム ·データ」とレ、う 。)が記憶された基準ヒストグラム記憶手段
を有し、前記画像データベースに記憶された前記圧縮画像データの中から前記基準 画像に類似するものを検索する画像検索システムにおいて、
前記画像データベースに記憶された前記圧縮画像データの各画素値 C 0=1,2,- · -,
Μ ; Μは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データの 全体領域又は特定の部分領域における当該画素値に対応するランレングスの総和( 以下「画素値度数」とレ、う。 ) Lを算出することにより離散ヒストグラム ·データを生成す る離散ヒストグラム生成手段と、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( x)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム ·データを生成する近似ヒストグラム生成手段と、
前記基準ヒストグラム記憶手段に記憶されている前記基準ヒストグラム 'データと前 記近似ヒストグラム 'データとの類似度を算出する類似度計算手段と、
前記各圧縮画像データの前記類似度に基づいて、前記基準画像に類似する一乃 至複数の前記圧縮画像データを選出する画像選出手段と、を備えていることを特徴 とする。
[0048] この構成によれば、離散ヒストグラム生成手段は、圧縮画像データの各画素値 Cに 対し、上記画素値度数 Lを算出することにより、圧縮画像データの復元を行うことなく 圧縮画像データの全体領域又は特定部分領域における画素値のヒストグラム(離散 ヒストグラム.データ)を算出することができる。すなわち、基準ヒストグラム 'データ、圧 縮画像データから高速に離散ヒストグラム 'データを再生できる。更に、近似ヒストグラ ム生成手段は、画素値に対して離散的な画素値度数を持った離散ヒストグラム'デー タに対して、上記分散配分を行うことによって、画素値に対して連続的な画素値度数 を持つ近似ヒストグラム 'データに変換する。そして、前記近似ヒストグラム 'データと基 準ヒストグラム 'データとの類似度が算出される。これにより、圧縮画像データの復元 を行うことなく原画像データに近レ、ヒストグラム ·データを復元して、基準ヒストグラム · データとの類似度を算出できるので、圧縮画像データに対する画像検索を高速化で きる。
[0049] 本発明の画像検索システムの第 2の構成は、前記第 1の構成において、前記類似 度計算手段は、前記近似ヒストグラム 'データと前記基準ヒストグラム 'データとの差分 を前記類似度として算出することを特徴とする。
[0050] この構成によれば、類似度計算手段は、前記近似ヒストグラム 'データと前記基準ヒ ストグラム'データとの差分を前記類似度として算出するので、類似度の算出が単純 になり、画像検索に要する時間を更に短縮できる。
[0051] 本発明の画像検索システムの第 3の構成は、前記第 1又は 2の構成において、前記 画像選出手段により選出された一乃至複数の前記圧縮画像データを候補画像の圧 縮画像データとして、前記各候補画像の圧縮画像データに基づき、当該候補画像の 特徴点を抽出し、それら特徴点の一次元空間上の座標を算出する第 1の特徴点抽 出手段と、
前記基準画像の特徴点を抽出し、それら特徴点の一次元空間上の座標を算出す る第 2の特徴点抽出手段と、
前記一次元空間において、前記基準画像の特徴点の最近傍にある前記候補画像 の特徴点を探索し、前記基準画像の特徴点と前記候補画像の特徴点のペアの集合 (以下「ペア集合」とレ、う。)を生成するペアリング手段と、
前記ペア集合から、ペアをなす両特徴点間の距離 (以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出手段と、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準画像と前記候補 画像の間の評価尺度を算出する評価尺度演算手段と、
前記評価尺度に基づき、前記基準画像と前記候補画像の類似性を判定する判定 手段と
を備えたことを特徴とする。
[0052] この構成によれば、ヒストグラムの比較による画像検索によって、基準画像に類似す る候補画像をある程度絞り込んだ上で、特徴点抽出を用いたマッチングによってより 厳密な画像照合を行うことで、高速かつ正確な画像検索が可能となる。また、圧縮画 像を復号する必要がなぐ計算量 ·計算時間ともに短縮できる。
[0053] 本発明のマッチング方法は、基準オブジェクトと被照合オブジェクトとを比較照合し 、両オブジェクトの類似性を判定するマッチング方法であって、
前記各オブジェクトの各データ要素を一次元空間に展開する全単射 (bijection)に より、前記各オブジェクトから抽出された特徴点を前記一次元空間に写像する写像ス テツプと、
前記一次元空間にぉレ、て、前記基準オブジェクトの特徴点の最近傍にある前記被 照合オブジェクトの特徴点を探索し、前記基準オブジェ外の特徴点と前記被照合ォ ブジエタトの特徴点のペアの集合(以下「ペア集合」とレ、う。)を生成するペアリング'ス テツプと、
前記ペア集合から、ペアをなす両特徴点間の距離(以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出ステップと、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準オブジェクトと前 記被照合オブジェクトの間の評価尺度を算出する評価尺度演算ステップと、
前記評価尺度に基づき、前記基準オブジェクトと前記被照合オブジェクトの類似性 を判定する判定ステップとを備えたことを特徴とする。
[0054] 本発明のヒストグラム近似復元方法は、原画像データの各画素の画素値を量子化 するとともにランレングス符号化することにより得られた圧縮画像の画像データ(以下「 圧縮画像データ」という。)から、前記原画像の画素値ヒストグラムを近似的に復元す るヒストグラム近似復元方法であって、 前記圧縮画像記憶手段に記憶された前記圧縮画像データの各画素値 (i=l ,2,〜
,Μ, Μは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データ の全体領域又は特定の部分領域における当該画素値に対応するランレングスの総 和(以下「画素値度数」という。)Lを算出することにより離散ヒストグラム 'データを生成 する離散ヒストグラム生成ステップと、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( χ)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム 'データを生成する近似ヒストグラム生成ステップと、を有することを 特徴とする。
本発明の画像検索方法の第 1の構成は、原画像データの各画素の画素値を量子 化するとともにランレングス符号化することにより得られた圧縮画像の画像データ(以 下「圧縮画像データ」とレ、う。 )が複数記憶された画像データベース、
及び、基準画像の画素値ヒストグラム ·データ(以下「基準ヒストグラム ·データ」とレ、う 。)が記憶された基準ヒストグラム記憶手段
を備えたシステムにおレ、て、前記画像データベースに記憶された前記圧縮画像デー タの中から前記基準画像に類似するものを検索する画像検索方法であって、 前記画像データベースに記憶された前記圧縮画像データの各画素値 C 0=1,2,· · ·, M ; Mは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データの 全体領域又は特定の部分領域における当該画素値に対応するランレングスの総和( 以下「画素値度数」という。)Lを算出することにより離散ヒストグラム 'データを生成す る離散ヒストグラム生成ステップと、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( χ)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム 'データを生成する近似ヒストグラム生成ステップと、 前記基準ヒストグラム記憶手段に記憶されている前記基準ヒストグラム 'データと前 記近似ヒストグラム 'データとの類似度を算出する類似度計算ステップと、
前記各圧縮画像データの前記類似度に基づいて、前記基準画像に類似する一乃 至複数の前記圧縮画像データを選出する画像選出ステップと、を備えていることを特 徴とする。
[0056] 本発明の画像検索方法の第 2の構成は、前記第 1の構成において、前記画像選出 ステップにおいて選出された一乃至複数の前記圧縮画像データを候補画像の圧縮 画像データとして、前記各候補画像の圧縮画像データに基づき、当該候補画像の特 徴点を抽出し、それら特徴点の一次元空間上の座標を算出する第 1の特徴点抽出ス テツプと、
前記基準画像の特徴点を抽出し、それら特徴点の一次元空間上の座標を算出す る第 2の特徴点抽出ステップと、
前記一次元空間にぉレ、て、前記基準画像の特徴点の最近傍にある前記候補画像 の特徴点を探索し、前記基準画像の特徴点と前記候補画像の特徴点のペアの集合 (以下「ペア集合」という。)を生成するペアリング 'ステップと、
前記ペア集合から、ペアをなす両特徴点間の距離(以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出ステップと、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準画像と前記候補 画像の間の評価尺度を算出する評価尺度演算ステップと、
前記評価尺度に基づき、前記基準画像と前記候補画像の類似性を判定する判定 ステップとを備えたことを特徴とする。
[0057] 本発明のプログラムの第 1の構成は、コンピュータに読み込んで実行することにより 、コンピュータを前記第 1乃至 6の何れか一の構成のマッチング装置として機能させる ことを特徴とする。
[0058] 本発明のプログラムの第 2の構成は、コンピュータに読み込んで実行することにより 、コンピュータを前記第 1乃至 5の何れか一の構成のヒストグラム近似復元装置として 機能させることを特徴とする。 [0059] 本発明のプログラムの第 3の構成は、コンピュータに読み込んで実行することにより 、コンピュータを前記第 1乃至 3の何れか一の構成の画像検索システムとして機能さ せることを特徴とする。
発明の効果
[0060] 以上説明したように、本発明によれば、多次元の空間に投影された複数の特徴点 を一次元空間に写像して、前記一次元空間における 2つのオブジェクトの特徴点の 距離に基づいて、前記 2つのオブジェクトの類似性を判定するので、オブジェクトマツ チングの演算処理を容易にし、オブジェクトマッチングを高速化する効果がある。
[0061] また、本発明はランレングス符号ィ匕圧縮した画像データの離散的な画素値ヒストグ ラムの近傍に画素が正規分布するように画素を配分して、離散的な画素値ヒストグラ ムから原画像の連続的な画素値ヒストグラムを近似復元するので、原画像の画素値ヒ ストグラムを効率よぐかつ精度良く復元する方法を提供することができる。また、近似 復元した画素値ヒストグラムと基準画像の画素値ヒストグラムを比較して類似度を求め るので画像データの検索を高速処理できる。このような効果により、本発明は画像検 索の高速化と高精度化に資するものである。
図面の簡単な説明
[0062] [図 1]本発明の実施例 1に係るマッチング装置 1を用レ、た画像検索装置の機能構成 を表すブロック図である。
[図 2]本発明の実施例 1に係るマッチング方法を用いた画像検索方法を示すフロー チャートである。
[図 3]クエリ画像上の特徴点をヒルベルト曲線上に写す写像の説明図である。
[図 4]データ画像上の特徴点をヒルベルト曲線上に写す写像の説明図である。
[図 5]クエリ画像の特徴点とデータ画像の特徴点のペアを示す図である。
[図 6]クエリ画像の特徴点とデータ画像の特徴点のペアを示す図である。
[図 7]実施例 2に係るマッチング装置を用いた画像検索装置の機能構成を表すブロッ ク図である。
[図 8]実施例 2に係るマッチング装置 1による画像のマッチング処理を表すフローチヤ ートである。 [図 9]実施例 2のマッチング方法の評価に使用するクエリ画像及びデータ画像の原画 像である。 (a)クエリ画像, (b)データ画像の原画像。
[図 10]図 9の各画像のエッジ抽出を行うことにより得られる 2値エッジ画像である。 (a) クエリ画像の 2値エッジ画像, (b)データ画像の原画像の 2値エッジ画像。
[図 11]図 9の原画像に各種ノイズをカ卩えて得られるデータ画像である。 (a)ガウシアン
•ノイズ (Gaussian noise) ( σ = 10, σは分散), (b)ポ /'ソン.ノイズ (Poisson noise) ,
(c)乗法性雑音 (Multiplicative noise) ( v = 10, vは分散), (d)ごま塩雑音 (Salt &
Pepper Noise) (d= 10, dはノイズ密度), (e)原画像に対し 20%の量のエッジ点をラ ンダムに付加, (f)原画像に対し 50。/oの量のエッジ点をランダムに削除。
[図 12]MHDの最小化によるマッチング方法と、実施例 2のマッチング方法との計算 時間の比較を表した図である。
[図 13]本発明の実施例 3に係る画像検索システムの構成を表すブロック図である。
[図 14]図 13の粗検索部 34の構成を表すブロック図である。
[図 15]図 13のマッチング部 38の構成を表すブロック図である。
[図 16]—次元画像の区間 Lを区間 Lと区間 Lに分割する分割例である。
1 2
[図 17]ランレングス符号ィ匕により圧縮された画像データの例を示す模式図である。
[図 18]粗検索処理の流れを表すフローチャートである。
[図 19]領域圧縮データ画像力も作成した離散ヒストグラムである。
[図 20]画素値 Cの近傍に分布する画素を示すヒストグラム及びそれらを合成したヒス トグラムである。
[図 21]原画像のヒストグラムである。
[図 22]マッチング部 38におけるマッチング処理の流れを表すフローチャートである。 符号の説明
1 マッチング装置
2 画像入力手段
2a CCD
2b ADC
3 エッジ抽出手段 写像手段
画像データベース ペアリング手段
ペア抽出手段
評価尺度演算手段 判定手段
画像出力手段 クエリ画像
ヒルベルト曲線 画像切出手段 画像検索装置 フレーム 'メモリ 領域抽出手段 領域画像記憶手段 粗検索部
画像符号化部 基準画像記憶手段 候補画像記憶手段 マッチング部
ヒストグラム近似復元装置 ヒストグラム作成手段 基準ヒストグラム記憶手段 領域抽出手段 比較演算手段 画像選択手段 領域圧縮画像記憶手段 離散ヒストグラム生成手段 近似ヒストグラム生成手段 61 エッジ抽出手段
62 マッチング装置
63 エッジ抽出手段
65 ペアリング手段
67 ペア抽出手段
68 評価尺度演算手段
69 判定手段
71〜74 ヒストグラム
75 近似ヒストグラム
発明を実施するための最良の形態
[0064] 以下、本発明を実施するための最良の形態について、図面を参照しながら説明す る。
実施例 1
[0065] 実施例 1では、本発明に係るマッチング装置の適用事例として、画像マッチングに 適用した例について説明する。
[0066] 図 1は、本発明の実施例 1に係るマッチング装置 1を用いた画像検索装置の機能構 成を表すブロック図である。
[0067] 本実施例の画像検索装置は、マッチング装置 1、画像入力手段 2、画像データべ ース(以下「画像 DB」という。) 5、及び画像出力手段 10を備えている。
[0068] 画像入力手段 2は、基準オブジェクトであるクエリ画像又は被照合オブジェクトであ るデータ画像を入力するためインターフェイスである。クエリ画像はデジタルカメラ等 の撮像手段から直接入力される他、記録媒体からの入力、通信回線等を経由する他 の情報機器力 入力などの入力形態を選択することができる。また、画像入力手段 2 は画像 DB5に記憶されるデータ画像の入力にも使用される。
[0069] 画像 DB5は、被照合オブジェクトであるデータ画像を写像手段 4で一次元空間に 写像された特徴点の位置情報と共に記憶する手段である。画像入力手段 2から入力 された画像が、データ画像であれば、画像情報と特徴点の位置情報が画像 DB5に 書き込まれる。 [0070] マッチング装置 1は、基準オブジェクトであるクエリ画像と被照合オブジェクトである データ画像を比較照合し、両画像の類似性の判定を行う。
[0071] 画像出力手段 10は、マッチング装置 1によりクエリ画像に類似すると判定されたデ ータ画像を、画像 DB5から読み出して出力する。
[0072] マッチング装置 1は、エッジ抽出手段 3、写像手段 4、ペアリング手段 6、ペア抽出手 段 7、評価尺度演算手段 8、及び判定手段 9を備えている。
[0073] エッジ抽出手段 3は、画像入力手段 2から入力された画像を解析して特徴点として エッジを抽出する。エッジとは、画像の輝度あるいは色が不連続に変化する境界であ り、物体を撮像した画像においては、当該物体の輪郭や稜線 (不連続面の境界線) がエッジとして検出される。本実施例ではエッジに属する画素を特徴点として使用す る。また、特徴点の数を減じて、以後の処理を容易にするために、特に顕著なエッジ のみを抽出してもよいし、複数のエッジの交点を特徴点としてもよい。
[0074] 写像手段 4は、エッジ抽出手段 3で抽出した特徴点を一次元空間に写像する手段 である。エッジ抽出手段 3で抽出した特徴点は二次元画像の画素であり、その位置 は二次元座標で表示される。これを一次元空間に全単射して特徴点の位置を一次 元の座標で表示できるようにする。この操作を、以下「一次元空間への写像」と呼ぶこ とにする。一次元空間への写像の具体的な手法は後述する。
[0075] ペアリング手段 6には、写像手段 4からクエリ画像の特徴点の位置情報が入力され 、画像 DB5からデータ画像の特徴点の位置情報が入力される。ペアリング手段 6は、 これら両画像の特徴点の位置情報に基づき、一次元空間において、クエリ画像の各 特徴点について、その最近傍にあるデータ画像の特徴点を探索する。そして、クエリ 画像の特徴点とデータ画像の特徴点のペア集合を生成する。尚、ペア探索の手法 については後述する。
[0076] ペア抽出手段 7は、ペアリング手段 6が作成した特徴点のペア集合から、ペア距離 力 、さいペアから順に、ペアの一部を抽出して、部分ペア集合を作成する。
[0077] 評価尺度演算手段 8は、ペア抽出手段 7で作成した部分ペア集合の距離の平均値 を評価尺度として算出する。
[0078] 判定手段 9は、クェリ画像と各データ画像の間で、評価尺度である距離の平均値を 比較して、距離の平均値が最小になるデータ画像をクエリ画像に最も近似するデー タ画像であると判定する。また、距離の平均値を閾値判別して、距離の平均値が、所 定の閾値より小さいデータ画像(単数又は複数)を、クエリ画像に近似するデータ画 像であると判定してもよい。
[0079] 尚、本実施例の画像検索装置は、コンピュータに画像入力手段 2、エッジ抽出手段 3、写像手段 4、ペアリング手段 6、ペア抽出手段 7、評価尺度演算手段 8、判定手段 9、及び画像出力手段 10のそれぞれ処理手順を記述したプログラムをインストールし 、当該コンピュータの記憶装置に画像 DB5を備えることでも実現できる。コンピュータ は、既成のパーソナルコンピュータ等の中力 適当な機種を選択すれば良いが、専 用のハードウェアを設計して、ボードあるいはチップに纏めてもよい。
[0080] 図 2は、本実施例の画像検索装置による画像検索方法を示すフローチャートである 。以下、この図に付したステップ番号を引用して、画像検索方法を説明する。
[0081] まず、ステップ S1において、画像入力手段 2は、クエリ画像を読み込む。
[0082] 次に、ステップ S2において、エッジ抽出手段 3は、画像入力手段 2から入力された クエリ画像を解析して、クエリ画像のエッジ画像 {Cq I ί= 1,2,· · ·,Ν}を生成する。ここ で、データ要素(画素) Cqは、二次元平面上の点である(Cq ER2)。
[0083] 次に、ステップ S3において、写像手段 4は、エッジ画像 {Cq | i= 1,2,· · ·,Ν}をタエ リ画像の全ての画素を通過するヒルベルト曲線上に全単射して、ヒルベルト曲線上の 特徴点の集合 {Cqh I ί= 1,2, · · ·,Ν}を得る。ここで、特徴点 Cqhは、一次元平面上 の点である(Cqh eR)。
[0084] 次に、ステップ S4において、ペアリング手段 6は、ヒルベルト曲線上の特徴点 Cqh (i = 1,2,· · ·,Ν)を並べ替えて、ヒルベルト曲線上の特徴点の座標の集合 {u I j= l,2,
j
■•-,N ;u≤u≤- - -≤u }を得る。
j j N
[0085] 図 3は、クエリ画像上の特徴点をヒルベルト曲線上に写す写像の説明図である。図 3 (a)はクエリ画像上の特徴点 Cqの分布を示し、図 3 (b)はヒルベルト曲線上に写さ れた特徴点 Cqhの分布を示し、図 3 (c)は特徴点 Cqhを昇順に並べ替えた座標 uの 配列を示す。図 3 (a)において、クエリ画像 11は、 8 X 8個の画素力 構成される。ヒ ルベルト曲線 12は、クエリ画像 11の全ての画素を通過する空間充填曲線である。ク エリ画像 11上の特徴点の集合 {C^ I ί=1,2,···,Ν}を、ヒルベルト曲線 12上に全単 射することにより、ヒルベルト曲線 12上の特徴点の集合 {Cqh I ί=1,2,···,Ν}が得ら れる。ヒルベルト曲線 12を延ばして直線で表示すると、ヒルベルト曲線上の特徴点の 集合 {Cqh I ί=1,2,···,Ν}は、図 3(b)に示すような直線上の点列として表すことがで きる。特徴点 Cqhを、座標値について昇順に並べ直すと、図 3(c)に示すような座標 u
i J
(j=l,2,---,N;u ≤u ≤ - ≤u )の列が得られる。図 3(b)又は図 3(c)から直感的に
1 2 N
理解できるように、ヒルベルト曲線上の点の位置は一次元座標(例えば、当該ヒルべ ノレト曲線の始点 Sを原点とし、始点 Sから終点 Eに向力、う方向を正の方向に取る座標) で表現される。従って、ヒルベルト曲線上の 2点の距離は、一次元座標の差として算 出すること力 Sできる。
[0086] 次に、ステップ S5において、データ画像について事前にステップ 2〜ステップ 4を実 行して、算出しておいた当該データ画像の特徴点の座標の集合 I k=l,2,---,N'
k
; v ≤v≤〜≤v }を、画像 DB5から読み出す。
1 2 Ν'
[0087] 次に、ステップ S6において、ペアリング手段 6は、クエリ画像の特徴点の座標の集 合 {u I j=l,2,---,N;u≤u≤---≤u }に属する各データ要素 uについて、下式(1)を j j j N j
満たすデータ画像の特徴点の座標の集合 {v I k=l,2, ',N' ;v≤v≤〜≤v }の
k j j N' データ要素 v を求める。そして、 uと v のペア集合 {(u, v ) I j=l,2,"',N}を作成
ιφ j ιϋ) i ιϋ)
する。ここで、記号 II · IIは一次元空間のユークリッド距離(Euclidean norm distance) を表す。
[0088] [数 2]
||? '― '' (j)|| -- min ― 'ί,ι| |卜 一 -?21 ] , .... ||'" ― v^- \ \ } (1J
[0089] 次に、ステップ S7において、ペア抽出手段 7は、ペア集合 { (u, V ) I j=l,2,---,N
j Ki)
}から、ペア距離 II u— V IIが小さい順に P(Pは、 P<Nを満たす自然数)個のデー
i Ki)
タ要素を抽出し、特徴点の部分ペア集合 { (u , V ) I πι=1,2,···,Ρ}を作成する。
m lvm
[0090] 次に、ステップ S8において、評価尺度演算手段 8は、下式(2)によって、特徴点の 部分ペア集合 Ku
Figure imgf000022_0001
[0091] [数 3] ! - '¾m)|
, (2)
[0092] 次に、ステップ S9において、全てのデータ画像を読み出して、前記平均値を算出し ていればステップ S10に進み、そうでなければ、ステップ S5に戻る。
[0093] 最後に、ステップ S10において、判定手段 9は、ペア距離の平均値を全てのデータ 画像について算出し、ペア距離の平均値が最小となるデータ画像を、クェリ画像に 最も近似するデータ画像であると判定する。そして、画像出力手段 10は、前記判定 により決定されたデータ画像を出力する。
[0094] 尚、ステップ S6において、式(1)に代えて、下式(3)を用いても良い。式(3)を用い ると、 uより座標値が大きい範囲だけで V を探索すればよいので、計算時間を短縮で j 10)
きる。
[0095] [数 4]
t ) > u
Figure imgf000023_0001
(3)
[0096] ここで、図 3のクエリ画像と図 4に示すデータ画像を例に、両者の類似性を判定する 手順を説明する。
[0097] データ画像の特徴点 C'q(i=l,2,— ,N')は、図 4 (a)のように分布している。これら をヒルベルト曲線上に写像して、昇順に並べ替えると、図 4(b)に示すような特徴点 V ( k k=l,2,'",N,; v ≤v ≤ - ≤v )の列が得られる。
1 2 Ν'
[0098] この特徴点 V (k=l,2,〜,N' ;ν ≤ν ≤—≤ν )と図 3 (c)に示したクエリ画像の特徴 k 1 2 N'
点 u (j=l;2,---,N;u≤u≤---≤u )について、式(1)を適用すると、図 5において、矢
J J j N
印で結んだようなペアが得られる。すなわち、 (U, V ),(U, V ),(U, V ),(U, V ),(
1 2 2 2 3 3 4 4
U, V ),(U, V ),(U, V )及び(U, V )が得られ、これらのペア距離はそれぞれ、 0,
5 6 6 7 7 8 8 8
1, 2, 1, 0, 1, 0, 2となる。仮に、前記ペアの総数の 50%を抽出することにして、距 離が最小になるペア 4組の平均を算出すると、 0.25になる。
[0099] また、特徴点 V (k=l,2,---,N'; V ≤ν ≤···≤ν )と特徴点 u (j=l,2,---,N;u≤u≤ k 1 2 N' j j j
•••≤u )について、式(3)を適用すると、図 6において、矢印で結んだようなペアが得
N
られる。すなわち、(U, V ),(U, V ),(U, V ),(U, V ),(U, V ),(U, V )及び(U,
1 2 2 3 3 4 4 5 5 6 6 8 7 v )が得られ、これらのペア距離はそれぞれ、 0, 12, 6, 2, 0, 9, 0となる。距離が最
8
小になるペア 4組の平均は 0· 50になる。
[0100] さて、特徴点のペア集合からどの程度の割合でペアを抽出して部分集合を生成す るかが問題になる。そこで、次のような実験を行った。 16 X 16画素から構成されて、 2 0個の特徴点が分布するクエリ画像と、 16 X 16画素から構成されて、 20個の特徴点 を持ち、前記クエリ画像との間で、 20個の特徴点についてのハウスドルフ距離が 2 、 5、 8、 10、 26になるようなデータ画像を用意して、前記クェリ画像と各デ ータ画像の間で特徴点のペア集合を生成し、このペア集合力 抽出するペアの個数 を変化させて、抽出されたペア距離の平均値を算出した。
[0101] 表 1は、前記クエリ画像と各データ画像の間で特徴点の間で式(1)の条件でペア集 合を作成した場合に、距離が最小になるペアから昇順に 5組 (top5)、 6組 (top6)、… 、 15組 (topl5)を抽出して、それぞれの平均値を算出した結果を纏めたものである。
[0102] [表 1]
Figure imgf000024_0001
[0103] 表 2は、前記クエリ画像と各データ画像の間で特徴点の間で式(3)の条件でペア集 合を作成した場合に、距離が最小になるペアから昇順に 3組 (top3)、 4組 (top4)、…、 10組 (top 10)を抽出して、それぞれの平均値を算出した結果を纏めたものである。
[0104] [表 2] Distance Top3 Top4 Top5 Top6 Top? Top8 Top9 ToplO
LOO 1.25 1.40 1.50 1.57 1.63 1.67 1.80
■1.67 2.00 2,20 2.33 2,57 2.75 3,00 3,20
(2.24)
1.00 I..00 1 .20 1 .50 1,71 2.00 2.33 2,60
V^ (2.83)
1.67 2.00 2.20 2.50 2.71 3.00 3.22 3.50
2.33 3.25 3,80 4,33 4,86 5.50 6,44 7,20
[0105] 表 1及び表 2から分かるように、距離が最小になるペアから昇順に 10組程度を抽出 して平均値を算出すれば、ハウスドルフ距離との相関性の高い値が得られる。したが つて、ペア距離の小さい物から順に、ペアの総数の 50%を抽出して部分集合を生成 して、その部分集合に属するペア距離の平均値を算出すれば、その平均値と画像の 類似性との間の相関が大きくなることが予想される。
[0106] 尚、本実施例では二次元画像のマッチングを例に取り上げた力 本発明によるマツ チングの対象はこれに限られるものではない。 N次元(Nは 2以上の自然数)空間に 投影された複数の特徴点の座標によってその特徴を記述できるオブジェクトならば、 音声、文字、文章その他のオブジェクトを対象にすることができる。
実施例 2
[0107] 実施例 2では、評価尺度の計算のみが実施例 1と異なり、マッチング装置 1の他の 構成及び動作については実施例 1とほぼ同様である。
[0108] 実施例 2では、評価尺度として以下に定義されるヒルベルト走查距離(Hirbert scan ning distance; HSD) d を用レヽる。
HSD
[0109] 〔定義 1〕(ヒルベルト走查距離)
基準画像 A及び被照合画像 Bをヒルベルト走查により一次元空間に全単射したとき のそれぞれの画像のデータ要素(画素)を u (j = l , 2, ■· - , N) , V (k= l , 2, ·■· , N' j k
)と記す。このとき、次式 (4)により表される d をヒルベルト走查距離という。
HSD
[0110] [数 5] d謂 I卜 ― Vk 11 ) (4)
Figure imgf000025_0001
ここで、関数 pは次式(5)により定義される。 τは閾値(定数)である。
[0111] [数 6]
( ' 〔 j-\
(
Τ [X、 > Τ)、 (5)
(定義終わり)
[0112] 図 7は、実施例 2に係るマッチング装置を用いた画像検索装置の機能構成を表す ブロック図である。図 7において、図 1と同様の構成部分については、同符号を付して 説明は省略する。本実施例の画像検索装置においては、画像切出手段 20を備えて いる点が図 1と異なる。画像切出手段 20は、画像 DB5に保存されたデータ画像から 、被照合オブジェクトとなる部分画像を切り出して、ペアリング手段 6に出力するもの である。
[0113] 画像のマッチング処理に入る前に、最初に、データ画像に関する情報を画像 DB5 に保存する処理を行う。この場合、画像入力手段 2からデータ画像を入力し、実施例 1で説明したステップ S1〜S4の処理を実行して、データ画像の特徴点の座標の集 合 {v I k=l,2,---,M;v≤ν≤·-·≤ν }を画像 DB5に保存しておく。
k 1 2 M
[0114] 図 8は、実施例 2に係るマッチング装置 1による画像のマッチング処理を表すフロー チャートである。図 8において、ステップ S1〜S4は図 2と同様であるので説明は省略 する。
[0115] ステップ S20において、画像切出手段 20は、画像 DB5に記憶されたデータ画像の 特徴点の座標の集合 {v I k=l,2,---,M;v≤v≤〜≤v }から、クエリ画像と同サイ
k 1 2 M
ズの部分画像 (以下「被照合部分画像」という。)に対応する特徴点の座標の部分集 合 {v I k=l,2,---,N'; v≤ν≤···≤ν }(Ν'≤Μ)を切り出す。被照合部分画像の k 1 2 N'
位置は、データ画像の左上隅から順次移動しながら設定される。
[0116] 次に、ステップ S21において、ペアリング手段 6は、クエリ画像の特徴点の座標の集 合 {u I j=l,2,---,N;u≤u≤---≤u }に属する各データ要素 uについて、式(1)を満 j j j N j
たすデータ画像の特徴点の座標の集合 {v I k=l,2, ',N' ;v≤v≤〜≤v }のデ
k j j N' ータ要素 v を求める。そして、 uと v のペア集合 {(u, v ) =1,2 '^}を作成す
ιφ j ιϋ) i ιϋ)
る。 [0117] 次に、ステップ S22において、ペア抽出手段 7は、ペア集合 { (u, v ) =1,2,···, j Kj)
N}から、ペア距離 II u -V
i ιϋ) IIが所定の閾値 τ以下のペアを抽出する。抽出された ペアの集合を部分ペア集合 { (u , V ,2,···,Ρ}とする。ここで、 Pは抽出さ
m
Figure imgf000027_0001
れたデータ要素の数である。
[0118] 次に、ステップ S23において、評価尺度演算手段 8は、下式(6)により、部分ペア集 合 { (u , V )
m Km) I πι=1,2,···,Ρ}に属するペア距離の和 S1を算出する。
[0119] [数 7]
P
I '·, >
Figure imgf000027_0002
(6)
■m--l
[0120] また、部分ペア集合 {(u , v )
m l(m) I m=l,2,〜,P}に属さないペアの個数 Ν— Ρに閾 値てを乗じた値 S2= τ (Ν— Ρ)を算出し、和 SI + S2を全ペア数 Νで割ることによつ て、評価尺度としてヒルベルト走查距離 d を算出する。
HSD
[0121] 次に、ステップ S24におレ、て、被照合部分画像に対応する特徴点の座標の部分集 合の切り出しが、すべての位置の被照合部分画像について終わっていればステップ S10に進み、そうでなければ、ステップ S20に戻る。
[0122] 最後に、ステップ S10において、判定手段 9は、ペア距離の平均値が最小となる被 照合部分画像を、クエリ画像に最も近似する被照合部分画像であると判定する。そし て、画像出力手段 10は、前記判定により決定された被照合部分画像の位置座標を 出力する。
[0123] 次に、本実施例のマッチング装置を用いて、具体的な画像マッチングを行った例に ついて説明する。
[0124] 〔例 1〕
本実施例のマッチング装置の精度及びノイズに対するロバスト性を評価するため、 原画像として図 9 (a)の画像を使用する。この原画像の一部を切り出して図 9 (b)のク エリ画像を作成する。原画像のサイズは 512X256 pixels,クエリ画像のサイズは 12 8X128 pixelsである。原画像内のクエリ画像の正確な照合位置(best matching posi tion)は、(28, 119)である(尚、座標系の原点は原画像の左上頂点の座標とし、タエ リ画像の位置は、クエリ画像の左上頂点の座標により表す)。 [0125] マッチング処理の精度の評価を行うために、図 9 (a)の原画像をデータ画像 Aとして 、クエリ画像との照合を行う。また、マッチング処理のノイズに対するロバスト性の評価 を行うために、図 9 (a)のデータ画像にノイズを付加した画像 B〜Gを作成し、これを データ画像として、クエリ画像との照合を行う。
[0126] データ画像 Bは、図 9 (a)の原画像にガウシアン 'ノイズ(Gaussian noise) ( σ = 10, σは分散)を加えた画像である。
[0127] データ画像 Cは、図 9 (&)の原画像にポァソン'ノィズ(?(^3011 noise)を加えた画像 である。
[0128] データ画像 Dは、図 9 (a)の原画像に乗法性雑音(Multiplicative noise) ( υ = 10,
νは分散)を加えた画像である。
[0129] データ画像 Εは、図 9 (a)の原画像にごま塩雑音(Salt & P印 per Noise) (d = 10, d はノイズ密度)を加えた画像である。
[0130] データ画像 Fは、図 9 (a)の原画像に対し 20%の量のエッジ点をランダムに付カロし た画像である。
[0131] データ画像 Gは、図 9 (a)の原画像に対し 50%の量のエッジ点をランダムに削除し た画像である。
[0132] 図 9 (a) , (b)の画像からエッジ抽出を行って得られる 2値エッジ画像を図 10 (a) , ( b)に示す。また、データ画像 B〜Gについてエッジ抽出を行った 2値エッジ画像(bina ry edge image 図 1 1 (a)〜 (f) ίこ示す。
[0133] これらのデータ画像について、実施例 2の画像検索装置を用いてクエリ画像との照 合を行い、クエリ画像と照合する被照合部分画像のデータ画像内の位置を検出する
。尚、 τ = 10とする。
[0134] 比較例として、ハススドルフ距離(Housdorff distance ; HD)の最小化によるマツチン グ方法、部分ハススドルフ距離(partial Housdorff distance ; PHD)の最小化によるマ ツチング方法、及び、修正ハススドルフ距離(modified Housdorff distance ; MHD)の 最小化によるマッチング方法を用いて、クエリ画像と照合する被照合部分画像のデ ータ画像内の位置の検出を行った。 (表 3) , (表 4)は、それぞれ、各方法により検出 された被照合部分画像の照合位置、及び平均二乗誤差(root-mean-square ; RMS) を示す。 RMSは次式(7)により定義される。
[0135] [数 8]
RM6 - (ωχ ωχο)2 + (ων― ωνο)2 (7) ここで、 (ω , ω )は各方法で検出された照合位置、(ω , ω )は正確な照合位置 yO
(best matching position)を す。
[0136] [表 3]
Measure Position result
image A. image B image C image D image E image F image G
HD (27; 119) (233 ; 117) (219 ; 118) (203 ; 114) (23, 129) (24, 118) (3L 121)
PHDl (27, 119) (28, 115) (28, 119)
Figure imgf000029_0001
110) (27, 119) 、 , 1 ί,J) (28, 119)
PHD2 (28, 119) (199, 118) (26, 115) (212, 112) (28, 117) (28, 119) (27, 118)
PHD3 (33, 117) (27, 118) (28, 119) (27, 119) (28, 119) (27, 119) (26, 119)
MHD (28, 119) (208, 112) (28, 119) (207, 114) (28, 119) (28, 119) (28, 119)
USD (28, 119) (28, 119) (28, 119) (28, 119) (28, 119) (28, 119) (28, 119)
[0137] [表 4]
Measure RMS
image A image B image C image D image E image F image G
HI) 1.0 205.0 191.0 175.1 11.2 4.1 3.6
PHDl 1.0 4.0 0.0 177.2 1.0 0.0 0.0
PHD2 0.0 171.1 4.47 184.1 2.0 0.0 1.4
PH D3 5.4 1.4 0.0 1.0 0.0 1.0 2.0
MHD 0.0 180.1 0.0 179.1 ().() 0.0 0.0
USD 0.0 0.0 0.0 0.0 0.0 0.0 0.0
[0138] (表 3) , (表 4)において、 HSDは、実施例 2のマッチング方法により位置検出を行 つた結果である。この結果から、本発明のマッチング方法は、他の比較例の方法に比 ベてマッチング精度に優れ、且つノイズに対するロバスト性も高いことが分かる。
[0139] また、図 12は、 MHDの最小化によるマッチング方法と、実施例 2のマッチング方法 との計算時間の比較を表した図である。 MHDはハウスドルフ距離の測定の中では 最も演算速度が速い方法である。図 12の結果から分かるように、実施例 2のマツチン グ方法は、比較例として挙げた従来のマッチング方法と比較して、計算時間を 1/10 以下とすることができる。
(例終わり) 実施例 3
[0140] 図 13は、本発明の実施例 3に係る画像検索システムの構成を表すブロック図であ る。実施例 3に係る画像検索システムは、画像入力手段 2、画像検索装置 30、画像 D B5、及び画像出力手段 10の各部分から構成されている。尚、本実施例の画像検索 システムは、微粒子の画像と類似する画像を画像 DB5に記憶されてレ、る微粒子画像 と照合することにより、微粒子の種類を判別するシステム等に用いられる。
[0141] 画像入力手段 2は、基準オブジェクトである基準画像又は被照合オブジェクトであ るデータ画像を入力するためインターフェイスである。画像入力手段 2は、電荷結合 素子 (Charge Coupled Devices: CCD) 2a及び AD変換 (analog to digital converte r:ADC) 2bを備えている。 CCD2aにより撮像された画像は、 ADC2bにより量子化さ れ、画像検索装置 30に出力される。
[0142] 画像 DB5は、被照合オブジェクトであるデータ画像をヒルベルト走査により一次元 化し、ランレングス符号化した圧縮データ画像を記憶する手段である。
[0143] 画像検索装置 30は、画像入力手段 2から入力される基準画像に近似するデータ画 像を、画像 DB5に格納された圧縮データ画像の中から検索し、画像出力手段 10に 出力する。
[0144] 画像出力手段 10は、画像検索装置 30により基準画像に類似すると判定されたデ ータ画像を出力するためインターフェイスである。画像出力手段 10は、ディスプレイ, プリンタ,外部記憶装置等の出力装置により構成される。
[0145] また、実施例 3に係る画像検索装置 30は、フレーム 'メモリ 31 ,領域抽出手段 32, 領域画像記憶手段 33,粗検索部 34,画像符号化部 35,基準画像記憶手段 36,候 補画像記憶手段 37,及びマッチング部 38を備えてレ、る。
[0146] フレーム 'メモリ 31は、 CCD2aにより撮像され ADC2bによりデジタル化された画像 を記憶するメモリである。領域抽出手段 32は、フレーム 'メモリ 31に記憶された画像 中力 部分画像 (例えば、微粒子部分の画像)を基準画像として抽出し、それを領域 画像記憶手段 33に保存する。
[0147] 粗検索部 34は、画像入力手段 2から入力される基準画像に近い圧縮データ画像を
、画像 DB5の中から検索し、 1乃至複数の圧縮候補画像を抽出し、候補画像記憶手 段 37に保存する。
[0148] 画像符号化部 35は、画像入力手段 2から入力される画像(二次元画像)をヒルベル ト走查により一次元化し、さらにランレングス符号ィ匕することにより圧縮画像を生成す る。この圧縮画像は、基準画像記憶手段 36に保存される。
[0149] マッチング部 38は、候補画像記憶手段 37に記憶された各圧縮候補画像と、基準 画像記憶手段 36に記憶された圧縮基準画像とを照合する。そして、当該圧縮基準 画像に最も類似する圧縮候補画像を選択し、画像出力手段 10に出力する。
[0150] 図 14は、図 13の粗検索部 34の構成を表すブロック図である。粗検索部 34は、ヒス トグラム近似復元装置 41、ヒストグラム作成手段 45、基準ヒストグラム記憶手段 46、 領域抽出手段 47、比較演算手段 48、及び画像選択手段 49を備えている。
[0151] ヒストグラム作成手段 45は、領域画像記憶手段 33に記憶された基準画像に含まれ る各画素の画素値についてヒストグラム(以下、「基準ヒストグラム.データ」という。)を 生成し、それを基準ヒストグラム記憶手段 46に保存する。
[0152] 画像 DB5には、複数の圧縮データ画像が記憶されている。ここで、圧縮データ画 像は、原画像の各画素の画素値を量子化するとともにランレングス符号化することに より得られた圧縮画像の画像データである。尚、このランレングス符号化の詳細に関 しては後述する。
[0153] 領域抽出手段 47は、画像 DB5から圧縮データ画像を読み出して、その全部を出 力し又は一部の領域を切り出して出力する。これは、例えば、圧縮データ画像の一 部領域に微粒子画像がある場合などに、その微粒子画像の部分のみを抽出するた めのものである。
[0154] ヒストグラム近似復元装置 41は、領域抽出手段 47により画像 DB5から読み出され た圧縮データ画像又はその部分データ(以下「領域圧縮データ画像」という。)から、 原画像又はその部分画像の画素値ヒストグラムを近似的に復元する。ヒストグラム近 似復元装置 41は、領域圧縮画像記憶手段 51、離散ヒストグラム生成手段 52、及び 近似ヒストグラム生成手段 53を備えてレ、る。
[0155] 領域圧縮画像記憶手段 51は、領域抽出手段 47が出力する領域圧縮データ画像 を一時的に記憶する。離散ヒストグラム生成手段 52は、領域圧縮画像記憶手段 51に 記憶された領域圧縮データ画像から離散ヒストグラム ·データを生成する。離散ヒスト グラム'データについては後述する。近似ヒストグラム生成手段 53は、領域圧縮画像 記憶手段 51が出力する離散ヒストグラム 'データに対して、画素値度数に分散をもた せることによって近似ヒストグラム ·データを生成する。
[0156] 比較演算手段 48は、基準ヒストグラム記憶手段 46に記憶されている基準ヒストグラ ム 'データと、近似ヒストグラム生成手段 53が出力する近似ヒストグラム 'データとの類 似度を算出する。画像選択手段 49は、各圧縮データ画像の前記類似度に基づいて 、基準画像に類似する一乃至複数の圧縮データ画像を選出し、候補画像として出力 する。
[0157] 図 15は、図 13のマッチング部 38の構成を表すブロック図である。マッチング部 38 は、エッジ抽出手段 61及びマッチング装置 62を備えている。エッジ抽出手段 61は、 粗検索部 34が出力する各圧縮候補画像について、復号して一次元画像とするととも にエッジを抽出し、一次元化されたエッジ画像(以下「一次元候補エッジ画像」という 。)を生成する。
[0158] マッチング装置 62は、エッジ抽出手段 63、ペアリング手段 65、ペア抽出手段 67、 評価尺度演算手段 68、及び判定手段 69を備えている。
[0159] エッジ抽出手段 63は、画像符号化部 35が出力する基準画像の圧縮画像を復号し
、一次元の基準画像を生成する。エッジ抽出手段 63は、この一次元の基準画像を解 析して、特徴点としてエッジを抽出し、一次元化されたエッジ画像(以下「一次元基準 エッジ画像」という。)を生成する。
[0160] ペアリング手段 65は、一次元候補エッジ画像と一次元基準エッジ画像に基づき、 一次元空間において、基準画像の各エッジ点について、その最近傍にある候補画像 の特徴点を探索する。そして、基準画像のエッジ点と候補画像のエッジ点のペア集 合を生成する。
[0161] ペア抽出手段 67は、ペアリング手段 65が作成したエッジ点のペア集合から、ペア 距離が小さいペアから順に、ペアの一部を抽出して、部分ペア集合を作成する。
[0162] 評価尺度演算手段 68は、ペア抽出手段 67で作成した部分ペア集合の距離の平 均値を評価尺度として算出する。 [0163] 判定手段 69は、基準画像と各候補画像の間で、評価尺度である距離の平均値を 比較して、距離の平均値が最小になる候補画像を、基準画像に最も近似する候補画 像であると判定する。
[0164] 画像出力手段 10は、判定手段 69により基準画像に最も近似すると判定された圧 縮候補画像を出力する。
[0165] 尚、本実施例の画像検索システムは、 LSIチップとしてハードウェア的に構成しても よいが、汎用のコンピュータにプログラムをロードすることによって各構成部分を機能 モジュールとして構成してもよい。
[0166] 次に、図 13,図 14の画像 DB5に記憶された圧縮データ画像について説明する。こ の圧縮データ画像は、原画像をヒルベルト走查により一次元化し、その各画素の画 素値を量子化するとともに、ランレングス符号化したものである。ランレングス符号ィ匕 においては、各ランにおいて当該ランに対応する原画像の画素値の分散が所定の 閾値 Γ以下となるようにランレングスを決定する。この圧縮アルゴリズムについては、 特許文献 6, 7又は非特許文献 1に詳細に記載されている。ここでは、その圧縮ァノレ ゴリズムの一例を説明するに止める。
[0167] まず、二次元の原画像を走査して一次元の原画像とする。この一次元化された原 画像を {x ; i=l,2,〜,N}と記す。ここで、 Nは原画像の画素数である。
[0168] 次に、この一次元化された原画像に対して、以下のような再帰的な 2分割処理を実 行する。
[0169] まず、区間 1の一次元画素列を {x ; ί=1,2, · · ·,Ν}とする。区間 Lを区間 Lと区間 Lに
i 1 2 分割する。図 16にその分割例を示す。区間 L, L, Lの平均値は、それぞれ式(8) ,
1 2
式(9),式(10)により表される。伹し、区間 Lの画素数を Nとする。
[0170] [数 9]
1
(8)
N
丄 1 Νί
¾ ( ;L) (9)
Ny [0171] 再帰的な 2分割を行う上で、区間 L, L , Lの累積自乗誤差を、それぞれ e, e , e
1 2 1 とすると、これらは式(11),式(12),式(13)により表される。
[0172] [数 10] e > (xi - x)2 (11) (^ ( ))2 (12) e2(ATL) = J (^ - ¾(^))2 (13)
i―
[0173] 二分割点は、次の評価式(14)が最小となる Ν (ΚΝく Ν)とする。
[0174] [数 11]
Figure imgf000034_0001
― ,,) (J^- N N 2
· ^i^i viV U ^
[0175] この 2分割操作を、 Evalが所定の閾値 Γ以下且つ Nが N 以下となるまで再帰的に max
繰り返して行う。
[0176] 以上のようなアルゴリズムにより、一次元化された原画像は複数の区間に分割され る。分割された各区間をランとし、その区間(ラン)における画素の平均値をそのラン における画素値としてランレングス符号化を行う。このランレングス符号化によって、 一次元化された原画像は、各ランにおいて画素値が量子化され、各ランにおいて当 該ランに対応する原画像の画素値の分散が所定の閾値 Γ以下となる。このようにして 得られた圧縮データ画像が、画像 DB5に複数保存されている。
[0177] 図 17は、ランレングス符号化により圧縮された画像データの例を示す模式図である 。図 17では、横軸が走査の順を表し、縦軸が画素値 (輝度)を表す。図中に括弧書き した数字の組は、前の数字が画素値 (ここでは輝度)、後の数字がランレングスを表 す。一般に、圧縮データ画像は下式(15)で表される。但し、 Cは画素値、 1はランレ ンダス、 Nはランの数である。
1
[0178] [数 12]
{(GJ,)|' = l,2 'NJ (15) [0179] 次に、上述のように構成された本実施例に係る画像検索システムについて、その動 作を説明する。本実施例 3の画像検索システムにおいては、最初に、粗検索部 34に おいて、撮像された画像データから切り出された基準画像と類似する 1乃至複数の 画像データを画像 DB5から検索し、候補画像として抽出する。そして、マッチング部 38において、候補画像と基準画像との照合を行い、当該基準画像に最も類似する 候補画像を抽出する。以下、この流れに沿って、粗検索部 34における候補画像の抽 出,マッチング部 38における基準画像に最も類似する候補画像の抽出の順に説明 する。
[0180] 〔1〕候補画像の抽出
最初に、前処理として、撮像された画像データから基準ヒストグラム 'データの作成 が行われる。まず、 CCD2aにより、微粒子等の被写体が撮像される。 CCD2aから出 力される画像データは、 ADC2bにおいてデジタル化され、フレーム 'メモリ 31に保存 される(図 13参照)。領域抽出手段 32は、フレーム 'メモリ 31に記憶された画像から 目的の領域を抽出して基準画像として領域画像記憶手段 33に保存する。尚、領域 抽出手段 32による領域抽出方法は、種々の公知の方法を使用することができるが、 本発明とは直接関係がないので説明は省略する。
[0181] 次に、粗検索部 34において、ヒストグラム作成手段 45は、領域画像記憶手段 33に 記憶された基準画像から画素値のヒストグラムを作成し、基準ヒストグラム 'データとし て基準ヒストグラム記憶手段 46に保存する。
[0182] 以上のような前処理が終了した後に、画像 DB5に記憶された圧縮データ画像から 、基準画像に類似する画像の圧縮データ画像を検索する粗検索処理を以下のように 実行する。
[0183] 図 18は、粗検索処理の流れを表すフローチャートである。ます、最初に粗検索部 3 4は、画像 DB5から読み出す圧縮データ画像の番号 iを 1に初期化する(S21)。
[0184] 次に、領域抽出手段 47は、画像 DB5から i番目の圧縮データ画像を読み出す(S2 2)。そして、読み出した圧縮データ画像から所定の領域 (領域圧縮データ画像)を抽 出する(S43)。ここで、抽出する領域は目的に応じて圧縮画像の一部分とされたり、 圧縮画像全体とされたりする。抽出された領域圧縮データ画像は、領域圧縮画像記 憶手段 51に保存される。
[0185] 次に、離散ヒストグラム生成手段 52は、領域圧縮画像記憶手段 51に記憶された領 域圧縮データ画像から離散ヒストグラム ·データを生成する(S44)
[0186] 図 1 9は、領域圧縮データ画像から作成した離散ヒストグラムである。図 19で、横軸 は画素値 (輝度)、縦軸は画素の出現頻度を表す。画素の出現頻度は、画素値が等 しい区間のランレングスの総和である。例えば、画素値 70の画素の出現頻度とは、 領域圧縮データ画像全体から、画素値 70を持つデータを全て拾い出して、それらの データのランレングスを合計したものである。領域圧縮データ画像において画素値が Cであるランの集合を L (C )と記す。基準ヒストグラムは、一般的に、次式(16)で表さ
1 1
れる。但し、 Lは画素値度数(ランレングスの総和)、 Mは画素値の個数である。
[0187] [数 13]
Si ίίι (χ)一 /o(;j;) |da; I ― ■()(.«.;) j ( 16)
Figure imgf000036_0001
[0188] なお、画素の出現頻度は各画素値の画素値度数を一画面の画素の総数で除して 規格化した値で表してもょレ、。
[0189] 次に、近似ヒストグラム生成手段 53は、領域圧縮画像記憶手段 51が出力する離散 ヒストグラム.データに対して、画素値度数に分散をもたせることによって近似ヒストグ ラム'データを生成する(S 25)。
[0190] 図 1 9の画素値ヒストグラムの画素値 Cは量子化された値である力 原画像では画
i
素値 Cの近傍に画素が分布していたと考えられる。そこで、これらの画素が画素値 C i i を中心に正規分布に従って分布していると仮定し、各画素値 Cの画素値度数 Lを式 ( 1 7)の分布関数 G(x)に従って、画素値 の近傍に分散配分する。但し、 Xは画素値 、 σは標準偏差を表す。
[0191] [数 14]
Figure imgf000036_0002
[0192] 離散的な画素値ヒストグラムの全ての画素値 Cについて、式(1 7)により画素値度数 Lを画素値 Cの近傍に配分すると、図 20に示すように、画素値 Cの近傍に分布する 画素を示すヒストグラム 71〜74が描ける。なお、標準偏差 σは画素値 の 4分の 1 ( C /4)を選ぶと良い結果が得られた。最後にこれらのヒストグラムを全て重畳すると、 全ての画素値についての連続的な近似ヒストグラム 75が得られる。
[0193] 次に、比較演算手段 48は、近似ヒストグラム生成手段 53が出力する近似ヒストグラ ム ·データと、基準ヒストグラム記憶手段 46に記憶されてレ、る基準ヒストグラム ·データ との類似度 Siを算出する(S26)。類似度 Sは、近似ヒストグラム 'データと基準ヒストグ ラム ·データとの差分により計算される。すなわち、近似ヒストグラム ·データを H (x)、 基準ヒストグラム 'データを H (X)とすると、類似度 Sは式(18)により表される。但し、
0 i
X, Xは画素値を表す。
[0194] [数 15]
Si - ¾ (.Χί)1 (18)
Figure imgf000037_0001
[0195] 次に、画像検索装置 1は、画像 DB5に記憶されているすべての圧縮データ画像に ついて、類似度 Sの計算が完了したか否力を判定し(S27)、未了であれば、 iを 1だ i
け増加させて(S28)、ステップ S22の処理に戻る。
[0196] ステップ S27で、すべての圧縮データ画像について類似度 Sの計算が完了した場 合、画像選択手段 49は、各圧縮データ画像の前記類似度に基づいて、基準画像に 類似する一乃至複数の圧縮データ画像を選出し (S29)、候補画像として出力して(
S30)、画像検索処理を終了する。
[0197] 尚、画像選択手段 49による圧縮データ画像を選出の方法としては、類似度 Siが最 小の圧縮データ画像を選出する方法や、類似度 Sが所定の閾値以下の圧縮データ 画像をすベて選出する方法等が考えられる。何れの方法を採用するかは、用途に応 じて決めればよい。
[0198] 以上のように、粗検索部 31では、圧縮データ画像から直接近似復元した近似ヒスト グラム ·データと基準画像の基準ヒストグラム ·データの類似度を求め、画像の検索を 行うことができる。画像のヒストグラムは生の画像データに比べてデータ量が格段少な いので、画像データを直接検索する場合に比べて、 10倍以上の速さで高速に検索 すること力 Sできる。 [0199] 尚、特許文献 2及び非特許文献 1に記載されたように、原画像の各画素の画素値を 量子化するとともに、各ランにおいて当該ランに対応する原画像の画素値の分散が 所定の閾値 Γ以下となるようにランレングスを決定することによりランレングス符号化 された画像データの画素値ヒストグラムを近似復元する場合には、前記閾値 Γの平 方根を前記標準偏差 σとすることもできる。
[0200] あるいは、前記閾値 Γの平方根又は画素値 Cの 4分の l (C /4)のいずれか小さ い値を標準偏差 σとすることもできる。
[0201] 〔2〕基準画像に最も類似する候補画像の抽出
以上のように粗検索部 31において、候補画像の抽出が行われると、次に、マツチン グ部 38において、基準画像に最も類似する候補画像の抽出が以下のように行われ る。
[0202] まず、前処理として、画像符号化部 35は、領域画像記憶手段 33に記憶された基準 画像を符号化する。ここで、符号化方法は、画像 DB5に記憶された圧縮データ画像 の符号化に使用された符号化方法と同様の符号化方法が用いられる。画像符号化 部 35で符号化された候補画像は、候補画像記憶手段 36に保存される。
[0203] 図 22は、マッチング部 38におけるマッチング処理の流れを表すフローチャートであ る。
[0204] まず、ステップ S41において、エッジ抽出手段 63は、圧縮画像記憶手段 36から、 圧縮基準画像を読み込む。
[0205] 次に、ステップ S42において、エッジ抽出手段 63は、圧縮基準画像を解析して、基 準画像の特徴点の集合 {Chq I ί= 1,2,· · ·,Ν}を生成する。ここで、特徴点 Cqhは、 一次元平面上の点である(Cqh GR)。
[0206] 次に、ステップ S43において、ペアリング手段 6は、ヒルベルト曲線上の特徴点 Cqh
(i= l,2,' N)を並べ替えて、ヒルベルト曲線上の特徴点の座標の集合 {u I j= l,2,
J
■•-,N ;u≤u≤- - -≤u }を得る。
j i N
[0207] 次に、ステップ S44において、エッジ抽出手段 61は、候補画像記憶手段 37に記憶 された圧縮候補画像の一つを読み出す。そして、ステップ S45において、圧縮候補 画像を解析して、候補画像の特徴点の座標の集合 {v I k= l,2,- - -,N,; v≤v ≤ ■ - ≤v }を生成する。
N,
[0208] 次に、ステップ S46において、ペアリング手段 65は、基準画像の特徴点の座標の 集合 {u I j=l,2,---,N;u≤u≤---≤u }に属する各データ要素 uについて、下式(1 j j j N j
9)を満たす候補画像の特徴点の座標の集合 {v I k=l,2,' ,N';VV≤—≤v }
k j j N' のデータ要素 v を求める。そして、uと v のペア集合 {(u,v ) I j=l,2,' ,N}を作
Kj) i 10) i Kj)
成する。
[0209] [数 16] ii¾ ― = rnin{||'i -一 'ひ 一 Ϊ ||, ... , ||¾― υΝ\\} (19)
[0210] 次に、ステップ S47において、ペア抽出手段 67は、ペア集合 {(u, ν ) | ]=1,2,-·- j 10)
,N}から、ペア距離 II u— V IIが小さい順に P(Pは、 Pく Nを満たす自然数)個のデ
i 10)
ータ要素を抽出し、特徴点の部分ペア集合 {(u , V ) I πι=1,2,···,Ρ}を作成する m l(m)
[0211] 次に、ステップ S48において、評価尺度演算手段 68は、式 (4)によって、ヒルベルト 走査距離を評価尺度として算出する。
[0212] 次に、ステップ S49において、全ての候補画像を読み出して、前記平均値を算出し ていればステップ S50に進み、そうでなければ、ステップ S44に戻る。
[0213] 最後に、ステップ S50において、判定手段 69は、ヒルベルト走査距離を全ての候補 画像について算出し、ヒルベルト走査距離が最小となる候補画像を、基準画像に最 も近似する候補画像であると判定する。そして、画像出力手段 10は、前記判定により 決定された候補画像を出力する。
[0214] 以上のように、本実施例によれば、マッチング処理を実行する前処理として、粗検 索部 34においてヒストグラムを用いた粗検索によって候補画像を絞り込むことにより、 画像 DB5の中の多数の画像データの中から高速に基準画像と最も類似する画像を 抽出することが可能となる。

Claims

請求の範囲
[1] 基準オブジェクトと被照合オブジェクトとを比較照合し、両オブジェクトの類似性を判 定するマッチング装置であって、
前記各オブジェクトの各データ要素を一次元空間に展開する全単射 (bijection)に より、前記各オブジェクトから抽出された特徴点を前記一次元空間に写像する写像 手段と、
前記一次元空間にぉレ、て、前記基準オブジェクトの特徴点の最近傍にある前記被 照合オブジェクトの特徴点を探索し、前記基準オブジェ外の特徴点と前記被照合ォ ブジエタトの特徴点のペアの集合(以下「ペア集合」とレ、う。)を生成するペアリング手 段と、
前記ペア集合から、ペアをなす両特徴点間の距離(以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出手段と、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準オブジェクトと前 記被照合オブジェクトの間の評価尺度を算出する評価尺度演算手段と、
前記評価尺度に基づき、前記基準オブジェクトと前記被照合オブジェクトの類似性 を判定する判定手段と
を備えたマッチング装置。
[2] 前記ペア抽出手段は、前記ペア集合から、ペア距離が所定の閾値以下の前記ぺ ァを抽出した部分ペア集合を生成するものであり、
前記評価尺度演算手段は、前記部分ペア集合に属するペアのペア距離の和 S 1を 算出し、前記部分ペア集合に属さないペア数に所定の加重値を乗じた値 S2を算出 し、前記和 S 1と値 S2との和 S 1 + S2を前記ペア集合の全ペア数で割ることにより評 価尺度を算出すること
を特徴とする請求項 1記載のマッチング装置。
[3] 前記写像手段は、前記特徴点を前記各オブジェクトの全てのデータ要素を通過す る空間充填曲線上に写像することを特徴とする請求項 1又は 2記載のマッチング装置 [4] 前記空間充填曲線はヒルベルト曲線であることを特徴とする請求項 3記載のマッチ ング装置。
[5] 前記各オブジェクトは画像であることを特徴とする請求項 1乃至 4の何れか一記載 のマッチング装置。
[6] 前記特徴点はエッジ点であることを特徴とする請求項 5記載のマッチング装置。
[7] 原画像データの各画素の画素値を量子化するとともにランレングス符号ィ匕すること により得られた圧縮画像の画像データ(以下「圧縮画像データ」という。)から、前記原 画像の画素値ヒストグラムを近似的に復元するヒストグラム近似復元装置であって、 前記圧縮画像記憶手段に記憶された前記圧縮画像データの各画素値 c
Figure imgf000041_0001
· -
,Μ, Μは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データ の全体領域又は特定の部分領域における当該画素値に対応するランレングスの総 和(以下「画素値度数」という。)Lを算出することにより離散ヒストグラム 'データを生成 する離散ヒストグラム生成手段と、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( x)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム ·データを生成する近似ヒストグラム生成手段と、
を有することを特徴とするヒストグラム近似復元装置。
[8] 前記近似ヒストグラム生成手段は、
前記離散ヒストグラム ·データ { (C, L ) |i=l,2, · · ·,M}の各画素値度数 L 0=1,2,· · ·,Μ) を、 (数 1)の正規分布関数 G (X)で表される正規分布となるように画素値 Cの近傍の 画素値 Xの画素値度数 L (x)に分散配分することにより、前記近似ヒストグラム 'データ を生成すること
を特徴とする請求項 7に記載のヒストグラム近似復元装置。
[数 1]
Figure imgf000041_0002
[9] 前記近似ヒストグラム生成手段は、
前記圧縮画像データの各画素値じ^=1,2,… )に対して、当該画素値 に対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σ =^/4の正規分布となるように当該画素値 Cの近傍の画素値 Xの画素 値度数 L (x)に分散配分することにより、前記原画像データの画素値の出現頻度を近 似的に表す近似ヒストグラム 'データを生成すること
を特徴とする請求項 7又は 8に記載のヒストグラム近似復元装置。
[10] 前記圧縮画像データは、前記原画像データの各画素の画素値を量子化するととも に、各ランにおいて当該ランに対応する原画像データの画素値の分散が所定の閾 値 Γ以下となるようにランレングスを決定することによりランレングス符号ィ匕されたもの であり、
前記近似ヒストグラム生成手段は、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σ = Γ 1/2の正規分布となるように当該画素値 Cの近傍の画素値 Xの画素 値度数 L (x)に分散配分することにより、前記原画像データの画素値の出現頻度を近 似的に表す近似ヒストグラム 'データを生成すること
を特徴とする請求項 7又は 8に記載のヒストグラム近似復元装置。
[11] 前記圧縮画像データは、前記原画像データの各画素の画素値を量子化するととも に、各ランにおいて当該ランに対応する原画像データの画素値の分散が所定の閾 値 Γ以下となるようにランレングスを決定することによりランレングス符号ィ匕されたもの であり、
前記近似ヒストグラム生成手段は、
前記標準偏差 σが、 C Z4又は前記閾値 Γの平方根のうちの何れか小さい値であ ること
を特徴とする請求項 7又は 8に記載のヒストグラム近似復元装置。
[12] 原画像データの各画素の画素値を量子化するとともにランレングス符号ィヒすること により得られた圧縮画像の画像データ(以下「圧縮画像データ」という。)が複数記憶 された画像データベース、
及び、基準画像の画素値ヒストグラム ·データ(以下「基準ヒストグラム ·データ」とレ、う 。)が記憶された基準ヒストグラム記憶手段
を有し、前記画像データベースに記憶された前記圧縮画像データの中から前記基準 画像に類似するものを検索する画像検索システムにおいて、
前記画像データベースに記憶された前記圧縮画像データの各画素値 C 0=1,2,· · -, M ; Mは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データの 全体領域又は特定の部分領域における当該画素値に対応するランレングスの総和( 以下「画素値度数」という。)Lを算出することにより離散ヒストグラム 'データを生成す る離散ヒストグラム生成手段と、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( χ)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム ·データを生成する近似ヒストグラム生成手段と、
前記基準ヒストグラム記憶手段に記憶されている前記基準ヒストグラム 'データと前 記近似ヒストグラム 'データとの類似度を算出する類似度計算手段と、
前記各圧縮画像データの前記類似度に基づいて、前記基準画像に類似する一乃 至複数の前記圧縮画像データを選出する画像選出手段と、
を備えてレ、ることを特徴とする画像検索システム。
[13] 前記類似度計算手段は、前記近似ヒストグラム ·データと前記基準ヒストグラム ·デー タとの差分を前記類似度として算出すること
を特徴とする請求項 6に記載の画像検索システム。
[14] 前記画像選出手段により選出された一乃至複数の前記圧縮画像データを候補画 像の圧縮画像データとして、前記各候補画像の圧縮画像データに基づき、当該候補 画像の特徴点を抽出し、それら特徴点の一次元空間上の座標を算出する第 1の特 徴点抽出手段と、
前記基準画像の特徴点を抽出し、それら特徴点の一次元空間上の座標を算出す る第 2の特徴点抽出手段と、
前記一次元空間にぉレ、て、前記基準画像の特徴点の最近傍にある前記候補画像 の特徴点を探索し、前記基準画像の特徴点と前記候補画像の特徴点のペアの集合 (以下「ペア集合」とレ、う。)を生成するペアリング手段と、
前記ペア集合から、ペアをなす両特徴点間の距離 (以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出手段と、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準画像と前記候補 画像の間の評価尺度を算出する評価尺度演算手段と、
前記評価尺度に基づき、前記基準画像と前記候補画像の類似性を判定する判定 手段と
を備えた請求項 12又は 13記載の画像検索システム。
基準オブジェクトと被照合オブジェクトとを比較照合し、両オブジェクトの類似性を判 定するマッチング方法であって、
前記各オブジェクトの各データ要素を一次元空間に展開する全単射 (bijection)に より、前記各オブジェクトから抽出された特徴点を前記一次元空間に写像する写像ス テツプと、
前記一次元空間にぉレ、て、前記基準オブジェクトの特徴点の最近傍にある前記被 照合オブジェクトの特徴点を探索し、前記基準オブジェ外の特徴点と前記被照合ォ ブジエタトの特徴点のペアの集合(以下「ペア集合」とレ、う。)を生成するペアリング'ス テツプと、
前記ペア集合から、ペアをなす両特徴点間の距離 (以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出ステップと、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準オブジェクトと前 記被照合オブジェクトの間の評価尺度を算出する評価尺度演算ステップと、
前記評価尺度に基づき、前記基準オブジェクトと前記被照合オブジェクトの類似性 を判定する判定ステップと を備えたマッチング方法。
[16] 原画像データの各画素の画素値を量子化するとともにランレングス符号ィヒすること により得られた圧縮画像の画像データ(以下「圧縮画像データ」という。)から、前記原 画像の画素値ヒストグラムを近似的に復元するヒストグラム近似復元方法であって、 前記圧縮画像記憶手段に記憶された前記圧縮画像データの各画素値 C (ί=1,2 · - ,Μ, Μは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データ の全体領域又は特定の部分領域における当該画素値に対応するランレングスの総 和(以下「画素値度数」という。)Lを算出することにより離散ヒストグラム 'データを生成 する離散ヒストグラム生成ステップと、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 Lを、当該画素値 Cを中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( χ)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム 'データを生成する近似ヒストグラム生成ステップと、
を有することを特徴とするヒストグラム近似復元方法。
[17] 原画像データの各画素の画素値を量子化するとともにランレングス符号ィヒすること により得られた圧縮画像の画像データ(以下「圧縮画像データ」という。)が複数記憶 された画像データベース、
及び、基準画像の画素値ヒストグラム ·データ(以下「基準ヒストグラム ·データ」とレ、う 。)が記憶された基準ヒストグラム記憶手段
を備えたシステムにおレ、て、前記画像データベースに記憶された前記圧縮画像デー タの中から前記基準画像に類似するものを検索する画像検索方法であって、 前記画像データベースに記憶された前記圧縮画像データの各画素値 C 0=1,2,· · -, M ; Mは圧縮画像データに含まれる全画素値の数)に対して、前記圧縮画像データの 全体領域又は特定の部分領域における当該画素値に対応するランレングスの総和( 以下「画素値度数」という。)Lを算出することにより離散ヒストグラム 'データを生成す る離散ヒストグラム生成ステップと、
前記圧縮画像データの各画素値 C (i=l,2,… )に対して、当該画素値 Cに対応す る前記離散ヒストグラム 'データの前記画素値度数 を、当該画素値 ^を中心とする 標準偏差 σの正規分布となるように当該画素値 Cの近傍の画素値 Xの画素値度数 L ( x)に分散配分することにより、前記原画像データの画素値の出現頻度を近似的に表 す近似ヒストグラム 'データを生成する近似ヒストグラム生成ステップと、
前記基準ヒストグラム記憶手段に記憶されている前記基準ヒストグラム 'データと前 記近似ヒストグラム 'データとの類似度を算出する類似度計算ステップと、
前記各圧縮画像データの前記類似度に基づいて、前記基準画像に類似する一乃 至複数の前記圧縮画像データを選出する画像選出ステップと、
を備えてレ、ることを特徴とする画像検索方法。
[18] 前記画像選出ステップにおレ、て選出された一乃至複数の前記圧縮画像データを 候補画像の圧縮画像データとして、前記各候補画像の圧縮画像データに基づき、当 該候補画像の特徴点を抽出し、それら特徴点の一次元空間上の座標を算出する第 1の特徴点抽出ステップと、
前記基準画像の特徴点を抽出し、それら特徴点の一次元空間上の座標を算出す る第 2の特徴点抽出ステップと、
前記一次元空間にぉレ、て、前記基準画像の特徴点の最近傍にある前記候補画像 の特徴点を探索し、前記基準画像の特徴点と前記候補画像の特徴点のペアの集合 (以下「ペア集合」という。)を生成するペアリング 'ステップと、
前記ペア集合から、ペアをなす両特徴点間の距離(以下「ペア距離 (pair-distance) 」という。)が小さい順に、前記ペアの一部を抽出した部分ペア集合を生成するペア 抽出ステップと、
前記部分ペア集合に属するペアのペア距離に基づき、前記基準画像と前記候補 画像の間の評価尺度を算出する評価尺度演算ステップと、
前記評価尺度に基づき、前記基準画像と前記候補画像の類似性を判定する判定 ステップと
を備えた請求項 17記載の画像検索方法。
[19] コンピュータに読み込んで実行することにより、コンピュータを請求項 1乃至 6の何 れか一のマッチング装置として機能させることを特徴とするプログラム。 [20] コンピュータに読み込んで実行することにより、コンピュータを請求項 7乃至 11の何 れか一のヒストグラム近似復元装置として機能させることを特徴とするプログラム。
[21] コンピュータに読み込んで実行することにより、コンピュータを請求項 12乃至 14の 何れか一の画像検索システムとして機能させることを特徴とするプログラム。
PCT/JP2005/020471 2004-11-12 2005-11-08 マッチング装置及び画像検索システム並びにヒストグラム近似復元装置、並びにマッチング方法及び画像検索方法並びにヒストグラム近似復元方法 WO2006051792A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/667,565 US8155451B2 (en) 2004-11-12 2005-11-08 Matching apparatus, image search system, and histogram approximate restoring unit, and matching method, image search method, and histogram approximate restoring method
US11/667,566 US7983482B2 (en) 2005-11-08 2007-05-11 Matching apparatus, image search system, and histogram approximate restoring unit, and matching method, image search method, and histogram approximate restoring method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-329231 2004-11-12
JP2004329231A JP4575751B2 (ja) 2004-11-12 2004-11-12 ヒストグラム近似復元装置及びヒストグラム近似復元方法、並びに画像検索装置及び画像検索方法
JP2005-078260 2005-03-17
JP2005078260A JP4570995B2 (ja) 2005-03-17 2005-03-17 マッチング方法およびマッチング装置ならびにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/667,566 Continuation US7983482B2 (en) 2005-11-08 2007-05-11 Matching apparatus, image search system, and histogram approximate restoring unit, and matching method, image search method, and histogram approximate restoring method

Publications (1)

Publication Number Publication Date
WO2006051792A1 true WO2006051792A1 (ja) 2006-05-18

Family

ID=36336471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/020471 WO2006051792A1 (ja) 2004-11-12 2005-11-08 マッチング装置及び画像検索システム並びにヒストグラム近似復元装置、並びにマッチング方法及び画像検索方法並びにヒストグラム近似復元方法

Country Status (2)

Country Link
US (1) US8155451B2 (ja)
WO (1) WO2006051792A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338082A (ja) * 2005-05-31 2006-12-14 Sony Corp 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム
JP2007128195A (ja) * 2005-11-02 2007-05-24 Sony Corp 画像処理システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4777059B2 (ja) 2005-12-22 2011-09-21 パナソニック株式会社 画像検索装置および画像検索方法
US8295603B2 (en) * 2007-03-28 2012-10-23 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP5151394B2 (ja) * 2007-10-25 2013-02-27 株式会社リコー 情報管理装置、情報管理方法、及びプログラム
WO2010071617A1 (en) * 2008-12-15 2010-06-24 Thomson Licensing Method and apparatus for performing image processing
US20100166303A1 (en) * 2008-12-31 2010-07-01 Ali Rahimi Object recognition using global similarity-based classifier
US8792728B2 (en) * 2010-09-27 2014-07-29 Hewlett-Packard Development Company, L.P. Near-duplicate image detection
CN104636745B (zh) * 2013-11-08 2018-04-10 株式会社理光 尺度不变特征提取方法和装置、对象识别方法和装置
US9864758B2 (en) 2013-12-12 2018-01-09 Nant Holdings Ip, Llc Image recognition verification
US10318576B2 (en) 2013-12-12 2019-06-11 Nant Holdings Ip, Llc Image recognition verification
US9805289B2 (en) * 2015-12-18 2017-10-31 Ricoh Co., Ltd. Color-based post-processing of images
JP7002729B2 (ja) * 2017-07-31 2022-01-20 株式会社アイシン 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び画像認識プログラム
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
JP7253573B2 (ja) * 2020-04-09 2023-04-06 センスタイム インターナショナル ピーティーイー.リミテッド マッチング方法、装置、電子機器及びコンピュータ可読記憶媒体
CN116309758B (zh) * 2023-05-25 2023-08-08 奥谱天成(厦门)光电有限公司 一种基于OpenCV的线激光图像自动对齐方法及终端设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10508727A (ja) * 1994-10-26 1998-08-25 イメイション・コーポレイション 空間ヒストグラム解析によるコントラスト強調
JP2000187731A (ja) * 1998-12-21 2000-07-04 Ricoh Co Ltd 画像特徴抽出方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001101411A (ja) * 1999-09-28 2001-04-13 Japan Science & Technology Corp パターン・マッチング・システムおよび方法
JP2002524789A (ja) * 1998-09-09 2002-08-06 インテル・コーポレーション 画像のブラウジングのための多重線形化データ構造
WO2003086564A2 (en) * 2002-04-10 2003-10-23 The Board Of Regents Of The University And Community College System Of Nevada On Behalf Of The University Of Nevada, Reno Removal of arsenic from drinking and process water

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991430A (en) * 1996-11-26 1999-11-23 Wen-Hsing Hsu Method and device for automatic matching of planar point patterns
US6163622A (en) * 1997-12-18 2000-12-19 U.S. Philips Corporation Image retrieval system
JP2001109885A (ja) 1999-10-05 2001-04-20 Sony Corp 画像処理方法及び画像処理装置
JP2002150287A (ja) 2000-11-07 2002-05-24 Minolta Co Ltd 画像検出装置、画像検出方法、ディジタルカメラおよびプリンタ
EP1306805A1 (en) * 2001-10-25 2003-05-02 Mitsubishi Electric Information Technology Centre Europe B.V. Image Analysis
US6922487B2 (en) * 2001-11-02 2005-07-26 Xerox Corporation Method and apparatus for capturing text images
JP4083670B2 (ja) 2003-03-24 2008-04-30 財団法人北九州産業学術推進機構 画像符号化装置及び画像符号化方法
JP4318475B2 (ja) 2003-03-27 2009-08-26 セコム株式会社 話者認証装置及び話者認証プログラム
JP2005025465A (ja) 2003-07-01 2005-01-27 Toshiba Corp 文書検索方法及び文書検索装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10508727A (ja) * 1994-10-26 1998-08-25 イメイション・コーポレイション 空間ヒストグラム解析によるコントラスト強調
JP2002524789A (ja) * 1998-09-09 2002-08-06 インテル・コーポレーション 画像のブラウジングのための多重線形化データ構造
JP2000187731A (ja) * 1998-12-21 2000-07-04 Ricoh Co Ltd 画像特徴抽出方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001101411A (ja) * 1999-09-28 2001-04-13 Japan Science & Technology Corp パターン・マッチング・システムおよび方法
WO2003086564A2 (en) * 2002-04-10 2003-10-23 The Board Of Regents Of The University And Community College System Of Nevada On Behalf Of The University Of Nevada, Reno Removal of arsenic from drinking and process water

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAMADA S.: "Kukan Juchi Kyokusen to Gazo Asshuku Oyo", INFORMATION PROCESSING SOCIETY OF JAPAN KENKYU HOKOKU, vol. 99, no. 82, 8 October 1999 (1999-10-08), pages 1 - 6 *
KOBAYASHI M. ET AL: "Color Document Gazo no Kagyaku Asshuku Hoho", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J-85-D-11, no. 4, 1 April 2002 (2002-04-01), pages 584 - 593 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338082A (ja) * 2005-05-31 2006-12-14 Sony Corp 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム
JP2007128195A (ja) * 2005-11-02 2007-05-24 Sony Corp 画像処理システム

Also Published As

Publication number Publication date
US8155451B2 (en) 2012-04-10
US20080205756A1 (en) 2008-08-28

Similar Documents

Publication Publication Date Title
WO2006051792A1 (ja) マッチング装置及び画像検索システム並びにヒストグラム近似復元装置、並びにマッチング方法及び画像検索方法並びにヒストグラム近似復元方法
US8300942B2 (en) Area extraction program, character recognition program, and character recognition device
JP4504702B2 (ja) 文書処理装置、文書処理方法、および文書処理プログラム
CN107273458B (zh) 深度模型训练方法及装置、图像检索方法及装置
KR101637229B1 (ko) Sift 기반의 특징점 추출 장치 및 방법과 이를 이용한 얼굴 인식 시스템
JP5997545B2 (ja) 信号処理方法及び信号処理装置
US7983482B2 (en) Matching apparatus, image search system, and histogram approximate restoring unit, and matching method, image search method, and histogram approximate restoring method
US10115127B2 (en) Information processing system, information processing method, communications terminals and control method and control program thereof
US9025889B2 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
JPH05143707A (ja) 符号化画像データの処理方法および装置
JP6770237B2 (ja) 生体認証装置、生体認証方法、及び生体認証プログラム
CN110796000A (zh) 基于双向lstm的唇形样本生成方法、装置和存储介质
CN110674802B (zh) 一种改进的平行四边形候选框的文本检测方法
KR20090065099A (ko) 디지털 영상 특징 관리 시스템 및 그 방법
JP4570995B2 (ja) マッチング方法およびマッチング装置ならびにプログラム
CN114037886A (zh) 图像识别方法、装置、电子设备和可读存储介质
JP4447602B2 (ja) 信号検出方法,信号検出システム,信号検出処理プログラム及びそのプログラムを記録した記録媒体
JP4612477B2 (ja) パターン認識装置、パターン認識方法、パターン認識プログラム、及びパターン認識プログラムの記録媒体
US7342517B2 (en) Apparatus and method of binary image compression
KR100449486B1 (ko) 수직선 인접 그래프를 이용한 문서 인식 시스템 및 방법
CN114282052A (zh) 基于帧特征的视频图像定位方法及系统
KR20180023363A (ko) 바코드 인식 장치
JP4575751B2 (ja) ヒストグラム近似復元装置及びヒストグラム近似復元方法、並びに画像検索装置及び画像検索方法
KR20170082797A (ko) 컨텐츠 기반 영상 검색을 위한 특징 서술자 부호화 방법 및 장치
JP5046241B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11667565

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 05805974

Country of ref document: EP

Kind code of ref document: A1