WO2001065488A1 - Apparatus for retrieving image and method for retrieving image - Google Patents

Apparatus for retrieving image and method for retrieving image Download PDF

Info

Publication number
WO2001065488A1
WO2001065488A1 PCT/JP2001/001498 JP0101498W WO0165488A1 WO 2001065488 A1 WO2001065488 A1 WO 2001065488A1 JP 0101498 W JP0101498 W JP 0101498W WO 0165488 A1 WO0165488 A1 WO 0165488A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
correlation
search target
search
optical
Prior art date
Application number
PCT/JP2001/001498
Other languages
French (fr)
Japanese (ja)
Inventor
Makoto Kato
Tsuyoshi Suzuki
Original Assignee
Hamamatsu Photonics K. K.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics K. K. filed Critical Hamamatsu Photonics K. K.
Priority to AU2001235992A priority Critical patent/AU2001235992A1/en
Publication of WO2001065488A1 publication Critical patent/WO2001065488A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Definitions

  • Another method of searching for similar images is to generate a correlation image by the Joint Transform Correlation method and detect the peak value to determine similarity.
  • Japanese Patent Laid-Open No. 2000-111178 discloses such a similar image search method.
  • the present invention has been made to solve the above-described problem, and can quickly and accurately search for a similar image from a huge number of images, and It is an object of the present invention to provide an image search device and an image search method in which cost is reduced.
  • the correlation image formed on the correlation output surface by the correlation image forming means includes not only a correlation signal formed based on the comparison original image and the search target image itself, but also speckle noise.
  • the location of the correlation signal based on the image itself changes when the relative position of the image is changed.
  • speckle noise that appears due to the optical system does not change its location even if the relative position of the image is changed. Therefore, the correlation signal can be separated from speckle noise by taking the difference between the correlation image before changing the relative position and the correlation image after changing the relative position.
  • the peak height of the luminescent spot of the primary light (+ primary light or primary light) that appears at a position uniquely determined by the relative positions of the two images is detected. do it.
  • it is not enough to simply detect such a bright spot peak of the primary light and it is necessary to detect feature points at the same or similar but different positions in the similar image. Therefore, it is necessary to collect correlation signals that appear in various places on the correlation output surface.
  • the intensity of the correlation signal is integrated within a predetermined area, correlation signals appearing based on feature points of the same or similar but different positions of the similar image can be collected. It is possible to determine with high accuracy whether or not the image is a similar image.
  • the correlation signal can be separated from speckle noise, even weak correlation signals that were initially buried in the speckle noise can be accurately picked up and integrated. This makes it possible to determine with high precision whether or not the two images are similar.
  • the similarity determination can be expanded and searched.
  • the zero-order light is included in the integration region, detection of the autocorrelation signal can be avoided, and highly accurate detection can be performed.
  • the integration region from including the primary light (+ 1st-order light and 1st-order light), it is possible to search only similar images and not search the same image. .
  • the zero-order light appears at a predetermined position on the correlation output surface that is uniquely determined by the optical system of the correlation image forming means.
  • the first-order light (+ 1st-order light and 1st-order light) also appears on the correlation output surface at a predetermined position determined by the positional relationship between the comparison original image and the search target image. Therefore, when specifying the integration region, the 0th order light and the 1st order light What is necessary is just to exclude the appearance position.
  • the image search device of the present invention further includes: a search range specifying unit that selects image data of the at least one search target image to be sequentially compared with the comparison original image from image data of the plurality of search target images. It is preferable to further include For example, if additional information is added to the image data of each search target image in advance, based on this additional information, at least one image data to be searched can be selected and provided for the search.
  • the correlation image forming means includes: first Fourier transform means for forming a first Fourier transform pattern by Fourier-transforming the modulated output read from the spatial light modulator; and Another spatial light modulator for reading out the written and written Fourier transform pattern with coherent light, and second Fourier transform means for Fourier transforming the modulated output read from the other spatial light modulator to form a correlation image It is preferable to consist of
  • an image search method includes an image data conversion step of converting image data of one comparative original image and image data of one search target image into optical images, respectively.
  • the optical image of the comparison original image and the optical image of the one search target image are written side by side in a spatial light modulator, and the written two optical image patterns are written in coherent light using the spatial light modulator.
  • the one search target image is compared with the one
  • a comparison step of determining whether or not the image is similar to the original image; a step of outputting the search target image determined to be a similar image in the comparison step as a similar image; and at least one search By repeatedly performing the image data conversion step while sequentially switching the image data of the target image, the at least one search target image and the comparative original image are sequentially compared and determined to be similar to the comparative original image.
  • a similar image extraction control step of outputting the retrieved search target image as a similar image.
  • the correlation signal can be separated from the speckle noise by taking the difference between the correlation images before and after changing the relative position, so that the weak correlation signal buried in the speckle noise can be accurately picked up and used for integration. This makes it possible to determine with high precision whether or not the two images are similar.
  • FIG. 1 shows an overall configuration of an image search device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a structure of an optical address type SLM used in the image search device according to the above embodiment.
  • FIG. 3 is a diagram showing a detection image of the CCD image sensor.
  • FIGS. 4 (a) and 4 (b) are diagrams showing the principle of similar image retrieval by the image retrieval device according to the above embodiment
  • FIG. Fig. 4 (b) is a diagram showing a state where the target image is side by side and is incident on the first SLM
  • Fig. 4 (b) shows the comparison original image and the search target image as shown in Fig. 4 (a).
  • FIG. 3 is a diagram showing a correlation image obtained on a correlation output surface (on a CCD image sensor) when the light is incident on a first SLM.
  • FIG. 5 is a flowchart showing an image search operation of the image search device according to the above embodiment.
  • FIG. 6 is a diagram showing a display state of a parameter window screen displayed first when an image search operation of the image search device according to the above embodiment is started.
  • Fig. 7 shows the display status of the "Open” window screen that appears when you click the "Ref” button on the “Ref” side in "Mu 1ti Division” in the parameter overnight window screen in Fig. 6.
  • FIG. 8 shows the display status of the directory selection window screen that appears when you click the "Browse” button on the “Dir” side of "Mu 1 ti division” in the parameter window window of Fig. 6. It is.
  • FIG. 9 is a diagram showing a display state of a comparison window screen appearing when the “Start” button in “Mu1ti division” on the parameter overnight window screen of FIG. 6 is clicked.
  • FIG. 10 is a diagram showing a display state when parameters are set on the parameter window screen of FIG.
  • the first 1 figure best mode for carrying out the t invention is a diagram illustrating a display state of the search result image display window screen displayed in the image retrieval operation of the image retrieval apparatus according to the above embodiment
  • FIGS. 1 to 11 An image search device according to an embodiment of the present invention will be described with reference to FIGS. 1 to 11.
  • FIG. 1 shows a configuration diagram of an image search device according to an embodiment of the present invention.
  • the image retrieval apparatus 100 of the present embodiment includes a central processing unit (hereinafter, “CPU”) 7, a computer tomographic imaging apparatus (hereinafter, “CT”) 1, a magnetic resonance imaging apparatus (hereinafter, “MRI”). 2, network server 3, digital camera 4a, magnetic disk 5, computer monitor 6, input device 12, RAM 14, ROM 16, hard disk device 17, image memory 18, video RAM 8, and A / D It is composed of an optical operation unit 20 connected to the CPU 7 via the converter 14.
  • CPU central processing unit
  • CT computer tomographic imaging apparatus
  • MRI magnetic resonance imaging apparatus
  • the CT 1, MR 12, network server 3, and digital camera 4a are means for capturing images, and are connected to the CPU 7 via the computer bus 9.
  • the digital camera 4a is connected to the computer bus 9 via a digital camera interface (I / F) 4b.
  • the image data captured by these image capturing means is stored on a magnetic disk 5 as image data storage means via a computer bus 9.
  • the comparison original image 10 a ′ is fetched from the CT 1, MR 12, or the digital camera 4 a (in this case, the digital camera 4 a) and stored in the magnetic disk 5.
  • the image search device 100 sends a plurality of search target images 10a, 10b, 10c, 10d, 10e, 10f,... Stored in the magnetic disk 5. ⁇ Images similar to the comparison original image 10a, can be searched from among 10z.
  • the video RAM 8 is a memory for temporarily storing two images to be compared. More specifically, one image selected as a search target among the search target images 10a, 10b, 10c, 10d, 10e, and 10f within the current search target range (for example, , 10 a) and the comparison original image 10 a ′ are stored in the video RAM 8 via the computer bus 9. The images selected as search targets from among the images 10a, 10b, 10c, 10d, 10e, and 10f in the search range this time are sequentially replaced during work. Each time it is compared with the comparison original image 10a '.
  • the optical operation unit 20 performs optically congruent conversion correlation (Joint Transf orm Correlation) processing to directly detect the correlation value (an index of the degree of similarity between the two images) between the two images in the video RAM 8 as the light intensity.
  • the optical operation unit 20 includes a liquid crystal panel 21 a, 21 b, a zoom lens 22 a, 22 b, an image rotation mirror 23, a reflection mirror 24, a spatial light modulator (hereinafter, “SLM”) 25. a, 25 b, laser diode (hereinafter, “: LD”) 26, collimated lens 27, half mirror 28, 29, 31 1, mirror 30, Fourier transform lens 32 a, 32 b, and CCD It consists of an image sensor 33.
  • SLM spatial light modulator
  • the liquid crystal panel 21a, the zoom lens 22a, and the image rotation mirror 23 are for pre-processing the comparison original image 10a 'stored in the video RAM 8, and are provided after the liquid crystal panel 21a.
  • a zoom lens 22a is provided, and an image rotation mirror 23 is further provided behind the zoom lens 22a.
  • the liquid crystal panel 21a is for converting a digital image into an optical image.
  • the zoom lens 22 a is for enlarging or reducing the optical image displayed on the liquid crystal panel 21 a.
  • the image rotation mirror 23 is for rotating the optical image enlarged or reduced by the zoom lens 22a.
  • the liquid crystal panel 21b and the zoom lens 22b are for preprocessing the search target image (in this case, 10a) stored in the video RAM 8, and the zoom is performed after the liquid crystal panel 21b.
  • the lens 22b is arranged.
  • the liquid crystal panel 2 lb is for converting a digital image into an optical image.
  • the zoom lens 22b is for enlarging or reducing the optical image displayed on the liquid crystal panel 21b.
  • a reflection mirror 24 having two reflection surfaces is disposed downstream of the image rotation mirror 23 and the zoom lens 22b.
  • the optical image of the comparison original image 10a 'supplied from the liquid crystal panel 21a, the zoom lens 22a, and the image rotation mirror 23 enters, and the other.
  • the optical image of the search target image 10a supplied from the liquid crystal panel 21b and the zoom lens 22b is incident on the other reflecting surface.
  • the two incident optical images are reflected by the respective reflecting surfaces, and have a predetermined positional relationship (the optical address section) on the writing side (optical address section) of the first SLM25a disposed after the reflection mirror 24. Parallel to the X-axis of each other and at a distance M from each other.
  • a first half mirror 29 and a first free-transform lens 32a are arranged at a stage subsequent to the first SLM 25a, and a second SLM 25b is arranged at a stage subsequent thereto. Have been.
  • a second half mirror 31 and a second Fourier transform lens 32b are arranged downstream of the second SLM 25b.
  • the LD 26 is for continuously outputting laser light (hereinafter referred to as “reading light”), which is a coherent light, which is incident on the reading side (light modulator) of the SLMs 25a and 25b.
  • reading light laser light
  • the collimating lens 27 is for collimating the readout light output from the LD 26 into parallel light.
  • the third half mirror 28 partially divides the reading light (parallel light) from the collimating lens 27 partially by transmitting and partially reflecting the light.
  • the read light transmitted through the third half mirror 28 is reflected by the first half mirror 29 and is incident on the read side of the first SLM 29.
  • the mirror 30 changes the optical path of the readout light reflected by the third half mirror 28 and guides it to the second half mirror 31.
  • the reading light that has entered the second half mirror 31 is reflected and enters the reading side of the second SLM 25 b.
  • SLM2 5a and 25b are connected to the reading side (optical modulation side (lower side in Fig. 1) according to the image input to the writing side (optical address side (upper side in Fig. 1; left side in Fig. 2)). Readout light incident on the right side of Fig. 2)) Is output after phase modulation.
  • an optically-addressable SLM is used.
  • PAL-SLM parallel-aligned nematic liquid crystal spatial light modulator
  • a nematic liquid crystal layer 416 (in this case, a parallel alignment nematic liquid crystal layer) as a light modulating section is provided between a pair of alignment layers 415 and 417.
  • a mirror 414, a photoconductive layer 413 as an optical address portion, a transparent conductive film 412, and a writing-side glass substrate 411 are provided on the side of the alignment layer 417 opposite to the nematic liquid crystal layer 416.
  • Photoconductive layer 4 1 3 is, for example, amorphous silicon (a- S i), C d S, B i 12 0 2. And organic photoconductor (PVK).
  • the mirror layer 414 is made of, for example, a dielectric mirror.
  • the alignment layers 415 and 417 may be formed by coating PVA or polyimide on the mirror 414 and the transparent conductive film 418 and then rubbing the film, oblique evaporation of SiO or LB film. It may be created by the formation of.
  • An AC driving voltage is applied between the pair of conductive films 412 and 418 of the SLMs 25a and 25b, for example, from AC power supplies 500a and 500b.
  • the first Fourier transform lens 32a performs a Fourier transform on the readout light modulated and output on the readout side (the liquid crystal layer 416) of the first SLM25a, and converts the first Fourier pattern to the focal plane thereafter. It is for forming into.
  • the second SLM 25b has its write side (optical address side (photoconductive layer 413)) disposed on the back focal plane of the first Fourier transform lens 32a. Therefore, the first Fourier pattern is imaged on the writing side of the second SLM25b.
  • the second Fourier transform lens 32b performs a Fourier transform on the readout light modulated and output on the readout side (liquid crystal layer 416) of the second SLM25b, and then performs a Fourier transform on the focal plane (correlation output plane). 2 to form a Fourier pattern (correlated image).
  • a CCD image sensor 33 is disposed on the back focal plane (correlation output plane) of the second Fourier transform lens 32b.
  • the CCD image sensor 33 is configured by a two-dimensional array of a plurality of pixels, and can detect the light intensity at each pixel position. Therefore, the CCD image sensor 33 detects the light intensity (luminance) at each pixel position of the second Fourier pattern and outputs an electric signal corresponding to the detected light intensity. This electric signal is converted into a digital signal (luminance value (gradation value)) by the AZD converter 14 and then supplied to the CPU 7.
  • the digital signal thus supplied to the CPU 7 is temporarily stored in the image memory 18 as correlation image data.
  • the correlation image data can be displayed on a computer monitor 16 and, for example, as shown in FIG. 3, can be displayed as a LIFE image.
  • the optical operation unit 20 optically converts the image data of the comparison original image 10 a ′ and the image data of the search target image 10 a into optical data, respectively. After conversion into an image, these correlation patterns are directly formed by optically performing joint conversion correlation processing.
  • a joint conversion correlation process is to be performed by a computer, a high-performance computer is required, and the manufacturing cost of the entire image search device is increased.
  • the correlation operation processing is optically performed by the optical operation unit 20, the manufacturing cost can be significantly reduced.
  • the optical operation unit 20 can perform the operation processing at extremely high speed, the operation processing can be performed in a short time even if the number of search target images is enormous.
  • an image as shown in FIG. 4 (a) is input to the video RAM 8 as a comparison original image 10a 'and a search target image 10a.
  • the comparison original image 10a 'and the search target image 10a are images in which the same person appears but has locally different portions.
  • Optical images corresponding to these two images are generated by the liquid sub-panels 21a and 21b, and are incident on the writing side (photoconductive layer 413) of the SLM25a.
  • these optical images 10a ′ and 10a have a relative positional relationship parallel to the X axis and shifted by a distance M. Injected into SLM2 5a.
  • the XY plane in the drawing is the writing-side incident surface of the SLM 25a (the writing light incident surface of the photoconductive layer 413), and the X-axis and the Y-axis are perpendicular to each other. Further, as shown in FIG. 1, the optical axes (Z-axis) of the first and second Fourier transform lenses 32a and 32b extend perpendicular to the XY plane.
  • the two images 10a 'and 10a are Fourier-transformed by the Fourier transform lens 32a, and the obtained first Fourier transform pattern is written into the SLM25b.
  • the correlation output surface CCD image sensor 33
  • the XY plane in FIG. 4 (b) shows the back focal plane (correlation output plane) of the Fourier transform lens 32b, and this X axis is the X axis (the second plane) on the writing side entrance plane of the SLM 25a.
  • the Z axis is the optical axis of the first and second Fourier transform lenses 32a and 32b, and extends perpendicular to the XY plane in the figure.
  • the autocorrelation between the image 10a 'and the image 10a is located on the Z axis (the origin of the figure) on the focal plane (correlation output plane) after the Fourier transform lens 32b.
  • the zero-order light which is the signal light, appears.
  • the parts with a high degree of coincidence in both images for example, the part a in image 10a 'and the part a in image 10a It is displaced substantially parallel by a distance that is approximately equal to the distance M. Therefore, on the correlation output surface (on the CCD image sensor 33), as shown in FIG. 4 (b), a pair of correlation signal lights A based on these image portions a and a ' It appears at a pair of positions that are displaced from the position of the optical axis Z) of the conversion lens 32b substantially parallel to the X axis by a distance substantially equal to M ⁇ (f2 / f1).
  • f1 is the focal length of the Fourier transform lens 32a
  • f2 is the focal length of the Fourier transform lens 32b.
  • a portion having a high degree of coincidence for example, a portion b 'of the image 10a' and a portion 13 of the image 10 & are also shifted by a distance substantially parallel to the X axis and substantially equal to the distance M. Therefore, a pair of correlation signal lights B based on these image parts b and b 'are also M' (f2 / f1) substantially parallel to the X axis from the position of the origin (optical axis Z of the Fourier transform lens 32b). Appear at a pair of positions displaced by a distance approximately equal to.
  • a pair of correlation signal light C based on these image portions is also substantially parallel to the X axis from the position of the origin (optical axis Z of the Fourier transform lens 32b) by M * (f2 / f1 ) Appear at a pair of positions displaced by a distance approximately equal to).
  • these correlation signal lights are shifted from the origin (optical axis Z of the Fourier transform lens 32b) to a pair of positions substantially parallel to the X axis and shifted by a distance substantially equal to ⁇ ⁇ (f2 / f1).
  • a strong peak appears due to the gathering.
  • the part d 'of the image 10a' and the part d of the image 10a are mutually identical image parts, their positions are different. Specifically, the image parts d 'and d are shifted by a distance L parallel to the X axis and a distance N parallel to the Y axis. Therefore, the correlation signal light D based on these image parts d and d 'is distanced from the origin (the optical axis Z of the Fourier transform lens 32b) in parallel to the X axis by a distance L ⁇ (f2Zf1), Y It is generated at a pair of positions parallel to the axis and offset by a distance N ⁇ (f 2 / f 1).
  • the correlation signal light based on these matching image parts It will occur discretely.
  • the intensity of the correlation signal light D based on these image portions increases.
  • the image parts d and d ′ are not the same as each other but are slightly different, that is, if the images are similar, the intensity of the correlation signal light D based on these image parts is not so high.
  • the position where the speckle noise appears does not change even if the positions of the comparative images 10a and 10a 'are shifted.
  • the correlation signal is formed on the basis of the image itself, the position at which the image appears is shifted by shifting these images 10a and 10a '. Therefore, in the present embodiment, the following measures are taken to remove the spike noise.
  • a Fourier transform is performed on the optical image of the comparison original image 10 a ′ to be compared and the search target image 10 a to form a second Fourier pattern (correlation image).
  • the correlation image detected by the CCD image sensor 33 includes noise due to the CCD image sensor 33 itself and quantization noise of the comparative image, in addition to the above speckle noise. By taking the difference between the two correlation images before and after the movement, these noises can also be removed.
  • the absolute value of the difference between the correlation signals remaining after the speckle noise has been removed in this manner is integrated in a predetermined area in the correlation output plane, and based on the integration result (sum of luminance values). , The similarity between the two images 10 a and 10 a ′ is determined.
  • the relative positions of the image parts that match each other are equal to each other, and are equal to the relative positions of the entire images.
  • the luminances (correlation signals) that appear when the respective image portions match each other are gathered at a predetermined pair of positions to generate ⁇ 1 order light with extremely high luminance. Therefore, for the same image, a correlation signal with high luminance is generated at a predetermined pair of positions corresponding to the relative positions.
  • the comparison original image 10a 'and the search target image 10a are images similar to each other, the same or similar image portions such as image portions d and d' are placed in different locations. There are various types of distribution. For this reason, the correlation signals based on these image portions also appear at various positions on the correlation output surface. Therefore, since these correlation signals do not collect at the above-mentioned pair of predetermined positions (positions separated from the origin by a distance M ⁇ (f 2 / f 1) parallel to the X axis), the predetermined pair of positions High peaks do not appear as in the case of the same image.
  • correlation signals generated and scattered in various places as described above are gathered by integration to be a factor for similarity determination. For this reason, in the present invention, integration is performed not for a peak waveform but for a region having a predetermined size.
  • the integration area is variable.
  • the position and size of the integration area can be set using the parameters. For example, if the integration area is reduced, the position of matching image parts An image with little misalignment and high identity can be detected. On the other hand, if the integration area is made large, it is possible to detect an image having many parts that are the same or similar when viewed locally even if the position is different.
  • the integration region is limited to a position and a range that does not include the zero-order light so as not to detect autocorrelation that causes noise.
  • the integration area is set to the area surrounded by the broken line ⁇ in FIG. 4 (b), discrete generation is performed.
  • the correlation signal light for example, the correlation signal D
  • the parts d and d ′ in FIG. 4 (a) can also be used as elements for similarity determination.
  • the integration area 1 on the CCD image sensor 33, the position of the first-order primary light where the correlation signal light is gathered (the position shifted by 1 M ⁇ (f2 / f1) parallel to the X axis from the origin).
  • the autocorrelation signal (zero-order light) can be excluded from the integration region 1.
  • the integration area is reduced as shown by the area surrounded by another broken line 2 in Fig. 4 (b), it is possible to search only images with a high degree of identity with little misalignment of the matching image part.
  • the integration area ⁇ on the CCD image sensor 33, the first side of the first-order optical position where the correlation signal light is converged, and one side has a length equal to the distance M ⁇ (f2 / f1). It is conceivable to set it in the range of a square.
  • the integration area is set to an area other than the area 1 in the area ⁇ in Fig. 4 (b), the position of the primary light (in this case, — primary light) where the correlated signal light is collected will be within the range of integration. Can be excluded. Therefore, it is necessary to identify and search for similar images that include image parts that are locally identical or similar but are displaced from the same image or dissimilar images. Becomes possible. Therefore, only similar images can be searched.
  • the integration area may be set to an area surrounded by another broken line 3 in FIG. 4 (b). Also in this case, the vicinity of the primary light position where the correlation signal light is gathered can be excluded from the integration range, so that only similar images can be searched.
  • the integration region can be set to an arbitrary region.
  • the integrated value of the luminance in a predetermined region is measured, and thus the speckle noise It is extremely important to remove these in advance.
  • a comparison original image in this case, 10a '
  • a correlation image as shown in FIG. 4 (b) is generated by the optical operation unit 20 and stored in the image memory 18.
  • the modified image is recorded in the SLM 25a again, and the correlation image is generated again and stored in the image memory 18.
  • the CPU 7 obtains the difference between the correlation image before the relative position change and the correlation image after the relative position change, which are obtained in this way.
  • the CPU 7 calculates the difference between the light intensity of the correlation image obtained before the relative position change and the light intensity of the correlation image obtained after the relative position change. Ask for. Next, the CPU 7 integrates the difference result with respect to a predetermined area (for example, the area ⁇ in FIG. 4 (b)) on the imaging surface of the CCD image sensor 33, and sets the integration result to a predetermined threshold value. Compare with If the integration result is larger than the threshold value, the comparison original image 10 a 'and the search target image 10 a Judge that they are similar. On the other hand, if the integration result is equal to or less than the threshold value, it is determined that the comparison original image 10a 'and the search target image 10a are not similar.
  • a predetermined area for example, the area ⁇ in FIG. 4 (b)
  • the CPU 7 integrates the difference result over a predetermined area as follows, and compares the integration result with a predetermined threshold value.
  • the CPU 7 compares the difference result (gradation value) of each pixel in a predetermined area (for example, the area ⁇ in FIG. 4 (b)) with a first threshold, and determines a first threshold. The number of pixels having a difference result greater than the value is counted to determine the similarity. The similarity obtained in this way is determined as an integrated value in a predetermined area of the difference result.
  • the CPU 7 compares the integrated value (similarity) of the difference result in the predetermined area obtained in this way with a second threshold value, and compares the integrated value (similarity) with the second threshold value. If it is larger, it is determined that the comparison original image 10a 'and the search target image (10a) are similar.
  • the input device 12 is composed of a keypad mouse (not shown), and an operator can input various instructions to the image search device 100.
  • the operator can input an instruction to perform an image search.
  • the range of the search target image can be specified as a condition of the image search.
  • the operator determines the other conditions for the image search, such as the amount of movement of the relative position of the image to be compared, the position and range of the integration area used in the integration operation and the first threshold value, and the comparison operation. You can also enter the value of the second threshold to be used.
  • the ROM 16 stores a program (search software (Fig. 5)) for image search described later.
  • search software Fig. 5
  • the RAM I 4 stores the result calculated by the CPU 7 during the image search processing.
  • the image search program (FIG. 5) is stored in the hard disk drive 17 and may be read into the RAM 14 and executed. Next, the image retrieval apparatus 10 according to the present embodiment configured as described above is used.
  • the CPU 7 starts executing the image search program stored in the ROM 16 and starts the image search processing.
  • the operating environment narrows down the parameters of the parameter file attached to the image based on the verbal index condition (step S 1).
  • the CPU 7 controls the computer monitor 6 to display a parameter window shown in FIG.
  • a dialog "Open” window) as shown in Fig. 7 appears, and the operator selects the comparison original image (in this case, image 10a 'in Fig. 4 (a)) to be searched. Select a file name and click the “Open” button.
  • a dialog as shown in Fig. 8 (“Directory selection window") appears.
  • the operator selects the name of the file that contains the image to be compared in the current search process, and clicks the “SelectDir” button.
  • the current search target range is determined. For example, if the operator selects a file named “Cytology”, the file “Cytology” contains images 10a, 10b, 10c, 10d, 10e, 10f. Is stored, the images 10a, 10b, 10c, 10d, 10e, and 10f are the images to be searched in the current search processing. In this way, the dialog shown in Fig.
  • the search condition specifies the file name attached to the image and specifies the range of the search target image.
  • step S1 the search target images 10a, 10b, 10c, 10d, 10e, and 10f determined as described above in step S1 (for example, The image 10a in FIG. 4 (a) is taken out and stored in the video RAM 8 together with the comparison original image 10a '(step S2).
  • the comparison window shown in FIG. 9 is displayed on the combo overnight monitor 6, and the one retrieval target image 10a retrieved this time and the comparison original image 10a 'are arranged side by side.
  • they are displayed at a distance M in the horizontal direction (X-axis direction).
  • step S1 Before the operator clicks the “Start” button on the parameter window in step S1, the operator can set parameters as shown in FIG. 10 while viewing the parameter window.
  • “ ⁇ 1 ⁇ ”, “ ⁇ ”, “Threshold”, “judgment value”, “range”, and “position” are set as parameters that can be set (parameters). Is displayed.
  • ⁇ 1 ⁇ and ⁇ are parameters indicating the amount of movement of the position of the image. More specifically, ⁇ is arbitrarily set in the comparison window of FIG. 9 by the amount by which the comparison image (the comparison original image 10a 'or the search target image 10a) is shifted in the horizontal direction (X-axis direction). be able to. ⁇ ⁇ can be set arbitrarily in the comparison window in Fig. 9 by the amount by which the comparison image (comparison original image 10a 'or search target image 10a) is shifted in the vertical direction (Y-axis direction). it can.
  • the values of ⁇ 1 ⁇ and ⁇ are the number of pixels on the computer monitor 6. As these values ⁇ h and ⁇ V, the comparison image (ratio The distance can be set to about 10% of the size of the comparison image or the search target image).
  • step S5 based on the values ⁇ h and ⁇ V set in this way, either the comparison original image 10a 'or the search target image 10a is On the corresponding liquid crystal panels 2 la and 21 b, they are shifted by a distance corresponding to ⁇ h in one of the left and right directions and by a distance corresponding to ⁇ V in one of the up and down directions.
  • the image to be compared 10a or 10a ' is shifted in the horizontal direction (X axis in FIG. 4 (a)) and in the Z or vertical direction (Y axis in FIG. 4 (a)). Will be.
  • the integration region is set as a region of a size determined by “range” with reference to a coordinate determined by “position”. For example, it is set as a square or rectangular area having a center at a certain coordinate determined by “position” and a side having a length determined by “range”. Further, it can also be set as a circular area having a radius defined by the “range” and the center at a certain coordinate determined by the “position”. In this way, an area of an arbitrary shape and size can be set by the “position” and the “range”.
  • Thressh ⁇ 1d is a first threshold value. In other words, it is a reference for integrating by counting the number of pixels whose luminance value of each pixel in the integration area defined by “position” and “range” is larger than this threshold, and can be set arbitrarily. it can.
  • the “judgment value” is the second threshold, which is compared with the integration result (similarity) in the integration area. In other words, it is a parameter for determining how low the similarity is to be selected as a similar image. It can be set arbitrarily. Therefore, only images whose similarity (integration result) obtained by counting the number of pixels on the basis of “Thresho 1 d” is larger than this “determination value” will be displayed in S 11 described later. It will be displayed on the window (Fig. 11).
  • the “judgment value” can be weighted by patient information such as age and gender. Note that the above ⁇ h, ⁇ , Threshold, judgment value, range, and position are previously set to initial values and stored in the ROM 16. Therefore, if the operator does not make any settings in S1, the initial values will be used. In addition, these parameters Ah, ⁇ , Threshold, judgment value, range, and position can be changed at any time during the search operation in FIG.
  • the rotation angle of the comparison original image 10a ' may be specified.
  • step S2 when one search target image 10a and the comparison original image 10a 'are stored in the video RAM 8, these images are
  • the first correlation operation processing is performed on 10a and 10a '(step S3).
  • the first correlation image (1) obtained is detected by the CCD image sensor 33 and stored in the image memory 18 (step S4).
  • the relative position between the comparison original image 10a 'and the search target image 10a is changed (step S5).
  • the CPU 7 controls the video RAM 8 to store one of the comparison original image 10 a ′ and the search target image 10 a in the distance ⁇ h set by the initial setting or by the operator. Shift up, down, left, and right by ⁇ V.
  • a second correlation operation process is performed by the optical operation unit 20 on the two images 10 a ′ and 10 a whose relative positions have been changed in this way (step S 6).
  • the obtained second correlation image (2) is a CCD image. Detected by the sensor 33 and stored in the image memory 18 (step S 7). Next, the CPU 7 compares the first correlation image (1) stored in the image memory 18 with the second The difference from the correlation image (2) (Step S
  • the CPU 7 obtains the absolute value of the correlation signal remaining after the noise is removed by calculating the difference in this manner, by the initial setting or the “position” and “range” specified by the operator.
  • the integration is performed within the region of, and the integrated value is used as the similarity (step S9).
  • the CPU 7 determines whether or not this similarity is greater than the “determination value” (second threshold) set by the initial setting or the operator (step S10), and the similarity is determined. If it is equal to or less than the “judgment value” (second threshold value) (No in step S10), go to step 12.
  • the operator can also change the “judgment value” (second threshold value) on the parameter overnight window to an arbitrary value and click the “Apply” button.
  • the search result image display window (Fig. 11) is redisplayed, and only the search target images having a similarity greater than the changed “judgment value” (second threshold) are displayed. Become.
  • step S12 it is determined whether or not the search for all the search candidate images (in this case, 10a, ' ⁇ , 10f) has been completed (step S12), and the search for all the search candidate images has been completed. If the processing has not been completed (No in step S12), it is determined whether or not the first threshold (Threshold) is requested to be changed by the operation (step S13), and the first threshold (Threshold) is determined. If a request to change Th resh 0 1 d) has been made (Yes in step S 13), change the first threshold (Th reshold) (step S 14) and proceed to step 15 . If there is no request to change the first threshold (Threshold) (No in step S13), the process directly proceeds to step 15. In step 15, the next search candidate image (for example, 10b) is selected, and the process proceeds to step S2.
  • the next search candidate image for example, 10b
  • the present image search apparatus 100 when the operator completes the necessary input and clicks the “Start” button in the parameter overnight window, all the search target images within the current search range are displayed. , 10b, "', and 10 are sequentially compared with the comparison original image 10a' one by one as shown in FIG. 9, and the result is as shown in FIG. The search result images are displayed sequentially in the search result image display window. When the search for 10 a, 10 b,..., And 10 f is completed, all the search target images determined to be similar are displayed in the search result image display window in FIG. Will be.
  • the operator observes the search result image display window shown in FIG. It is determined whether the image is displayed as a similar image together with the degree.
  • Thresho 1 d first threshold value
  • judgment value second threshold value
  • image movement amount A h image movement amount A h
  • ⁇ V integration area
  • T threshold It is conceivable to change the position or range of the first threshold value or the integration region.
  • the determination value (the Change the threshold (second threshold) to a higher value
  • change the judgment value (second threshold) to a lower value
  • the image data of the comparison original image and the search target image are each converted into an optical image
  • the optical image of the comparison original image and the search target image are juxtaposed to form a spatial light modulator.
  • a correlation image (Fourier transform pattern) is formed, the relative position of the optical image between the comparison original image and the search target image is changed, and the optical image is formed with respect to the optical image before the relative position is changed.
  • the difference between the correlation image and the correlation image formed for the optical image after the relative position has been changed is detected, and the output signal is integrated to detect the correlation value of the search target image with respect to the comparison original image.
  • the correlation value is compared with a predetermined threshold value (second threshold value).
  • the image data of the comparison original image and the search target image are each converted to an optical image and a correlation image is formed to obtain a correlation value, an optical operation is employed. In comparison, costs can be significantly reduced. In addition, since the optical calculation is employed, the calculation processing can be performed at extremely high speed, and the search can be performed in a short time even if the number of search target images is enormous.
  • the magnetic disk 5 may be another type of external storage device such as a CDROM, or the network server 3 may be used directly instead of the magnetic disk 5.
  • the SLMs that can be used in the present invention are not limited to those shown in FIG. 2, and may have other configurations.
  • the image search device and the image search method of the present invention when used for image diagnosis at a medical site, they can be used for X-ray film image search, cytology image search, helical scan CT image search, and the like.
  • these images can be linked to electronic medical record information to keep track of past medical histories.
  • a suspicious person when photographed, it can be compared with a wanted person (especially an internationally problematic person). In this case, remove the outline of the face and examine. It is also useful in archeology, such as searching for similarities in excavated patterns.
  • the difference results may be integrated in one continuous integration area as shown in each integration area (1) to (3) in Fig. 4 (b), or in a plurality of integration areas separated from each other.
  • the difference results may be integrated and the integration results may be added. Further, integration may be performed over the entire area of the correlation image detected by the CCD image sensor 33. However, it is desirable to eliminate the zero-order light.
  • the correlation image is captured for a plurality of frames by the CCD image sensor 33, and the result of adding the luminance values (gradation values) of each pixel for all the frames to the correlation image (1). ) May be stored in the memory 18.
  • the correlation image (2) is generated and stored in the memory 18 in the same manner in S6 and S7.
  • the difference between the correlation images (1) and (2) thus obtained is taken. According to this method, since the difference between the pixels in the correlation images (1) and (2) can be obtained after the luminance value of each pixel is sufficiently increased, more accurate detection can be performed.
  • the similarity is obtained by counting the number of pixels whose luminance value is greater than Th resho 1 d.
  • the similarity degree is obtained by counting the number of pixels whose luminance value is greater than Th resho 1 d. You may ask.
  • the similarity is determined to be similar when the similarity is greater than the determination value, but the similarity may be determined when the similarity is equal to or greater than the determination value.
  • the difference result of each pixel in the predetermined area is compared with Th resho 1 d, and a difference result larger than Th reshold is obtained.
  • the coherent light source that irradiates the SLM to obtain the correlation signal is not limited to a laser diode, and various coherent light sources can be employed.
  • the means for changing the relative position of the image is not limited to the video RAM 8, and various image display control devices can be used.
  • the parameters ⁇ , ⁇ , Threshold, judgment value, range, and position can be changed at any time during the search operation, but these parameters can be changed during the search operation. May be changed only when the search operation is terminated or interrupted.
  • the image search device and the image search method according to the present invention are widely used for searching similar images in the medical field, the security field, the archeology field, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Image data on an original image for comparison and an objective image to be retrieved is converted into optical images and the optical images are written, side by side, in a spatial optical modulator. The pattern of the written optical images then read out with coherent light, a correlation image is formed by transforming the read out modulation output by means of Fourier transform, and the relative positions of the optical images are altered. The difference is determined between the correlation image before the relative positions are altered and the correlation image formed after the relative position is altered. The correlation value of the objective image to be retrieved to the original image for comparison is determined by integrating the output signal of that difference and compared with a specified threshold value.

Description

明細書 画像検索装置及び画像検索方法 技術分野  Description Image retrieval apparatus and image retrieval method
本発明は、 画像検索装置及び画像検索方法に関し、 特に、 画像同士の 相関信号を生成することにより画像の検索を行う画像検索装置及び画像 検索方法に関する。 背景技術  The present invention relates to an image search apparatus and an image search method, and more particularly to an image search apparatus and an image search method for searching for an image by generating a correlation signal between images. Background art
近年、 医療現場では、 M R I画像、 C T画像、 病理写真、 X線写真、 超音波画像などを用いた画像診断が多く行われている。 画像診断を行う に際しては、 過去の症例を参考にする場合が多々あるため、 従来から画 像検索システムが利用されている。 画像検索システムは、 患者 I D、 氏 名、 撮像部位などの付帯情報と共にデジタル化した診断画像をデータべ ース化し、 このデータベースを用いて画像検索をするものである。 発明の開示  In recent years, in medical practice, many image diagnoses using MRI images, CT images, pathological photographs, X-ray photographs, ultrasonic images, and the like have been performed. When performing image diagnosis, past cases are often referred to, and an image search system has been conventionally used. The image retrieval system makes a database of digitized diagnostic images along with supplementary information such as patient ID, name, and imaging site, and performs image retrieval using this database. Disclosure of the invention
検索方法としては、 患者氏名等の画像に付帯する情報をキーとして画 像を検索する方法が考えられる。  As a search method, a method of searching for an image using information attached to the image such as a patient name as a key can be considered.
しかしながら、 かかる検索法では、 診断対象の画像と類似する画像を 直接検索する訳ではないため、 索出した画像が必ずしも診断をする上で 参考になるとは限らない。 また、 検索条件は付帯情報に基づいて限定さ れるため、 オールマイティな検索をすることはできない。 付帯情報の種 類を増加し、 検索に際して付帯情報の条件設定を多くすることで検索精 度を上げることができるが、 データベースへの登録時における付帯情報 の入力作業に多大な時間と労力がかかることになり現実的ではない。 そこで、 診断対象の画像と類似する画像を直接検索する類似画像検索 法が考えられる。 類似画像を検索する方法としては、 例えば、 パターン マッチングを用いて類似性の高さに基づき検索を行う方法が考えられる しかしながら、パターンマッチングを用いた検索方法では、 「完全一致に 近いが微妙に形が違う」、 「大きさが違う」、 「見ている角度が違う」 等の ロバストな要因があると、 たとえ類似した画像であっても、 コンビュ一 夕は非類似であると判断して選択しない場合がある。 However, in such a search method, an image similar to the image to be diagnosed is not directly searched, and thus the searched image is not always useful for diagnosis. In addition, since search conditions are limited based on supplementary information, an almighty search cannot be performed. The search accuracy can be improved by increasing the types of supplementary information and increasing the conditions of the supplementary information at the time of the search. It takes a lot of time and effort to input data, which is not realistic. Therefore, a similar image search method that directly searches for an image similar to the image to be diagnosed can be considered. As a method of searching for similar images, for example, a method of searching based on the degree of similarity using pattern matching can be considered. However, a search method using pattern matching is `` close to perfect match but slightly If there are robust factors such as "there is a difference", "the size is different", or "the viewing angle is different", even if the images are similar, it is determined that the combination is dissimilar May not.
さらに、 類似画像を検索する別の方法として、 合同変換相関 (J o i n t T r a n s f o rm C o r r e l a t i o n) 法により相関画 像を生成し、 そのピーク値を検出して類似性を判定することが考えられ る。 かかる類似画像検索法として、 特開第 2000 - 1 1 1 78号公報 がある。  Furthermore, another method of searching for similar images is to generate a correlation image by the Joint Transform Correlation method and detect the peak value to determine similarity. . Japanese Patent Laid-Open No. 2000-111178 discloses such a similar image search method.
しかしながら、 当該公報に係る類似画像検索法では、 相関画像を生成 するためにコヒーレント光であるレーザ光を使用しており、 このレーザ 光がレンズの凹凸や記録面上の画素のドットに反応して、 スペックルノ ィズを発生させてしまう。 このため、 類似画像を精度よく抽出すること ができない。  However, in the similar image search method according to the publication, laser light that is coherent light is used to generate a correlation image, and this laser light reacts with irregularities of a lens and dots of pixels on a recording surface. , Causing speckle noise. For this reason, similar images cannot be accurately extracted.
また、 医療用の画像ネットワーク規格 D I COM (Digital Imaging and Communications in Medicine) の影響もあり、 今後、 画像ネットヮ ークの利用普及が進み、 画像データの共有化が進行することが予想され る。 これに伴い、 データベースに蓄積される画像の数は膨大な数となつ ていくと考えられる。 したがって、 このような大規模デ一夕ベースの中 で所望の画像を精度よく、 迅速に探索することが望まれる。  In addition, due to the influence of the medical imaging network standard DICOM (Digital Imaging and Communications in Medicine), it is expected that the use of image networks will spread and the sharing of image data will progress in the future. With this, the number of images stored in the database is expected to be enormous. Therefore, it is desired to quickly and accurately search for a desired image in such a large-scale database.
本発明は、 上述の課題を解決するためになされたもので、 膨大な数の 画像の中から迅速かつ高精度に類似画像を検索することができ、 かつ、 コス卜の低減が図られた画像検索装置及び画像検索方法を提供すること を目的とする。 The present invention has been made to solve the above-described problem, and can quickly and accurately search for a similar image from a huge number of images, and It is an object of the present invention to provide an image search device and an image search method in which cost is reduced.
上記課題を解決するために、 本発明の画像検索装置は、 複数の検索対 象画像の画像データを格納する画像データ格納手段と、 1つの比較原画 像の画像データと前記複数の検索対象画像のうちの 1つの検索対象画像 の画像データとをそれぞれ光学画像に変換する画像デ一夕変換手段と、 前記比較原画像の光学画像と前記 1つの検索対象画像の光学画像とを並 置して書き込み、 書き込んだ 2つの光学画像のパターンをコヒ一レント 光で読み出す空間光変調器と、 前記空間光変調器から読み出された変調 出力をフーリェ変換して相関出力面上に相関画像を形成する相関画像形 成手段と、 前記比較原画像の光学画像と前記 1つの検索対象画像の光学 画像との相対的位置を変更して変更後の該 2つの光学画像を前記空間光 変調器へ書き込むことにより、 前記相関画像形成手段に対して前記空間 光変調器より読み出された変調出力をフーリエ変換して前記相関出力面 上に相関画像を形成させる画像位置変更手段と、 前記画像位置変更手段 により相対的位置が変更される前の該 2つの光学画像に対して形成され た相関画像と、 前記画像位置変更手段により相対的位置が変更された後 の該 2つの光学画像に対して形成された相関画像との差分を求める差分 検出手段と、 前記差分検出手段の検出結果を前記相関出力面上のある領 域内で積分して前記比較原画像に対する前記 1つの検索対象画像の相関 値を検出する相関値検出手段と、前記相関値と所定の閾値とを比較して、 比較結果に基づき、 前記 1つの検索対象画像が前記比較原画像に類似す る類似画像であるか否かを判定する比較手段と、 前記比較手段が前記 1 つの検索対象画像を類似画像であると判定した際前記 1つの検索対象画 像を類似画像として出力する出力手段と、 前記画像データ変換手段を制 御して、 前記画像データ格納手段に格納されている前記複数の検索対象 画像の画像デ一夕のうちの少なくとも 1つの検索対象画像の画像データ を 1つずつ順次切り替えて光学画像に変換させることで、 前記少なくと も 1つの検索対象画像と前記比較原画像とを順次比較させて前記比較原 画像に類似すると判定された検索対象画像を類似画像として出力させる 類似画像抽出制御手段とを備えていることを特徴とする。 In order to solve the above problems, an image search device of the present invention includes: an image data storage unit configured to store image data of a plurality of search target images; an image data of one comparison original image; Image data conversion means for converting the image data of one of the search target images into an optical image, and writing the optical image of the comparison original image and the optical image of the one search target image side by side A spatial light modulator for reading out the written two optical image patterns with coherent light, and a correlation for forming a correlation image on a correlation output surface by Fourier-transforming the modulation output read from the spatial light modulator. Image forming means for changing a relative position between the optical image of the comparison original image and the optical image of the one search target image and writing the two changed optical images to the spatial light modulator; An image position changing means for performing a Fourier transform of the modulation output read from the spatial light modulator to the correlation image forming means to form a correlation image on the correlation output surface; and A correlation image formed for the two optical images before the relative position is changed, and a correlation image formed for the two optical images after the relative position is changed by the image position changing unit Difference detecting means for obtaining a difference from the correlation image, and detecting the correlation value of the one search target image with respect to the comparison original image by integrating the detection result of the difference detecting means within a certain area on the correlation output surface. A comparison unit that compares the correlation value with a predetermined threshold value and determines whether the one search target image is a similar image similar to the comparison original image based on the comparison result. means An output unit that outputs the one search target image as a similar image when the comparison unit determines that the one search target image is a similar image; and The plurality of search targets stored in the image data storage unit By sequentially switching the image data of at least one search target image in the image data of the image one by one and converting it into an optical image, the at least one search target image and the comparison original image are sequentially converted. Similar image extraction control means for outputting, as a similar image, a search target image determined to be similar to the comparison original image by comparison.
ここで、 相関画像形成手段によって相関出力面上に形成される相関画 像には、 比較原画像及び検索対象画像自体に基づいて形成される相関信 号の他、 スペックルノイズも含まれている。 ここで、 画像自体に基づく 相関信号は、 画像の相対的位置を変更すると、 現れる場所が変わる。 そ の一方、 光学系に起因して現われるスペックルノイズは、 画像の相対的 位置を変更しても現われる場所は変わらない。 したがって、 相対的位置 を変更する前の相関画像と、 相対的位置を変更した後の相関画像との差 分を取ることによって相関信号をスペックルノイズから分離することが できる。  Here, the correlation image formed on the correlation output surface by the correlation image forming means includes not only a correlation signal formed based on the comparison original image and the search target image itself, but also speckle noise. . Here, the location of the correlation signal based on the image itself changes when the relative position of the image is changed. On the other hand, speckle noise that appears due to the optical system does not change its location even if the relative position of the image is changed. Therefore, the correlation signal can be separated from speckle noise by taking the difference between the correlation image before changing the relative position and the correlation image after changing the relative position.
また、 同一画像を見つけだすためには、 両画像の相対的位置により一 義的に決定される位置に現れる 1次光 (+ 1次光または一 1次光) の輝 点のピーク高さを検出すればよい。 しかしながら、 類似画像を見つけだ すためには、 かかる 1次光の輝点ピークを検出するだけでは足りず、 類 似画像が有している同一または類似しているが異なる位置にある特徴点 に基づき相関出力面上の様々な場所に分散して現われる相関信号を集め る必要がある。 本発明では、 相関信号の強度を所定の領域内で積分する ようにしたので、 類似画像の有する同一または類似しているが異なる位 置にある特徴点に基づき現われる相関信号を集めることができ、 類似画 像であるかどうかの判定を高精度で行うことができる。 しかも、 相関信 号をスペックルノイズから分離することができているため、 当初スぺッ クルノイズに埋もれていたような微弱な相関信号をも的確に拾い積分に 供することができ、 両画像が類似しているかどうかの判定を極めて高い 精度で行うことができる。 In order to find the same image, the peak height of the luminescent spot of the primary light (+ primary light or primary light) that appears at a position uniquely determined by the relative positions of the two images is detected. do it. However, in order to find a similar image, it is not enough to simply detect such a bright spot peak of the primary light, and it is necessary to detect feature points at the same or similar but different positions in the similar image. Therefore, it is necessary to collect correlation signals that appear in various places on the correlation output surface. In the present invention, since the intensity of the correlation signal is integrated within a predetermined area, correlation signals appearing based on feature points of the same or similar but different positions of the similar image can be collected. It is possible to determine with high accuracy whether or not the image is a similar image. In addition, since the correlation signal can be separated from speckle noise, even weak correlation signals that were initially buried in the speckle noise can be accurately picked up and integrated. This makes it possible to determine with high precision whether or not the two images are similar.
さらに、 空間光変調器を用いて相関画像を直接形成するため、 コンビ ユー夕に相関演算を行わせる場合に比べ、 迅速に相関画像を形成するこ とができる。 したがって、 膨大な数の画像の中から迅速に類似画像を検 索することができる。 また、 コンピュータに相関演算を行わせる場合に 比べ、 コストを低減させることもできる。  Furthermore, since a correlation image is formed directly using a spatial light modulator, a correlation image can be formed more quickly than when a correlation operation is performed on a combination basis. Therefore, similar images can be quickly searched from a huge number of images. Also, the cost can be reduced as compared with a case where a computer performs a correlation operation.
ここで、 本発明の画像検索装置は、 前記相関値検出手段が積分を行う 前記領域を指定する積分領域指定手段を更に備えていることが好ましい 例えば、 積分領域を前記相関出力面内の小さい範囲に指定した場合に は、指定された領域から外れた領域は、たとえ類似する部分があっても、 その類似部分は類似判断から外されることになる。 したがって、 この場 合には、 同一または類似している特徴点同士の位置ずれが少ない同一性 の高い同一 ·類似画像を検索することができる。  Here, it is preferable that the image search device of the present invention further includes an integration region designating unit that designates the region where the correlation value detection unit performs integration. For example, the integration region is defined as a small range in the correlation output plane. If the specified area is specified, the area outside the specified area will be excluded from the similarity judgment even if there is a similar part. Therefore, in this case, it is possible to search for identical / similar images that have the same degree of identity and have the same or similar feature points with little displacement.
一方、 積分領域を大きい範囲に指定した場合には、 位置が互いに大き くずれている同一または類似部分をも類似判断に含めることができるの で、 類似する範囲を広げて検索することができる。  On the other hand, if the integration region is specified to be a large range, the same or similar portions whose positions are greatly deviated from each other can be included in the similarity determination, so that the similar range can be expanded and searched.
また、 積分領域に 0次光が含まれないようにすることで、 自己相関信 号を検出することを回避し、 高精度の検出を行うことができる。 また、 積分領域に、 1次光 (+ 1次光及び一 1次光) が含まれないようにする ことにより、 類似する画像のみを検索し、 同一の画像を検索しないよう にすることができる。 ここで、 0次光は、 相関出力面上において、 相関 画像形成手段が有する光学系によって一義的に決まる所定の位置に現れ る。 1次光 (+ 1次光及び一 1次光) も、 相関出力面上において、 比較 原画像と検索対象画像との位置関係で決まる所定の位置に現れる。 した がって、 積分領域を指定する際、 積分領域内にこれら 0次光や 1次光の 出現位置が含まれないようにすれば良い。 In addition, by preventing the zero-order light from being included in the integration region, detection of the autocorrelation signal can be avoided, and highly accurate detection can be performed. In addition, by preventing the integration region from including the primary light (+ 1st-order light and 1st-order light), it is possible to search only similar images and not search the same image. . Here, the zero-order light appears at a predetermined position on the correlation output surface that is uniquely determined by the optical system of the correlation image forming means. The first-order light (+ 1st-order light and 1st-order light) also appears on the correlation output surface at a predetermined position determined by the positional relationship between the comparison original image and the search target image. Therefore, when specifying the integration region, the 0th order light and the 1st order light What is necessary is just to exclude the appearance position.
また、 本発明の画像検索装置は、 前記画像位置変更手段が変更する相 対的位置の変更量を指定する相対的位置変更量指定手段を更に備えてい ることが好ましい。 変更量を調整することにより、 類似画像をより精度 よく検索することができる。  It is preferable that the image search device of the present invention further includes a relative position change amount designating unit that designates a relative position change amount changed by the image position changing unit. By adjusting the amount of change, similar images can be searched with higher accuracy.
さらに、 本発明の画像検索装置は、 前記比較原画像と順次比較すべき 前記少なくとも 1つの検索対象画像の画像データを、 前記複数の検索対 象画像の画像データの中から選択する検索範囲特定手段を更に備えてい ることが好ましい。 例えば、 個々の検索対象画像の画像データに予め付 帯情報を付しておけば、 この付帯情報に基づき、 検索したい少なくとも 1つの画像デ一夕を選択して検索に供することができる。  Further, the image search device of the present invention further includes: a search range specifying unit that selects image data of the at least one search target image to be sequentially compared with the comparison original image from image data of the plurality of search target images. It is preferable to further include For example, if additional information is added to the image data of each search target image in advance, based on this additional information, at least one image data to be searched can be selected and provided for the search.
また、 前記相関画像形成手段は、 前記空間光変調器から読み出した変 調出力をフーリエ変換して第 1のフーリエ変換パターンを形成する第 1 のフーリエ変換手段と、 該第 1のフーリエ変換パターンを書き込み、 書 き込んだフーリエ変換パターンをコヒーレント光で読み出す別の空間光 変調器と、 該別の空間光変調器から読み出した変調出力をフーリエ変換 して相関画像を形成する第 2のフーリエ変換手段とからなることが好ま しい。  Further, the correlation image forming means includes: first Fourier transform means for forming a first Fourier transform pattern by Fourier-transforming the modulated output read from the spatial light modulator; and Another spatial light modulator for reading out the written and written Fourier transform pattern with coherent light, and second Fourier transform means for Fourier transforming the modulated output read from the other spatial light modulator to form a correlation image It is preferable to consist of
また、 別の観点によれば、 本発明の画像検索方法は、 1つの比較原画 像の画像デ一夕と 1つの検索対象画像の画像データとをそれぞれ光学画 像に変換する画像データ変換工程と、 前記比較原画像の光学画像と前記 1つの検索対象画像の光学画像とを並置して空間光変調器に書き込み、 書き込んだ 2つの光学画像のパターンをコヒ一レント光で前記空間光変 調器より読み出す変調工程と、 前記変調工程で前記空間光変調器より読 み出した変調出力をフーリエ変換して相関出力面上に相関画像を形成す る相関画像形成工程と、 前記比較原画像の光学画像と前記 1つの検索対 象画像の光学画像との相対的位置を変更して、 変更後の該 2つの光学画 像を前記空間光変調器に書き込み、 前記空間光変調器より読みだした変 調出力をフーリェ変換して前記相関出力面上に相関画像を形成させる画 像位置変更工程と、 前記画像位置変更工程で相対的位置が変更される前 の該 2つの光学画像に対して形成された相関画像と、 前記画像位置変更 工程で相対的位置が変更された後の該 2つの光学画像に対して形成され た相関画像との差分を求める差分検出工程と、 前記差分検出工程の検出 結果を前記相関出力面上のある領域内で積分して前記比較原画像に対す る前記 1つの検索対象画像の相関値を検出する相関値検出工程と、 前記 相関値と所定の閾値とを比較して、 比較結果に基づき、 前記 1つの検索 対象画像が前記比較原画像に類似する類似画像であるか否かを判定する 比較工程と、 前記比較工程にて類似画像であると判定された前記検索対 象画像を類似画像として出力する工程と、 少なくとも 1つの検索対象画 像の画像データを順次切り替えながら前記画像データ変換工程を繰り返 し実行することで、 該少なくとも 1つの検索対象画像と前記比較原画像 とを順次比較して前記比較原画像に類似すると判定された検索対象画像 を類似画像として出力させる類似画像抽出制御工程とを備えていること を特徴とする。 According to another aspect, an image search method according to the present invention includes an image data conversion step of converting image data of one comparative original image and image data of one search target image into optical images, respectively. The optical image of the comparison original image and the optical image of the one search target image are written side by side in a spatial light modulator, and the written two optical image patterns are written in coherent light using the spatial light modulator. A correlation image forming step of performing a Fourier transform on a modulation output read from the spatial light modulator in the modulation step to form a correlation image on a correlation output surface; Image and the one search pair The relative position of the elephant image with respect to the optical image is changed, the two optical images after the change are written into the spatial light modulator, and the modulation output read from the spatial light modulator is Fourier-transformed. An image position changing step of forming a correlation image on the correlation output surface, a correlation image formed on the two optical images before a relative position is changed in the image position changing step, and the image A difference detection step of obtaining a difference between the two optical images after the relative position is changed in the position change step and a correlation image formed, and a detection result of the difference detection step on the correlation output surface. A correlation value detection step of integrating within a certain area to detect a correlation value of the one search target image with respect to the comparison original image, and comparing the correlation value with a predetermined threshold value, based on the comparison result, The one search target image is compared with the one A comparison step of determining whether or not the image is similar to the original image; a step of outputting the search target image determined to be a similar image in the comparison step as a similar image; and at least one search By repeatedly performing the image data conversion step while sequentially switching the image data of the target image, the at least one search target image and the comparative original image are sequentially compared and determined to be similar to the comparative original image. And a similar image extraction control step of outputting the retrieved search target image as a similar image.
相対的位置を変更する前後の相関画像の差分を取ることによって相関 信号をスペックルノイズから分離することができるため、 スペックルノ ィズに埋もれていた微弱な相関信号をも的確に拾い積分に供することが でき、 両画像が類似しているかどうかの判定を極めて高い精度で行うこ とができる。 図面の簡単な説明  The correlation signal can be separated from the speckle noise by taking the difference between the correlation images before and after changing the relative position, so that the weak correlation signal buried in the speckle noise can be accurately picked up and used for integration. This makes it possible to determine with high precision whether or not the two images are similar. BRIEF DESCRIPTION OF THE FIGURES
第 1図は、 本発明の実施の形態に係る画像検索装置の全体構成を示す 図である。 FIG. 1 shows an overall configuration of an image search device according to an embodiment of the present invention. FIG.
第 2図は、 上記実施の形態に係る画像検索装置に用いられる光ァドレ ス型 S LMの構造を示す図である。  FIG. 2 is a diagram showing a structure of an optical address type SLM used in the image search device according to the above embodiment.
第 3図は、 C CDイメージセンサの検出画像を示す図である。  FIG. 3 is a diagram showing a detection image of the CCD image sensor.
第 4 (a) 図及び第 4 (b) 図は、 上記実施の形態に係る画像検索装 置の類似画像検索の原理を示す図であり、 第 4 (a) 図は、 比較原画像 と検索対象画像とが並んだ状態で第 1の S LMに入射されている状態を 示す図であり、第 4 (b)図は、比較原画像と検索対象画像とが第 4 (a) 図のように第 1の S LMに入射された際に相関出力面上 (C CDィメー ジセンサ上) に得られる相関画像を示す図である。  FIGS. 4 (a) and 4 (b) are diagrams showing the principle of similar image retrieval by the image retrieval device according to the above embodiment, and FIG. Fig. 4 (b) is a diagram showing a state where the target image is side by side and is incident on the first SLM, and Fig. 4 (b) shows the comparison original image and the search target image as shown in Fig. 4 (a). FIG. 3 is a diagram showing a correlation image obtained on a correlation output surface (on a CCD image sensor) when the light is incident on a first SLM.
第 5図は、 上記実施の形態に係る画像検索装置の画像検索動作を示す フローチヤ一卜である。  FIG. 5 is a flowchart showing an image search operation of the image search device according to the above embodiment.
第 6図は、 上記実施の形態に係る画像検索装置の画像検索動作が起動 された時に最初に表示されるパラメータウインドウ画面の表示状態を示 す図である。  FIG. 6 is a diagram showing a display state of a parameter window screen displayed first when an image search operation of the image search device according to the above embodiment is started.
第 7図は、 第 6図のパラメ一夕ウインドウ画面中の 「Mu 1 t iディ ヴィジョン」 にある 「R e f 」 側の 「参照」 ポタンをクリックした場合 に現れる 「開く」 ウィンドウ画面の表示状態を示す図である。  Fig. 7 shows the display status of the "Open" window screen that appears when you click the "Ref" button on the "Ref" side in "Mu 1ti Division" in the parameter overnight window screen in Fig. 6. FIG.
第 8図は、 第 6図のパラメ一夕ウインドウ画面の 「Mu 1 t iディヴ イジヨン」 にある 「D i r」 側の 「参照」 ポタンをクリックした場合に 現れるディレクトリ選択ウィンドウ画面の表示状態を示す図である。 第 9図は、 第 6図のパラメ一夕ウインドウ画面の 「Mu 1 t iデイヴ ィジョン」 にある 「S t a r t」 ポタンをクリックした場合に現れる比 較ウインドウ画面の表示状態を示す図である。  Fig. 8 shows the display status of the directory selection window screen that appears when you click the "Browse" button on the "Dir" side of "Mu 1 ti division" in the parameter window window of Fig. 6. It is. FIG. 9 is a diagram showing a display state of a comparison window screen appearing when the “Start” button in “Mu1ti division” on the parameter overnight window screen of FIG. 6 is clicked.
第 1 0図は、 第 6図のパラメータウィンドウ画面上でパラメ一夕の設 定を行った際の表示状態を示す図である。 第 1 1図は、 上記実施の形態に係る画像検索装置の画像検索動作中に 表示される検索結果画像表示ウインドウ画面の表示状態を示す図である t 発明を実施するための最良の形態 FIG. 10 is a diagram showing a display state when parameters are set on the parameter window screen of FIG. The first 1 figure best mode for carrying out the t invention is a diagram illustrating a display state of the search result image display window screen displayed in the image retrieval operation of the image retrieval apparatus according to the above embodiment
本発明の実施形態に係る画像検索装置を第 1図〜第 1 1図に基づき説 明する。  An image search device according to an embodiment of the present invention will be described with reference to FIGS. 1 to 11.
なお、 図面の説明においては同一要素には同一符号を付し、 重複する 説明を省略する。 また、 図面の寸法比率は、 説明のものと必ずしも一致 していない。  In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description. Also, the dimensional ratios in the drawings do not always match those described.
第 1図に、 本発明の実施形態に係る画像検索装置の構成図を示す。 本実施形態の画像検索装置 1 00は、 中央処理装置(以下、 「CPU」) 7、 コンピュータ断層写真撮像装置 (以下、 「CT」) 1、 磁気共鳴像撮 像装置 (以下、 「MR I」) 2、 ネットワークサーバ 3、 デジタルカメラ 4 a、 磁気ディスク 5、 コンピュータモニタ 6、 入力装置 1 2, RAM 14, ROM 1 6, ハードディスク装置 1 7、 画像メモリ 1 8、 ビデオ RAM8、 更に、 A/D変換器 14を介して C PU 7に接続された光演 算部 20から構成されている。  FIG. 1 shows a configuration diagram of an image search device according to an embodiment of the present invention. The image retrieval apparatus 100 of the present embodiment includes a central processing unit (hereinafter, “CPU”) 7, a computer tomographic imaging apparatus (hereinafter, “CT”) 1, a magnetic resonance imaging apparatus (hereinafter, “MRI”). 2, network server 3, digital camera 4a, magnetic disk 5, computer monitor 6, input device 12, RAM 14, ROM 16, hard disk device 17, image memory 18, video RAM 8, and A / D It is composed of an optical operation unit 20 connected to the CPU 7 via the converter 14.
CT 1、 MR 1 2、 ネットワークサーバ 3、 及び、 デジタルカメラ 4 aは画像を取り込むための手段であり、 コンピュータバス 9を介して C PU 7に接続されている。 なお、 デジタルカメラ 4 aはデジタルカメラ インターフェース ( I /F) 4 bを介してコンピュータバス 9に接続さ れている。これらの画像取り込み手段により取り込まれた画像デ一夕は、 コンピュータバス 9を通じて画像データ記憶手段たる磁気ディスク 5に 格納される。  The CT 1, MR 12, network server 3, and digital camera 4a are means for capturing images, and are connected to the CPU 7 via the computer bus 9. The digital camera 4a is connected to the computer bus 9 via a digital camera interface (I / F) 4b. The image data captured by these image capturing means is stored on a magnetic disk 5 as image data storage means via a computer bus 9.
いま、 複数の検索対象画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 Now, multiple search target images 10 a, 10 b, 10 c, 10 d, 10 e,
1 0 f 、 ···、 10 zが磁気ディスク 5内に格納されているものとする。 また、 比較原画像 1 0 a ' が、 CT 1, MR 1 2, または、 デジ夕ルカ メラ 4 a (この場合、 デジタルカメラ 4 a) から取り込まれ、 磁気ディ スク 5に格納されたとする。 この場合、 画像検索装置 1 00は、 磁気デ イスク 5に記憶されている複数の検索対象画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 1 0 f 、 ···、 1 0 zの中から比較原画像 1 0 a, と類 似する画像を検索することができる。 It is assumed that 10 f,..., 10 z are stored in the magnetic disk 5. Further, it is assumed that the comparison original image 10 a ′ is fetched from the CT 1, MR 12, or the digital camera 4 a (in this case, the digital camera 4 a) and stored in the magnetic disk 5. In this case, the image search device 100 sends a plurality of search target images 10a, 10b, 10c, 10d, 10e, 10f,... Stored in the magnetic disk 5. · Images similar to the comparison original image 10a, can be searched from among 10z.
なお、 比較原画像 1 0 a ' 及び複数の検索対象画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 1 0 f 、 ···、 1 0 zには、 それぞれ、 患者情 報 (患者 I D、 氏名、 測定部位等)、 スケール (1画素あたりの長さの情 報) 等の付帯情報が付加されている。 したがって、 オペレータは、 検索 を実行する前に、 画像のヘッダー情報 (性別、 年齢、 測定部位等) を基 に、 検索対象画像の範囲を指定することができる。 その結果、 磁気ディ スク 5内に存在する複数の検索対象画像 1 0 a、 1 0 b, 1 0 c、 1 0 d、 1 0 e、 1 0 f 、 ···、 l O zの内、 オペレータが指定した条件に適 合した特定のグループに属する画像 (例えば、 1 0 a、 1 0 b, 1 0 c , 1 0 d、 1 0 e、 1 0 f とする) が、 今回の検索処理の検索対象の範囲 とされる。  The comparison original image 10a 'and the multiple search target images 10a, 10b, 10c, 10d, 10e, 10f, Additional information such as patient information (patient ID, name, measurement site, etc.) and scale (length information per pixel) are added. Therefore, the operator can specify the range of the search target image based on the image header information (sex, age, measurement site, etc.) before executing the search. As a result, among the plurality of search target images 10 a, 10 b, 10 c, 10 d, 10 e, 10 f,. Images belonging to a specific group that meet the conditions specified by the operator (for example, 10a, 10b, 10c, 10d, 10e, and 10f) are processed in the current search process. Is the range of the search target.
ビデオ RAM 8は、 比較対照の 2つの画像を一時的に保存するための メモリである。 より詳しくは、 今回の検索対象範囲内の検索対象画像 1 0 a、 1 0 b, 1 0 c、 1 0 d、 1 0 e、 1 0 f のうち検索対象として 選択された 1つの画像 (例えば、 1 0 a) と比較原画像 1 0 a' との 2 つの画像が、 コンピュータバス 9を通じて、 ビデオ RAM 8に格納され る。 なお、 今回の検索対象範囲の画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 1 0 f の中から検索対象として選定される画像は、 作業中順次 入れ替えられ、 その都度比較原画像 1 0 a ' と比較される。  The video RAM 8 is a memory for temporarily storing two images to be compared. More specifically, one image selected as a search target among the search target images 10a, 10b, 10c, 10d, 10e, and 10f within the current search target range (for example, , 10 a) and the comparison original image 10 a ′ are stored in the video RAM 8 via the computer bus 9. The images selected as search targets from among the images 10a, 10b, 10c, 10d, 10e, and 10f in the search range this time are sequentially replaced during work. Each time it is compared with the comparison original image 10a '.
光演算部 20は、 光学的に合同変換相関 (J o i n t T r a n s f o r m C o r r e l a t i o n) 処理を行うことにより、 ビデオ R A M 8内の 2つの画像の相関値 (2つの画像の類似性の高さの指標) を光 の強度として直接検出するためのものである。 光演算部 20は、 液晶パ ネル 2 1 a、 2 1 b, ズームレンズ 22 a、 22 b, 画像回転ミラ一 2 3、 反射ミラー 24、 空間光変調器 (以下、 「S LM」) 2 5 a、 2 5 b、 レーザダイオード (以下、 「: LD」) 26、 コリメ一夕レンズ 27、 ハー フミラ一 28、 29、 3 1、 ミラ一 30、 フーリエ変換レンズ 32 a、 32 b、 及び、 CCDイメージセンサ一 33から構成されている。 The optical operation unit 20 performs optically congruent conversion correlation (Joint Transf orm Correlation) processing to directly detect the correlation value (an index of the degree of similarity between the two images) between the two images in the video RAM 8 as the light intensity. The optical operation unit 20 includes a liquid crystal panel 21 a, 21 b, a zoom lens 22 a, 22 b, an image rotation mirror 23, a reflection mirror 24, a spatial light modulator (hereinafter, “SLM”) 25. a, 25 b, laser diode (hereinafter, “: LD”) 26, collimated lens 27, half mirror 28, 29, 31 1, mirror 30, Fourier transform lens 32 a, 32 b, and CCD It consists of an image sensor 33.
液晶パネル 2 1 a、 ズームレンズ 22 a、 及び、 画像回転ミラー 2 3 は、 ビデオ RAM8に格納された比較原画像 1 0 a ' を前処理するため のものであり、 液晶パネル 2 1 aの後段にズームレンズ 22 a、 更にそ の後段に画像回転ミラー 2 3が配置されている。 液晶パネル 2 1 aは、 デジタル画像を光学画像に変換するためのものである。 ズームレンズ 2 2 aは、 液晶パネル 2 1 aに表示された光学画像を拡大、 縮小するため のものである。 画像回転ミラ一 23は、 ズームレンズ 22 aにより拡大 もしくは縮小された光学画像を回転するためのものである。  The liquid crystal panel 21a, the zoom lens 22a, and the image rotation mirror 23 are for pre-processing the comparison original image 10a 'stored in the video RAM 8, and are provided after the liquid crystal panel 21a. In addition, a zoom lens 22a is provided, and an image rotation mirror 23 is further provided behind the zoom lens 22a. The liquid crystal panel 21a is for converting a digital image into an optical image. The zoom lens 22 a is for enlarging or reducing the optical image displayed on the liquid crystal panel 21 a. The image rotation mirror 23 is for rotating the optical image enlarged or reduced by the zoom lens 22a.
液晶パネル 2 1 b及びズームレンズ 22 bは、 ビデオ RAM 8に格納 された検索対象画像 (この場合、 1 0 a) を前処理するためのものであ り、 液晶パネル 2 1 bの後段にズームレンズ 22 bが配置されている。 液晶パネル 2 l bは、 デジタル画像を光学画像に変換するためのもので ある。 ズームレンズ 22 bは、 液晶パネル 2 1 bに表示された光学画像 を拡大、 縮小するためのものである。  The liquid crystal panel 21b and the zoom lens 22b are for preprocessing the search target image (in this case, 10a) stored in the video RAM 8, and the zoom is performed after the liquid crystal panel 21b. The lens 22b is arranged. The liquid crystal panel 2 lb is for converting a digital image into an optical image. The zoom lens 22b is for enlarging or reducing the optical image displayed on the liquid crystal panel 21b.
画像回転ミラー 23及びズームレンズ 22 bの後段には、 2つの反射 面を有する反射ミラー 24が配置されている。 反射ミラー 24の一方の 反射面には、 液晶パネル 2 1 a、 ズームレンズ 22 a、 及び、 画像回転 ミラー 23から供給される比較原画像 1 0 a' の光学画像が入射し、 他 方の反射面には、 液晶パネル 2 1 b及びズームレンズ 22 bから供給さ れる検索対象画像 1 0 aの光学画像が入射する。 入射した 2つの光学画 像は、 それぞれの反射面で反射し、 反射ミラ一 24の後段に配置された 第 1の S LM2 5 aの書き込み側(光アドレス部)に所定の位置関係(図 中の X軸に平行に、 互いに、 距離 Mだけ離れた位置関係) で投影される。 第 1の S LM 2 5 aの後段には第 1のハーフミラ一 29と第 1のフ一リ ェ変換レンズ 32 aとが配置され、 更にその後段には第 2の S LM 2 5 bが配置されている。 第 2の S LM2 5 bの後段には、 第 2のハ一フミ ラー 3 1と第 2のフーリエ変換レンズ 32 bとが配置されている。 A reflection mirror 24 having two reflection surfaces is disposed downstream of the image rotation mirror 23 and the zoom lens 22b. On one reflection surface of the reflection mirror 24, the optical image of the comparison original image 10a 'supplied from the liquid crystal panel 21a, the zoom lens 22a, and the image rotation mirror 23 enters, and the other. The optical image of the search target image 10a supplied from the liquid crystal panel 21b and the zoom lens 22b is incident on the other reflecting surface. The two incident optical images are reflected by the respective reflecting surfaces, and have a predetermined positional relationship (the optical address section) on the writing side (optical address section) of the first SLM25a disposed after the reflection mirror 24. Parallel to the X-axis of each other and at a distance M from each other. A first half mirror 29 and a first free-transform lens 32a are arranged at a stage subsequent to the first SLM 25a, and a second SLM 25b is arranged at a stage subsequent thereto. Have been. A second half mirror 31 and a second Fourier transform lens 32b are arranged downstream of the second SLM 25b.
LD 2 6は、 S LM25 a、 25 bの読み出し側 (光変調部) に入射 させるコヒーレント光たるレーザ光 (以下、 「読み出し光」) を継続して 出力するためのものである。 LD 26と第 1のハーフミラー 29との間 には、 コリメータレンズ 27と第 3のハーフミラー 28とが配置されて いる。 コリメ一夕レンズ 27は、 LD 26から出力された読み出し光を コリメートして平行光にするためのものである。 第 3のハーフミラー 2 8は、 コリメ一夕レンズ 2 7からの読みだし光 (平行光) を一部透過し、 一部反射することで 2分割する。 第 3のハーフミラー 28を透過した読 み出し光は、 第 1のハーフミラー 29で反射して第 1の S LM 29の読 み出し側に入射する。 ミラ一 30は、 第 3のハーフミラー 28で反射し た読み出し光の光路を変更して第 2のハーフミラー 3 1に導くためのも のである。 第 2のハーフミラー 3 1に入射した読み出し光は、 反射して 第 2の S LM2 5 bの読み出し側に入射する。  The LD 26 is for continuously outputting laser light (hereinafter referred to as “reading light”), which is a coherent light, which is incident on the reading side (light modulator) of the SLMs 25a and 25b. Between the LD 26 and the first half mirror 29, a collimator lens 27 and a third half mirror 28 are arranged. The collimating lens 27 is for collimating the readout light output from the LD 26 into parallel light. The third half mirror 28 partially divides the reading light (parallel light) from the collimating lens 27 partially by transmitting and partially reflecting the light. The read light transmitted through the third half mirror 28 is reflected by the first half mirror 29 and is incident on the read side of the first SLM 29. The mirror 30 changes the optical path of the readout light reflected by the third half mirror 28 and guides it to the second half mirror 31. The reading light that has entered the second half mirror 31 is reflected and enters the reading side of the second SLM 25 b.
ここで、 S LM25 a, 2 5 bの構造及び動作を、 第 2図を参照しな がら、 説明する。 S LM2 5 a、 25 bは、 それぞれ書き込み側 (光ァ ドレス側 (第 1図上側 第 2図左側)) に入力された画像に応じて、 読み 出し側 (光変調側(第 1図下側 第 2図右側)) に入射された読み出し光 を位相変調して出力するためのものであり、 本実施の形態においては光 アドレス型の S LMを使用する。 なお、 この例では、 S LM25 a, 2 5 bの具体例として、 平行配向型ネマチック液晶空間光変調器 (PAL- SLM/ Parallel-Aligned nematic Liquid crystal Spatial Light Modulator) が使用されている。 Here, the structure and operation of the SLMs 25a and 25b will be described with reference to FIG. S LM2 5a and 25b are connected to the reading side (optical modulation side (lower side in Fig. 1) according to the image input to the writing side (optical address side (upper side in Fig. 1; left side in Fig. 2)). Readout light incident on the right side of Fig. 2)) Is output after phase modulation. In the present embodiment, an optically-addressable SLM is used. In this example, a parallel-aligned nematic liquid crystal spatial light modulator (PAL-SLM) is used as a specific example of the SLM25a, 25b.
この S LMでは、 光変調部としてのネマチック液晶層 41 6 (この場 合、 平行配向ネマチック液晶層) が、 一対の配向層 4 1 5と 4 1 7との 間に設けられている。 配向層 41 5の液晶層 4 1 6と反対の側には、 ミ ラー 414と、 光アドレス部としての光導電層 4 1 3と、 透明導電膜 4 1 2と、 書き込み側ガラス基板 41 1が、 この順に設けられている。 又、 配向層 41 7のネマチック液晶層 41 6と反対の側には、 透明導電膜 4 1 8と、 読み出し側ガラス基板 41 9とが設けられている。 光導電層 4 1 3は、 例えば、 アモルファスシリコン ( a— S i )、 C d S、 B i 12 02。、 有機光導電体 (P VK) 等からなる。 又、 ミラ一層 4 14は、 例 えば、 誘電体ミラーからなる。 配向層 41 5と 4 1 7は、 PVA又はポ リイミドをミラ一 4 14及び透明導電膜 41 8にコーティングした後ラ ビングを施して作成してもよいし、 S i Oの斜め蒸着や L B膜の形成等 で作成してもよい。 なお、 S LM2 5 a, 2 5 bの一対の導電膜 4 1 2 と 41 8との間には、 例えば、 交流電源 500 a, 500 bより交流の 駆動電圧が印加されている。 In this SLM, a nematic liquid crystal layer 416 (in this case, a parallel alignment nematic liquid crystal layer) as a light modulating section is provided between a pair of alignment layers 415 and 417. On the side of the alignment layer 415 opposite to the liquid crystal layer 416, a mirror 414, a photoconductive layer 413 as an optical address portion, a transparent conductive film 412, and a writing-side glass substrate 411 are provided. , Are provided in this order. Further, a transparent conductive film 418 and a reading-side glass substrate 419 are provided on the side of the alignment layer 417 opposite to the nematic liquid crystal layer 416. Photoconductive layer 4 1 3 is, for example, amorphous silicon (a- S i), C d S, B i 12 0 2. And organic photoconductor (PVK). The mirror layer 414 is made of, for example, a dielectric mirror. The alignment layers 415 and 417 may be formed by coating PVA or polyimide on the mirror 414 and the transparent conductive film 418 and then rubbing the film, oblique evaporation of SiO or LB film. It may be created by the formation of. An AC driving voltage is applied between the pair of conductive films 412 and 418 of the SLMs 25a and 25b, for example, from AC power supplies 500a and 500b.
書き込み側ガラス基板 4 1 1を介して光導電層 41 3に書き込み光が 入射されると、 その部分の抵抗が書き込み光強度に応じて低くなり、 液 晶層 41 6に書き込み光強度に応じた電圧がかかる。 液晶分子がその電 圧に応じた度合いで動き、 屈折率が変化する。 したがって、 LD 26よ り液晶分子の長さ方向に偏光したコヒーレントな読み出し光が読み出し 側ガラス基板 4 1 9を介して液晶層 41 6に入射すると、 この光は屈折 率変化に応じた位相変調を受ける。 When writing light is incident on the photoconductive layer 413 via the writing-side glass substrate 4 1 1 1, the resistance at that portion decreases according to the writing light intensity, and the resistance of the liquid crystal layer 416 depends on the writing light intensity. Voltage is applied. The liquid crystal molecules move at a rate corresponding to the voltage, and the refractive index changes. Therefore, when coherent read light polarized in the length direction of the liquid crystal molecules from the LD 26 enters the liquid crystal layer 416 via the read-side glass substrate 419, this light is refracted. The phase is modulated according to the rate change.
第 1のフーリェ変換レンズ 32 aは、 第 1の S LM2 5 aの読み出し 側 (液晶層 4 1 6) で変調され出力された読み出し光をフーリエ変換し て、 第 1のフーリエパターンをその後焦点面に形成するためのものであ る。 第 2の S LM25 bは、 その書き込み側 (光アドレス側 (光導電層 41 3))が、第 1のフーリエ変換レンズ 32 aの後焦点面上に配置され ている。 従って、 第 1のフーリエパターンが第 2の S LM2 5 bの書き 込み側に結像される。  The first Fourier transform lens 32a performs a Fourier transform on the readout light modulated and output on the readout side (the liquid crystal layer 416) of the first SLM25a, and converts the first Fourier pattern to the focal plane thereafter. It is for forming into. The second SLM 25b has its write side (optical address side (photoconductive layer 413)) disposed on the back focal plane of the first Fourier transform lens 32a. Therefore, the first Fourier pattern is imaged on the writing side of the second SLM25b.
第 2のフーリエ変換レンズ 32 bは第 2の S LM2 5 bの読み出し側 (液晶層 4 1 6) で変調され出力された読み出し光をフーリエ変換して その後焦点面 (相関出力面) 上に第 2のフーリエパターン (相関画像) を形成するためのものである。  The second Fourier transform lens 32b performs a Fourier transform on the readout light modulated and output on the readout side (liquid crystal layer 416) of the second SLM25b, and then performs a Fourier transform on the focal plane (correlation output plane). 2 to form a Fourier pattern (correlated image).
第 2のフーリエ変換レンズ 32 bの後焦点面 (相関出力面) 上には C CDイメージセンサ 3 3が配置されている。 CCDイメージセンサ 33 は、 複数の画素の 2次元的な配列により構成されており、 各画素位置の 光強度を検出することができる。 このため、 CCDイメージセンサ 33 は、 第 2のフ一リエパターンの各画素位置における光強度 (輝度) を検 出し、 検出した光強度に対応した電気信号を出力する。 この電気信号は AZD変換器 14でデジタル信号(輝度数値 (階調値)) に変換された後、 CPU 7に供給される。 なお、 こうして C PU 7に供給されたデジタル 信号は、相関画像データとして、画像メモリ 1 8に一時的に格納される。 この相関画像デ一夕は、 コンピュータモニタ一 6に表示できるようにな つており、 例えば、 第 3図のように、 L I VE画像として表示可能とな つている。  A CCD image sensor 33 is disposed on the back focal plane (correlation output plane) of the second Fourier transform lens 32b. The CCD image sensor 33 is configured by a two-dimensional array of a plurality of pixels, and can detect the light intensity at each pixel position. Therefore, the CCD image sensor 33 detects the light intensity (luminance) at each pixel position of the second Fourier pattern and outputs an electric signal corresponding to the detected light intensity. This electric signal is converted into a digital signal (luminance value (gradation value)) by the AZD converter 14 and then supplied to the CPU 7. The digital signal thus supplied to the CPU 7 is temporarily stored in the image memory 18 as correlation image data. The correlation image data can be displayed on a computer monitor 16 and, for example, as shown in FIG. 3, can be displayed as a LIFE image.
以上のように、 本実施の形態では、 光演算部 20が、 比較原画像 1 0 a 'の画像データと検索対象画像 1 0 aの画像デ一夕とをそれぞれ光学 画像に変換した後、 光学的に合同変換相関処理を行うことにより、 これ らの相関パターンを直接形成するようになっている。 ここで、 かかる合 同変換相関処理をコンピュータによって行おうとすると、 高性能のコン ピュー夕が必要となり、 画像検索装置全体の製造コストが高くなる。 こ れに対して、 本実施の形態では、 光演算部 20により光学的に相関演算 処理を行うようにしたため、製造コストを著しく低減することができる。 しかも、 光演算部 20は、 演算処理を極めて高速に行うことができるた め、 検索対象画像の数が膨大であっても、 演算処理を短時間で行うこと ができる。 As described above, in the present embodiment, the optical operation unit 20 optically converts the image data of the comparison original image 10 a ′ and the image data of the search target image 10 a into optical data, respectively. After conversion into an image, these correlation patterns are directly formed by optically performing joint conversion correlation processing. Here, if such a joint conversion correlation process is to be performed by a computer, a high-performance computer is required, and the manufacturing cost of the entire image search device is increased. On the other hand, in the present embodiment, since the correlation operation processing is optically performed by the optical operation unit 20, the manufacturing cost can be significantly reduced. In addition, since the optical operation unit 20 can perform the operation processing at extremely high speed, the operation processing can be performed in a short time even if the number of search target images is enormous.
次に、 本実施の形態の類似画像検索の原理を、 第 4 (a) 図及び第 4 Next, the principle of similar image retrieval according to the present embodiment will be described with reference to FIG.
(b) 図を参照して具体的に説明する。 (b) Specific description will be made with reference to the drawings.
今、 第 4 (a) 図に示すような画像が、 比較原画像 1 0 a 'と検索対 象画像 1 0 aとしてビデオ RAM 8に入力されたとする。 ここで、 これ ら比較原画像 1 0 a 'と検索対象画像 1 0 aとは、 同一人物が現われて いるが局部的に異なる部分を有する画像である。 これら 2つの画像に対 する光学画像が、 液昴パネル 2 1 a, 2 1 bにより生成され、 S LM2 5 aの書き込み側 (光導電層 4 1 3) に入射される。 ここで、 これら光 学画像 1 0 a ', 1 0 aは、 第 1図及び第 4 (a) 図に示すように、 X軸 に平行に距離 Mだけずれたような相対的位置関係で、 S LM2 5 aに入 射される。 なお、 図面中の XY平面が、 S LM 2 5 aの書き込み側入射 面 (光導電層 4 1 3の書き込み光入射面) であり、 X軸、 Y軸は、 互い に垂直である。 さらに、 第 1図に示すように、 XY平面に垂直に、 第 1, 第 2フーリエ変換レンズ 32 a, 32 bの光軸 (Z軸) が伸びている。  Now, it is assumed that an image as shown in FIG. 4 (a) is input to the video RAM 8 as a comparison original image 10a 'and a search target image 10a. Here, the comparison original image 10a 'and the search target image 10a are images in which the same person appears but has locally different portions. Optical images corresponding to these two images are generated by the liquid sub-panels 21a and 21b, and are incident on the writing side (photoconductive layer 413) of the SLM25a. Here, as shown in FIGS. 1 and 4 (a), these optical images 10a ′ and 10a have a relative positional relationship parallel to the X axis and shifted by a distance M. Injected into SLM2 5a. The XY plane in the drawing is the writing-side incident surface of the SLM 25a (the writing light incident surface of the photoconductive layer 413), and the X-axis and the Y-axis are perpendicular to each other. Further, as shown in FIG. 1, the optical axes (Z-axis) of the first and second Fourier transform lenses 32a and 32b extend perpendicular to the XY plane.
これら両画像 1 0 a ', 1 0 aをフーリエ変換レンズ 32 aにてフ一 リエ変換し、 得られた第 1のフーリエ変換パターンを S LM25 bに書 き込み、 さらに、 この第 1のフーリエ変換パターンを読みだした後フ一 リエ変換レンズ 32 bにてフーリエ変換すると、 フーリエ変換レンズ 3 2 bの後焦点面である相関出力面(C CDイメージセンサ 3 3)上には、 第 4 (b) 図に示す第 2のフーリエ変換パターン (相関画像) が得られ る。 なお、 第 4 (b) 図中の XY平面がフーリエ変換レンズ 32 bの後 焦点面 (相関出力面) を示し、 この X軸は S LM 25 aの書き込み側入 射面上の X軸 (第 4 (a) 図) に平行であり、 Y軸は S LM25 aの書 き込み側入射面上の Y軸 (第 4 (a) 図) に平行である。 また、 Z軸は、 第 1, 第 2フーリエ変換レンズ 32 a, 32 bの光軸であり、 図の XY 平面に対して垂直に伸びている。 なお、 フーリエ変換レンズ 32 bの後 焦点面 (相関出力面) 上の Z軸 (図の原点) 上には、 第 3図に示すよう に、画像 1 0 a' と画像 1 0 aの自己相関信号光である 0次光が現れる。 第 4 (a) 図より明らかなように、 両画像のうち、 一致度の高い部分、 例えば、 画像 1 0 a '中の部分 a' と画像 1 0 a中の部分 aとは、 X軸 に略平行に距離 Mに略等しい距離だけずれている。 したがって、 相関出 力面上 (CCDイメージセンサ 33上) には、 第 4 (b) 図に示すよう に、 これら画像部分 a, a 'に基づく一対の相関信号光 Aが、 原点 (フ 一リエ変換レンズ 32 bの光軸 Z) の位置から、 X軸に略平行に M · ( f 2/ f 1) に略等しい距離だけずれた一対の位置に現れる。 ここで、 f 1はフーリエ変換レンズ 32 aの焦点距離であり、 f 2はフーリエ変換 レンズ 32 bの焦点距離である。 The two images 10a 'and 10a are Fourier-transformed by the Fourier transform lens 32a, and the obtained first Fourier transform pattern is written into the SLM25b. After reading the conversion pattern, When the Fourier transform is performed by the Fourier transform lens 32b, the correlation output surface (CCD image sensor 33), which is the back focal plane of the Fourier transform lens 32b, has a second Fourier transform shown in FIG. A conversion pattern (correlated image) is obtained. The XY plane in FIG. 4 (b) shows the back focal plane (correlation output plane) of the Fourier transform lens 32b, and this X axis is the X axis (the second plane) on the writing side entrance plane of the SLM 25a. 4 (a)), and the Y axis is parallel to the Y axis (Fig. 4 (a)) on the writing-side entrance surface of the SLM25a. The Z axis is the optical axis of the first and second Fourier transform lenses 32a and 32b, and extends perpendicular to the XY plane in the figure. As shown in Fig. 3, the autocorrelation between the image 10a 'and the image 10a is located on the Z axis (the origin of the figure) on the focal plane (correlation output plane) after the Fourier transform lens 32b. The zero-order light, which is the signal light, appears. As is evident from Fig. 4 (a), the parts with a high degree of coincidence in both images, for example, the part a in image 10a 'and the part a in image 10a It is displaced substantially parallel by a distance that is approximately equal to the distance M. Therefore, on the correlation output surface (on the CCD image sensor 33), as shown in FIG. 4 (b), a pair of correlation signal lights A based on these image portions a and a ' It appears at a pair of positions that are displaced from the position of the optical axis Z) of the conversion lens 32b substantially parallel to the X axis by a distance substantially equal to M · (f2 / f1). Here, f1 is the focal length of the Fourier transform lens 32a, and f2 is the focal length of the Fourier transform lens 32b.
同様に、 一致度の高い部分、 例えば、 画像 1 0 a 'の部分 b' と画像 1 0 &の部分13も、 X軸に略平行に、 距離 Mに略等しい距離だけずれて いる。 したがって、 これら画像部分 b、 b 'に基づく一対の相関信号光 Bも、 原点 (フーリエ変換レンズ 32 bの光軸 Z) の位置から、 X軸に 略平行に M' ( f 2 / f 1 ) に略等しい距離だけずれた一対の位置に現れ る。 同様に、 他の一致度の高い部分、 例えば、 画像 1 0 a 'の部分 c ' と 画像 1 0 aの部分 cも、 X軸に略平行に距離 Mに略等しい距離だけずれ ている。 したがって、 これら画像部分 (:、 c 'に基づく一対の相関信号 光 Cも、 原点 (フーリエ変換レンズ 32 bの光軸 Z) の位置から、 X軸 に略平行に M* ( f 2/ f 1) に略等しい距離だけずれた一対の位置に現 れる。 Similarly, a portion having a high degree of coincidence, for example, a portion b 'of the image 10a' and a portion 13 of the image 10 & are also shifted by a distance substantially parallel to the X axis and substantially equal to the distance M. Therefore, a pair of correlation signal lights B based on these image parts b and b 'are also M' (f2 / f1) substantially parallel to the X axis from the position of the origin (optical axis Z of the Fourier transform lens 32b). Appear at a pair of positions displaced by a distance approximately equal to. Similarly, other parts having a high degree of coincidence, for example, the part c 'of the image 10a' and the part c of the image 10a are also shifted by a distance substantially parallel to the X axis and substantially equal to the distance M. Therefore, a pair of correlation signal light C based on these image portions (:, c ′) is also substantially parallel to the X axis from the position of the origin (optical axis Z of the Fourier transform lens 32b) by M * (f2 / f1 ) Appear at a pair of positions displaced by a distance approximately equal to).
このようにして、 原点 (フーリエ変換レンズ 32 bの光軸 Z) から X 軸に略平行に Μ· ( f 2/ f 1) に略等しい距離だけずれた一対の位置に、 これら相関信号光が集まったことにより生じる強いピーク (土 1次光) が現われる。  In this way, these correlation signal lights are shifted from the origin (optical axis Z of the Fourier transform lens 32b) to a pair of positions substantially parallel to the X axis and shifted by a distance substantially equal to Μ · (f2 / f1). A strong peak (primary soil light) appears due to the gathering.
しかし、 画像 10 a 'の部分 d ' と画像 1 0 aの部分 dとは、 互いに 一致する画像部分ではあるものの、 その位置が異なっている。 具体的に は、 画像部分 d 'と dとは、 X軸に平行に距離 L、 Y軸に平行に距離 N だけずれている。 このため、 これら画像部分 d、 d ' に基づく相関信号 光 Dは、 原点 (フーリエ変換レンズ 32 bの光軸 Z) の位置から、 X軸 に平行に距離 L · ( f 2Z f 1 )、 Y軸に平行に距離 N · ( f 2 / f 1 ) だ けずれた一対の位置に生成される。  However, although the part d 'of the image 10a' and the part d of the image 10a are mutually identical image parts, their positions are different. Specifically, the image parts d 'and d are shifted by a distance L parallel to the X axis and a distance N parallel to the Y axis. Therefore, the correlation signal light D based on these image parts d and d 'is distanced from the origin (the optical axis Z of the Fourier transform lens 32b) in parallel to the X axis by a distance L · (f2Zf1), Y It is generated at a pair of positions parallel to the axis and offset by a distance N · (f 2 / f 1).
これら画像部分 d、 d 'のように一致はしているが位置が異なる画像 部分が、 画像 1 0 a, 1 0 a ' 上に複数ある場合には、 これら一致画像 部分に基づく相関信号光が離散的に発生することになる。  If there are a plurality of image parts that match but have different positions, such as these image parts d and d ', on the images 10a and 10a', the correlation signal light based on these matching image parts It will occur discretely.
また、 上記画像部分 d、 d 'のように、 互いに同一の画像である場合 には、 これら画像部分に基づく相関信号光 Dの強度は強くなる。 一方、 画像部分 d、 d 'が互いに同一ではなく幾分異なっている、 すなわち、 類似した画像である場合には、 これら画像部分に基づく相関信号光 Dの 強度はそれほど高くない。  When the images are the same as in the image portions d and d ′, the intensity of the correlation signal light D based on these image portions increases. On the other hand, if the image parts d and d ′ are not the same as each other but are slightly different, that is, if the images are similar, the intensity of the correlation signal light D based on these image parts is not so high.
また、 第 4 (b) 図には示されていないが、 光演算部 20ではコヒー レント光であるレーザ光を使用しており、 レンズの凹凸や記録面 (液晶 パネル 2 1 a, 2 1 b) 上の画素のドットに反応してスペックルノイズ が発生してしまう。 このため、 類似画像部分に基づく相関信号のうちス ペックルノイズより小さいものは、スペックルノイズに埋もれてしまう。 Although not shown in FIG. 4 (b), the optical Since laser light, which is lent light, is used, speckle noise is generated in response to the unevenness of the lens and the dots of the pixels on the recording surface (LCD panels 21a and 21b). Therefore, among the correlation signals based on the similar image portion, those smaller than the speckle noise are buried in the speckle noise.
ここで、 スペックルノイズは光学系に起因するものであるため、 比較 対照画像 1 0 a, 1 0 a 'の位置をずらしてもスペックルノイズが現わ れる位置は変わらない。 一方、 相関信号は、 画像自体に基づき形成され るものであるため、 これら画像 1 0 a, 1 0 a' をずらすと現れる位置 が変わる。 そこで、 本実施の形態では、 次のような手段を講じてスぺッ クルノイズを除去している。  Here, since the speckle noise is caused by the optical system, the position where the speckle noise appears does not change even if the positions of the comparative images 10a and 10a 'are shifted. On the other hand, since the correlation signal is formed on the basis of the image itself, the position at which the image appears is shifted by shifting these images 10a and 10a '. Therefore, in the present embodiment, the following measures are taken to remove the spike noise.
( 1) まず比較対象となる比較原画像 1 0 a 'と検索対象画像 1 0 aに 対する光学画像のフーリエ変換を行い、 第 2のフーリエパターン (相関 画像) を形成させる。  (1) First, a Fourier transform is performed on the optical image of the comparison original image 10 a ′ to be compared and the search target image 10 a to form a second Fourier pattern (correlation image).
(2) 次に、 これら 2枚の光学画像 1 0 a, 1 0 a 'の相対的位置を変 更して再度フーリエ変換を行い、 第 2のフーリエパターン (相関画像) を得る。 すなわち、 2枚の画像のどちらか一方を、 第 4 (a) 図の XY 平面上で、 上下左右のいずれかの方向へ画像の大きさの 1 0 %程度ずら す。 具体的には、 画像 1 0 a' と 1 0 aのうちのいずれかのビデオ R A M 8内での格納位置を調整することで、いずれかの画像の位置をずらす。 (3) 上記 ( 1) 及び (2) で得られた 2枚の第 2のフーリエパターン (2) Next, the relative position of these two optical images 10a and 10a 'is changed and Fourier transform is performed again to obtain a second Fourier pattern (correlation image). That is, one of the two images is displaced by about 10% of the size of the image in any direction of up, down, left, and right on the XY plane in FIG. 4 (a). More specifically, the position of any one of the images 10a 'and 10a is shifted by adjusting the storage position in the video RAM8. (3) Two second Fourier patterns obtained in (1) and (2) above
(相関画像) の差分を取る。 (Correlation image)
上記のように、 スペックルノイズは光学系に起因するため、 画像をず らしてもスペックルノイズが現われる位置は変わらない。 一方、 画像自 体に起因する相関信号光は、 画像をずらすと移動する。 従って、 ( 1) 及 び (2) で得られた 2枚の第 2フーリエ変換画像の差分を (3) にて取 ることによって、 スペックルノイズを除去し、 移動した相関信号のみを 取得することができる。 As described above, since speckle noise is caused by the optical system, the position where the speckle noise appears does not change even if the image is shifted. On the other hand, the correlation signal light caused by the image itself moves when the image is shifted. Therefore, by taking the difference between the two second Fourier transform images obtained in (1) and (2) in (3), speckle noise is removed and only the shifted correlation signal is obtained. Can be obtained.
なお、 C C Dイメージセンサ 3 3によって検出される相関画像には、 上記スペックルノイズの他、 C C Dイメージセンサ 3 3自体によるノィ ズゃ比較対照画像の量子化ノイズも含まれているが、 相対的位置移動前 後の 2枚の相関画像の差分を取ることによって、 これらノイズをも除去 することができる。  The correlation image detected by the CCD image sensor 33 includes noise due to the CCD image sensor 33 itself and quantization noise of the comparative image, in addition to the above speckle noise. By taking the difference between the two correlation images before and after the movement, these noises can also be removed.
本実施形態では、 このようにスペックルノイズが除去された後に残つ た相関信号の差分絶対値を、相関出力面内の所定領域において積分して、 積分結果 (輝度値の和) に基づいて、 2枚の画像 1 0 a , 1 0 a 'の類 似度を判定する。  In the present embodiment, the absolute value of the difference between the correlation signals remaining after the speckle noise has been removed in this manner is integrated in a predetermined area in the correlation output plane, and based on the integration result (sum of luminance values). , The similarity between the two images 10 a and 10 a ′ is determined.
ここで、 本実施の形態において相関出力面内の所定の領域内の輝度を 積分する理由を説明する。  Here, the reason for integrating the luminance in a predetermined region in the correlation output plane in the present embodiment will be described.
第 4 ( a ) 図に示されている比較原画像 1 0 a 'と検索対象画像 1 0 aとが同一の画像である場合、 すなわち、 画像部分 a, b , c及び a ' , b c ' のように、 同一の画像部分が同一の位置に配置されているよ うな画像である場合には、 相関出力面 (フーリエ変換レンズ 3 2 bの後 焦点面) 上には、 これら両画像の相対位置に対応する一対の位置 (原点 から X軸に平行に土 M · ( f 2 / f 1 ) 離れた位置) に、 これら同一画像 部分に基づく相関信号光が集まって形成された高い輝度ピーク (+ 1次 光、 一 1次光) が生成される。 したがって、 これら一対の位置のいずれ かの輝度ピークを検出し、 所定のしきい値と比較することにより、 この 輝度が当該しきい値より大きいと判断され、 これら比較対照画像が同一 画像であると判定することができる。  When the comparison original image 10a 'and the search target image 10a shown in Fig. 4 (a) are the same image, that is, the image parts a, b, c and a', bc ' Thus, when the same image portion is an image in which the same image portion is arranged at the same position, the relative position of the two images is displayed on the correlation output surface (the focal plane after the Fourier transform lens 32b). At a pair of positions (positions that are away from the origin parallel to the X-axis by soil M · (f 2 / f 1)), a high luminance peak (+ Primary light, primary light). Therefore, by detecting a luminance peak at one of these paired positions and comparing it with a predetermined threshold value, it is determined that the luminance is greater than the threshold value, and it is determined that these comparative images are the same image. Can be determined.
このように、 互いに同一の画像では、 局部的に一致している画像部分 が互いに同一の位置に存在している。 このため、 互いに一致する各画像 部分同士の相対的位置は互いに等しく、 画像全体同士の相対的位置に等 しい。 このため、 各画像部分が一致することにより出現する輝度 (相関 信号) が、 所定の一対の位置に集まって、 非常に高い輝度の ± 1次光を 生成する。 このため、 同一の画像に対しては、 その相対的位置に対応す る所定の一対の位置に高い輝度の相関信号が生成される。 As described above, in the same image, the locally coincident image portions exist at the same position. Therefore, the relative positions of the image parts that match each other are equal to each other, and are equal to the relative positions of the entire images. New For this reason, the luminances (correlation signals) that appear when the respective image portions match each other are gathered at a predetermined pair of positions to generate ± 1 order light with extremely high luminance. Therefore, for the same image, a correlation signal with high luminance is generated at a predetermined pair of positions corresponding to the relative positions.
一方、 比較原画像 1 0 a 'と検索対象画像 1 0 aとが互いに類似する 画像である場合には、 画像部分 d、 d ' のような同一画像部分もしくは 類似する画像部分が、異なる場所に様々に分散して存在する。 このため、 これら画像部分に基づく相関信号も、 相関出力面上の様々な位置に分散 して出現する。 したがって、 これら相関信号が、 上記所定の一対の位置 (原点から X軸に平行に土 M · ( f 2 / f 1 ) だけ離れた位置) に集まら ないため、 当該所定の一対の位置には、 同一画像の場合のような高いピ ークは出現しない。 したがって、 この位置の輝度ピークを単に検出して しきい値と比較しても、 「しきい値以下である、したがって、同一でない」 との判断しかできず、 類似画像であることを検出できない。 - このように、 互いに類似する画像には、 局部的に一致したり類似した りする部分が存在するものの、これら一致したり類似したりする部分が、 それぞれの画像の互いに異なる部分に分散して存在している。 したがつ て、 これら一致または類似する部分により出現した輝度 (相関信号) が さまざまな場所に散らばって生成される。  On the other hand, if the comparison original image 10a 'and the search target image 10a are images similar to each other, the same or similar image portions such as image portions d and d' are placed in different locations. There are various types of distribution. For this reason, the correlation signals based on these image portions also appear at various positions on the correlation output surface. Therefore, since these correlation signals do not collect at the above-mentioned pair of predetermined positions (positions separated from the origin by a distance M · (f 2 / f 1) parallel to the X axis), the predetermined pair of positions High peaks do not appear as in the case of the same image. Therefore, simply detecting the luminance peak at this position and comparing it with the threshold value can only determine that the luminance peak is equal to or less than the threshold value and therefore is not the same, and cannot detect a similar image. -As described above, although images that are similar to each other have parts that are locally identical or similar, these parts that are identical or similar are distributed to different parts of each image. Existing. Therefore, the luminance (correlation signal) generated by these coincident or similar parts is scattered and generated in various places.
そこで、 本実施の形態では、 このようにさまざまな場所に散らばって 生成された相関信号を、 積分をすることによりかき集めて類似判断の要 素とすることとしている。 このため、 本発明では、 ピーク波形ではなく、 所定の大きさを有する領域について積分することとしている。  Therefore, in the present embodiment, correlation signals generated and scattered in various places as described above are gathered by integration to be a factor for similarity determination. For this reason, in the present invention, integration is performed not for a peak waveform but for a region having a predetermined size.
また、 本実施の形態では、 この積分領域を可変としている。 オペレー 夕は、 パラメ一夕を用いて、 積分領域の位置や大きさを設定することが できる。 例えば、 積分領域を小さくすれば、 一致する画像部分同士の位 置ずれの少ない、 同一性の高い画像を検出することができる。 一方、 積 分領域を大きくすれば、 位置は異なるとしても、 局部的に見ると同一ま たは類似する部分が多い画像を検出することができる。 In the present embodiment, the integration area is variable. During the operation, the position and size of the integration area can be set using the parameters. For example, if the integration area is reduced, the position of matching image parts An image with little misalignment and high identity can be detected. On the other hand, if the integration area is made large, it is possible to detect an image having many parts that are the same or similar when viewed locally even if the position is different.
但し、 ノイズとなる自己相関を検出しないように、 積分領域は、 0次 光を含まない範囲となるような位置及び範囲に限定される。  However, the integration region is limited to a position and a range that does not include the zero-order light so as not to detect autocorrelation that causes noise.
例えば、 第 4 (a) 図及び第 4 (b) 図の例の場合において、 積分領 域を、 第 4 (b) 図の破線①で囲んだ領域に設定すれば、 離散的に生成 されている相関信号光、 例えば、 相関信号 Dをも積分に含めることがで きるため、 第 4 (a) 図の d、 d 'の部分についても類似判断の要素と することができる。 例えば、 この積分領域①としては、 CCDイメージ センサ 33上において、 相関信号光の集まっている一 1次光位置 (原点 より X軸に平行に一 M · ( f 2/ f 1 ) ずれた位置) を中心とし、 X軸方 向の一辺が距離 M · ( f 2/ f 1) の例えば 1. 5倍の長さであるような 矩形の範囲に設定すればよい。 こうすれば、 積分領域①内に自己相関信 号 (0次光) を含めないようにすることができる。  For example, in the case of the examples of FIGS. 4 (a) and 4 (b), if the integration area is set to the area surrounded by the broken line の in FIG. 4 (b), discrete generation is performed. Since the correlation signal light, for example, the correlation signal D, can also be included in the integration, the parts d and d ′ in FIG. 4 (a) can also be used as elements for similarity determination. For example, as the integration area ①, on the CCD image sensor 33, the position of the first-order primary light where the correlation signal light is gathered (the position shifted by 1 M · (f2 / f1) parallel to the X axis from the origin). It is sufficient to set a rectangular area with one side in the X-axis direction having a length of, for example, 1.5 times the distance M · (f2 / f1). In this way, the autocorrelation signal (zero-order light) can be excluded from the integration region ①.
一方、 積分領域を第 4 (b) 図の別の破線②で囲んだ領域のように小 さくすれば、 一致画像部分の位置ずれの少ない同一性の高い画像のみを 検索することが可能となる。 例えば、 この積分領域②としては、 CCD イメージセンサ 33上において、 相関信号光の集まっている一 1次光位 置を中心とし、 一辺が距離 M · ( f 2/ f 1 ) と等しい長さの正方形の範 囲に設定することが考えられる。  On the other hand, if the integration area is reduced as shown by the area surrounded by another broken line ② in Fig. 4 (b), it is possible to search only images with a high degree of identity with little misalignment of the matching image part. . For example, as the integration area 、, on the CCD image sensor 33, the first side of the first-order optical position where the correlation signal light is converged, and one side has a length equal to the distance M · (f2 / f1). It is conceivable to set it in the range of a square.
さらに、 積分領域を第 4 (b) 図の領域①のうち領域②を除く領域に 設定すれば、 相関信号光が集まっている 1次光 (この場合、 — 1次光) 位置を積分の範囲として含めないようにすることができる。したがって、 局部的に一致または類似しているものの位置がずれているような画像部 分を含む類似画像を、 同一画像や非類似画像とは識別して検索すること が可能となる。 したがって、 類似画像のみを検索することができる。 また、 積分領域を、 第 4 (b) 図の別の破線③で囲む領域に設定して もよい。 この場合にも、 相関信号光が集まっている一 1次光位置付近を 積分の範囲として含めないようにすることができるので、 類似画像のみ を検索することが可能となる。 このように、 積分領域を任意の領域に設 定することができる。 Furthermore, if the integration area is set to an area other than the area ① in the area の in Fig. 4 (b), the position of the primary light (in this case, — primary light) where the correlated signal light is collected will be within the range of integration. Can be excluded. Therefore, it is necessary to identify and search for similar images that include image parts that are locally identical or similar but are displaced from the same image or dissimilar images. Becomes possible. Therefore, only similar images can be searched. Further, the integration area may be set to an area surrounded by another broken line ③ in FIG. 4 (b). Also in this case, the vicinity of the primary light position where the correlation signal light is gathered can be excluded from the integration range, so that only similar images can be searched. Thus, the integration region can be set to an arbitrary region.
なお、 本実施の形態では、 以上のように、 所定の一対の位置の高輝度 1次光のピークを検出するのではなく、 所定の領域の輝度の積分値を測 定するので、 スペックルノイズを予め除去しておくことが極めて重要と なっている。  In this embodiment, as described above, instead of detecting the peak of the high-brightness primary light at a predetermined pair of positions, the integrated value of the luminance in a predetermined region is measured, and thus the speckle noise It is extremely important to remove these in advance.
本実施の形態の画像検索装置 1 00においては、 類似画像を上記の方 法にて検索すべく、 第 4 (a) 図のような比較原画像 (この場合、 1 0 a') と検索対象画像 (この場合、 1 0 a) に対して、 光演算部 20によ り、 第 4 (b) 図のような相関画像を生成し、 画像メモリ 1 8に格納す る。 その後、 ビデオ RAM 8内の比較原画像 1 0 aと検索対象画像 1 0 aのいずれかの格納位置を変更することにより、 これら 2つの画像 1 0 a ', 1 0 aのいずれかの位置を変更して S LM 2 5 aに再び記録し、 相関画像を再び生成して画像メモリ 1 8に格納する。 CPU7は、 この ようにして得られた相対的位置変更前の相関画像と相対的位置変更後の 相関画像との差分を求める。 すなわち、 CPU7は、 CCDイメージセ ンサ 33の撮像面の各画素位置において、 相対的位置変更前に得られた 相関画像の光強度と相対的位置変更後に得られた相関画像の光強度との 差分を求める。 次に、 CPU7は、 この差分結果を、 CCDイメージセ ンサ 33の撮像面上の所定の領域 (例えば、 第 4 (b) 図の領域①) に ついて積分し、 積分結果を所定のしきい値と比較する。 積分結果がしき い値より大きければ、 比較原画像 1 0 a' と検索対象画像 1 0 aとは類 似していると判断する。 一方、 積分結果がしきい値以下であれば、 比較 原画像 1 0 a' と検索対象画像 1 0 aとは類似していないと判断する。 In the image search apparatus 100 of the present embodiment, in order to search for similar images by the above-described method, a comparison original image (in this case, 10a ') as shown in FIG. For the image (in this case, 10a), a correlation image as shown in FIG. 4 (b) is generated by the optical operation unit 20 and stored in the image memory 18. Then, by changing the storage position of either the comparison original image 10a or the search target image 10a in the video RAM 8, the position of either of these two images 10a 'and 10a is changed. The modified image is recorded in the SLM 25a again, and the correlation image is generated again and stored in the image memory 18. The CPU 7 obtains the difference between the correlation image before the relative position change and the correlation image after the relative position change, which are obtained in this way. That is, at each pixel position on the imaging surface of the CCD image sensor 33, the CPU 7 calculates the difference between the light intensity of the correlation image obtained before the relative position change and the light intensity of the correlation image obtained after the relative position change. Ask for. Next, the CPU 7 integrates the difference result with respect to a predetermined area (for example, the area の in FIG. 4 (b)) on the imaging surface of the CCD image sensor 33, and sets the integration result to a predetermined threshold value. Compare with If the integration result is larger than the threshold value, the comparison original image 10 a 'and the search target image 10 a Judge that they are similar. On the other hand, if the integration result is equal to or less than the threshold value, it is determined that the comparison original image 10a 'and the search target image 10a are not similar.
ここで、 CPU7は、 以下のようにして、 差分結果を所定の領域につ いて積分し、 積分結果を所定のしきい値と比較する。  Here, the CPU 7 integrates the difference result over a predetermined area as follows, and compares the integration result with a predetermined threshold value.
まず、 CPU 7は、 所定の領域 (例えば、 第 4 (b) 図の領域①) 内 の各画素における差分結果 (階調値) を第 1のしきい値と比較し、 第 1 のしきい値より大きい差分結果を有する画素の個数をカウントして、 類 似度を求める。 こうして得られた類似度を、 差分結果の所定領域内の積 分値として決定する。 次に、 CPU7は、 このようにして得られた所定 領域内の差分結果の積分値 (類似度) を第 2のしきい値と比較し、 積分 値 (類似度) が第 2のしきい値より大きい場合に、 比較原画像 1 0 a' と検索対象画像 (1 0 a) とは類似していると判断する。  First, the CPU 7 compares the difference result (gradation value) of each pixel in a predetermined area (for example, the area の in FIG. 4 (b)) with a first threshold, and determines a first threshold. The number of pixels having a difference result greater than the value is counted to determine the similarity. The similarity obtained in this way is determined as an integrated value in a predetermined area of the difference result. Next, the CPU 7 compares the integrated value (similarity) of the difference result in the predetermined area obtained in this way with a second threshold value, and compares the integrated value (similarity) with the second threshold value. If it is larger, it is determined that the comparison original image 10a 'and the search target image (10a) are similar.
入力装置 1 2は、図示しないキーポ一ドゃマウスより構成されており、 オペレータは様々な指示を画像検索装置 1 00に対し入力することがで きる。 例えば、 オペレータは、 画像検索の実行の指示を入力することが できる。 また、 画像検索の条件として、 検索対象画像の範囲を指定する ことができる。 さらに、 オペレータは、 画像検索の他の条件として、 比 較対象画像の相対的位置の移動量、 積分演算にて使用する積分領域の位 置や範囲と第 1の閾値、 及び、 比較演算にて使用する第 2の閾値の値を も入力することができる。  The input device 12 is composed of a keypad mouse (not shown), and an operator can input various instructions to the image search device 100. For example, the operator can input an instruction to perform an image search. In addition, the range of the search target image can be specified as a condition of the image search. In addition, the operator determines the other conditions for the image search, such as the amount of movement of the relative position of the image to be compared, the position and range of the integration area used in the integration operation and the first threshold value, and the comparison operation. You can also enter the value of the second threshold to be used.
ROM 1 6は、 後述の画像検索のためのプログラム (検索ソフト (第 5図)) を記憶している。 C PU 7が当該画像検索プログラムを実行する ことにより、 本実施の形態の画像検索処理が行われる。 また、 RAM I 4は、 画像検索処理中、 C PU 7が演算した結果を格納する。 なお、 画 像検索のためのプログラム (第 5図) は、 ハードディスク装置 1 7に格 納されており、 RAM 14に読み込まれて実行されるのでもよい。 次に、 以上のように構成された本実施の形態に係る画像検索装置 1 0The ROM 16 stores a program (search software (Fig. 5)) for image search described later. When the CPU 7 executes the image search program, the image search processing of the present embodiment is performed. The RAM I 4 stores the result calculated by the CPU 7 during the image search processing. The image search program (FIG. 5) is stored in the hard disk drive 17 and may be read into the RAM 14 and executed. Next, the image retrieval apparatus 10 according to the present embodiment configured as described above is used.
0の行う画像検索処理について第 5図を参照して説明する。 The image search processing performed by 0 will be described with reference to FIG.
なお、 オペレータが入力装置 1 2に画像検索処理の実行を指示するこ とにより、 CPU7が ROM 1 6内に格納されている画像検索プロダラ ムの実行をスタートし、 本画像検索処理が開始する。  When the operator instructs the input device 12 to execute the image search processing, the CPU 7 starts executing the image search program stored in the ROM 16 and starts the image search processing.
画像検索プログラムがスタートすると、 最初に、 ォペレ一夕は、 言葉 によるィンデックス条件にて、 画像に付帯しているパラメ一夕ファイル の条件を絞る (ステップ S 1 )。  When the image search program starts, first, the operating environment narrows down the parameters of the parameter file attached to the image based on the verbal index condition (step S 1).
より詳しくは、 本画像検索プログラムが起動すると、 CPU 7は、 コ ンピュー夕モニタ 6を制御して、 第 6図に示すパラメ一夕ウィンドウを 表示する。 オペレータは、 このパラメ一夕ウィンドウ中の 「Mu 1 t i ディヴィジョン」 にある 「R e f 」 側の 「参照」 ポタンをクリックする。 すると、 第 7図のようなダイアログ (「開く」 ウィンドウ) が現われるた め、 オペレータは、 検索に供したい比較原画像 (この場合、 第 4 (a) 図の画像 1 0 a 'とする) のファイル名を選択し、 「開く」 ポタンをクリ ックする。次に、 オペレータは、第 6図のパラメ一夕ウインドウ中の「M u 1 t iディヴィジョン」 にある 「D i r」 側の 「参照」 ボタンをクリ ックする。 すると、 第 8図のようなダイアログ(「ディレクトリ選択ウイ ンドウ」) が現われる。 オペレータは、 今回の検索処理の比較対象とした い画像の入っているファイル名を選択し、 「S e 1 e c t D i r」ボタ ンをクリックする。 この結果、 今回の検索対象範囲が決定される。 例え ば、 オペレータが 「細胞診」 という名称のファイルを選択したとし、 フ アイル 「細胞診」 に、 画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 1 0 f が格納されているとすると、 画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 1 0 f が、 今回の検索処理の検索対象画像となる。 このよ うにして、第 8図のダイアログ上で、 「細胞診」 という言葉によるインデ ックス条件で、 画像に付帯しているファイル名を特定し、 検索対象画像 の範囲を指定するのである。 More specifically, when the image search program starts, the CPU 7 controls the computer monitor 6 to display a parameter window shown in FIG. The operator clicks the “Ref” button on the “Ref” side in the “Mu 1 ti division” in this parameter overnight window. Then, a dialog ("Open" window) as shown in Fig. 7 appears, and the operator selects the comparison original image (in this case, image 10a 'in Fig. 4 (a)) to be searched. Select a file name and click the “Open” button. Next, the operator clicks the “Browse” button on the “Dir” side in the “Mu1ti division” in the parameter overnight window in FIG. Then, a dialog as shown in Fig. 8 ("Directory selection window") appears. The operator selects the name of the file that contains the image to be compared in the current search process, and clicks the “SelectDir” button. As a result, the current search target range is determined. For example, if the operator selects a file named “Cytology”, the file “Cytology” contains images 10a, 10b, 10c, 10d, 10e, 10f. Is stored, the images 10a, 10b, 10c, 10d, 10e, and 10f are the images to be searched in the current search processing. In this way, the dialog shown in Fig. The search condition specifies the file name attached to the image and specifies the range of the search target image.
オペレータは、 以上のようにして必要な入力を完了すると、 パラメ一 夕ウィンドウ (第 6図) の 「Mu 1 t iディヴィジョン」 にある 「S t a r t;」 ポタンをクリックする。 この結果、 ステップ S 1にて上述のよ うに決定された検索対象画像 1 0 a、 1 0 b、 1 0 c、 1 0 d、 1 0 e、 1 0 f の中の 1つの画像 (例えば、 第 4 (a) 図の画像 1 0 aとする) が取り出され、 比較原画像 1 0 a ' と共に、 ビデオ RAM 8に格納され る (ステップ S 2)。 この結果、 第 9図に示す比較ウインドウがコンビュ 一夕モニタ 6に表示され、 今回取り出された 1つの検索対象画像 1 0 a と比較原画像 1 0 a 'とが、 並んで、 すなわち、 第 4 (a) 図に示すよ うに、 水平方向 (X軸方向) に距離 Mだけ離れて表示される。  When the necessary input is completed as described above, the operator clicks the “Start” button in the “Mu1ti division” in the parameter setting window (FIG. 6). As a result, one of the search target images 10a, 10b, 10c, 10d, 10e, and 10f determined as described above in step S1 (for example, The image 10a in FIG. 4 (a) is taken out and stored in the video RAM 8 together with the comparison original image 10a '(step S2). As a result, the comparison window shown in FIG. 9 is displayed on the combo overnight monitor 6, and the one retrieval target image 10a retrieved this time and the comparison original image 10a 'are arranged side by side. (a) As shown in the figure, they are displayed at a distance M in the horizontal direction (X-axis direction).
なお、 オペレータは、 ステップ S 1においてパラメータウィンドウ上 の 「 S t a r t;」 ポタンをクリックする前に、 パラメ一夕ウィンドウを 見ながら、第 1 0図に示すように、パラメータ設定を行うことができる。 ここで、 パラメ一夕ウィンドウには、 設定できるパラメ一夕 (P a r a me t e r s) として、 「Δ1ι」、 「Δ ν」、 「Th r e s h o l d」、 「判定 値」、 「範囲」、 「位置」 が表示されている。  Before the operator clicks the “Start” button on the parameter window in step S1, the operator can set parameters as shown in FIG. 10 while viewing the parameter window. Here, in the parameter overnight window, “Δ1ι”, “Δν”, “Threshold”, “judgment value”, “range”, and “position” are set as parameters that can be set (parameters). Is displayed.
ここで、 「Δ1ι」 及び「Δ ν」 は、 画像の位置の移動量を示すパラメ一 夕である。 より詳しくは、 Δί は、 第 9図の比較ウィンドウにおいて、 比較画像 (比較原画像 1 0 a 'または検索対象画像 1 0 a) を水平方向 (X軸方向) にずらす量で、 任意に設定することができる。 Δ νは、 第 9図の比較ウィンドウにおいて、 比較画像 (比較原画像 1 0 a 'または 検索対象画像 1 0 a) を垂直方向 (Y軸方向) にずらす量で、 任意に設 定することができる。 ここで、 Δ1ι及び Δ νの値は、 コンピュータモニ 夕 6上の画素数である。これらの値 Δ h及び Δ Vとしては、比較画像(比 較原画像または検索対象画像) の大きさの約 1 0 %程度の距離を設定で きる。 Here, “Δ1ι” and “Δν” are parameters indicating the amount of movement of the position of the image. More specifically, Δί is arbitrarily set in the comparison window of FIG. 9 by the amount by which the comparison image (the comparison original image 10a 'or the search target image 10a) is shifted in the horizontal direction (X-axis direction). be able to. Δ ν can be set arbitrarily in the comparison window in Fig. 9 by the amount by which the comparison image (comparison original image 10a 'or search target image 10a) is shifted in the vertical direction (Y-axis direction). it can. Here, the values of Δ1ι and Δν are the number of pixels on the computer monitor 6. As these values Δh and ΔV, the comparison image (ratio The distance can be set to about 10% of the size of the comparison image or the search target image).
後述する相対位置変更工程 (ステップ S 5 ) では、 このようにして設 定された値 Δ h及び Δ Vに基づき、 比較原画像 1 0 a ' 及び検索対象画 像 1 0 aのいずれかが、 対応する液晶パネル 2 l a , 2 1 b上で、 左右 のいずれかの方向へ Δ hに対応する距離、 及び、 上下のいずれかの方向 へ Δ Vに対応する距離だけずらされることになる。 このようにして、 比 較対象画像 1 0 aまたは 1 0 a 'は、 水平方向 (第 4 ( a ) 図の X軸) 及び Zまたは垂直方向 (第 4 ( a ) 図の Y軸) へずらされることになる。  In the relative position changing step (step S5) described later, based on the values Δh and ΔV set in this way, either the comparison original image 10a 'or the search target image 10a is On the corresponding liquid crystal panels 2 la and 21 b, they are shifted by a distance corresponding to Δh in one of the left and right directions and by a distance corresponding to ΔV in one of the up and down directions. In this way, the image to be compared 10a or 10a 'is shifted in the horizontal direction (X axis in FIG. 4 (a)) and in the Z or vertical direction (Y axis in FIG. 4 (a)). Will be.
「位置」 と 「範囲」 は、 第 3図に示すような C C Dイメージセンサ 3 “Position” and “Range” are defined by the CCD image sensor 3 as shown in Fig. 3.
3の撮像面 (相関出力面) 上において、 積分を行うべき領域を規定する ためのものである。 具体的には、 積分領域は、 「位置」 によって定まる座 標を基準とし、 「範囲」によって定まる大きさの領域として設定される。 例えば、 「位置」 によって定まるある座標を中心とし 「範囲」 によって定 まる長さの辺を有する正方形あるいは矩形の領域として設定される。 ま た、 「位置」 によって定まるある座標を中心とし 「範囲」 によって定まる 長さの半径を有する円形領域として設定することもできる。 このように して、 「位置」 と 「範囲」 とにより、 任意の形状 ·サイズの領域を設定す ることができる。 This is for defining the area where integration is to be performed on the imaging plane (correlation output plane) 3. Specifically, the integration region is set as a region of a size determined by “range” with reference to a coordinate determined by “position”. For example, it is set as a square or rectangular area having a center at a certain coordinate determined by “position” and a side having a length determined by “range”. Further, it can also be set as a circular area having a radius defined by the “range” and the center at a certain coordinate determined by the “position”. In this way, an area of an arbitrary shape and size can be set by the “position” and the “range”.
「T h r e s h ο 1 d」 は、第 1のしきい値である。すなわち、 「位置」 及び 「範囲」 で規定された積分領域内の各画素の輝度数値がこの閾値よ り大きい画素の個数をカウントして積分を行うための基準であり、 任意 に設定することができる。  “Thresshο1d” is a first threshold value. In other words, it is a reference for integrating by counting the number of pixels whose luminance value of each pixel in the integration area defined by “position” and “range” is larger than this threshold, and can be set arbitrarily. it can.
「判定値」 は、 第 2の閾値であり、 積分領域における積分結果 (類似 度) と比較されるしきい値である。 すなわち、 類似性がどの程度低い画 像までを類似画像として選択するかを決定するためのパラメ一夕であり, 任意に設定することができる。 したがって、 「T h r e s h o 1 d」 を基 準として画素数をカウントして得られた類似度 (積分結果) がこの 「判 定値」 より大きい画像のみが、 後述の S 1 1において、 検索結果表示ゥ インドウ (第 1 1図) に表示されることになる。 なお、 この 「判定値」 には、年齢や性別等の患者情報による重み付けをすることも可能である。 なお、 上記 Δ h、 Δ ν、 Th r e s h o l d, 判定値、 範囲、 位置は、 予め、 初期値に設定されており、 ROM 1 6に記憶されている。 したが つて、 オペレータが S 1において設定を行わない場合には、 初期値が使 用されることになる。 また、 これらパラメータ Ah、 Δν、 Th r e s h o l d, 判定値、 範囲、 位置は、 第 5図の検索動作中、 いつでも、 変 更することができる。 The “judgment value” is the second threshold, which is compared with the integration result (similarity) in the integration area. In other words, it is a parameter for determining how low the similarity is to be selected as a similar image. It can be set arbitrarily. Therefore, only images whose similarity (integration result) obtained by counting the number of pixels on the basis of “Thresho 1 d” is larger than this “determination value” will be displayed in S 11 described later. It will be displayed on the window (Fig. 11). The “judgment value” can be weighted by patient information such as age and gender. Note that the above Δh, Δν, Threshold, judgment value, range, and position are previously set to initial values and stored in the ROM 16. Therefore, if the operator does not make any settings in S1, the initial values will be used. In addition, these parameters Ah, Δν, Threshold, judgment value, range, and position can be changed at any time during the search operation in FIG.
なお、 このようにォペレ一夕が設定できるパラメ一夕として、 他に、 比較原画像 1 0 a 'の回転角度等を指定できるようにしてもよい。  In addition, as a parameter that can be set for the operation overnight, the rotation angle of the comparison original image 10a 'may be specified.
ステップ S 2にて、 1つの検索対象画像 1 0 a及び比較原画像 1 0 a 'がビデオ RAM8に格納されると、 光演算部 20により、 これら画像 In step S2, when one search target image 10a and the comparison original image 10a 'are stored in the video RAM 8, these images are
1 0 a及び 1 0 a 'についての第 1回目の相関演算処理が行われる (ス テツプ S 3)。 得られた第 1回目の相関画像 ( 1 ) は、 C CDイメージセ ンサ 3 3に検出され、 画像メモリ 1 8に格納される (ステップ S 4)。 次に、 比較原画像 1 0 a 'と検索対象画像 1 0 aとの相対的位置を変 更する (ステップ S 5)。 具体的には、 CPU 7は、 ビデオ RAM 8を制 御して、 比較原画像 1 0 a' 及び検索対象画像 1 0 aの一方を、 初期設 定あるいはオペレータにより設定されている距離 Δ h及び△ Vだけ、 上 下左右の方向へずらす。 The first correlation operation processing is performed on 10a and 10a '(step S3). The first correlation image (1) obtained is detected by the CCD image sensor 33 and stored in the image memory 18 (step S4). Next, the relative position between the comparison original image 10a 'and the search target image 10a is changed (step S5). Specifically, the CPU 7 controls the video RAM 8 to store one of the comparison original image 10 a ′ and the search target image 10 a in the distance Δh set by the initial setting or by the operator. Shift up, down, left, and right by ΔV.
次に、 このようにして相対的位置が変更された 2枚の画像 1 0 a '、 1 0 aに対して、 光演算部 20により第 2回目の相関演算処理が行われる (ステップ S 6)。 得られた第 2回目の相関画像 (2) が、 CCDィメー ジセンサ 3 3に検出され、画像メモリ 1 8に格納される(ステップ S 7), 次に、 C PU7は、 画像メモリ 1 8に格納されている第 1回目の相関 画像 ( 1) と第 2回目の相関画像 (2) との差分を求める (ステップ SNext, a second correlation operation process is performed by the optical operation unit 20 on the two images 10 a ′ and 10 a whose relative positions have been changed in this way (step S 6). . The obtained second correlation image (2) is a CCD image. Detected by the sensor 33 and stored in the image memory 18 (step S 7). Next, the CPU 7 compares the first correlation image (1) stored in the image memory 18 with the second The difference from the correlation image (2) (Step S
8)。 すなわち、 各画素毎に、 第 1回目の相関画像 ( 1) の強度値 (階調 値) と第 2回目の相関画像 (2) の強度値 (階調値) との差分 (絶対値) を計算する。 これにより、 光学系に起因するスペックルノイズ等のノィ ズを除去することができる。 8). That is, the difference (absolute value) between the intensity value (gradation value) of the first correlation image (1) and the intensity value (gradation value) of the second correlation image (2) is calculated for each pixel. calculate. As a result, noise such as speckle noise caused by the optical system can be removed.
次に、 CPU 7は、 このように差分を求めることでノイズが除去され た後に残った相関信号の絶対値を、 初期設定あるいはオペレータにより 設定された 「位置」 及び 「範囲」 によって規定された所定の領域内で積 分し、 その積分値を類似度とする (ステップ S 9)。  Next, the CPU 7 obtains the absolute value of the correlation signal remaining after the noise is removed by calculating the difference in this manner, by the initial setting or the “position” and “range” specified by the operator. The integration is performed within the region of, and the integrated value is used as the similarity (step S9).
具体的には、 CPU 7は、 まず、 設定された領域 (例えば、 第 4 (b) 図の領域①とする) 内の各画素における差分結果を 「Th r e s h o 1 d」 (第 1のしきい値)と比較し、 「Th r e s h o l d」 (第 1のしきい 値) より大きい差分結果を有する画素の個数をカウントして、 類似度を 求める。  Specifically, the CPU 7 first calculates the difference result of each pixel within the set area (for example, the area の in FIG. 4 (b)) as “Thresho 1 d” (first threshold). Value), and count the number of pixels that have a difference result greater than “Threhold” (first threshold value) to determine the similarity.
次に、 CPU 7は、 この類似度が、 初期設定あるいはオペレータによ り設定された 「判定値」 (第 2の閾値) より大きいかどうかを判断し (ス テツプ S 1 0)、 類似度が 「判定値」 (第 2の閾値) 以下の場合 (ステツ プ S 1 0で No) は、 ステップ 1 2へ移行する。  Next, the CPU 7 determines whether or not this similarity is greater than the “determination value” (second threshold) set by the initial setting or the operator (step S10), and the similarity is determined. If it is equal to or less than the “judgment value” (second threshold value) (No in step S10), go to step 12.
一方、類似度が第 2の閾値より大きい場合(ステップ S 1 0で Y e s ) は、 比較対照画像 10 a 'と検索対象画像 1 0 aとは類似すると判断し、 モニター 6上で候補として表示する (ステップ S 1 Do このとき、 類似 度も併せて表示する。 すなわち、 第 1 1図の検索結果画像表示ウィンド ゥに、今回の検索対象画像 1 0 aが類似度と共に表示される。 このとさ、 オペレータは、 このように類似画像として抽出された検索対象画像 1 0 aを観察しながら、 パラメ一夕ウィンドウ (第 1 0図) 上の 「Th r e s h o 1 d」 (第 1の閾値) を変更することができる。 オペレータは、 ま た、 パラメ一夕ウインドウ上の 「判定値」 (第 2の閾値) を任意の数値に 変えて 「Ap p l y」 ボタンをクリックすることもできる。 この場合に は、 検索結果画像表示ウィンドウ (第 1 1図) が再表示され、 変更され た「判定値」 (第 2の閾値)より大きい類似度を有する検索対象画像のみ が表示されることになる。 On the other hand, if the similarity is larger than the second threshold (Y es in step S 10), it is determined that the comparative image 10 a ′ is similar to the search target image 10 a and displayed as a candidate on the monitor 6. (Step S 1 Do At this time, the similarity is also displayed. That is, the current search target image 10 a is displayed together with the similarity in the search result image display window の in FIG. 11. Then, the operator selects the search target image 10 0 extracted as a similar image in this manner. While observing a, you can change “Th resho 1 d” (first threshold) on the parameter overnight window (Fig. 10). The operator can also change the “judgment value” (second threshold value) on the parameter overnight window to an arbitrary value and click the “Apply” button. In this case, the search result image display window (Fig. 11) is redisplayed, and only the search target images having a similarity greater than the changed “judgment value” (second threshold) are displayed. Become.
次に、 全検索候補画像 (この場合、 1 0 a、 '··、 1 0 f ) についての 検索が終了したかどうかを判断し(ステップ S 1 2)、全検索候補画像に ついての検索が終了していない場合 (ステップ S 1 2で No) は、 オペ レー夕により第 1の閾値 (Th r e s h o l d) が変更要求されている かどうかを判断し(ステップ S 1 3)、第 1の閾値(Th r e s h 0 1 d) の変更要求がされている場合 (ステップ S 1 3で Y e s ) は、 第 1の閾 値 (Th r e s h o l d) を変更して (ステップ S 14)、 ステップ 1 5 へ移行する。 第 1の閾値 (Th r e s h o l d) の変更要求がされてい ない場合 (ステップ S 1 3で No) は、 そのままステップ 1 5へ移行す る。 ステップ 1 5において、 次の検索候補画像 (例えば、 1 0 b) を選 択し、 ステップ S 2へ移行する。  Next, it is determined whether or not the search for all the search candidate images (in this case, 10a, '·, 10f) has been completed (step S12), and the search for all the search candidate images has been completed. If the processing has not been completed (No in step S12), it is determined whether or not the first threshold (Threshold) is requested to be changed by the operation (step S13), and the first threshold (Threshold) is determined. If a request to change Th resh 0 1 d) has been made (Yes in step S 13), change the first threshold (Th reshold) (step S 14) and proceed to step 15 . If there is no request to change the first threshold (Threshold) (No in step S13), the process directly proceeds to step 15. In step 15, the next search candidate image (for example, 10b) is selected, and the process proceeds to step S2.
ステップ S 1 2において、 全検索候補画像についての検索が終了した 場合 (ステップ S 1 2で Y e s) は、 検索終了となる。  If the search for all the search candidate images has been completed in Step S12 (Yes in Step S12), the search ends.
以上のように、 本画像検索装置 1 00では、 オペレータが必要な入力 を完了してパラメ一夕ウインドウ上の 「S t a r t」 ボタンをクリック すると、 今回の検索範囲内の全検索対象画像 1 0 a, 1 0 b、 "'、 1 0 が、 第 9図に示すように、 一枚ずつ順次比較原画像 1 0 a 'と比較さ れていき、 その結果が第 1 1図に示すように、 順次、 検索結果画像表示 ウィンドウに表示されていく。 したがって、 検索範囲の全検索対象画像 1 0 a , 1 0 b , ···、 1 0 f についての検索が終了した段階では、 類似 と判定された全ての検索対象画像が第 1 1図の検索結果画像表示ウイン ドウに表示されることになる。 As described above, in the present image search apparatus 100, when the operator completes the necessary input and clicks the “Start” button in the parameter overnight window, all the search target images within the current search range are displayed. , 10b, "', and 10 are sequentially compared with the comparison original image 10a' one by one as shown in FIG. 9, and the result is as shown in FIG. The search result images are displayed sequentially in the search result image display window. When the search for 10 a, 10 b,..., And 10 f is completed, all the search target images determined to be similar are displayed in the search result image display window in FIG. Will be.
検索範囲の全検索対象画像についての検索が終了した後、 オペレータ は、 第 1 1図の検索結果画像表示ウィンドウを観察し、 比較原画像 1 0 a 'に対して好ましい検索対象画像が、 好ましい類似度と共に、 類似画 像として表示されているか否かを判断する。  After the search for all the search target images in the search range is completed, the operator observes the search result image display window shown in FIG. It is determined whether the image is displayed as a similar image together with the degree.
ここで、 好ましい結果が得られていない場合には、 T h r e s h o 1 d (第 1のしきい値)、 判定値 (第 2のしきい値)、 画像移動量 A h、 Δ Vや、 積分領域の位置や範囲を変更して、 再度、 画像検索処理 (第 5図) をステップ S 1から繰り返す。  Here, if favorable results are not obtained, Thresho 1 d (first threshold value), judgment value (second threshold value), image movement amount A h, ΔV, and integration area Change the position and range of, and repeat the image search process (Fig. 5) again from step S1.
例えば、 ノイズの影響により正確な画像探索がなされていないと思わ れる場合には、 画像移動量 Δ hや Δ Vを変更することが考えられる。 さらに、 類似性の低い画像にも係わらず高い類似度が示されている場 合や、 逆に、 類似性の高い画像にも係わらず低い類似度が示されている 場合には、 T h r e s h o l d (第 1のしきい値) や積分領域の位置や 範囲を変更することが考えられる。  For example, when it is considered that an accurate image search is not performed due to the influence of noise, it is conceivable to change the image movement amount Δh or ΔV. Furthermore, if a high similarity is shown despite images with low similarity, or conversely, if a low similarity is shown even though images with high similarity, T threshold ( It is conceivable to change the position or range of the first threshold value) or the integration region.
また、 類似度は類似性を好ましい傾向にて示していると思われる場合 において、 類似画像のみならず非類似画像と考えられる画像までも類似 画像として表示されている場合には、 判定値 (第 2のしきい値) をより 高い値に変更し、 逆に、 類似画像として表示された画像の数が少なすぎ る場合には、 判定値(第 2のしきい値) をより低い値に変更すれば良い。 以上のように、 本実施の形態では、 比較原画像と検索対象画像との画 像データをそれぞれ光学画像に変換し、 比較原画像と検索対象画像との 光学画像を並置して空間光変調器に書き込み、 書き込んだ光学画像のパ ターンをコヒーレント光で読み出し、 読み出した変調出力をフーリエ変 換して相関画像 (フーリエ変換パターン) を形成し、 比較原画像と検索 対象画像との光学画像の相対的位置を変更し、 相対的位置が変更される 前の光学画像に対して形成された相関画像と、 相対的位置が変更された 後の光学画像に対して形成された相関画像との差分を検出し、 この出力 信号を積分して比較原画像に対する検索対象画像の相関値を検出し、 相 関値と所定の閾値 (第 2のしきい値) とを比較する。 このように、 本実 施形態の画像検索装置によれば、 画像同士の相関信号を直接生成し、 更 に、 スペックルノイズを除去することができる。 このため、 膨大な数の 画像の中から迅速かつ的確に類似画像を検索することができる。 また、 比較原画像と検索対象画像との画像データをそれぞれ光学画像に変換し 相関画像を形成して相関値を求める光演算を採用しているため、 コンビ ユー夕による相関演算を採用するのに比べて、 コストを著しく低減する ことができる。 しかも、 光演算を採用していることから、 演算処理を極 めて高速に行うことができ、 検索対象画像の数が膨大であっても、 短時 間で検索を行うことができる。 In addition, when the similarity is considered to indicate similarity in a favorable tendency, and when not only similar images but also images considered to be dissimilar images are displayed as similar images, the determination value (the Change the threshold (second threshold) to a higher value, and conversely, if the number of images displayed as similar images is too small, change the judgment value (second threshold) to a lower value Just do it. As described above, in the present embodiment, the image data of the comparison original image and the search target image are each converted into an optical image, and the optical image of the comparison original image and the search target image are juxtaposed to form a spatial light modulator. And write the written optical image pattern with coherent light, and Fourier transform the read modulated output. In other words, a correlation image (Fourier transform pattern) is formed, the relative position of the optical image between the comparison original image and the search target image is changed, and the optical image is formed with respect to the optical image before the relative position is changed. The difference between the correlation image and the correlation image formed for the optical image after the relative position has been changed is detected, and the output signal is integrated to detect the correlation value of the search target image with respect to the comparison original image. The correlation value is compared with a predetermined threshold value (second threshold value). As described above, according to the image search device of the present embodiment, a correlation signal between images can be directly generated, and further, speckle noise can be removed. Therefore, similar images can be quickly and accurately searched from a huge number of images. In addition, since the image data of the comparison original image and the search target image are each converted to an optical image and a correlation image is formed to obtain a correlation value, an optical operation is employed. In comparison, costs can be significantly reduced. In addition, since the optical calculation is employed, the calculation processing can be performed at extremely high speed, and the search can be performed in a short time even if the number of search target images is enormous.
本発明に係る画像検索装置及び画像検索方法は、 前述した実施の形態 に限定されず、 特許請求の範囲に記載した範囲で種々の変形や改良が可 能である。  The image search device and the image search method according to the present invention are not limited to the above-described embodiments, and various modifications and improvements can be made within the scope described in the claims.
例えば、 磁気ディスク 5は、 C D R O M等の他の種類の外部記憶装置 であってもよいし、 ネットワークサーバ 3を直接磁気ディスク 5の代わ りに用いてもよい。 また、 本発明で使用しうる S L Mは第 2図に示した ものに限定されず、 他の構成の S L Mであっても構わない。  For example, the magnetic disk 5 may be another type of external storage device such as a CDROM, or the network server 3 may be used directly instead of the magnetic disk 5. Further, the SLMs that can be used in the present invention are not limited to those shown in FIG. 2, and may have other configurations.
また、 本発明の画像検索装置や画像検索方法を医療現場で画像診断の ために用いる場合、 X線フィルム画像の検索、 細胞診画像の検索、 ヘリ カルスキャン C T画像の検索等に用いることができるが、 これらの画像 と電子カルテ情報をリンクして、 過去の病歴経過を追うこともできる。 さらに、 医療現場への応用以外にも、 セキュリティ一の分野では、 不 審人物を撮影した際に、 指名手配人 (特に国際的に問題のある人物等) と比較することもできる。 この場合には、 顔の輪郭部分を取り除いて調 ベる。 考古学の分野でも、 出土品の模様の類似を検索する等の用途に有 用である。 In addition, when the image search device and the image search method of the present invention are used for image diagnosis at a medical site, they can be used for X-ray film image search, cytology image search, helical scan CT image search, and the like. However, these images can be linked to electronic medical record information to keep track of past medical histories. Furthermore, besides its application in the medical field, in the field of security, when a suspicious person is photographed, it can be compared with a wanted person (especially an internationally problematic person). In this case, remove the outline of the face and examine. It is also useful in archeology, such as searching for similarities in excavated patterns.
積分領域については、 第 4 (b) 図の各積分領域①〜③のように、 1 つの連続した積分領域内で差分結果を積分しても良いし、 互いに分離し た複数の積分領域内で差分結果を積分し積分結果を足し合わせるように しても良い。 また、 C CDイメージセンサ 33によって検出された相関 画像の全領域にわたって積分しても良い。 但し、 0次光を除くことが望 ましい。  As for the integration area, the difference results may be integrated in one continuous integration area as shown in each integration area (1) to (3) in Fig. 4 (b), or in a plurality of integration areas separated from each other. The difference results may be integrated and the integration results may be added. Further, integration may be performed over the entire area of the correlation image detected by the CCD image sensor 33. However, it is desirable to eliminate the zero-order light.
図 5の S 3, S 4では、 CCDイメージセンサ 33にて相関画像を複 数フレーム分撮像し、 各画素の輝度数値 (階調値) を全フレーム分足し 合わせた結果を、 相関画像 ( 1) としてメモリ 1 8に格納するようにし ても良い。 この場合、 S 6, S 7でも、 同様な方法で、 相関画像 (2) を生成してメモリ 1 8に格納する。 S 8では、 こうして得られた相関画 像 (1) 及び (2) の差分を採る。 かかる方法によれば、 相関画像 (1) 及び (2) の各画素における輝度数値を十分高めてからこれらの差分を 採ることができるため、 より精度の高い検出を行うことができる。  In S3 and S4 in FIG. 5, the correlation image is captured for a plurality of frames by the CCD image sensor 33, and the result of adding the luminance values (gradation values) of each pixel for all the frames to the correlation image (1). ) May be stored in the memory 18. In this case, the correlation image (2) is generated and stored in the memory 18 in the same manner in S6 and S7. In S8, the difference between the correlation images (1) and (2) thus obtained is taken. According to this method, since the difference between the pixels in the correlation images (1) and (2) can be obtained after the luminance value of each pixel is sufficiently increased, more accurate detection can be performed.
上記実施の形態では、 輝度値が Th r e s h o 1 dより大きい画素の 数をカウントすることで類似度を求めたが、 輝度値が Th r e s h o 1 d以上の画素の数をカウントすることで、 類似度を求めても良い。 同様 に、 類似度が判定値より大きい場合に類似であると判定したが、 類似度 が判定値以上の場合に類似であると判定しても良い。  In the above embodiment, the similarity is obtained by counting the number of pixels whose luminance value is greater than Th resho 1 d. However, the similarity degree is obtained by counting the number of pixels whose luminance value is greater than Th resho 1 d. You may ask. Similarly, the similarity is determined to be similar when the similarity is greater than the determination value, but the similarity may be determined when the similarity is equal to or greater than the determination value.
上記実施の形態では、 所定の領域内の各画素における差分結果を Th r e s h o 1 dと比較して、 Th r e s h o l dより大きい差分結果を 有する画素の個数をカウントすることで、 該所定の領域内での積分を行 つたが、 かかる T h r e s h o 1 dとの比較を行わず、 所定の領域内の 画素の差分結果を単に足し合わせるのでもよい。 In the above embodiment, the difference result of each pixel in the predetermined area is compared with Th resho 1 d, and a difference result larger than Th reshold is obtained. By counting the number of pixels having the pixel, the integration within the predetermined area was performed.However, it is also possible to simply add up the difference results of the pixels within the predetermined area without performing the comparison with Tresho 1 d. Good.
相関信号を得るために S LMに対して照射するコヒーレント光の光源 としては、 レーザダイオードに限らず様々なコヒ一レント光光源を採用 することができる。  The coherent light source that irradiates the SLM to obtain the correlation signal is not limited to a laser diode, and various coherent light sources can be employed.
画像の相対位置を変更するための手段はビデオ RAM 8に限定されず、 様々の画像表示制御装置を用いることができる。  The means for changing the relative position of the image is not limited to the video RAM 8, and various image display control devices can be used.
上記実施の形態では、 パラメ一夕 Δίι、 Δν、 Th r e s h o l d、 判定値、 範囲、 位置は、 検索動作中いつでも変更できるようになつてい たが、 これらパラメ一夕は検索動作中には変更することができず、 検索 動作が終了または中断した場合にのみ、 変更することができるようにし てもよい。 産業上の利用可能性  In the above embodiment, the parameters Δίι, Δν, Threshold, judgment value, range, and position can be changed at any time during the search operation, but these parameters can be changed during the search operation. May be changed only when the search operation is terminated or interrupted. Industrial applicability
本発明に係る画像検索装置や画像検索方法は、 医療分野、 セキユリテ ィ一分野、 考古学の分野等、 類似する画像を検索する用途に幅広く用い られる。  INDUSTRIAL APPLICABILITY The image search device and the image search method according to the present invention are widely used for searching similar images in the medical field, the security field, the archeology field, and the like.

Claims

請求の範囲 The scope of the claims
1 . 複数の検索対象画像の画像データを格納する画像データ格納手段 と、 1. Image data storage means for storing image data of a plurality of search target images;
1つの比較原画像の画像データと前記複数の検索対象画像のうちの 1 つの検索対象画像の画像データとをそれぞれ光学画像に変換する画像デ 一夕変換手段と、  Image data conversion means for converting each of the image data of one comparison original image and the image data of one of the plurality of search target images into an optical image,
前記比較原画像の光学画像と前記 1つの検索対象画像の光学画像とを 並置して書き込み、 書き込んだ 2つの光学画像のパターンをコヒ一レン ト光で読み出す空間光変調器と、  A spatial light modulator that writes the optical image of the comparison original image and the optical image of the one search target image side by side, and reads out the written patterns of the two optical images with coherent light;
前記空間光変調器から読み出された変調出力をフーリエ変換して、 相 関出力面上に相関画像を形成する相関画像形成手段と、  Correlation image forming means for performing a Fourier transform on a modulation output read from the spatial light modulator to form a correlation image on a correlation output surface;
前記比較原画像の光学画像と前記 1つの検索対象画像の光学画像との 相対的位置を変更して変更後の該 2つの光学画像を前記空間光変調器へ 書き込むことにより、 前記相関画像形成手段に対して、 前記空間光変調 器より読み出された変調出力をフーリエ変換して前記相関出力面上に相 関画像を形成させる画像位置変更手段と、  By changing the relative position between the optical image of the comparison original image and the optical image of the one search target image and writing the two changed optical images to the spatial light modulator, the correlation image forming means Image position changing means for Fourier-transforming a modulation output read from the spatial light modulator to form a correlation image on the correlation output surface;
前記画像位置変更手段により相対的位置が変更される前の該 2つの光 学画像に対して形成された相関画像と、 前記画像位置変更手段により相 対的位置が変更された後の該 2つの光学画像に対して形成された相関画 像との差分を求める差分検出手段と、  A correlation image formed for the two optical images before the relative position is changed by the image position changing unit; and the two correlation images after the relative position is changed by the image position changing unit. Difference detection means for obtaining a difference between the optical image and the correlation image formed,
前記差分検出手段の検出結果を前記相関出力面上のある領域内で積分 して前記比較原画像に対する前記 1つの検索対象画像の相関値を検出す る相関値検出手段と、  Correlation value detection means for integrating a detection result of the difference detection means within a certain area on the correlation output surface to detect a correlation value of the one search target image with respect to the comparison original image;
前記相関値と所定の閾値とを比較して、 比較結果に基づき、 前記 1つ の検索対象画像が前記比較原画像に類似する類似画像であるか否かを判 定する比較手段と、 The correlation value is compared with a predetermined threshold value, and based on the comparison result, it is determined whether the one search target image is a similar image similar to the comparison original image. Means for determining
前記比較手段が前記 1つの検索対象画像を類似画像であると判定した 際、 前記 1つの検索対象画像を類似画像として出力する出力手段と、 前記画像データ変換手段を制御して、 前記画像データ格納手段に格納 されている前記複数の検索対象画像の画像デ一夕のうちの少なくとも 1 つの検索対象画像の画像データを 1つずつ順次切り替えて光学画像に変 換させることで、 前記少なくとも 1つの検索対象画像と前記比較原画像 とを順次比較させて前記比較原画像に類似すると判定された検索対象画 像を類似画像として出力させる類似画像抽出制御手段とを備えているこ とを特徴とする画像検索装置。  An output unit that outputs the one search target image as a similar image when the comparison unit determines that the one search target image is a similar image; and controls the image data conversion unit to store the image data. The image data of at least one search target image among the image data of the plurality of search target images stored in the means is sequentially switched one by one to be converted into an optical image, whereby the at least one search is performed. Similar image extraction control means for sequentially comparing a target image with the comparison original image and outputting a search target image determined to be similar to the comparison original image as a similar image. Search device.
2 . 前記相関値検出手段が積分を行う前記領域を指定する積分領域指 定手段を更に備えていることを特徴とする請求項 1記載の画像検索装置 2. The image retrieval apparatus according to claim 1, further comprising an integration area specifying means for specifying the area where the correlation value detection means performs integration.
3 . 前記積分領域指定手段は、 前記領域として、 0次光を含まない領 域を指定することを特徴とする請求項 2記載の画像検索装置。 3. The image search device according to claim 2, wherein the integration region designation means designates a region that does not include zero-order light as the region.
4 . 前記積分領域指定手段は、 前記領域として、 1次光を含まない領 域を指定することを特徴とする請求項 2記載の画像検索装置。  4. The image search device according to claim 2, wherein the integration region designation means designates a region not including primary light as the region.
5 . 前記画像位置変更手段が変更する相対的位置の変更量を指定する 相対的位置変更量指定手段を更に備えていることを特徴とする請求項 1 記載の画像検索装置。  5. The image search device according to claim 1, further comprising a relative position change amount designating unit for designating a relative position change amount changed by the image position changing unit.
6 . 前記比較原画像と順次比較すべき前記少なくとも 1つの検索対象 画像の画像デ一タを、 前記複数の検索対象画像の画像データの中から選 択する検索範囲特定手段を更に備えていることを特徴とする請求項 1記 載の画像検索装置。  6. It further comprises a search range specifying means for selecting image data of the at least one search target image to be sequentially compared with the comparison original image from image data of the plurality of search target images. The image search device according to claim 1, wherein:
7 . 前記相関画像形成手段は、  7. The correlation image forming means,
前記空間光変調器から読み出した変調出力をフーリエ変換して第 1の フーリエ変換パターンを形成する第 1のフーリェ変換手段と、 該第 1のフーリエ変換パターンを書き込み、 書き込んだフ一リエ変換 パターンをコヒーレント光で読み出す別の空間光変調器と、 First Fourier transform means for performing a Fourier transform on a modulation output read from the spatial light modulator to form a first Fourier transform pattern; Another spatial light modulator that writes the first Fourier transform pattern and reads out the written Fourier transform pattern with coherent light;
該別の空間光変調器から読み出した変調出力をフーリエ変換して相関 画像を形成する第 2のフーリエ変換手段とからなることを特徴とする請 求項 1記載の画像検索装置。  2. The image retrieval apparatus according to claim 1, further comprising second Fourier transform means for Fourier-transforming a modulation output read from said another spatial light modulator to form a correlation image.
8 . 1つの比較原画像の画像データと 1つの検索対象画像の画像デー 夕とをそれぞれ光学画像に変換する画像デ一夕変換工程と、  8. An image-to-data conversion process for converting the image data of one comparison original image and the image data of one search target image into optical images, respectively.
前記比較原画像の光学画像と前記 1つの検索対象画像の光学画像とを 並置して空間光変調器に書き込み、 書き込んだ 2つの光学画像のパ夕一 ンをコヒーレント光で前記空間光変調器より読み出す変調工程と、 前記変調工程で前記空間光変調器より読み出した変調出力をフーリエ 変換して、 相関出力面上に相関画像を形成する相関画像形成工程と、 前記比較原画像の光学画像と前記 1つの検索対象画像の光学画像との 相対的位置を変更して、 変更後の該 2つの光学画像を前記空間光変調器 に書き込み、 前記空間光変調器より読みだした変調出力をフーリエ変換 して前記相関出力面上に相関画像を形成させる画像位置変更工程と、 前記画像位置変更工程で相対的位置が変更される前の該 2つの光学画 像に対して形成された相関画像と、 前記画像位置変更工程で相対的位置 が変更された後の該 2つの光学画像に対して形成された相関画像との差 分を求める差分検出工程と、  The optical image of the comparison original image and the optical image of the one search target image are juxtaposed and written into the spatial light modulator, and a pattern of the two written optical images is written by the coherent light from the spatial light modulator. A modulation step for reading, a Fourier transform of a modulation output read from the spatial light modulator in the modulation step, a correlation image forming step of forming a correlation image on a correlation output surface, and an optical image of the comparison original image and The relative position of one search target image with respect to the optical image is changed, the changed two optical images are written in the spatial light modulator, and the modulation output read from the spatial light modulator is subjected to Fourier transform. An image position changing step of forming a correlation image on the correlation output surface using the two optical images before a relative position is changed in the image position changing step. A difference detecting step of obtaining a difference between the two optical images after the relative position is changed in the image position changing step and a correlation image formed,
前記差分検出工程の検出結果を前記相関出力面上のある領域内で積分 して前記比較原画像に対する前記 1つの検索対象画像の相関値を検出す る相関値検出工程と、  A correlation value detection step of integrating a detection result of the difference detection step within a certain area on the correlation output surface and detecting a correlation value of the one search target image with respect to the comparison original image;
前記相関値と所定の閾値とを比較して、 比較結果に基づき、 前記 1つ の検索対象画像が前記比較原画像に類似する類似画像であるか否かを判 定する比較工程と、 前記比較工程にて前記 1つの検索対象画像が類似画像であると判定さ れた際、 前記 1つの検索対象画像を類似画像として出力する工程と、 少なくとも 1つの検索対象画像の画像データを順次切り替えながら前 記画像データ変換工程を繰り返し実行することで、 該少なくとも 1つの 検索対象画像と前記比較原画像とを順次比較して前記比較原画像に類似 すると判定された検索対象画像を類似画像として出力させる類似画像抽 出制御工程とを備えていることを特徴とする画像検索方法。 A comparing step of comparing the correlation value with a predetermined threshold value, and determining whether the one search target image is a similar image similar to the comparison original image based on the comparison result; Outputting the one search target image as a similar image when the one search target image is determined to be a similar image in the comparing step; and sequentially switching image data of at least one search target image. By repeatedly executing the image data conversion step, the at least one search target image is sequentially compared with the comparison original image, and the search target image determined to be similar to the comparison original image is output as a similar image. A similar image extraction control step of causing the image to be retrieved.
PCT/JP2001/001498 2000-02-29 2001-02-28 Apparatus for retrieving image and method for retrieving image WO2001065488A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2001235992A AU2001235992A1 (en) 2000-02-29 2001-02-28 Apparatus for retrieving image and method for retrieving image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000054478A JP2001243474A (en) 2000-02-29 2000-02-29 Device and method for image retrieval
JP2000-54478 2000-02-29

Publications (1)

Publication Number Publication Date
WO2001065488A1 true WO2001065488A1 (en) 2001-09-07

Family

ID=18575726

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/001498 WO2001065488A1 (en) 2000-02-29 2001-02-28 Apparatus for retrieving image and method for retrieving image

Country Status (3)

Country Link
JP (1) JP2001243474A (en)
AU (1) AU2001235992A1 (en)
WO (1) WO2001065488A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007229312A (en) * 2006-03-02 2007-09-13 Canon Inc Surgical operation plan system, surgical operation plan apparatus, its control method, computer program, and computer readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0272336A (en) * 1988-09-07 1990-03-12 Seiko Instr Inc Optical correlation processor
JPH06176134A (en) * 1992-12-04 1994-06-24 Hamamatsu Photonics Kk Fingerprint recognition device
JPH06259562A (en) * 1993-03-05 1994-09-16 Hamamatsu Photonics Kk Pattern recognizing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0272336A (en) * 1988-09-07 1990-03-12 Seiko Instr Inc Optical correlation processor
JPH06176134A (en) * 1992-12-04 1994-06-24 Hamamatsu Photonics Kk Fingerprint recognition device
JPH06259562A (en) * 1993-03-05 1994-09-16 Hamamatsu Photonics Kk Pattern recognizing device

Also Published As

Publication number Publication date
AU2001235992A1 (en) 2001-09-12
JP2001243474A (en) 2001-09-07

Similar Documents

Publication Publication Date Title
CA2819166C (en) Systems and methods for processing images with edge detection and snap-to feature
Kandel et al. Label-free tissue scanner for colorectal cancer screening
RU2521725C2 (en) System and method for three-dimensional measurement of shape of material objects
US11734876B2 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
CN109377551B (en) Three-dimensional face reconstruction method and device and storage medium thereof
JP2003514234A (en) Image measuring method and apparatus
JP4005795B2 (en) Vibration measuring device and storage medium
JP2009525510A (en) Method and system for fiber tracking
CN103222847B (en) The control method of Ophthalmologic apparatus and Ophthalmologic apparatus
JP2004333473A (en) Method and system for multi-vision x-ray stereoscopic imaging
TW200903385A (en) Detection method for displacements with sub-pixel accuracy and apparatus using the same
CN109934774A (en) A kind of image split-joint method based on picture position context
CN110398215A (en) Image processing apparatus and method, system, article manufacturing method, storage medium
Yamaguti et al. A method of distance measurement by using monocular camera
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
WO2019180810A1 (en) Cell observation device
JP2009525058A (en) Method and system for diffusion tensor imaging
WO2001065488A1 (en) Apparatus for retrieving image and method for retrieving image
Bathow et al. Verification and acceptance tests for high definition 3D surface scanners
JPH09145318A (en) Three-dimensional measuring equipment
JP2012027617A (en) Pattern identification device, pattern identification method and program
JP2002318344A (en) Method and device for autofocusing for optical equipment
Wang et al. Rotating Vibration Measurement Using 3D Digital Image Correlation
KR20220005054A (en) Image registration method and system
JP5403400B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

122 Ep: pct application non-entry in european phase