WO2013108554A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2013108554A1
WO2013108554A1 PCT/JP2012/083562 JP2012083562W WO2013108554A1 WO 2013108554 A1 WO2013108554 A1 WO 2013108554A1 JP 2012083562 W JP2012083562 W JP 2012083562W WO 2013108554 A1 WO2013108554 A1 WO 2013108554A1
Authority
WO
WIPO (PCT)
Prior art keywords
window
image
frequency
size
image processing
Prior art date
Application number
PCT/JP2012/083562
Other languages
English (en)
French (fr)
Inventor
墨友 博則
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2013554220A priority Critical patent/JP6052186B2/ja
Priority to US14/372,422 priority patent/US9495611B2/en
Priority to CN201280067334.XA priority patent/CN104054109A/zh
Priority to EP12866284.8A priority patent/EP2806397A4/en
Publication of WO2013108554A1 publication Critical patent/WO2013108554A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program for searching for corresponding points between images.
  • phase-only correlation method Phase-Only Correlation
  • POC method searches for corresponding points between images using phase difference information of spatial frequencies included in the images.
  • the following are known as prior arts related to such corresponding point search.
  • Japanese Patent Laid-Open No. 10-134196 uses a car or a person as an object (target), compares image data based on spatial frequency characteristics, and measures the distance from the comparison result to the target.
  • a distance measuring device More specifically, in Japanese Patent Application Laid-Open No. 10-134196 (Patent Document 1), registered image data is obtained by performing two-dimensional discrete Fourier transform (DFT) using image data captured by a first camera as registered image data. Data is acquired, and image data captured by the second camera is used as collation image data, and DFT is performed to obtain collation Fourier image data.
  • DFT discrete Fourier transform
  • the registered Fourier image data and the matching Fourier image data are synthesized, subjected to amplitude suppression processing, and then subjected to DFT.
  • the distance to the target is measured based on the distance from the center of the correlation component area to the correlation peak.
  • phase-only correlation method has an advantage that it is excellent in robustness and high accuracy as compared with a method using information on the sum of absolute differences (SAD: Absolute Difference).
  • SAD Absolute Difference
  • Patent Document 1 Japanese Patent Application Laid-Open No. 10-134196
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing that can reduce the calculation time of the entire process related to the process of searching for corresponding points between images Is to provide a program.
  • an image processing device that searches for corresponding points between a first image and a second image.
  • the image processing device extracts phase information by performing window decomposition on the first image and the second image, respectively, and performing frequency decomposition on the images included in the set windows.
  • the phase information extraction means, the corresponding point determination means for determining the corresponding points between the first image and the second image by comparing the phase information extracted from the respective windows, and the window setting means have frequency resolution.
  • Window size control means for setting windows of different sizes according to the frequency used for the calculation of.
  • the window size control means causes the window setting means to set a window of a first size corresponding to the first frequency, and corresponds to a second frequency higher than the first frequency, from the first size. Is set to a second window having a smaller second size.
  • the embodiment of the present invention is directed to a corresponding point search method for searching corresponding points between at least a first image and a second image. That is, the plurality of images to be searched for corresponding points mean images that can include images of the same subject (at least a part thereof) in common, and may be three or more images. Such a plurality of images are typically obtained by imaging the same subject from different viewpoints using a plurality of imaging devices (cameras). More specifically, each image is obtained by imaging the same subject with a plurality of cameras (typically, stereo cameras) arranged apart by a predetermined distance.
  • the first image is referred to as a “reference image” and the second image is referred to as a “reference image”.
  • the first image is referred to as a “reference image”
  • the second image is referred to as a “reference image”.
  • searching for corresponding points between three or more images any one of the images is set as a “reference image”, and an imaging device (camera) that captures the image is used for imaging the “reference image”.
  • an imaging device (camera) that captures the images is set as a camera for imaging “reference images”.
  • the corresponding point search method according to the present embodiment is typically directed to a process of searching for corresponding points between images captured in stereo to generate a stereoscopic image, but is not limited thereto. It can also be applied to panorama image generation processing.
  • the correspondence obtained by the corresponding point search method according to the present embodiment is hereinafter referred to as “corresponding point search result”.
  • the corresponding point search result typically includes each pixel position (coordinate position of each target point) on the reference image and a pixel position on the reference image corresponding to each pixel position.
  • 1 and 2 are diagrams for describing the outline of the corresponding point search method according to the embodiment of the present invention.
  • the corresponding point search method searches for corresponding points between images using a difference in phase information between the base image and the reference image (hereinafter also referred to as “phase difference information”).
  • phase difference information a difference in phase information between the base image and the reference image
  • the phase information and the phase difference information are calculated for each frequency (spatial frequency) for each window set in the standard image and the reference image. That is, phase information over a predetermined frequency range is calculated.
  • the wave number included therein changes depending on the size of the spatial frequency. That is, as shown in FIG. 1, when the spatial frequency is low, if a window having a larger size is not set, information for one period cannot be acquired, whereas, when the spatial frequency is high. Can acquire information for a sufficient period even in a window having a smaller size.
  • a window is set for each of the standard image and the reference image, and phase information is extracted by performing frequency decomposition on the images included in each set window, The corresponding points between the base image and the reference image are determined by comparing the phase information extracted from the windows. At this time, a window having a size corresponding to the frequency used for calculation of the corresponding frequency resolution is set.
  • phase difference information is calculated between the set pair of windows. That is, the phase difference information 1, 2,..., N of the frequencies f1, f2,.
  • the phase difference information 1, 2,..., N is totaled to obtain frequency-phase difference information, and is also referred to as a phase-only correlation method (hereinafter referred to as “POC method”).
  • POC method phase-only correlation method
  • the size of the window that is set when the spatial frequency is high is lower than that when the spatial frequency is low. It is set to be the same as or smaller than the case size.
  • the first size window is set corresponding to the first frequency
  • the second size is equal to or smaller than the first size corresponding to the second frequency higher than the first frequency. Window is set.
  • the size can be set to be different if the spatial frequency is different, but the same size window is associated with a plurality of spatial frequencies. May be.
  • FIG. 3 is a block diagram showing a configuration when corresponding point search processing according to the embodiment of the present invention is realized by a personal computer.
  • an image processing apparatus 100 realized by a personal computer is mainly mounted on a computer having a general-purpose architecture.
  • the image processing apparatus 100 includes, as main components, a CPU (Central Processing Unit) 102, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 106, and a network interface (I / F). ) 108, auxiliary storage device 110, display unit 120, input unit 122, and memory card interface (I / F) 124.
  • Each component is communicably connected to each other via a bus 130.
  • the CPU 102 controls the entire image processing apparatus 100 by executing various programs such as an operating system (OS: Operating System) and an image processing program stored in the ROM 106, the auxiliary storage device 110, and the like.
  • the RAM 104 functions as a working memory for executing a program by the CPU 102, and temporarily stores various data necessary for executing the program.
  • the ROM 106 stores an initial program (boot program) that is executed when the image processing apparatus 100 is started.
  • the network interface 108 exchanges data with other devices (such as server devices) via various communication media. More specifically, the network interface 108 is connected via a wired line such as Ethernet (registered trademark) (LAN (Local Area Network), WAN (Wide Area Network), etc.) and / or a wireless line such as a wireless LAN. Perform data communication.
  • a wired line such as Ethernet (registered trademark) (LAN (Local Area Network), WAN (Wide Area Network), etc.) and / or a wireless line such as a wireless LAN. Perform data communication.
  • the auxiliary storage device 110 typically includes a large-capacity magnetic storage medium such as a hard disk, and the like, and an image processing program (corresponding point search processing program 112) and processing target for realizing various processes according to the present embodiment.
  • the processing target image 114 and the like are stored.
  • the auxiliary storage device 110 may store a program such as an operating system.
  • the processing target image 114 includes at least two images to be processed.
  • the main body of the image processing apparatus 100 may not have a function of capturing an image of a subject.
  • at least two images may be acquired using a mechanism similar to a digital camera as will be described later, and these images may be input to the image processing apparatus 100 by an arbitrary method. More specifically, an image is input to the image processing apparatus 100 via the network interface 108 and the memory card interface 124 described above.
  • the display unit 120 displays a GUI (Graphical User Interface) screen provided by the operating system, an image generated by executing the corresponding point search processing program 112, and the like.
  • the display unit 120 stereoscopically displays the subject using a stereoscopic image generated from the corresponding point search result obtained by executing the corresponding point search processing program 112.
  • the display unit 120 is configured by an arbitrary display device that supports a three-dimensional display method. As such a three-dimensional display method, a parallax barrier method or the like can be employed.
  • the right eye image can be visually recognized by the user's right eye
  • the left eye image can be visually recognized by the user's left eye.
  • a shutter glasses method may be adopted.
  • the left eye image and the right eye image are alternately switched at high speed and displayed, and the user wears special glasses equipped with a shutter that opens and closes in synchronization with the switching of the image. , You can enjoy stereoscopic display.
  • the input unit 122 typically includes a keyboard, a mouse, a touch panel, and the like, and outputs the content of the instruction received from the user to the CPU 102 or the like.
  • the memory card interface 124 reads / writes data from / to various memory cards (nonvolatile storage media) 126 such as an SD (Secure Digital) card and a CF (Compact Flash (registered trademark)) card.
  • memory cards nonvolatile storage media
  • the memory card interface 124 is loaded with a memory card 126 storing a processing target image acquired by any device, and the processing target image read from the memory card 126 is stored in the auxiliary storage device 110 ( Copied).
  • the corresponding point search processing program 112 stored in the auxiliary storage device 110 is stored in a storage medium such as a CD-ROM (Compact Disk-Read Only Memory) or distributed, or distributed from a server device or the like via a network.
  • the corresponding point search processing program 112 implements processing by calling necessary modules among program modules provided as part of an operating system executed by the image processing apparatus 100 (personal computer) at a predetermined timing and order. You may do it.
  • the corresponding point search processing program 112 itself does not include a module provided by the operating system, and image processing is realized in cooperation with the operating system.
  • the corresponding point search processing program 112 may be provided by being incorporated in a part of some program instead of a single program.
  • the corresponding point search processing program 112 itself does not include a module that is commonly used in any program, and image processing is realized in cooperation with the program. Even such a corresponding point search processing program 112 that does not include some modules does not depart from the spirit of the image processing apparatus 100 according to the present embodiment.
  • some or all of the functions provided by the corresponding point search processing program 112 may be realized by dedicated hardware.
  • FIG. 4 is a block diagram showing a configuration when corresponding point search processing according to the embodiment of the present invention is realized by a configuration similar to a digital camera.
  • the image processing apparatus 200 acquires at least two processing target images by actually capturing a subject, and executes corresponding point search processing on the acquired processing target images.
  • the image processing apparatus 200 includes an image processing engine 202, an input unit 204, a display unit 206, a pair of lenses 212 and 222, and a pair of CCD (Charge Coupled Device) image sensors 214 and 224 as main components. .
  • CCD Charge Coupled Device
  • the image processing engine 202 executes various digital processes including corresponding point search processing according to the present embodiment.
  • the image processing engine 202 includes DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), LSI (Large Scale Integration), FPGA (Field-Program), and the like.
  • the input unit 204 typically includes various key buttons, a touch panel, and the like, and outputs the contents of instructions received from the user to the image processing engine 202.
  • the display unit 206 displays a user interface screen relating to imaging of a subject.
  • the display unit 206 stereoscopically displays the subject using a stereoscopic image generated from a corresponding point search result obtained by the image processing engine 202 or the like.
  • the display unit 206 is configured by an arbitrary display device corresponding to the three-dimensional display method, like the above-described display unit 120 (FIG. 3).
  • the pair of lenses 212 and 222 are provided at different positions of the main body of the image processing apparatus 200, and can image the subject from different viewpoints. That is, different reflected lights from the subject are incident on the pair of lenses 212 and 222, respectively.
  • the pair of CCDs 214 and 224 are associated with the pair of lenses 212 and 222, respectively, receive light (image) from the subject condensed by the lenses 212 and 222, and receive an electrical signal indicating the image as an image. Output to the processing engine 202.
  • ⁇ b3: Realization Example with Other Configuration
  • the personal computer described above and the example realized by a configuration similar to a digital camera, it may be mounted on a mobile phone. Further, it may be in the form of a so-called cloud service in which at least one server device realizes processing according to the present embodiment.
  • the user transmits at least two processing target images to the server device (cloud side) by using his / her terminal (such as a personal computer or a smartphone), and the server device with respect to the transmitted processing target images.
  • his / her terminal such as a personal computer or a smartphone
  • the server device with respect to the transmitted processing target images.
  • a configuration in which the side performs image processing according to the present embodiment is assumed.
  • the server device side it is not necessary for the server device side to perform all functions (processing), and the user side terminal and the server device may cooperate to realize the image processing according to the present embodiment.
  • FIG. 5 is a block diagram showing a functional configuration of the image processing apparatus according to the embodiment of the present invention.
  • 6 is a block diagram showing a more detailed functional configuration of the corresponding point search unit shown in FIG.
  • the image processing device includes an image acquisition unit 13, a corresponding point search unit 14, and a frequency calculation control unit 15 as the main functional configuration.
  • These functional configurations are realized by the CPU 102 executing the corresponding point search processing program in the image processing apparatus 100 shown in FIG. 3, and realized by the image processing engine 202 in the image processing apparatus 200 shown in FIG.
  • Image acquisition unit 13 acquires input images (stereo images) generated when the cameras 11 and 12 (camera A and camera B) respectively capture a subject. As described above, when a pair of images is acquired, one image is referred to as a standard image and the other image is referred to as a reference image.
  • the image acquisition unit 13 is realized as various interfaces for acquiring at least two images. That is, the input image may be received directly from the cameras 11 and 12, or the input image may be received via various recording media or networks.
  • the plurality of input images acquired by the image acquisition unit 13 are output to the corresponding point search unit 14.
  • Corresponding point search unit 14 performs a corresponding point search process on the input two or more input images, and outputs a corresponding point search result. That is, the corresponding point search unit 14 searches the reference image for a corresponding point for each target point (target pixel) set on the base image.
  • the corresponding point search unit 14 extracts phase information (amplitude) extracted by performing frequency decomposition on the pattern of the window (search window) set in each of the input images (standard image and reference image). The correspondence between the images is calculated based on the similarity of the signal component with the component suppressed.
  • phase-only correlation method POC method
  • the present invention is not limited to the case where the POC method is used, and can be applied to any method as long as the method uses at least phase information.
  • Document 1 (Ushimura, Satoshi, Ito, Izumi, Takashi Hitoshi, “Subpixel Accuracy Image Matching Using DCT Code Correlation”, The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report. IE, Image Engineering 107 (489) ), 77-82, 2008-02-12), etc. are also applicable.
  • FIG. 6 shows an implementation example of the corresponding point search unit 14 when the corresponding point search process is performed using the phase only correlation method. More specifically, the corresponding point search unit 14 includes a reference window setting unit 141, a reference window setting unit 142, Fourier transform units 143 and 144, phase extraction units 145 and 146, a phase difference calculation unit 147, An inverse Fourier transform unit 148 and a maximum value selection unit 149 are included.
  • the standard window setting unit 141 and the reference window setting unit 142 set windows for the standard image and the reference image, respectively. As will be described later, the reference window setting unit 141 and the reference window setting unit 142 determine the size of the window to be set based on the size information from the frequency calculation control unit 15.
  • a reference window is set on the reference image so that the reference window setting unit 141 includes the point K.
  • the relative position of the point K in the reference window can be arbitrarily determined, but here, the reference window is set so that the point K becomes the center of gravity.
  • a window is set on the reference image in the same manner, but since the corresponding point is not known on the reference image side, the reference window setting unit 142 refers to the predetermined candidate point S ′ so that its center of gravity is located. Set the window.
  • the candidate point S ′ for example, in the case of an application in which the parallax between stereo images is not large, the same coordinates as the point K may be used. Further, when the parallax range between stereo images is wide, it is possible to use the same coordinate value as that of the point K for the first candidate point by using a coarse / dense strategy using multi-resolution described later.
  • the Fourier transform unit 143 transforms image information into frequency space information by performing Fourier transform on the reference window set on the reference image. Similarly, the Fourier transform unit 143 transforms image information into frequency space information by performing Fourier transform on the reference window set on the reference image.
  • the converted frequency space information includes amplitude information and phase information for each frequency. That is, Fourier transform sections 143 and 144 perform frequency decomposition on the partial images included in the respective windows.
  • the calculation result of the Fourier transform is output in a complex number format including a real part and an imaginary part.
  • Fourier transformation is performed according to the equation (1).
  • the frequency information is output in a complex number format including a real part Re (u, v) and an imaginary part Im (u, v). Moreover, it can convert into amplitude information A (u, v) and phase information (theta) (u, v) using the value of a real part and an imaginary part.
  • the result of the Fourier transform may be stored in a format combining the amplitude and phase, or may be stored in a format combining the real part and the imaginary part.
  • the phase extraction units 145 and 146 extract phase information about the reference window and the reference window using the results of Fourier transforms (typically complex numbers) output from the Fourier transform units 143 and 144, respectively.
  • the phase difference calculation unit 147 calculates a difference in phase information for each window extracted by the phase extraction units 145 and 146. That is, the phase difference calculation unit 147 generates phase difference information.
  • the inverse Fourier transform unit 148 performs inverse Fourier transform on the phase difference information calculated by the phase difference calculation unit 147, thereby obtaining a POC value indicating the similarity between the partial images included in each set window. calculate.
  • the process of calculating the POC value is repeatedly executed every time the reference window setting unit 142 updates the position of the reference window set on the reference image.
  • the detailed procedure for calculating the POC value can be found in Reference 2 (“A Sub-Pixel Correspondence Search Technique for Computer Vision Applications”, IEICE Transactions. 19 Fundamentals. , Aug. 2004).
  • FIG. 7 is a diagram showing an example of the POC value calculated by the corresponding point search unit 14 according to the embodiment of the present invention. As shown in FIG. 7, a plurality of POC values associated with the set position of the reference window are calculated.
  • the maximum value selection unit 149 selects the POC having the maximum value from the map of POC values associated with the reference window setting position (candidate point S ′) as shown in FIG. Determine the point.
  • Frequency calculation control unit 15 In the present embodiment, in the frequency calculation such as Fourier transform, the amount of information used for calculation is changed for each frequency component. In this embodiment, a one-dimensional Fourier transform is used, but a two-dimensional Fourier transform may be used.
  • the one-dimensional Fourier transform can be expressed as equation (3).
  • N ⁇ 1 window size is used.
  • the window size used for frequency calculation is reduced, and Fourier transform is performed only on the frequency to be calculated.
  • frequency components may be calculated by a single Fourier transform. That is, the frequency calculation control unit 15 changes the size of the window for each frequency used for frequency decomposition calculation.
  • the window size setting method described above is a method of setting the window size at equal intervals, but the window size setting method may be changed between the low frequency side and the high frequency side.
  • the window size is determined by NP1 ⁇ [F / P1], and for a frequency F of Q ⁇ F, N
  • the window size may be determined by ⁇ P2 ⁇ [F / P2] (P1 ⁇ P2).
  • FIG. 8 is a flowchart showing the overall procedure of the corresponding point search method according to the embodiment of the present invention. Each step shown in FIG. 8 is typically realized by the CPU 102 (FIG. 3) executing the corresponding point search processing program 112.
  • CPU 102 obtains a stereo image (standard image and reference image) (step S2). Subsequently, the CPU 102 sets a pixel (target pixel) to be processed on the standard image (step S4), and sets a pixel on the reference image corresponding to the pixel to be processed set on the standard image. An initial position for searching is set (step S6). Then, a search process as shown below is executed.
  • the CPU 102 determines a window size corresponding to the frequency used for the frequency decomposition calculation (step S8). Then, the CPU 102 sets a reference window having the determined window size so that the pixel to be processed on the reference image has the center of gravity position, and the search candidate pixel on the reference image has the center of gravity position. In step S10, a reference window having the determined window size is set.
  • the CPU 102 performs Fourier transform on the partial images included in the standard window on the standard image and the reference window on the reference image set in step S10 (step S12).
  • the frequency information calculated by the Fourier transform is stored in association with the frequency to be processed.
  • the CPU 102 determines whether or not the Fourier transform has been completed for all frequencies used for frequency resolution calculation (step S14).
  • step S14 If the Fourier transform has not been completed for all the frequencies used for the frequency resolution calculation (NO in step S14), the CPU 102 selects the next frequency to be used for the frequency resolution calculation, and after step S8. Repeat the process.
  • the CPU 102 calculates the respective frequencies calculated from the reference window and the reference window. Only the phase information is extracted from the information (step S16), and the phase difference between the two is calculated (step S18). That is, in Step S16, since the Fourier transform has been completed for all necessary frequencies, the amplitude and phase for each frequency are calculated. The CPU 102 uses this information to calculate frequency-phase difference information. Further, the CPU 102 calculates a POC value by performing inverse Fourier transform on the calculated phase difference information (step S20). The POC value is stored in association with the position of the search candidate pixel set in the reference image.
  • the CPU 102 determines whether or not POC values have been calculated for all search candidates that can be set in the reference image (step S22).
  • the CPU 102 determines the position of the pixel that is the search candidate on the reference image. The setting is made (step S24), and the processing after step S8 is repeatedly executed.
  • the CPU 102 determines the position corresponding to the peak from the distribution of the POC values (step S26). That is, the CPU 102 extracts a position indicating the highest POC value from among the search candidates included in the reference image, and the extracted position is a corresponding point of a pixel (target pixel) set on the standard image. decide.
  • the CPU 102 determines whether or not the processing has been completed for all the pixels to be searched for corresponding points on the reference image (step S28). If there is a pixel that has not been processed among the pixels to be searched for corresponding points on the reference image (NO in step S28), the CPU 102 selects another pixel to be processed on the reference image (in the case of NO). The pixel of interest is set (step S30), and the processes in and after step S6 are repeatedly executed.
  • step S28 If the processing has been completed for all the pixels for which corresponding points are to be searched on the reference image (YES in step S28), the processing ends.
  • the size of the window to be set needs to satisfy the power-of-two condition. That is, from the viewpoint of calculation speed, the window size is preferably a power of 2.
  • the size of the window is changed along the power of 2 in accordance with the frequency used for calculation of frequency resolution.
  • the horizontal frequency is represented by a DC component and an AC component having a frequency of 1 to 15
  • the vertical frequency is a DC component and a frequency of 1 to 7. Expressed as an AC component.
  • the amount of calculation of normal Fourier transform is N2
  • the amount of calculation becomes N ⁇ log2N when fast Fourier transform (FFT) is used.
  • FFT fast Fourier transform
  • the window size is 32 ⁇ 32
  • the calculation amount is 1024 in the normal Fourier transform
  • the calculation amount is 160 in the fast Fourier transform (FFT)
  • an increase in speed of 80% or more can be realized.
  • the amount of calculation can be reduced by setting the information to be calculated (window size) to a power-of-two size.
  • the following is an example of setting the window size to obtain the effect of reducing the amount of calculation.
  • the Fourier transform is performed on the premise of continuity at both ends of the image included in the window, but in reality, continuity is not maintained. For this reason, it is common to employ a signal process that ensures the continuity of an image by applying a window function as preprocessing before performing Fourier transform.
  • a window function various types such as a Hamming window, a Kaiser window, and a Hanning window are defined, and an arbitrary window function can be adopted.
  • a one-dimensional Hanning window can be defined as in equation (5).
  • the window used for calculating the phase information of high spatial frequency is set to a narrower range than the size of the window used for calculating the phase information of low spatial frequency.
  • the continuity at both ends of a narrower range is not ensured, the accuracy may deteriorate.
  • the accuracy of frequency calculation can be stabilized by applying a window function according to the window size set separately for each spatial frequency.
  • the corresponding point search unit 14 performs a convolution operation using a window function on an image included in the window.
  • the window function is set according to the size of the target window.
  • the convolution operation of the window function performed before the frequency operation is performed according to the set window size.
  • the amount of calculation increases by performing the convolution operation of the window function according to the size of the window, but the amount of calculation can be reduced while maintaining accuracy by appropriately setting the size.
  • a window function to information (window size 4) used to calculate frequency information for frequencies 5 to 8.
  • the one-dimensional Fourier transform has been described. However, it can be extended to a two-dimensional Fourier transform.
  • a two-dimensional Hanning window can be defined as in equation (6).
  • the calculation time is shortened by limiting the window size used for calculation for each frequency.
  • the searchable range may be narrowed. For example, limiting the window size used for calculation at all frequencies is the same as reducing the window, and the searchable range of corresponding points may be limited.
  • the restriction of the searchable range does not occur in the standard window set on the standard image, but only in the reference window set on the reference image.
  • the reference window is set so that the target point to be obtained is the center of gravity position. Therefore, the point to be obtained is always included even if the window size used in the calculation is reduced.
  • the point to be obtained is not necessarily the center of gravity position of the reference window. Therefore, if the window size used for calculation is reduced, the point to be obtained is not included (or That is, it is barely included near the edge of the window size), resulting in a narrower search range.
  • the frequency resolution is performed using the window size as it is at the low frequency (that is, using all the information), while the high frequency is used. Only the window size used for calculation is limited, but the search range that can be covered by the high frequency is substantially narrowed, and therefore, if a wide search range is required, the accuracy may be affected.
  • the frequency calculation control unit 15 changes the window size finely on the low frequency side and coarsely changes the window size on the high frequency side when dividing the frequency used for frequency resolution calculation into the low frequency side and the high frequency side.
  • the coarse / fine strategy (multi-resolution strategy) using multi-resolution transforms an input image (base image and reference image) into an image group having a plurality of resolutions, and uses the corresponding point search results for images with different resolutions.
  • Corresponding points between the input images (base image and reference image) are determined. More specifically, first, corresponding points are searched between images with low resolution. Since the resolution is low, the calculation time of the corresponding point search process can be shortened, but the accuracy of the searched position is relatively low (the accuracy of the corresponding resolution is limited). Subsequently, corresponding points are searched between images with higher resolution. At this time, the search is performed within a limited range using the result of the corresponding point search process executed previously. Therefore, even if the resolution is high, the calculation time can be shortened. Thereafter, by performing the same processing, the corresponding points searched in the image with the highest resolution are output as the corresponding point search results.
  • FIG. 9 is a block diagram showing a functional configuration of the image processing apparatus according to the second modification of the embodiment of the present invention.
  • the image processing apparatus according to the present modification has a multi-resolution image generation unit 16, a corresponding point search control unit 17, an initial position setting unit 18, and the image processing apparatus according to the present embodiment shown in FIG. Is further added. Since other components have been described above, detailed description will not be repeated.
  • FIG. 10 is a schematic diagram showing image groups with different resolutions generated in the second modification of the embodiment of the present invention.
  • FIG. 11 is a diagram illustrating an example of an image group with different resolutions generated in the second modification of the embodiment of the present invention.
  • the multi-resolution image generation unit 16 generates a plurality of images having different resolutions as shown in FIGS. 10 and 11 from the input stereo images (standard image and reference image), respectively.
  • the multi-resolution image generation unit 16 When the resolution of the input image is VGA (640 ⁇ 480), the conversion magnification is 1 ⁇ 2, and the number of layers is 4, the multi-resolution image generation unit 16 performs, for example, “VGA” for each of the standard image and the reference image. (640 ⁇ 480) ”,“ QVGA (320 ⁇ 240) ”,“ 160 ⁇ 120 ”, and“ 80 ⁇ 60 ”image groups are generated.
  • the input layer VGA is also referred to as layer 0, the QVGA as layer 1, 160 ⁇ 120 as layer 2, and 80 ⁇ 60 as layer 3.
  • the pixel value of coordinates (x, y) in layer 3 is 2 ⁇ consisting of coordinates (2x, 2y), coordinates (2x + 1, 2y), coordinates (2x, 2y + 1), and coordinates (2x + 1, 2y + 1) in layer 2. Calculated as the average value of the two pixels.
  • the conversion magnification is not limited to 1/2, and a smaller value such as 1/3 may be adopted. In this case, since the number of necessary layers can be reduced, it can be used when higher speed processing is required. Alternatively, a larger value such as 1 / 1.5 may be adopted as the conversion magnification. By doing this, the number of necessary layers increases and the calculation load becomes relatively high. However, since the search is performed more finely, robustness can be improved.
  • the conversion magnifications it is not necessary to make the conversion magnifications the same between layers. For example, a smaller conversion magnification may be adopted near the input image, and the conversion magnification may be increased as the resolution is lowered.
  • the conversion magnification By changing the conversion magnification like this, it is possible to secure more robustness by searching more finely at low resolution where distance mixing is intense, while on the other hand, by placing importance on speedup rather than robustness at high resolution, Corresponding point search processing with total balance becomes possible.
  • Corresponding point search control unit 17 executes a corresponding point search process between the input images (the base image and the reference image) according to the procedure described below.
  • the resolution of the input image is VGA (640 ⁇ 480)
  • the conversion magnification is 1 ⁇ 2
  • the number of layers is four will be described.
  • FIG. 12 is a diagram for explaining the internal processing of the coarse / dense strategy using the multi-resolution according to the second modification of the embodiment of the present invention.
  • the pixel of coordinates (p3, q3) on the reference image corresponding to the pixel of coordinates (x3, y3) on the standard image is calculated by the corresponding point search.
  • the result of the corresponding point search in layer 3 is used. Specifically, since there is a correct position near the coordinates (p, q) on the reference image obtained in layer 3, in layer 2, the coordinates (p, q) on the reference image in layer 3 are approximately It is considered to be in the vicinity of the doubled coordinates.
  • Such a search method is generally referred to as a multi-resolution strategy or a coarse / fine strategy.
  • Initial position setting unit 18 sets an initial position at the time of layer change in the above-described multi-resolution strategy (dense / dense strategy).
  • FIG. 13 is a diagram for describing processing for setting an initial position in a coarse / dense strategy using multi-resolution according to the second modification of the embodiment of the present invention. More specifically, FIG. 13 is a diagram in which layers 2 and 3 of the standard image and the reference image are extracted.
  • the pixel of coordinates (bx, by) on the reference image in layer 3 is represented by coordinates (BX, BY), coordinates (BX + 1, BY), coordinates (BX, BY + 1), coordinates ( BX + 1, BY + 1) is calculated as a 2 ⁇ 2 average value.
  • a pixel at coordinates (bx, by) on the reference image is associated with a pixel at coordinates (rx, ry) on the reference image.
  • the initial position setting unit 18 sets the initial position for the corresponding point search in the layer 2 on the reference image side from the result of the corresponding point search in the layer 3. This setting method is performed as follows.
  • the image processing apparatus can be applied to stereo measurement, for example. More specifically, the object is imaged with a stereo camera, and the distance of the object is measured from the result of association between images obtained by the imaging.
  • FIG. 14 is a diagram for describing an application example 1 of the image processing device according to the embodiment of the present invention.
  • FIG. 15 is a diagram for explaining the principle of the stereo measurement shown in FIG.
  • an object is imaged simultaneously by two cameras (stereo cameras).
  • the image processing apparatus performs corresponding point search processing on two input images (a base image and a reference image) obtained by imaging, and associates the images. Furthermore, the image processing apparatus acquires distance information to the object from the association result based on the principle of triangulation.
  • x and y are the coordinates of the pixel of interest on the reference image.
  • FIG. 16 is a diagram for describing an application example 2 of the image processing device according to the embodiment of the present invention.
  • one camera captures images in time series, and the image processing apparatus executes corresponding point search processing between two images that are temporally different.
  • Information on the temporal movement of the object is calculated using the result of this association and displayed. For example, as shown in FIG. 16, it is visually expressed in which direction and at what speed the subject is moving.
  • the calculation time can be shortened by limiting the window size used for calculation for each frequency. That is, for higher frequencies, the overall processing amount can be reduced by reducing the information used for frequency decomposition.
  • the frequency resolution used for the corresponding point search process has a high calculation load, and therefore the calculation load can be reduced more efficiently by adopting the method according to the present embodiment.
  • Embodiments of the present invention include the following aspects.
  • the corresponding point search method includes an image acquisition step of acquiring two or more images that are roughly equivalent, and a step of setting a window for each of the two or more images acquired in the image acquisition step; A step in the first image of the two or more images acquired in the image acquisition step by calculating the difference between the extracted phase information and the step of extracting the phase information by performing frequency decomposition on each set window And a step of calculating each frequency by setting a predetermined window size used for calculation for each frequency when performing frequency decomposition.
  • the window size used at a high frequency is set to be the same or smaller than at least a low frequency.
  • the window size used for calculation for each frequency is reduced to a power of 2.
  • the convolution operation of the window function performed before the frequency operation is performed according to the set window size.
  • the method further includes a step of converting the acquired stereo image into a plurality of resolutions, and a step of executing corresponding point search by the phase-only correlation method at each resolution based on the coarse / dense strategy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 第1画像と第2画像との間で対応点を探索する画像処理装置が提供される。画像処理装置は、第1画像および第2画像に対して、それぞれウィンドウを設定するウィンドウ設定手段と、設定されたそれぞれのウィンドウに含まれる画像に対して周波数分解を行なうことで位相情報を抽出する位相情報抽出手段と、それぞれのウィンドウから抽出された位相情報を比較することで、第1画像と第2画像との間の対応点を決定する対応点決定手段と、ウィンドウ設定手段に、周波数分解の計算に使用する周波数に応じて異なるサイズのウィンドウを設定させるウィンドウサイズ制御手段とを含む。ウィンドウサイズ制御手段は、ウィンドウ設定手段に、第1の周波数に対応して第1のサイズのウィンドウを設定させるとともに、第1の周波数より高い第2の周波数に対応して、第1のサイズよりも小さい第2のサイズのウィンドウを設定させる。

Description

画像処理装置、画像処理方法および画像処理プログラム
 本発明は、画像間の対応点を探索する画像処理装置、画像処理方法および画像処理プログラムに関する。
 従来から、例えば、同一の被写体を複数の撮像装置を用いて撮像することで得られる複数の画像に対して、当該被写体のある部分がそれぞれの画像上でいずれの位置に存在するのかといった、画像間の対応点を探索する技術が各種提案されている。このような対応点探索に係る技術は、典型的には、ステレオ画像を用いた立体視表示などの実現に利用される。
 このような画像間の対応点を探索する処理では、各種の方法が採用される。一例として、位相限定相関法(Phase-Only Correlation;以下、「POC法」とも称す。)がよく知られている。このPOC法は、画像に含まれる空間周波数の位相差情報を用いて、画像間の対応点を探索する。このような対応点探索に係る先行技術としては、以下のようなものが知られている。
 例えば、特開平10-134196号公報(特許文献1)は、自動車や人間等を対象物(目標)とし、空間周波数特性に基づく画像データの照合を行ない、その照合結果から目標までの距離を測定する距離測定装置を開示する。より具体的には、特開平10-134196号公報(特許文献1)では、第1のカメラで撮像した画像データを登録画像データとし、2次元離散的フーリエ変換(DFT)を施して登録フーリエ画像データが取得され、第2のカメラで撮像した画像データを照合画像データとし、DFTを施して照合フーリエ画像データが取得される。登録フーリエ画像データと照合フーリエ画像データとを合成し、振幅抑制処理を行ったうえ、DFTを施す。このDFTの施された合成フーリエ画像データにおいて、相関成分エリアの中心から相関ピークまでの距離に基づいて目標までの距離が測定される。
特開平10-134196号公報
 位相限定相関法(POC法)は、輝度の絶対差の総和(SAD:Sum of Absolute Difference)の情報を用いる手法に比較して、ロバスト性に優れ、高精度であるという利点がある。しかしながら、周波数分解などの演算負荷が高い処理が必要であるため、処理全体の演算時間が非常に大きくなるという課題もある。
 上述の特開平10-134196号公報(特許文献1)に開示される方法においても、登録画像データおよび照合画像データの全体について2次元離散的フーリエ変換を行なうため、演算負荷が高いものであった。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、画像間の対応点を探索する処理に係る処理全体の演算時間を少なくできる画像処理装置、画像処理方法および画像処理プログラムを提供することである。
 本発明のある局面に従えば、第1画像と第2画像との間で対応点を探索する画像処理装置が提供される。画像処理装置は、第1画像および第2画像に対して、それぞれウィンドウを設定するウィンドウ設定手段と、設定されたそれぞれのウィンドウに含まれる画像に対して周波数分解を行なうことで位相情報を抽出する位相情報抽出手段と、それぞれのウィンドウから抽出された位相情報を比較することで、第1画像と第2画像との間の対応点を決定する対応点決定手段と、ウィンドウ設定手段に、周波数分解の計算に使用する周波数に応じて異なるサイズのウィンドウを設定させるウィンドウサイズ制御手段とを含む。ウィンドウサイズ制御手段は、ウィンドウ設定手段に、第1の周波数に対応して第1のサイズのウィンドウを設定させるとともに、第1の周波数より高い第2の周波数に対応して、第1のサイズよりも小さい第2のサイズのウィンドウを設定させる。
 本発明によれば、画像間の対応点を探索する処理に係る処理全体の演算時間を少なくできる。
本発明の実施の形態に従う対応点探索方法の概要を説明するための図である。 本発明の実施の形態に従う対応点探索方法の概要を説明するための図である。 本発明の実施の形態に従う対応点探索処理をパーソナルコンピューターにより実現した場合の構成を示すブロック図である。 本発明の実施の形態に従う対応点探索処理をデジタルカメラ類似の構成により実現した場合の構成を示すブロック図である。 本発明の実施の形態に従う画像処理装置の機能構成を示すブロック図である。 図5に示す対応点探索部のより詳細な機能構成を示すブロック図である。 本発明の実施の形態に従う対応点探索部により算出されるPOC値の一例を示す図である。 本発明の実施の形態に従う対応点探索方法の全体手順を示すフローチャートである。 本発明の実施の形態の変形例2に従う画像処理装置の機能構成を示すブロック図である。 本発明の実施の形態の変形例2において生成される解像度の異なる画像群を示す模式図である。 本発明の実施の形態の変形例2において生成される解像度の異なる画像群の一例を示す図である。 本発明の実施の形態の変形例2に従う多重解像度を用いた粗密戦略の処理内用を説明するための図である。 本発明の実施の形態の変形例2に従う多重解像度を用いた粗密戦略において初期位置を設定する処理を説明するための図である。 本発明の実施の形態に従う画像処理装置の適用例1を説明するための図である。 図14に示すステレオ計測の原理を説明するための図である。 本発明の実施の形態に従う画像処理装置の適用例2を説明するための図である。
 本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
 [A.概要]
 本発明の実施の形態は、少なくとも第1画像と第2画像との間で対応点を探索する対応点探索方法に向けられている。すなわち、対応点の探索対象となる複数の画像は、同一の被写体(の少なくとも一部)の画像を共通に含み得る画像を意味し、3つ以上の画像であってもよい。このような複数の画像は、典型的には、複数の撮像装置(カメラ)を用いて同一の被写体を異なる視点から撮像することで得られる。より具体的には、所定距離だけ離して配置された複数のカメラ(典型的には、ステレオカメラ)によって同一の被写体を撮像することでそれぞれの画像が得られる。
 以下の説明においては、説明の便宜上、第1画像に注目画素(注目点)を設定し、当該設定した注目点に対する第2画像上の対応点を探索するものとする。このような対応点の探索処理において、第1画像を「基準画像」と称し、第2画像を「参照画像」と称する。また、3つ以上の画像間で対応点探索を行なう場合には、いずれか1つの画像を「基準画像」として設定するとともに、それを撮像する撮像装置(カメラ)を「基準画像」の撮像用のカメラとして設定する。一方、それ以外の画像についてはいずれも「参照画像」として設定するとともに、それらを撮像する撮像装置(カメラ)を「参照画像」の撮像用のカメラとして設定する。このような拡張方法によって、本実施の形態に従う対応点探索方法を3つ以上の画像間における対応点の探索にも適用できる。
 また、本実施の形態に従う対応点探索方法は、典型的には、ステレオ撮像された画像間の対応点を探索して立体視画像を生成する処理に向けられるが、これに限られることなく、パノラマ画像の生成処理などにも適用できる。
 本実施の形態に従う対応点探索方法によって得られる対応関係を、以下「対応点探索結果」と記す。この対応点探索結果は、典型的には、基準画像上のそれぞれの画素位置(各注目点の座標位置)と、当該それぞれの画素位置に対応する参照画像上の画素位置とを含む。
 図1および図2は、本発明の実施の形態に従う対応点探索方法の概要を説明するための図である。
 本実施の形態に従う対応点探索方法は、基準画像と参照画像との間の位相情報の差(以下「位相差情報」とも称す。)を用いて、画像間の対応点を探索する。位相情報および位相差情報は、基準画像および参照画像にそれぞれ設定されるウィンドウ単位で周波数(空間周波数)別に算出されることになる。すなわち、所定の周波数範囲にわたる位相情報が算出される。
 このとき、空間周波数によってその波長の長さは異なるため、同一のサイズのウィンドウ(領域)を設定した場合、その中に含まれる波数は、空間周波数の大きさに依存して変化することになる。すなわち、図1に示すように、空間周波数が低い場合には、より大きなサイズを有するウィンドウを設定しなければ、一周期分の情報を取得することができず、一方、空間周波数が高い場合には、より小さなサイズを有するウィンドウであっても、十分な周期分の情報を取得することができる。
 そこで、本実施の形態においては、基準画像および参照画像に対して、それぞれウィンドウを設定し、設定されたそれぞれのウィンドウに含まれる画像に対して周波数分解を行なうことで位相情報を抽出し、それぞれのウィンドウから抽出された位相情報を比較することで、基準画像と参照画像との間の対応点を決定する。このとき、対応する周波数分解の計算に使用する周波数に応じたサイズのウィンドウが設定される。
 すなわち、図2に示すように、周波数分解に使用される周波数f1,f2,…,fn(f1<f2<…<fn)について、それぞれ対応するサイズのウィンドウ1,2,…nが設定され、設定された一対のウィンドウの間で位相差情報が算出される。すなわち、周波数f1,f2,…,fnの位相差情報1,2,…,nは、対応するサイズのウィンドウ内の画像情報が取得される。そして、これらの位相差情報1,2,…,nを総計して、周波数-位相差の情報を取得し、さらに、位相限定相関法(Phase-Only Correlation;以下、「POC法」とも称す。)での評価値であるPOC値が算出される。最終的に、POC値が参照画像の各注目の別に算出され、POC値が最大となる注目点が探索される。
 上述したように、空間周波数が高いほど、ウィンドウ内により多くの波数を抽出できるので、空間周波数が低い場合に比較して空間周波数が高い場合に設定されるウィンドウのサイズは、当該空間周波数が低い場合のサイズと同じか、より小さくなるように設定される。言い換えれば、第1の周波数に対応して第1のサイズのウィンドウを設定させるとともに、第1の周波数より高い第2の周波数に対応して、第1のサイズと同じまたはより小さい第2のサイズのウィンドウが設定される。
 なお、ウィンドウを設定する計算コストも考慮すると、図2に示すように、空間周波数が異なればサイズが異なるように設定することもできるが、同一のサイズのウィンドウが複数の空間周波数に対応付けられてもよい。
 このように、本実施の形態に従う対応点探索処理においては、周波数分解に用いるウィンドウのサイズを固定するのではなく、周波数分解に使用される周波数に応じた素のウィンドウをそれぞれ設定することで、演算時間を短縮化する。
 以下、対応点探索処理のより詳細な内容について説明する。
 [B.システム構成]
 まず、本発明の実施の形態に従う対応点探索処理を実現する画像処理装置の実装例について説明する。
 《b1:パーソナルコンピューターによる実現例》
 図3は、本発明の実施の形態に従う対応点探索処理をパーソナルコンピューターにより実現した場合の構成を示すブロック図である。
 図3を参照して、パーソナルコンピューターにより実現される画像処理装置100は、主として、汎用的なアーキテクチャーを有するコンピューター上に実装される。図3を参照して、画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)102と、RAM(Random Access Memory)104と、ROM(Read Only Memory)106と、ネットワークインターフェイス(I/F)108と、補助記憶装置110と、表示部120と、入力部122と、メモリーカードインターフェイス(I/F)124とを含む。各コンポーネントは、バス130を介して、互いに通信可能に接続されている。
 CPU102は、ROM106や補助記憶装置110などに格納された、オペレーティングシステム(OS:Operating System)や画像処理プログラムなどの各種プログラムを実行することで、画像処理装置100の全体を制御する。RAM104は、CPU102でプログラムを実行するためのワーキングメモリとして機能し、プログラムの実行に必要な各種データを一次的に格納する。ROM106は、画像処理装置100において起動時に実行される初期プログラム(ブートプログラム)などを格納する。
 ネットワークインターフェイス108は、各種の通信媒体を介して、他の装置(サーバー装置など)とデータを遣り取りする。より具体的には、ネットワークインターフェイス108は、イーサネット(登録商標)などの有線回線(LAN(Local Area Network)やWAN(Wide Area Network)など)、および/または、無線LANなどの無線回線を介してデータ通信を行なう。
 補助記憶装置110は、典型的には、ハードディスクなどの大容量磁気記憶媒体などからなり、本実施の形態に従う各種処理を実現するための画像処理プログラム(対応点探索処理プログラム112)および処理対象の処理対象画像114などを格納する。さらに、補助記憶装置110には、オペレーティングシステムなどのプログラムが格納されてもよい。
 処理対象画像114は、処理対象の少なくとも2つの画像を含む。但し、画像処理装置100本体が被写体を撮像する機能を有していなくともよい。この場合、後述するようなデジタルカメラに類似した機構を用いて、少なくとも2つの画像を取得し、それらの画像を任意の方法で画像処理装置100へ入力するようにしてもよい。より具体的には、上述のネットワークインターフェイス108やメモリーカードインターフェイス124を介して、画像が画像処理装置100へ入力される。
 表示部120は、オペレーティングシステムが提供するGUI(Graphical User Interface)画面や対応点探索処理プログラム112の実行によって生成される画像などを表示する。好ましくは、表示部120は、対応点探索処理プログラム112の実行によって得られる対応点探索結果、などから生成される立体視画像を用いて、被写体を立体視表示する。この場合、表示部120としては、3次元表示方式に対応した任意の表示デバイスによって構成される。このような3次元表示方式としては、パララックスバリア方式などを採用することができる。このパララックスバリア方式では、液晶表示面にパララックスバリアを設けることで、ユーザーの右眼で右眼用画像を視認させ、ユーザーの左眼で左眼用画像を視認させることができる。あるいは、シャッタメガネ方式を採用してもよい。このシャッタメガネ方式では、左眼用画像および右眼用画像を交互に高速で切り替えて表示するとともに、この画像の切り替えに同期して開閉するシャッターが搭載された専用メガネをユーザーが装着することで、立体視表示を楽しむことができる。
 入力部122は、典型的には、キーボード、マウス、タッチパネルなどからなり、ユーザーから受付けた指示の内容をCPU102などへ出力する。
 メモリーカードインターフェイス124は、SD(Secure Digital)カードやCF(Compact Flash(登録商標))カードなどの各種メモリーカード(不揮発性記憶媒体)126との間で、データの読み書きを行なう。典型的には、メモリーカードインターフェイス124には、何らかの装置で取得した処理対象画像を格納したメモリーカード126が装着され、そのメモリーカード126から読み出された処理対象画像が補助記憶装置110へ格納(コピー)される。
 補助記憶装置110に格納される対応点探索処理プログラム112は、CD-ROM(Compact Disk-Read Only Memory)などの記憶媒体に格納されて流通し、あるいは、ネットワークを介してサーバー装置などから配信される。対応点探索処理プログラム112は、画像処理装置100(パーソナルコンピューター)で実行されるオペレーティングシステムの一部として提供されるプログラムモジュールのうち必要なモジュールを、所定のタイミングおよび順序で呼出して処理を実現するようにしてもよい。この場合、対応点探索処理プログラム112自体には、オペレーティングシステムによって提供されるモジュールは含まれず、オペレーティングシステムと協働して画像処理が実現される。また、対応点探索処理プログラム112は、単体のプログラムではなく、何らかのプログラムの一部に組込まれて提供されてもよい。このような場合にも、対応点探索処理プログラム112自体には、当該何らかのプログラムにおいて共通に利用されるようなモジュールは含まれず、当該何らかのプログラムと協働して画像処理が実現される。このような一部のモジュールを含まない対応点探索処理プログラム112であっても、本実施の形態に従う画像処理装置100の趣旨を逸脱するものではない。
 さらに、対応点探索処理プログラム112によって提供される機能の一部または全部を専用のハードウェアによって実現してもよい。
 《b2:デジタルカメラ類似の構成による実現例》
 図4は、本発明の実施の形態に従う対応点探索処理をデジタルカメラ類似の構成により実現した場合の構成を示すブロック図である。
 図4を参照して、画像処理装置200は、実際に被写体を撮像することで、少なくとも2つの処理対象画像を取得し、この取得した処理対象画像に対して、対応点探索処理を実行する。画像処理装置200は、主たるコンポーネントとして、画像処理エンジン202と、入力部204と、表示部206と、一対のレンズ212,222と、一対のCCD(Charge Coupled Device)イメージセンサー214,224とを含む。
 画像処理エンジン202は、本実施の形態に従う対応点探索処理を含む各種のデジタル処理を実行する。画像処理エンジン202は、典型的には、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、LSI(Large Scale Integration)、FPGA(Field-Programmable Gate Array)などからなる。
 入力部204は、典型的には、各種キーボタン、タッチパネルなどからなり、ユーザーから受付けた指示の内容を画像処理エンジン202へ出力する。
 表示部206は、被写体の撮像などに関するユーザーインターフェイス画面を表示する。好ましくは、表示部206は、画像処理エンジン202によって得られる対応点探索結果、などから生成される立体視画像を用いて、被写体を立体視表示する。この場合、表示部206としては、上述の表示部120(図3)と同様に、3次元表示方式に対応した任意の表示デバイスによって構成される。
 一対のレンズ212,222は、画像処理装置200の本体の異なる位置に設けられており、被写体を異なる視点でそれぞれ撮像することできる。すなわち、一対のレンズ212,222には、被写体からの互いに異なる反射光がそれぞれ入射する。一対のCCD214,224は、一対のレンズ212,222にそれぞれ対応付けられており、レンズ212,222によって集光された被写体からの光(像)を受光するとともに、その像を示す電気信号を画像処理エンジン202へ出力する。
 《b3:その他の構成による実現例》
 上述したパーソナルコンピューターにより実現する例、および、デジタルカメラ類似の構成による実現する例に加えて、携帯電話上に実装してもよい。さらに、少なくとも1つのサーバー装置が本実施の形態に従う処理を実現する、いわゆるクラウドサービスのような形態であってもよい。この場合、ユーザーは、自身の端末(パーソナルコンピューターやスマートフォンなど)を用いて、少なくとも2つの処理対象画像をサーバー装置(クラウド側)へ送信し、当該送信された処理対象画像に対して、サーバー装置側が本実施の形態に従う画像処理を行なうような構成が想定される。さらに、サーバー装置側がすべての機能(処理)を行なう必要はなく、ユーザー側の端末とサーバー装置とが協働して、本実施の形態に従う画像処理を実現するようにしてもよい。
 [C.機能構成]
 次に、本実施の形態に従う画像処理装置および/または画像処理プログラムの機能構成について説明する。
 図5は、本発明の実施の形態に従う画像処理装置の機能構成を示すブロック図である。図6は、図5に示す対応点探索部のより詳細な機能構成を示すブロック図である。
 図5を参照して、本実施の形態に従う画像処理装置は、その主たる機能構成として、画像取得部13と、対応点探索部14と、周波数演算制御部15とを含む。これらの機能構成は、図3に示す画像処理装置100においては、CPU102が対応点探索処理プログラムを実行することで実現され、図4に示す画像処理装置200においては、画像処理エンジン202によって実現される。
 《c1:画像取得部13》
 画像取得部13は、カメラ11および12(カメラAおよびカメラB)がそれぞれ被写体を撮像することで生成される入力画像(ステレオ画像)を取得する。上述したように、一対の画像を取得した場合には、一方の画像を基準画像と称し、他方の画像を参照画像と称する。画像取得部13は、少なくとも2つの画像を取得するための各種インターフェイスとして実現される。すなわち、カメラ11および12から直接的に入力画像を受付けてもよいし、各種の記録媒体やネットワークを介して、入力画像を受付けてもよい。画像取得部13が取得した複数の入力画像は、対応点探索部14へ出力される。
 《c2:対応点探索部14》
 対応点探索部14は、入力された2つ以上の入力画像に対して、対応点探索処理を行ない、対応点探索結果を出力する。すなわち、対応点探索部14は、基準画像上に設定される各注目点(注目画素)についての応点を参照画像上から探索する。
 本実施の形態において、対応点探索部14は、入力画像(基準画像および参照画像)にそれぞれ設定されるウィンドウ(探索ウィンドウ)のパターンに対して周波数分解を行なうことで抽出される位相情報(振幅成分を抑制した信号成分)の類似度に基づいて、画像間の対応関係を演算する。以下の実施の形態においては、このような代表的な手法として、位相限定相関法(Phase-Only Correlation;POC法)を用いた構成について説明する。但し、本発明は、POC法を用いる場合に限られず、少なくとも位相情報を用いる方法であれば任意の方法に適用可能である。例えば、文献1(植村 淳志、伊藤 泉、貴家 仁志、「DCT符号相関を用いたサブピクセル精度画像マッチング」、社団法人電子情報通信学会、電子情報通信学会技術研究報告.IE,画像工学107(489),77-82,2008-02-12)などに記載の方法なども適用可能である。
 図6には、位相限定相関法を用いて対応点探索処理を行なう場合の対応点探索部14の実装例を示す。より具体的には、対応点探索部14は、基準ウィンドウ設定部141と、参照ウィンドウ設定部142と、フーリエ変換部143,144と、位相取出部145,146と、位相差算出部147と、逆フーリエ変換部148と、最大値選択部149とを含む。
 基準ウィンドウ設定部141および参照ウィンドウ設定部142は、基準画像および参照画像に対して、それぞれウィンドウを設定する。後述するように、基準ウィンドウ設定部141および参照ウィンドウ設定部142は、周波数演算制御部15からのサイズ情報に基づいて、設定するウィンドウのサイズを決定する。
 例えば、基準画像上のある点Kに対応する参照画像上の点Sを探索するような対応点探索処理を考える。この場合には、まず、基準ウィンドウ設定部141が点Kを含むように、基準画像上に基準ウィンドウを設定する。なお、基準ウィンドウ内における点Kの相対位置は、任意に決定できるが、ここでは、点Kがその重心位置になるように基準ウィンドウを設定するものとする。
 参照画像上にも同様にウィンドウを設定するが、参照画像側では対応する点がわかっていないので、参照ウィンドウ設定部142は、予め決められた候補点S’がその重心位置になるように参照ウィンドウを設定する。候補点S’については、例えば、ステレオ画像間での視差が大きくないようなアプリケーションの場合には、点Kと同じ座標を用いればよい。また、ステレオ画像間での視差レンジが広い場合には、後述する多重解像度を用いた粗密戦略などを用いることで、最初の候補点を点Kと同じ座標値を用いることが可能になる。
 フーリエ変換部143は、基準画像上に設定された基準ウィンドウに対して、フーリエ変換を行なうことで画像情報を周波数空間の情報へ変換する。同様に、フーリエ変換部143は、参照画像上に設定された参照ウィンドウに対して、フーリエ変換を行なうことで画像情報を周波数空間の情報へ変換する。この変換された周波数空間の情報は、周波数毎の振幅情報および位相情報を含む。すなわち、フーリエ変換部143および144は、それぞれのウィンドウに含まれる部分画像に対して周波数分解を行なう。
 まず、本実施の形態におけるフーリエ変換部143および144の理解のために、一般的なフーリエ変換について説明する。
 例えば、ウィンドウサイズがN×Mの場合、横方向の周波数の全域は、直流成分と周波数F1~Fx_max=(N-1)/2(但し、Nは奇数サイズとする)の交流成分で表され、縦方向の周波数の全域は、直流成分と周波数F1~Fy_max=(M-1)/2(但し、Mは奇数サイズとする)で表される。なお、実際には、交流成分は、N個またはM個存在するが、直流成分を中心とした対称的な情報を有するので、有意な情報としては、Fx_max×Fy_max個しか存在しない。
 フーリエ変換の計算結果は、実部および虚部を含む複素数形式で出力される。典型的には、(1)式に従って、フーリエ変換が実行される。
Figure JPOXMLDOC01-appb-M000001
 すなわち、周波数情報は、実部Re(u,v)および虚部Im(u,v)を含む複素数形式で出力される。また、実部および虚部の値を用いて、振幅情報A(u,v)および位相情報θ(u,v)に変換できる。
 振幅情報および位相情報と、実部および虚部を含む複素数表現との関係式は、(2)式のようになる。
Figure JPOXMLDOC01-appb-M000002
 なお、フーリエ変換の結果は、振幅と位相とを組み合わせた形式で保存してもよいし、実部と虚部とを組み合わせた形式で保存してもよい。
 以上に説明したフーリエ変換においては、1つのN×Mのウィンドウサイズのデータを用いて全ての周波数成分を算出することが可能である。しかしながら、本実施の形態においては、周波数に応じて異なるウィンドウサイズのデータを用い、各ウィンドウサイズで算出する周波数成分を限定してフーリエ変換を行う。この点に関しては、周波数演算制御部15の説明で後述する。
 位相取出部145および146は、それぞれフーリエ変換部143および144から出力されるフーリエ変換の結果(典型的には、複素数形式)を用いて、基準ウィンドウおよび参照ウィンドウについての位相情報を抽出する。
 位相差算出部147は、位相取出部145および146により抽出されたそれぞれのウィンドウについての位相情報の差を算出する。すなわち、位相差算出部147は、位相差情報を生成する。
 逆フーリエ変換部148は、位相差算出部147によって算出された位相差情報に対して逆フーリエ変換を行なうことで、それぞれ設定されているウィンドウに含まれる部分画像間の類似度を示すPOC値を算出する。このPOC値を算出する処理は、参照ウィンドウ設定部142が参照画像上に設定する参照ウィンドウの位置を更新する毎に繰り返し実行される。なお、POC値の算出に係る詳細な手順としては、文献2(“A Sub-Pixel Correspondence Search Technique for Computer Vision Applications”, IEICE Transactions. Fundamentals, E87-A, No. 8, pp. 1913--1923, Aug. 2004)などを参照されたい。
 図7は、本発明の実施の形態に従う対応点探索部14により算出されるPOC値の一例を示す図である。図7に示すように、参照ウィンドウの設定位置に関連付けられた複数のPOC値が算出される。
 最大値選択部149は、図7に示すような参照ウィンドウの設定位置(候補点S’)に関連付けられたPOC値のマップから、最大値をとるPOCを選択することで、参照画像上の対応点を決定する。
 《c3:周波数演算制御部15》
 本実施の形態においては、フーリエ変換などの周波数演算において、周波数成分毎に計算に使用する情報量を変更する。本実施の形態では、1次元のフーリエ変換を用いるが、2次元のフーリエ変換を用いてもよい。
 1次元のフーリエ変換は、(3)式のように表わすことができる。
Figure JPOXMLDOC01-appb-M000003
 ウィンドウサイズがN×1の場合、フーリエ変換により周波数成分を算出可能な周波数は、1~Fmax=(N-1)/2となる。一般的なフーリエ変換では、いずれの周波数成分を算出する場合であっても、等しいN×1のウィンドウサイズを使用していたが、本実施の形態においては、演算対象の周波数が高くなるにつれて、周波数演算に使用するウィンドウサイズを小さくし、演算対象の周波数に限定してフーリエ変換を行う。
 フーリエ変換は、ウィンドウサイズがN×1で全ての周波数の周波数成分を得る場合、N2の演算時間がかかるが、直流成分を中心に点対称な結果が得られるので、実際にはN2/2の演算時間となる。一方で、各周波数F(=u)について、演算に使用するウィンドウサイズを(N+1)-F(この場合、Nはウィンドウサイズの最大値である)とし、演算対象の周波数を限定することで、トータルの演算量は、(4)式のようになる。
 Fmax×(2×N+1-Fmax)/2=3(N2-1)/8  …(4)
 つまり、Nがある程度大きいと、上述の式(4)の定数項は無視できるので、通常の演算時間N2/2に対して、全体の演算時間を約75%に削減できる。
 (c3.1:設定例1)
 上述の例では、各周波数Fについての演算に使用するウィンドウサイズが(N+1)-Fの場合、すなわちウィンドウサイズが周波数F毎に異なる場合を説明したが、これ以外の設定方法を採用してもよい。例えば、N-P×[F/P](但し、Nはウィンドウサイズの最大値、Pは2以上の整数であり、[・]はガウス記号を示す)のように周波数Fに応じて離散的にウィンドウサイズを設定してもよい。つまり、周波数演算制御部15は、周波数分解の計算に使用する周波数に応じて、ウィンドウのサイズを離散的に変更させる。
 具体的には、例えば、N=33、P=2のときの周波数Fおよびウィンドウサイズの関係は、以下のようになる。なお、この場合、同じウィンドウサイズの複数の周波数Fについては一度のフーリエ変換により周波数成分を演算すればよい。つまり、周波数演算制御部15は、周波数分解の計算に使用する周波数ごとにウィンドウのサイズを変更させる。
 周波数F= 1→ウィンドウサイズ33
 周波数F= 2→ウィンドウサイズ31
 周波数F= 3→ウィンドウサイズ31
 周波数F= 4→ウィンドウサイズ29
 周波数F= 5→ウィンドウサイズ29
 周波数F= 6→ウィンドウサイズ27
 周波数F= 7→ウィンドウサイズ27
 周波数F= 8→ウィンドウサイズ25
 周波数F= 9→ウィンドウサイズ25
 周波数F=10→ウィンドウサイズ23
 周波数F=11→ウィンドウサイズ23
 周波数F=12→ウィンドウサイズ21
 周波数F=13→ウィンドウサイズ21
 周波数F=14→ウィンドウサイズ19
 周波数F=15→ウィンドウサイズ19
 周波数F=16→ウィンドウサイズ17
 (c3.2:設定例2)
 上述したウィンドウサイズの設定方法は、等間隔にウィンドウサイズを設定する方法であるが、低周波側と高周波側とでウィンドウサイズの設定方法を変更するようにしてもよい。例えば、1≦F<Q(Q<N/2)の周波数Fに対しては、N-P1×[F/P1]でウィンドウサイズを決定し、Q≦Fの周波数Fに対しては、N-P2×[F/P2](P1≠P2)でウィンドウサイズを決定してもよい。具体的には、例えば、N=33、P1=2、P2=4、Q=8のときの周波数Fおよびウィンドウサイズの関係は、以下のようになる。
 周波数F= 1→ウィンドウサイズ33
 周波数F= 2→ウィンドウサイズ31
 周波数F= 3→ウィンドウサイズ31
 周波数F= 4→ウィンドウサイズ29
 周波数F= 5→ウィンドウサイズ29
 周波数F= 6→ウィンドウサイズ27
 周波数F= 7→ウィンドウサイズ27
 周波数F= 8→ウィンドウサイズ25
 周波数F= 9→ウィンドウサイズ25
 周波数F=10→ウィンドウサイズ25
 周波数F=11→ウィンドウサイズ25
 周波数F=12→ウィンドウサイズ21
 周波数F=13→ウィンドウサイズ21
 周波数F=14→ウィンドウサイズ21
 周波数F=15→ウィンドウサイズ21
 周波数F=16→ウィンドウサイズ17
 なお、上述の例では、周波数FをQ以上とQ未満との2つに分割した設定例を示したが、3つ以上に分割してもよい。
 [D.処理手順]
 次に、本実施の形態に従う対応点探索方法の全体手順について説明する。
 図8は、本発明の実施の形態に従う対応点探索方法の全体手順を示すフローチャートである。図8に示す各ステップは、典型的には、CPU102(図3)が対応点探索処理プログラム112を実行するなどして実現される。
 図8を参照して、まず、CPU102は、ステレオ画像(基準画像および参照画像)を取得する(ステップS2)。続いて、CPU102は、基準画像上に処理対象となる画素(注目画素)を設定する(ステップS4)とともに、基準画像上に設定された処理対象となる画素に対応する、参照画像上の画素を探索するための初期位置を設定する(ステップS6)。そして、以下に示すような探索処理が実行される。
 すなわち、CPU102は、周波数分解の計算に使用する周波数に応じたウィンドウサイズを決定する(ステップS8)。そして、CPU102は、基準画像上の処理対象の画素がその重心位置になるように、決定したウィンドウサイズをもつ基準ウィンドウを設定するとともに、参照画像上の探索候補の画素がその重心位置になるように、決定したウィンドウサイズをもつ参照ウィンドウを設定する(ステップS10)。
 続いて、CPU102は、ステップS10において設定された、基準画像上の基準ウィンドウおよび参照画像上の参照ウィンドウに含まれる部分画像に対してフーリエ変換を実行する(ステップS12)。このフーリエ変換によって算出される周波数情報は、処理対象の周波数と関連付けて格納される。そして、CPU102は、周波数分解の計算に使用するすべての周波数についてフーリエ変換が完了したか否かを判断する(ステップS14)。
 周波数分解の計算に使用するすべての周波数についてフーリエ変換が完了していない場合(ステップS14においてNOの場合)には、CPU102は、周波数分解の計算に使用する次の周波数を選択し、ステップS8以下の処理を繰返し実行する。
 これに対して、周波数分解の計算に使用するすべての周波数についてフーリエ変換が完了している場合(ステップS14においてYESの場合)には、CPU102は、基準ウィンドウおよび参照ウィンドウから算出されるそれぞれの周波数情報から位相情報のみを抽出し(ステップS16)、両者の位相差を算出する(ステップS18)。すなわち、ステップS16においては、必要なすべての周波数についてのフーリエ変換が完了しているので、周波数毎の振幅および位相が算出されている。CPU102は、これらの情報を用いて、周波数-位相差の情報を算出する。さらに、CPU102は、算出した位相差情報を逆フーリエ変換することで、POC値を算出する(ステップS20)。このPOC値は、参照画像に設定されている探索候補の画素の位置に関連付けて格納される。
 続いて、CPU102は、参照画像に設定可能なすべての探索候補についてPOC値が算出されたか否かを判断する(ステップS22)。参照画像に設定可能なすべての探索候補のうちPOC値が算出されていない探索候補がある場合(ステップS22においてNOの場合)には、CPU102は、参照画像上の探索候補となる画素の位置を設定し(ステップS24)、ステップS8以下の処理を繰返し実行する。
 参照画像に設定可能なすべての探索候補についてPOC値が算出された場合(ステップS22においてYESの場合)には、CPU102は、POC値の分布からピークに対応する位置を決定する(ステップS26)。すなわち、CPU102は、参照画像に含まれる探索候補のうち、最も高いPOC値を示す位置を抽出し、当該抽出した位置を基準画像上に設定されている画素(注目画素)の対応点であると決定する。
 その後、CPU102は、基準画像上で対応点探索の対象となるすべての画素について処理が完了しているか否かを判断する(ステップS28)。基準画像上で対応点探索の対象となる画素のうち処理が完了していないものがある場合(ステップS28においてNOの場合)には、CPU102は、基準画像上に処理対象となる別の画素(注目画素)を設定する(ステップS30)とともに、ステップS6以下の処理を繰返し実行する。
 基準画像上で対応点探索の対象となるすべての画素について処理が完了している場合(ステップS28においてYESの場合)には、処理は終了する。
 [E.変形例1:2のべき乗に沿ったウィンドウサイズの変更]
 コンピューターを用いてフーリエ変換を実行する場合、バタフライ演算を特徴とする高速フーリエ変換(FFT:Fast Fourier Transformation)を用いることで、演算時間をより短縮化できる。
 この場合、設定されるウィンドウのサイズは、2のべき乗の条件を満足する必要がある。すなわち、演算速度の観点からは、ウィンドウのサイズは、2のべき乗とすることが好ましい。本変形例では、周波数分解の計算に使用する周波数に応じて、ウィンドウのサイズを2のべき乗に沿って変更させる例について説明する。
 例えば、最大のウィンドウのサイズを32×16とした場合、横方向の周波数は、直流成分と周波数1~15の交流成分とで表され、縦方向の周波数は、直流成分と周波数1~7の交流成分とで表される。
 一般的に、通常のフーリエ変換の演算量がN2である場合、高速フーリエ変換(FFT)を用いると、演算量がN×log2Nとなることが知られている。例えば、ウィンドウのサイズが32×32の場合、通常のフーリエ変換では演算量が1024になるのに対して、高速フーリエ変換(FFT)では演算量が160となり、80%以上の高速化が実現できる。
 上記の点を考慮して、上述の実施の形態において、高速フーリエ変換(FFT)を用いる場合に、ウィンドウのサイズを無秩序に変更した場合、演算量が増加する可能性がある。
 そのため、高速フーリエ変換(FFT)を用いる場合には、演算対象の情報(ウィンドウサイズ)を2のべき乗サイズになるようにすることで、演算量を低減することが可能になる。例えば、ウィンドウサイズ8のFFT演算量は、8×log28=24である。仮に、周波数1~4だけを計算する場合には、演算量は半分の12となる。そして、周波数5~8については、ウィンドウサイズ4の情報について計算した場合には、演算量は4×log24=8となり、全体としての演算量は12+8=20となる。すなわち、このケースでは約17%の演算量の低減効果が得られる。
 このような演算量の低減効果を得るための、ウィンドウのサイズの設定例としては、以下のようになる。
 周波数F=1,2,3,4→ウィンドウサイズ8(23)
 周波数F=5,6,7,8→ウィンドウサイズ4(22)
 [F.変形例2:窓関数の適用]
 フーリエ変換は、ウィンドウに含まれる画像の両端における連続性を前提として行なわれるが、現実には、連続性は保たれていない。そのため、フーリエ変換を行なう前の前処理として、窓関数を適用して、画像の連続性を担保するという信号処理を採用することが一般的である。このような窓関数としては、ハミング窓、カイザー窓、ハニング窓といった各種のものが定義されており、任意の窓関数を採用することができる。
 例えば、1次元のハニング窓は、(5)式のように定義できる。
Figure JPOXMLDOC01-appb-M000004
 上述の実施の形態においては、低い空間周波数の位相情報の計算に使用するウィンドウのサイズに比較して、高い空間周波数の位相情報の計算に使用するウィンドウはより狭い範囲に設定される。ここで、より狭い範囲の両端における連続性は担保されないので、精度が劣化する可能性がある。
 そこで、空間周波数の別に設定されるウィンドウのサイズに応じた窓関数を都度適用することで、周波数演算の精度を安定化することができる。すなわち、本変形例において、対応点探索部14は、ウィンドウに含まれる画像に対して窓関数による畳み込み演算を行なう。このとき、窓関数は、対象のウィンドウのサイズに応じて設定される。言い換えれば、周波数演算の前に行なわれる窓関数の畳み込み演算は、設定されたウィンドウのサイズに合わせてそれぞれ実施される。
 なお、ウィンドウのサイズの別に窓関数の畳み込み演算を行なうことで、演算量が増加する可能性があるが、サイズの設定を適切に行なうことで、精度を保ちつつ、演算量を低減できる。例えば、上述の変形例1に記載した例の場合、周波数5~8についての周波数情報を演算するために用いる情報(ウィンドウサイズ4)に対して、窓関数を新たに適用する必要がある。このときの窓関数の適用に係る演算量は、4/2=2となる。なお、フーリエ変換は、実部および虚部の両方を演算する必要があるのに対して、窓関数は、実部のみを演算すればよいので、比率的にはサイズの約半分の演算量に相当することになる。このように、窓関数をウィンドウサイズの別に適用した場合であっても、演算量の低減効果を発揮することができる。
 なお、上述の説明では、1次元のフーリエ変換について説明したが、2次元のフーリエ変換に拡張することもできる。例えば、2次元のハニング窓は、(6)式のように定義できる。
Figure JPOXMLDOC01-appb-M000005
 窓関数を適用する場合には、(5)式をまとめて1回だけ適用すればよいので、1次元のフーリエ変換の場合よりも、演算量の低減効果を高めることができる。
 [G.変形例3:多重解像度を用いた粗密戦略]
 本発明の実施の形態の変形例3として、多重解像度を用いた粗密戦略を組み合わせて、対応点を探索する処理について説明する。
 上述したように、本実施の形態においては、周波数分解を行なう際、周波数毎に計算に使用するウィンドウサイズを制限することで、演算時間を短縮化する。しかしながら、このように周波数分解に使用するウィンドウのサイズを小さくすることによって、探索できる範囲を狭めてしまう可能性がある。例えば、全ての周波数で計算に使用するウィンドウサイズを制限するということは、ウィンドウを小さくすることと同じであり、対応点の探索可能範囲が制限される可能性がある。
 この探索可能範囲が制限されることは、基準画像上に設定される基準ウィンドウでは生じず、参照画像上に設定される参照ウィンドウでのみ生じる。基準画像側では、求めたい注目点がその重心位置になるように基準ウィンドウが設定されるので、計算で使用するウィンドウサイズを小さくしても求めたい点が必ず内包される。一方で、参照画像側に設定される参照ウィンドウの場合は、求めたい点が参照ウィンドウの重心位置になるとは限らないため、計算に使用するウィンドウサイズを小さくすると求めたい点が内包されない(あるいは、ウィンドウサイズの端の方にかろうじて含まれる状態である)可能性があり、その結果、探索できる範囲を狭めるという結果になる。
 以上のように、本実施の形態においては、探索範囲をカバーするために、低い周波数ではウィンドウのサイズをそのまま用いて(すなわち、全ての情報を用いて)周波数分解を行なう一方で、高い周波数についてのみ計算に使用するウィンドウサイズを制限しているが、高周波がカバーできる探索範囲が実質的に狭くなるため、広い探索範囲が必要である場合には、精度に影響を与える可能性がある。
 そこで、本変形例においては、多重解像度を用いた粗密戦略(多重解像度戦略)と組み合わせることで、対応点探索の精度を維持しつつ、演算時間を短縮化するという高い効果を発揮できる。言い換えれば、多重解像度戦略を利用することで、探索範囲をある程度限定できるため、高い周波数について、計算に使用するウィンドウサイズを制限しても、精度への影響を抑制できる。すなわち、周波数演算制御部15は、周波数分解の計算に使用する周波数を低周波側と高周波側とに分けたときに、低周波側では細かくウィンドウサイズを変更させ、高周波側では粗くウィンドウサイズを変更させる。
 多重解像度を用いた粗密戦略(多重解像度戦略)は、入力画像(基準画像および参照画像)を複数の解像度を有する画像群に変換し、解像度の異なる画像についての対応点探索の結果を用いて、入力画像(基準画像および参照画像)の間の対応点を決定する。より具体的には、まず、解像度の低い画像間で対応点を探索する。解像度が低いことで、対応点探索処理の演算時間は短くて済むが、探索された位置の精度は相対的に低い(対応する解像度の精度が限界となる)。続いて、より解像度の高い画像間で対応点が探索される。このとき、先に実行された対応点探索処理の結果を利用して、限定された範囲内で探索が行なわれる。そのため、解像度が高くとも、演算時間を短縮できる。以下同様の処理を行なうことで、最も解像度の高い画像において探索された対応点が対応点探索結果として出力される。
 図9は、本発明の実施の形態の変形例2に従う画像処理装置の機能構成を示すブロック図である。図9に示すブロック図の構成要素のうち、図5に示すブロック図と同一の構成要素には同一の符号を付している。すなわち、本変形例に従う画像処理装置は、図5に示す本実施の形態に従う画像処理装置に比較して、多重解像度画像生成部16と、対応点探索制御部17と、初期位置設定部18とをさらに加えたものである。その他の構成要素については、上述したので、詳細な説明は繰り返さない。
 《g1:多重解像度画像生成部16》
 図10は、本発明の実施の形態の変形例2において生成される解像度の異なる画像群を示す模式図である。図11は、本発明の実施の形態の変形例2において生成される解像度の異なる画像群の一例を示す図である。
 多重解像度画像生成部16は、入力されたステレオ画像(基準画像および参照画像)のそれぞれから、図10および図11に示すような解像度の異なる複数の画像を生成する。
 入力画像の解像度がVGA(640×480)であり、変換倍率を1/2、レイヤー数を4とした場合、多重解像度画像生成部16は、例えば、基準画像および参照画像のそれぞれについて、「VGA(640×480)」、「QVGA(320×240)」、「160×120」、「80×60」の画像群を生成される。なお、入力層のVGAをレイヤー0、QVGAをレイヤー1、160×120をレイヤー2、80×60をレイヤー3とも記載する。
 このような解像度の異なる画像群の間では、変換倍率に応じて、以下のような関係が正立する。すなわち、レイヤー3における座標(x,y)の画素値は、レイヤー2における座標(2x,2y)、座標(2x+1,2y)、座標(2x,2y+1)、座標(2x+1,2y+1)からなる2×2の画素の平均値として算出される。
 なお、変換倍率は1/2に限らず、1/3といったより小さい値を採用してもよい。この場合には、必要なレイヤー数が少なくできるので、より高速な処理が必要なときに利用できる。あるいは、変換倍率として、1/1.5といったより大きな値を採用してもよい。こうすることで必要なレイヤー数が増加して、演算負荷は相対的に高くなるが、より細かく探索していくので、ロバスト性を高めることができる。
 また、レイヤー間で変換倍率を同一にする必要はなく、例えば、入力画像に近いところでは、より小さな変換倍率を採用して、低解像度になるにつれて変換倍率を大きくしてよい。このような変換倍率を変化させることで、距離混合が激しい低解像度ではより細かく探索してロバスト性を担保することができ、一方、高解像度ではロバスト性よりも高速化に重きを置くことで、トータルバランスのとれた対応点探索処理が可能になる。
 《g2:対応点探索制御部17》
 対応点探索制御部17は、次に説明するような手順に従って、入力画像(基準画像および参照画像)の間の対応点探索処理を実行する。ここでは、上述のように、入力画像の解像度がVGA(640×480)であり、変換倍率を1/2、レイヤー数を4とした場合について説明する。
 図12は、本発明の実施の形態の変形例2に従う多重解像度を用いた粗密戦略の処理内用を説明するための図である。
 図12を参照して、例えば、レイヤー3において、基準画像上の座標(x3,y3)の画素に対応する参照画像上の座標(p3,q3)の画素が対応点探索によって算出されたとする。次に、レイヤー2において、の基準画像上の座標(x2,y2)の画素に対応する参照画像上の画素を求めるとき、レイヤー3における対応点探索の結果が利用される。具体的には、レイヤー3において求めた参照画像上の座標(p,q)の近傍に正解位置があるので、レイヤー2においては、レイヤー3での参照画像上の座標(p,q)をおよそ2倍にした座標の近傍にあると考えられる。そのため、レイヤー2における対応点探索の結果を利用して、次は、レイヤー1における参照画像上での正解位置のおよその位置を求める。このように、低解像度の結果を高解像度の初期位置になるように徐々に正解に近付けていく。このような探索方式は、一般に、多重解像度戦略、あるいは粗密戦略と称される。
 《g3:初期位置設定部18》
 初期位置設定部18は、上述した多重解像度戦略(粗密戦略)におけるレイヤー変更時の初期位置を設定する。
 図13は、本発明の実施の形態の変形例2に従う多重解像度を用いた粗密戦略において初期位置を設定する処理を説明するための図である。より具体的には、図13には、基準画像および参照画像のレイヤー2およびレイヤー3の一部を抜き出した図である。
 例えば、レイヤー3における基準画像上の座標(bx,by)の画素は、レイヤー2におけるにおける基準画像上の座標(BX,BY)、座標(BX+1,BY)、座標(BX,BY+1)、座標(BX+1,BY+1)の2×2の平均値として算出される。レイヤー3において、参照画像上の座標(bx,by)の画素は、参照画像上の座標(rx,ry)の画素に対応付けられたとする。初期位置設定部18は、レイヤー3における対応点探索の結果から、レイヤー2における対応点探索のための初期位置を参照画像側に設定する。この設定方法は、以下のように行なわれる。
 (RX,RY)=(2×rx,2×ry)
 (RX+1,RY)=(2×rx+1,2×ry)
 (RX,RY+1)=(2×rx,2×ry+1)
 (RX+1,RY+1)=(2×rx+1,2×ry+1)
 このように初期位置を設定することで、その設定精度をより正確にできる。なお、演算をより簡略化するために、(RX,RY)、(RX+1,RY)、(RX,RY+1)、(RX+1,RY+1)に対して、一律同じ初期位置(2×rx,2×ry)を与えるようにしてもよい。
 《g4:小括》
 本変形例によれば、対応点探索における探索範囲が制限されることなく、演算時間を短縮化できる。
 [H.適用例1]
 上述した本実施の形態およびその変形例に従う画像処理装置は、例えば、ステレオ計測に適用できる。より具体的には、ステレオカメラで対象物を撮像し、その撮像によって得られた画像間の対応付けの結果から、対象物の距離などを計測する。
 図14は、本発明の実施の形態に従う画像処理装置の適用例1を説明するための図である。図15は、図14に示すステレオ計測の原理を説明するための図である。
 図14を参照して、ステレオ計測においては、2台のカメラ(ステレオカメラ)で同時に対象物を撮像する。画像処理装置は、撮像によって得られた2枚の入力画像(基準画像および参照画像)に対して対応点探索処理を行なって、画像間の対応付けを行なう。さらに、画像処理装置は、三角測量の原理に基づいて、対応付け結果から対象物までの距離情報を取得する。
 図15に示すように、基準画像を生成する基準カメラと参照画像を生成する参照カメラとの対応点位置の差(視差)がΔdである場合には、対象物までの距離Dは、次式で算出される。
 D=fB/Δd
  但し、Bはカメラの基線長であり、fはカメラレンズの焦点距離である。
 さらに、対象物の3次元位置(X,Y,Z)は、次式で算出される。
 X=x×D/f
 Y=y×D/f
 Z=D
  但し、x,yは、基準画像上の注目画素の座標である。
 [I.適用例2]
 上述の適用例1においては、時間的に同時に撮像した画像間の対応付けを行なう例を説明したが、異なる時間で撮像された画像間の対応付けを行なってもよい。
 図16は、本発明の実施の形態に従う画像処理装置の適用例2を説明するための図である。図16に示すように、1台のカメラが時系列に画像を撮像するとともに、画像処理装置は、時間的に異なる2枚の画像の間で対応点探索処理を実行する。この対応付けの結果を用いて、対象物の時間的な移動の情報(動き情報)を算出し、それを表示する。例えば、図16に示すように、被写体がどの方向にどのような速度で移動しているかを視覚的に表現する。
 [J.利点]
 本実施の形態によれば、周波数分解を行なう際、周波数毎に計算に使用するウィンドウサイズを制限することで、演算時間の短縮化することができる。すなわち、より高い周波数については、周波数分解に用いる情報を低減することで、全体的な処理量を低減できる。特に、対応点探索処理に用いられる周波数分解は、演算負荷が高いので、本実施の形態に従う方法を採用することで、より効率的に演算負荷を低減できる。
 [K.別形態]
 本発明の実施の形態としては、以下のような態様を含む。
 本発明のある局面に従う対応点探索方法は、概略同等の2以上の画像を取得する画像取得ステップと、画像取得ステップにおいて取得された2以上の画像に対して、それぞれウィンドウを設定するステップと、設定した各ウィンドウに対して周波数分解を行なうことで位相情報を取出すステップと、取出した各位相情報の差を計算することで、画像取得ステップにおいて取得された2以上の画像の第1画像における点に対応する点を第2画像上から決定するステップと、周波数分解を行なう際、周波数毎に計算に使用する予め定められたウィンドウサイズに設定して、各周波数を算出するステップとを含む。
 好ましくは、少なくとも低い周波数に比べて高い周波数で使用するウィンドウサイズが同じか小さくなるように設定される。
 好ましくは、周波数毎に計算に使用するウィンドウサイズは、2のべき乗になるように小さくされる。
 好ましくは、周波数演算の前に行なう窓関数の畳み込み演算は、設定されたウィンドウサイズに合わせてそれぞれ実施される。
 好ましくは、取得したステレオ画像を複数の解像度に変換するステップと、粗密戦略に基づいて、各解像度で位相限定相関法による対応点探索を実行するステップとをさらに含む。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 11,12 カメラ、13 画像取得部、14 対応点探索部、15 周波数演算制御部、16 多重解像度画像生成部、17 対応点探索制御部、18 初期位置設定部、100,200 画像処理装置、102 CPU、104 RAM、106 ROM、108 ネットワークインターフェイス、110 補助記憶装置、112 対応点探索処理プログラム、114 処理対象画像、120,206 表示部、122,204 入力部、124 メモリーカードインターフェイス、126 メモリーカード、130 バス、141 基準ウィンドウ設定部、142 参照ウィンドウ設定部、143,144 フーリエ変換部、145,146 位相取出部、147 位相差算出部、148 逆フーリエ変換部、149 最大値選択部、202 画像処理エンジン、212,222 レンズ、214,224 イメージセンサー。

Claims (9)

  1.  第1画像と第2画像との間で対応点を探索する画像処理装置であって、
     前記第1画像および前記第2画像に対して、それぞれウィンドウを設定するウィンドウ設定手段と、
     設定されたそれぞれのウィンドウに含まれる画像に対して周波数分解を行なうことで位相情報を抽出する位相情報抽出手段と、
     それぞれのウィンドウから抽出された位相情報を比較することで、前記第1画像と前記第2画像との間の対応点を決定する対応点決定手段と、
     前記ウィンドウ設定手段に、周波数分解の計算に使用する周波数に応じて異なるサイズのウィンドウを設定させるウィンドウサイズ制御手段とを備え、
     前記ウィンドウサイズ制御手段は、前記ウィンドウ設定手段に、第1の周波数に対応して第1のサイズのウィンドウを設定させるとともに、前記第1の周波数より高い第2の周波数に対応して、前記第1のサイズよりも小さい第2のサイズのウィンドウを設定させる、画像処理装置。
  2.  前記ウィンドウサイズ制御手段は、周波数分解の計算に使用する周波数に応じて、ウィンドウのサイズを2のべき乗に沿って変更させる、請求項1に記載の画像処理装置。
  3.  前記ウィンドウサイズ制御手段は、周波数分解の計算に使用する周波数ごとにウィンドウのサイズを変更させる、請求項1に記載の画像処理装置。
  4.  前記ウィンドウサイズ制御手段は、周波数分解の計算に使用する周波数に応じて、ウィンドウのサイズを離散的に変更させる、請求項1に記載の画像処理装置。
  5.  前記ウィンドウサイズ制御手段は、周波数分解の計算に使用する周波数を低周波側と高周波側とに分けたときに、低周波側では細かくウィンドウのサイズを変更させ、高周波側では粗くウィンドウのサイズを変更させる、請求項1に記載の画像処理装置。
  6.  前記位相情報抽出手段は、ウィンドウに含まれる画像に対して窓関数による畳み込み演算を行なう手段を含み、
     前記窓関数は、ウィンドウのサイズに応じて設定される、請求項1~5のいずれか1項に記載の画像処理装置。
  7.  前記第1画像および前記第2画像を複数の解像度を有する画像に変換する解像度変換手段をさらに備え、
     前記対応点決定手段は、解像度の異なる画像についての対応点探索の結果を用いて、前記第1画像と前記第2画像との間の対応点を決定する、請求項1~6のいずれか1項に記載の画像処理装置。
  8.  第1画像と第2画像との間で対応点を探索する画像処理方法であって、
     前記第1画像および前記第2画像に対して、それぞれウィンドウを設定するウィンドウ設定ステップと、
     設定されたそれぞれのウィンドウに含まれる画像に対して周波数分解を行なうことで位相情報を抽出する位相情報抽出ステップと、
     それぞれのウィンドウから抽出された位相情報を比較することで、前記第1画像と前記第2画像との間の対応点を決定する対応点決定ステップとを含み、
     前記ウィンドウ設定ステップにおいて、周波数分解の計算に使用する第1の周波数に対応して第1のサイズのウィンドウを設定するとともに、前記第1の周波数より高い第2の周波数に対応して、前記第1のサイズよりも小さい第2のサイズのウィンドウを設定する、画像処理方法。
  9.  第1画像と第2画像との間で対応点を探索する画像処理プログラムであって、前記画像処理プログラムは、コンピューターに、
     前記第1画像および前記第2画像に対して、それぞれウィンドウを設定するウィンドウ設定ステップと、
     設定されたそれぞれのウィンドウに含まれる画像に対して周波数分解を行なうことで位相情報を抽出する位相情報抽出ステップと、
     それぞれのウィンドウから抽出された位相情報を比較することで、前記第1画像と前記第2画像との間の対応点を決定する対応点決定ステップと、
     前記ウィンドウ設定ステップにおいて、周波数分解の計算に使用する第1の周波数に対応して第1のサイズのウィンドウを設定するとともに、前記第1の周波数より高い第2の周波数に対応して、前記第1のサイズよりも小さい第2のサイズのウィンドウを設定する、画像処理プログラム。
PCT/JP2012/083562 2012-01-17 2012-12-26 画像処理装置、画像処理方法および画像処理プログラム WO2013108554A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013554220A JP6052186B2 (ja) 2012-01-17 2012-12-26 画像処理装置
US14/372,422 US9495611B2 (en) 2012-01-17 2012-12-26 Image processing apparatus, image processing method, and image processing program
CN201280067334.XA CN104054109A (zh) 2012-01-17 2012-12-26 图像处理装置、图像处理方法以及图像处理程序
EP12866284.8A EP2806397A4 (en) 2012-01-17 2012-12-26 PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-007319 2012-01-17
JP2012007319 2012-01-17

Publications (1)

Publication Number Publication Date
WO2013108554A1 true WO2013108554A1 (ja) 2013-07-25

Family

ID=48798990

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/083562 WO2013108554A1 (ja) 2012-01-17 2012-12-26 画像処理装置、画像処理方法および画像処理プログラム

Country Status (5)

Country Link
US (1) US9495611B2 (ja)
EP (1) EP2806397A4 (ja)
JP (1) JP6052186B2 (ja)
CN (1) CN104054109A (ja)
WO (1) WO2013108554A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062527A (ja) * 2017-08-31 2019-04-18 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド エッジ演算を用いる多カメラシステムでのリアルタイムの対象再識別
JP2021003884A (ja) * 2019-06-26 2021-01-14 ゼロックス コーポレイションXerox Corporation 印刷基材の光学的運動感知及びドットクロックの生成

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5110235B1 (ja) * 2011-06-27 2012-12-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム
JP6493163B2 (ja) * 2015-11-06 2019-04-03 オムロン株式会社 粗密探索方法および画像処理装置
CN105701840A (zh) * 2015-12-31 2016-06-22 上海极链网络科技有限公司 视频中多物体实时追踪系统及其实现方法
CN112602117A (zh) * 2019-03-14 2021-04-02 欧姆龙株式会社 图像处理装置和三维测量系统
CN110084298B (zh) * 2019-04-23 2021-09-28 北京百度网讯科技有限公司 用于检测图像相似度的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH047681A (ja) * 1990-04-25 1992-01-13 Toshiba Corp 画像処理装置
JPH0721387A (ja) * 1993-06-22 1995-01-24 Canon Inc 複数画像の対応点抽出法
JPH10134196A (ja) 1996-10-31 1998-05-22 Yamatake Honeywell Co Ltd 距離測定装置
JP2008145431A (ja) * 1996-12-15 2008-06-26 Cognitens Ltd 3次元表面形状再構築のための装置および方法
JP2011170519A (ja) * 2010-02-17 2011-09-01 Konica Minolta Holdings Inc 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH077461B2 (ja) * 1986-11-14 1995-01-30 コニカ株式会社 画像推定方法
US6148270A (en) 1996-10-30 2000-11-14 Yamatake-Honeywell Co., Ltd. Fast target distance measuring device and high-speed moving image measuring device
US6201541B1 (en) 1997-12-11 2001-03-13 Cognitens, Ltd. System and method for “Stitching” a plurality of reconstructions of three-dimensional surface features of object(s) in a scene defined relative to respective coordinate systems to relate them to a common coordinate system
KR100882529B1 (ko) * 2005-04-20 2009-02-06 삼성전자주식회사 광대역 무선통신시스템에서 피크 전력 대 평균 전력비를감소하기 위한 장치 및 방법
GB2435360B (en) * 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
US8164645B2 (en) * 2006-10-02 2012-04-24 Konica Minolta Holdings, Inc. Image processing apparatus, method of controlling image processing apparatus, and program for controlling image processing apparatus
JP4382797B2 (ja) * 2006-11-09 2009-12-16 株式会社山武 対応点探索方法および3次元位置計測方法
JP4883223B2 (ja) * 2009-01-09 2012-02-22 コニカミノルタホールディングス株式会社 動きベクトル生成装置および動きベクトル生成方法
EP2533541A4 (en) * 2010-02-02 2013-10-16 Konica Minolta Holdings Inc STEREO CAMERA
JP5110235B1 (ja) * 2011-06-27 2012-12-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH047681A (ja) * 1990-04-25 1992-01-13 Toshiba Corp 画像処理装置
JPH0721387A (ja) * 1993-06-22 1995-01-24 Canon Inc 複数画像の対応点抽出法
JPH10134196A (ja) 1996-10-31 1998-05-22 Yamatake Honeywell Co Ltd 距離測定装置
JP2008145431A (ja) * 1996-12-15 2008-06-26 Cognitens Ltd 3次元表面形状再構築のための装置および方法
JP2011170519A (ja) * 2010-02-17 2011-09-01 Konica Minolta Holdings Inc 画像処理装置、画像処理方法、およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"A Sub-Pixel Correspondence Search Technique for Computer Vision Applications", IEICE TRANSACTIONS. FUNDAMENTALS, vol. E87-A, no. 8, August 2004 (2004-08-01), pages 1913 - 1923
ATSUSHI UEMURA; IZUMI ITO; HITOSHI KIYA: "Subpixel Image Matching Using DCT Sign Correlation", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, IEICE TECHNICAL REPORT, IE, IMAGE ENGINEERING, vol. 107, no. 489, 12 February 2008 (2008-02-12), pages 77 - 82
See also references of EP2806397A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062527A (ja) * 2017-08-31 2019-04-18 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド エッジ演算を用いる多カメラシステムでのリアルタイムの対象再識別
JP7181728B2 (ja) 2017-08-31 2022-12-01 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド エッジ演算を用いる多カメラシステムでのリアルタイムの対象再識別
JP2021003884A (ja) * 2019-06-26 2021-01-14 ゼロックス コーポレイションXerox Corporation 印刷基材の光学的運動感知及びドットクロックの生成
JP7384746B2 (ja) 2019-06-26 2023-11-21 ゼロックス コーポレイション 印刷基材の光学的運動感知及びドットクロックの生成

Also Published As

Publication number Publication date
JPWO2013108554A1 (ja) 2015-05-11
EP2806397A1 (en) 2014-11-26
EP2806397A4 (en) 2015-11-04
US9495611B2 (en) 2016-11-15
US20150010240A1 (en) 2015-01-08
JP6052186B2 (ja) 2016-12-27
CN104054109A (zh) 2014-09-17

Similar Documents

Publication Publication Date Title
JP6052186B2 (ja) 画像処理装置
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP7058277B2 (ja) 再構成方法および再構成装置
US20170171525A1 (en) Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method
JP4941565B2 (ja) 対応点探索装置および対応点探索方法
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
CN103905746B (zh) 亚像素级图像偏移定位及叠加方法和装置以及视频设备
JP4631973B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP5747797B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN105809664B (zh) 生成三维图像的方法和装置
US20230401855A1 (en) Method, system and computer readable media for object detection coverage estimation
KR100943635B1 (ko) 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법
JP5924340B2 (ja) 対応点探索装置
JP5098369B2 (ja) 距離画像生成装置、距離画像生成方法及びプログラム
US11348271B2 (en) Image processing device and three-dimensional measuring system
Sellami et al. An invariant similarity registration algorithm based on the analytical fourier-mellin transform
JP6040782B2 (ja) 画像処理装置及びプログラム
JP2013101423A (ja) 画像マッチング装置及び画像マッチングプログラム
CN110651475A (zh) 用于致密光学流的阶层式数据组织
JP4985542B2 (ja) 対応点探索装置
Kumar et al. Dual tree fractional quaternion wavelet transform for disparity estimation
CN113808070A (zh) 一种双目数字散斑图像相关的视差测量方法
KR101804157B1 (ko) 개선된 sgm 기반한 시차 맵 생성 방법
JP5654956B2 (ja) 視差画像生成装置および視差画像生成プログラム
WO2013088872A1 (ja) 対応点探索方法、対応点探索装置および対応点探索プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866284

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013554220

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14372422

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012866284

Country of ref document: EP