WO2013088872A1 - 対応点探索方法、対応点探索装置および対応点探索プログラム - Google Patents

対応点探索方法、対応点探索装置および対応点探索プログラム Download PDF

Info

Publication number
WO2013088872A1
WO2013088872A1 PCT/JP2012/079111 JP2012079111W WO2013088872A1 WO 2013088872 A1 WO2013088872 A1 WO 2013088872A1 JP 2012079111 W JP2012079111 W JP 2012079111W WO 2013088872 A1 WO2013088872 A1 WO 2013088872A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
point
corresponding point
regions
search
Prior art date
Application number
PCT/JP2012/079111
Other languages
English (en)
French (fr)
Inventor
堀田 伸一
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Publication of WO2013088872A1 publication Critical patent/WO2013088872A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Definitions

  • the present invention relates to a corresponding point search method, a corresponding point search device, and a corresponding point search program for searching for corresponding points between images.
  • phase-only correlation method Phase-Only Correlation
  • POC method searches for corresponding points between images using phase information in a frequency space included in the images.
  • the following are known as prior arts related to such corresponding point search.
  • Non-Patent Document 1 discloses a technique in which two images are collimated and image association is performed using a one-dimensional POC. Furthermore, Non-Patent Document 1 also discloses a method for estimating a peak position (corresponding point) by extracting a set of a plurality of one-dimensional image signals from the vicinity of a reference point and integrating the results of their correlation calculation. .
  • Patent Document 1 checks the positional relationship between the adjacent block (A, B) of the first image and the corresponding area (a, b) of the second image corresponding to ( When a and b) are overlapped or separated, a low likelihood is calculated, an evaluation value is calculated by combining the calculated likelihood and the similarity of each block, and dynamic programming is further performed. A method for determining a corresponding position using the method is disclosed.
  • Patent Document 2 calculates the correlation between pixel values of two image blocks, ranks them according to the corresponding correlation values, and responds to the sum of the ranks. Disclosed is a method of finding a combination that minimizes the sum of a certain penalty according to the number of blocks without any.
  • JP 2011-028662 A Japanese Patent Laid-Open No. 04-299474
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide a corresponding point search method, a corresponding point search apparatus, and a corresponding point search program that reduce the calculation cost while maintaining accuracy. is there.
  • a corresponding point search method for searching for a corresponding point between the first image and the second image.
  • the corresponding point search method includes a region determination step of determining a plurality of two-dimensional first regions having a predetermined positional relationship with a target point, including or around the target point, for the target point included in the first image.
  • a search step for searching for a plurality of second regions in the second image respectively corresponding to the plurality of first regions based on the phase information for each of the plurality of first regions, a point of interest, and the plurality of first items
  • a corresponding point determining step for determining a corresponding point in the second image corresponding to the point of interest based on the positional relationship with the region and the positional relationship between the plurality of second regions.
  • a corresponding point search device that searches for a corresponding point between a first image and a second image.
  • Corresponding point search device for the attention point included in the first image, area determination means for determining a plurality of two-dimensional first areas having a predetermined positional relationship with the attention point including or around the attention point And search means for searching for a plurality of second regions in the second image respectively corresponding to the plurality of first regions based on the phase information for each of the plurality of first regions, a point of interest, and the plurality of first items
  • Corresponding point determination means for determining a corresponding point in the second image corresponding to the point of interest based on the positional relationship with the region and the positional relationship between the plurality of second regions.
  • a corresponding point search program for searching for corresponding points between the first image and the second image causes the computer to determine a plurality of two-dimensional first regions having a predetermined positional relationship with the target point, including or around the target point, for the target point included in the first image.
  • a determination step, a search step for searching for a plurality of second regions in the second image respectively corresponding to the plurality of first regions based on the phase information for each of the plurality of first regions, a point of interest and a plurality of points Based on the positional relationship with the first region and the positional relationship between the plurality of second regions, a corresponding point determining step for determining a corresponding point in the second image corresponding to the point of interest is executed.
  • calculation cost can be reduced while maintaining accuracy.
  • FIG. 1 It is a figure which shows the example of a setting of the small area
  • the embodiment of the present invention is directed to a corresponding point search method for searching for a corresponding point between a first image and a second image. That is, the plurality of images to be searched for corresponding points mean images that may include the same subject (a part thereof) in common, and may be three or more images. Such a plurality of images are typically obtained by imaging the same subject from different viewpoints using a plurality of imaging devices (cameras). More specifically, each image is obtained by imaging the same subject with a plurality of cameras arranged at a predetermined distance apart.
  • the first image is referred to as a “reference image” and the second image is referred to as a “reference image”.
  • the first image is referred to as a “reference image”
  • the second image is referred to as a “reference image”.
  • searching for corresponding points between three or more images any one of the images is set as a “reference image”, and an imaging device (camera) that captures the image is used for imaging the “reference image”. Set as the camera.
  • all other images are set as “reference images”, and an imaging device (camera) that captures the images is set as a camera for imaging “reference images”.
  • the corresponding point search method according to the present embodiment is typically directed to a process of searching for corresponding points between images captured in stereo to generate a stereoscopic image, but is not limited thereto. It can also be applied to panorama image generation processing. Further, the corresponding point search method according to the present embodiment can also be applied when searching for corresponding points between a plurality of images (dynamic images) arranged in time series.
  • This (standard / reference) corresponding point set information typically includes each pixel position (coordinate position of each target point) in the standard image and a pixel position in the reference image corresponding to each pixel position. including.
  • FIG. 1 is a diagram for describing an outline of a corresponding point search method according to the embodiment of the present invention.
  • a subject OBJ is captured by a pair of stereo cameras (a standard image capturing camera 2 and a reference image capturing camera 4) or the like, thereby a pair of images (a standard image 22 and a reference image 24).
  • a pair of stereo cameras a standard image capturing camera 2 and a reference image capturing camera 4
  • Corresponding points between images are searched by executing the following processing on the reference image 22 and the reference image 24.
  • a plurality of two-dimensional first regions that include the attention point 302 or around the attention point 302 and have a predetermined positional relationship with the attention point are determined ((1 ) Region determination).
  • a plurality of second regions in the reference image 24 corresponding to each of the plurality of first regions is respectively searched ((2) Search ). That is, a second area having phase information (details will be described later) that are the same as or similar to the first area is searched for in the reference image 24.
  • This search process is repeatedly executed for the set number of first areas. As a result, as shown in FIG. 1, a plurality of second regions corresponding to the plurality of first regions in the reference image 24 are determined.
  • the corresponding point 304 in the reference image 24 corresponding to the point of interest 302 is determined based on the positional relationship among the plurality of second regions ((3) corresponding point determination). More specifically, the position (coordinate) of the corresponding point is determined based on the position (coordinate) for each of the plurality of second regions. That is, the corresponding points are determined using a set of correspondence relationships between the first region and the second region (three types in the example shown in FIG. 1).
  • the corresponding point search processing by setting a plurality of regions in the image and performing corresponding point search for each region, it is possible to achieve faster corresponding points while maintaining a wide search range. Realize the search. That is, since the corresponding points are determined using a plurality of search results, the calculation cost can be reduced while maintaining the search range.
  • FIG. 2 is a block diagram showing a configuration when corresponding point search processing according to the embodiment of the present invention is realized by a personal computer.
  • an image processing apparatus 100 realized by a personal computer is mainly mounted on a computer having a general-purpose architecture.
  • an image processing apparatus 100 includes, as main components, a CPU (Central Processing Unit) 102, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 106, and a network interface (I / F). ) 108, auxiliary storage device 110, display unit 120, input unit 122, and memory card interface (I / F) 124. Each component is communicably connected to each other via a bus 130.
  • the CPU 102 controls the entire image processing apparatus 100 by executing various programs such as an operating system (OS) and a corresponding point search processing program stored in the ROM 106, the auxiliary storage device 110, and the like.
  • the RAM 104 functions as a working memory for executing a program by the CPU 102, and temporarily stores various data necessary for executing the program.
  • the ROM 106 stores an initial program (boot program) that is executed when the image processing apparatus 100 is started.
  • the network interface 108 exchanges data with other devices (such as server devices) via various communication media. More specifically, the network interface 108 is connected via a wired line such as Ethernet (registered trademark) (LAN (Local Area Network), WAN (Wide Area Network), etc.) and / or a wireless line such as a wireless LAN. Perform data communication.
  • a wired line such as Ethernet (registered trademark) (LAN (Local Area Network), WAN (Wide Area Network), etc.) and / or a wireless line such as a wireless LAN. Perform data communication.
  • the auxiliary storage device 110 typically includes a large-capacity magnetic storage medium such as a hard disk, and the like, a corresponding point search processing program 112 for realizing various processes according to the present embodiment, a processing target image 114, and the like. Is stored. Further, the auxiliary storage device 110 may store a program such as an operating system.
  • the processing target image 114 includes two images to be processed.
  • the main body of the image processing apparatus 100 may not have a function of capturing an image of a subject.
  • two images may be acquired using a mechanism similar to a digital camera as will be described later, and these images may be input to the image processing apparatus 100 by an arbitrary method. More specifically, an image is input to the image processing apparatus 100 via the network interface 108 and the memory card interface 124 described above.
  • the display unit 120 displays a GUI (Graphical User Interface) screen provided by the operating system, an image generated by executing the corresponding point search processing program 112, and the like.
  • the display unit 120 stereoscopically displays the subject using a stereoscopic image generated from (point / reference) corresponding point set information obtained by executing the corresponding point search processing program 112.
  • the display unit 120 is configured by an arbitrary display device that supports a three-dimensional display method. As such a three-dimensional display method, a parallax barrier method or the like can be employed.
  • the right eye image can be visually recognized by the user's right eye
  • the left eye image can be visually recognized by the user's left eye.
  • a shutter glasses method may be adopted.
  • the left eye image and the right eye image are alternately switched at high speed and displayed, and the user wears special glasses equipped with a shutter that opens and closes in synchronization with the switching of the image. , You can enjoy stereoscopic display.
  • the input unit 122 typically includes a keyboard, a mouse, a touch panel, and the like, and outputs the content of the instruction received from the user to the CPU 102 or the like.
  • the memory card interface 124 reads / writes data from / to various memory cards (nonvolatile storage media) 126 such as an SD (Secure Digital) card and a CF (Compact Flash (registered trademark)) card.
  • memory cards nonvolatile storage media
  • the memory card interface 124 is loaded with a memory card 126 storing a processing target image acquired by any device, and the processing target image read from the memory card 126 is stored in the auxiliary storage device 110 ( Copied).
  • the corresponding point search processing program 112 stored in the auxiliary storage device 110 is stored in a storage medium such as a CD-ROM (Compact Disk-Read Only Memory) or distributed, or distributed from a server device or the like via a network.
  • the corresponding point search processing program 112 implements processing by calling necessary modules among program modules provided as part of an operating system executed by the image processing apparatus 100 (personal computer) at a predetermined timing and order. You may do it.
  • the corresponding point search processing program 112 itself does not include a module provided by the operating system, and image processing is realized in cooperation with the operating system.
  • the corresponding point search processing program 112 may be provided by being incorporated in a part of some program instead of a single program.
  • the corresponding point search processing program 112 itself does not include a module that is commonly used in any program, and image processing is realized in cooperation with the program. Even such a corresponding point search processing program 112 that does not include some modules does not depart from the spirit of the image processing apparatus 100 according to the present embodiment.
  • some or all of the functions provided by the corresponding point search processing program 112 may be realized by dedicated hardware.
  • FIG. 3 is a block diagram showing a configuration when corresponding point search processing according to the embodiment of the present invention is realized by a configuration similar to a digital camera.
  • the image processing apparatus 200 acquires two processing target images by actually capturing a subject, and executes corresponding point search processing on the acquired processing target images.
  • the image processing apparatus 200 includes an image processing engine 202, an input unit 204, a display unit 206, a pair of lenses 212 and 222, and a pair of CCD (Charge Coupled Device) image sensors 214 and 224 as main components. .
  • CCD Charge Coupled Device
  • the image processing engine 202 executes various digital processes including corresponding point search processing according to the present embodiment.
  • the image processing engine 202 includes DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), LSI (Large Scale Integration), FPGA (Field-Program), and the like.
  • the input unit 204 typically includes various key buttons, a touch panel, and the like, and outputs the contents of instructions received from the user to the image processing engine 202.
  • the display unit 206 displays a user interface screen relating to imaging of a subject.
  • the display unit 206 stereoscopically displays the subject using a stereoscopic image generated from (point / reference) corresponding point set information obtained by the image processing engine 202.
  • the display unit 206 is configured by an arbitrary display device corresponding to the three-dimensional display method, similarly to the display unit 120 (FIG. 2) described above.
  • the pair of lenses 212 and 222 are provided at different positions of the main body of the image processing apparatus 200, and can image the subject from different viewpoints. That is, different reflected lights from the subject are incident on the pair of lenses 212 and 222, respectively.
  • the pair of CCDs 214 and 224 are associated with the pair of lenses 212 and 222, respectively, receive light (image) from the subject condensed by the lenses 212 and 222, and receive an electrical signal indicating the image as an image. Output to the processing engine 202.
  • FIG. 4 is a block diagram showing a functional configuration of the corresponding point search device according to the embodiment of the present invention.
  • the corresponding point search device according to the present embodiment includes a corresponding point search unit 10 as its main functional configuration.
  • Corresponding point search unit 10 searches for corresponding points between both images in response to the input of base image 22 and reference image 24. As a search result of the corresponding points, (reference / reference) corresponding point set information 26 is output. As described above, the (reference / reference) corresponding point set information 26 typically includes each pixel position (coordinate position of each target point) in the reference image 22 and a reference corresponding to each pixel position. Pixel positions in the image 24.
  • the corresponding point searching unit 10 includes an attention point selecting unit 11, a small region determining unit 12, a corresponding region searching unit 13, and a corresponding point position determining unit 14. These functional configurations are realized by the CPU 102 executing the corresponding point search processing program in the image processing apparatus 100 shown in FIG. 2, and realized by the image processing engine 202 in the image processing apparatus 200 shown in FIG. The
  • the attention point selection unit 11 selects an attention point that is a target of the corresponding point search from the pixels included in the reference image 22. Basically, since the attention point is set in units of pixels, one of the pixels included in the reference image 22 is sequentially set as the “attention point”. However, according to the corresponding point search method according to the present embodiment, it is possible to set a point of interest independently of the pixel arrangement.
  • the small area determination unit 12 determines a plurality of two-dimensional small areas including the attention point 302 or around the attention point 302 and having a predetermined positional relationship with the attention point. Details of the processing in the small area determination unit 12 will be described later.
  • the corresponding area search unit 13 searches for the small areas in the reference image 24 corresponding to each of the plurality of small areas based on the phase information for each of the plurality of small areas. Details of the processing in the corresponding area search unit 13 will be described later.
  • the corresponding point position determination unit 14 determines the corresponding point in the reference image 24 corresponding to the point of interest based on the positional relationship of the plurality of small regions in the reference image 24 searched by the corresponding region search unit 13. Details of the processing in the corresponding point position determination unit 14 will be described later.
  • FIG. 5 is a diagram for describing processing contents of small region determining unit 12 in the corresponding point search method according to the embodiment of the present invention.
  • FIG. 6 is a diagram for illustrating the preprocessing contents in the corresponding point search method according to the embodiment of the present invention.
  • FIG. 7 is a diagram showing a small area setting example in the corresponding point search method according to the embodiment of the present invention.
  • the small region determination unit 12 determines a plurality of corresponding region searching small regions around the attention point.
  • the attention point is represented as a circle, and the small area is represented as a hatched area.
  • a method of setting a small region for searching for corresponding points a method of setting a search window having a predetermined size around the attention point and dividing the set search window into a plurality of small regions can be adopted.
  • a method of selecting a plurality of unit areas located around the selected attention point as small areas for searching for corresponding points may be adopted. More specifically, as shown in FIG. 6, a plurality of unit areas are set in a grid pattern in the reference image 22. By selecting some unit areas from among the plurality of unit areas set in this way, it is determined as a small area for corresponding point search associated with the point of interest. That is, the small region determination unit 12 selects, as a plurality of small regions, a unit region that includes the attention point or exists around the attention point among a plurality of two-dimensional unit regions that are set in advance in the reference image 22.
  • FIG. 7 various methods can be adopted as examples of arrangement of the small areas for searching for corresponding points determined by the small area determining unit 12.
  • the attention point is represented as a hatched region
  • the small region is represented as a region surrounded by a thick frame.
  • a certain small region may be determined so that the attention point is substantially in the center, and a small region may be further determined adjacent to the determined small region.
  • the size of the small region is a square of 8 pixels ⁇ 8 pixels. If the unit area is preset as shown in FIG. 6, a small area including the attention point is selected from these preset unit areas, and a small area adjacent to the selected small area is selected. A plurality of small regions for searching for corresponding points as shown in FIG. 7A may be determined by further selecting a region. In this case, depending on the positional relationship between the unit area and the point of interest, the point of interest may not be substantially at the center of the small region.
  • the plurality of small regions determined around the attention point may be arranged in consideration of the parallax direction generated between the standard image 22 and the reference image 24.
  • the small regions are arranged corresponding to the case where the standard image capturing camera 2 and the reference image capturing camera 4 are separated in the horizontal direction on the paper surface. In the following description, the description is made assuming a configuration in consideration of such occlusion.
  • a plurality of small regions that are long in the generated parallax direction may be determined.
  • the size of the small area is 32 pixels in the horizontal direction (parallax direction) on the paper surface and 2 pixels in the vertical direction on the paper surface.
  • the small areas may be arranged in a direction (vertical direction in the drawing) intersecting with the parallax direction.
  • a plurality of small regions may be determined in a grid pattern at a position close to.
  • the size of the small area is a square of 8 pixels ⁇ 8 pixels, and is two pixels in which two small areas are arranged in the horizontal direction and the vertical direction on the paper.
  • the small area determination unit 12 determines a plurality of corresponding point search small areas to be arranged in a direction in which parallax occurs. More specifically, the small region determination unit 12 arranges a plurality of small regions for searching for corresponding points in any one of a vertical direction, a horizontal direction, and a lattice shape.
  • the corresponding area search unit 13 searches for a corresponding small area in the reference image 24 for each small area determined on the standard image 22.
  • a search method a method using phase information obtained by frequency conversion (typically, Fourier transform) is used.
  • a phase-only correlation method Phase-Only Correlation; POC method
  • a phase shift analysis method Phase Shift Analyzing; PSA method
  • a configuration using the POC method is assumed.
  • the corresponding region search unit 13 determines a similar small region at the same position as the corresponding point search small region determined in the reference image 22 in the reference image 24, and uses the POC method. The amount of positional deviation is calculated.
  • the POC value (peak value) calculated by the POC method is smaller than a predetermined value
  • another small region is determined adjacent to the currently determined small region in the reference image 24.
  • the same determination process as described above is performed for the determined other small area.
  • This determination process is repeated to determine a small region having the maximum POC value, calculate a positional deviation amount from the peak position of the POC value, and determine a small region shifted by the positional deviation amount as a corresponding region.
  • another small region is determined adjacent to the currently determined small region.
  • one pixel or a predetermined number of pixels is sequentially selected. The next small region may be determined by shifting each step.
  • processing related to the corresponding area search the following processing may be additionally / alternatively performed.
  • phase information after Fourier transform is calculated in advance and the result is held for each unit region. . Then, using these held results (phase information), a corresponding area search is performed by the POC method.
  • FIG. 8 is a diagram for explaining the reuse of the phase information in the corresponding area search unit 13.
  • FIG. 8A is a diagram for explaining processing of a general POC method
  • FIG. 8B is a diagram for explaining processing for reusing phase information calculated in advance. .
  • amplitude information and phase information are respectively calculated by performing Fourier transform (typically, Fast Fourier Transform (FFT)) for small regions set in the standard image 22 and the reference image 24, respectively. Is done. Since phase information is used in the POC method, phase difference information is calculated by comparing the phase information calculated for each small area. Then, the POC value is calculated from the calculated phase difference information. This POC value is an index representing the similarity between small areas.
  • Fourier transform typically, Fast Fourier Transform (FFT)
  • FFT Fast Fourier Transform
  • the calculation process of the amplitude information and the phase information for the small area shown in FIG. 8A is repeated every time the small area is determined.
  • phase information (calculated FFT results) of a plurality of unit areas is prepared, and the reference image 22 and the reference are referenced.
  • the phase information is calculated and the POC value is calculated after reading out the corresponding phase information.
  • the unit region is sequentially selected as a target small region for which the POC value is calculated in the corresponding point search. That is, in this case, the corresponding area search unit 13 searches for a corresponding small area using phase information of a plurality of unit areas set in advance in the reference image 24. At this time, since the phase information is also calculated in advance for the unit area set in the reference image 24, by reusing these phase information, the Fourier transform is executed one by one every time a small area is determined / changed. Can be omitted.
  • the unit region setting and the phase information pre-calculation shown in FIG. 6 described above are performed not only on the reference image 22 but also on the reference image 24 in the same manner.
  • the amount of calculation (calculation cost) can be further reduced and the calculation time can be shortened.
  • phase information by reusing the phase information, it is possible to omit the Fourier transform from being executed every time a small region is determined / changed. Thereby, the amount of calculation (calculation cost) can be reduced and the calculation time can be shortened.
  • E2 Unit area overlap setting
  • the unit areas set in advance in the standard image 22 and / or the reference image 24 may be determined so as to overlap each other.
  • the accuracy of the search result for pixels near the boundary between the unit region and the unit region may deteriorate. . Therefore, by setting the unit area so as to cross the unit area and adding it to the corresponding area search target, it is possible to avoid the deterioration of the accuracy of the corresponding area search at the position as described above.
  • FIG. 9 is a diagram showing another example of determining a small area in the corresponding area searching method.
  • the first group unit areas (solid lines) are arranged in a grid pattern
  • the second group unit areas (broken lines) are arranged in a grid pattern at positions that do not overlap with the first group unit areas. Be placed.
  • the unit areas of the first group and the second group can be arbitrarily selected as small areas without distinction between the groups.
  • 10 and 11 are diagrams for explaining the limitation of the search range in the corresponding area search method. 10 and 11 will be described using an example in which parallax occurs in the right direction.
  • the corresponding small region in the reference image 24 has already been searched.
  • the search range is limited as if it exists at the same position as the region or on the right side of it. That is, as shown by the arrows, the search range is a range on the right side of the small region in the reference image 24 corresponding to the small region on the left end, and the left range is not searched.
  • the search cost can be reduced by limiting the search range in this way.
  • the leftmost small region among the plurality of corresponding point search small regions determined on the base image 22 is the same as that in the reference image 24. Assume that the corresponding small area has been searched.
  • the search processing subsequent to this state in FIG. 11B, when searching for a small region corresponding to a small region located right next to the small region at the left end, as illustrated by an arrow, Alternatively, the search may be performed only on the small area immediately adjacent to the small area in the reference image 24 corresponding to the leftmost small area and only the small area adjacent to the small area. The search cost can be reduced by limiting the search range in this way.
  • the subsequent search process can be optimized using an arbitrary rule using the previous search result.
  • the corresponding region search unit 13 searches for a small region in the reference image 24 corresponding to one small region among the plurality of corresponding point search small regions determined on the reference image 22.
  • the search range of the small area in the reference image 24 is based on the position between the small areas previously searched. May be restricted.
  • the corresponding point position determination unit 14 includes the positional relationship between each small region and the point of interest determined on the base image 22 by the small region determination unit 12 and the reference image 24 acquired by the corresponding region search unit 13. The position of the corresponding point in the reference image 24 corresponding to the point of interest in the standard image 22 is determined based on the positional relationship of the corresponding small regions.
  • corresponding point position determination unit 14 uses the respective positions of the plurality of small areas searched for corresponding to the plurality of small areas determined on the reference image 22 to perform interpolation calculation and voting calculation.
  • Corresponding points in the reference image 24 are determined based on any one of average value / median value calculation, consistency between adjacent regions, and weighted average calculation. Details of each logic will be described below.
  • FIG. 12 is a diagram for explaining the processing content of the interpolation calculation used for determining the corresponding point position.
  • the positional relationship between the small region determined as the standard image 22 and the small region searched in the reference image 24 is indicated by a black circle ( ⁇ ), and the positional relationship between the target point and the corresponding point is cross ( ⁇ ) Mark.
  • black circle
  • cross
  • the position of the small region here, for example, the center of the small region can be used.
  • a polynomial such as an Nth order function, a spline function, or the like can be used.
  • the horizontal axis and the vertical axis indicate the position of the attention point and the small area, and the corresponding point and the position of the corresponding small area, respectively.
  • One of the coordinates (X coordinate or Y coordinate) of the (XY space) is indicated. Therefore, in order to obtain the two-dimensional coordinates of the corresponding point, the same processing may be performed for the other two-dimensional coordinates.
  • the corresponding point is shifted only in the parallax direction, only the coordinates in the parallax direction need be obtained.
  • voting calculation Next, the voting calculation will be described.
  • two combinations of the position of the small area determined on the standard image 22 and the position of the small area searched in the reference image 24 corresponding to the small area (corresponding small area position) are extracted. Then, it is expressed as a line format (linear function) connecting the two. This line format is obtained for all combinations and voted on a voting space whose coordinates are slope and intercept. As a result of this voting, the line format with the largest number of votes is determined. The determined line format is adopted, and the position in the reference image 24 corresponding to the position of the point of interest is calculated. The calculated position is determined as the corresponding point position.
  • FIG. 13 is a diagram for explaining the processing contents of the voting calculation used for determining the corresponding point position.
  • the positional relationship between the small area determined as the standard image 22 and the corresponding small area searched in the reference image 24 is represented by a black circle ( ⁇ ) or a white circle ( ⁇ ), and the attention point and the corresponding point The positional relationship is indicated by a cross (x) mark.
  • FIG. 14 is a diagram for explaining the processing contents of the average value / median value calculation used for determining the corresponding point positions.
  • the positional relationship between the small region determined as the standard image 22 and the corresponding small region searched in the reference image 24 is represented by black circles ( ⁇ ), and the positional relationship between the target point and the corresponding point is cross ( X) Expressed with a mark.
  • the two outermost small regions and the corresponding small regions Pairs are selected and the average position for these selected pairs is calculated.
  • the average position is also a middle point between the corresponding small areas.
  • the average position may be determined as the position of the corresponding point as it is, but more preferably, the position of the corresponding small area closest to the average position (# 2 in the example in the figure) is determined as the position of the corresponding point. .
  • the parallax amounts in a plurality of small regions in the corresponding reference image 24 are calculated, the median value between the parallax amounts is calculated, and the same position as the point of interest in the reference image 24 is calculated.
  • the parallax median value may be added together and determined as the corresponding point position.
  • FIG. 15 and FIG. 16 are diagrams for explaining consistency between adjacent regions used for determining corresponding point positions.
  • the left and right small regions adjacent to the attention point correspond to the same corresponding small region in the reference image 24.
  • the point on the subject corresponding to the point of interest determined on the base image 22 obtained from the base image capturing camera 2 is an imaging condition of the reference image 24. Below, it may occur when it is on the side of the wall and is not visible from the reference image capturing camera 4. In such a case, when the amount of parallax between the position of the small region and the corresponding position of the corresponding small region is checked, the distribution of the amount of parallax is divided into two.
  • the voting destinations in the voting space are divided into two places, and there are a plurality of line formats for obtaining a predetermined number of votes. In this case, it may be determined that the corresponding point does not exist in the reference image 24 and the corresponding point is not set.
  • the weighted average calculation will be described. That is, the corresponding point position determination unit 14 is based on the weighted average calculation for the positions of the plurality of small areas searched for corresponding to the plurality of corresponding point search small areas determined on the reference image 22. Then, corresponding points in the reference image 24 are determined. At this time, the weighting in the weighted average calculation is determined equally among a plurality of small regions in the reference image 24, or is determined so as to decrease as the distance from the attention point increases.
  • the corresponding point is calculated by a weighting operation at the time of the weighted average as follows. That is, if the position of the point of interest is P b , the position of the corresponding point is P r , the position of the small area A b i , the position of the corresponding small area A r i , and the weight of the correspondence is W i , the weighted average calculation
  • the determination formula for the corresponding point position is as follows.
  • the position A of the small area at the position P b of the target point is determined so that the position of the corresponding point P r can be obtained by the weighted average calculation of the position A r i of the corresponding small area. It is based on the premise that you have to determine the b i. For example, in the reference image, a plurality of pairs of small regions that are symmetrical (equal distance) with respect to the point of interest may be determined.
  • a small area whose evaluation value at the time of searching for a corresponding area is equal to or less than a predetermined value may be excluded from the target for determining corresponding points.
  • FIG. 17 is a diagram for explaining a small area exclusion process used for determining the corresponding point position.
  • a plurality of corresponding small areas corresponding to the plurality of small areas determined on the reference image 22 have been searched, and the evaluation value at the time of searching for the corresponding area for the small area at the right end ( Typically, it is assumed that the POC value is low (reference numeral 354).
  • the evaluation value at the time of searching the corresponding area for the small area on the left side is high (reference numeral 352).
  • the calculated evaluation value is equal to or less than a predetermined threshold value, it can be determined that the reliability of the correspondence relationship for this small region is low.
  • the small area with low reliability is excluded from the target data, and corresponding point determination processing is performed.
  • the positions of corresponding points can be determined more stably. That is, only a small region whose evaluation value at the time of searching for a corresponding region is equal to or greater than a predetermined threshold is used for determining a corresponding point in the reference image 24.
  • the corresponding point position determination unit 14 excludes the corresponding small region whose evaluation value related to the search is equal to or less than a predetermined threshold from the small region used for determining the corresponding point in the reference image 24.
  • FIG. 18 is a flowchart showing the overall procedure of the corresponding point search method.
  • the description will focus on the case where unit areas are set in advance in the base image 22 and / or the reference image 24 and the phase information of each unit area is calculated.
  • Each step shown in FIG. 18 is typically realized by the CPU 102 (FIG. 2) executing the corresponding point search processing program 112.
  • CPU 102 acquires standard image 22 and reference image 24 (step S100).
  • a pair of stereo images acquired by capturing the subject OBJ with a pair of stereo cameras are input.
  • This preprocessing is for reducing the amount of calculation (calculation cost). That is, the CPU 102 (corresponding point search unit 10) sets a plurality of unit regions in the acquired standard image 22 and / or reference image 24 (step S102). Subsequently, the CPU 102 (corresponding point search unit 10) calculates phase information for each set unit region (step S104). The CPU 102 (corresponding point search unit 10) stores the calculated phase information of each unit region (step S106). Thus, the preprocessing is completed. This preprocessing is not performed when no unit area is set in the standard image 22 and / or the reference image 24.
  • CPU 102 (attention point selection unit 11) sets an attention point in the reference image 22 (step S110). Subsequently, the CPU 102 (small area determination unit 12) determines a plurality of small areas including or around the attention point in the reference image 22 (step S112). The plurality of small areas are determined by selecting from the unit areas determined in S102. The CPU 102 (corresponding region search unit 13) selects one small region from the plurality of small regions determined in step S112 (step S114), and based on the phase information of the selected small region, A corresponding corresponding small area is searched (step S116). The position information (for example, the center position) of the corresponding small area in the searched reference image 24 is stored. Note that, as described with reference to FIG. 10, it is desirable to limit the search range when there is a previously searched result.
  • the CPU 102 determines whether or not searching for the corresponding small area for all of the plurality of small areas determined on the reference image 22 has been completed (step S118). If the search for the corresponding area for all of the plurality of small areas determined on the reference image 22 has not been completed (NO in step S118), the CPU 102 (corresponding area search unit 13) in step S112. Another small region is selected from the determined plurality of small regions (step S120), and the processing after step S116 is executed again.
  • CPU 102 (corresponding point position determination unit 14) is searched. Based on the positional relationship between the corresponding small regions and the positional relationship between the attention point and the small region, the corresponding point in the reference image 24 corresponding to the attention point is determined (step S122). The pixel position (coordinate position) of the target point set on the standard image 22 and the pixel position (coordinate position) of the corresponding point in the reference image 24 are output as (standard / reference) corresponding point set information 26. Stored in the memory (RAM 104).
  • the CPU 102 determines whether or not the search process for all the attention points to be set in the reference image 22 has been completed (step S124).
  • step S124 When the attention point to be set remains in the reference image 22 (NO in step S124), the CPU 102 (attention point selection unit 11) sets another attention point in the reference image 22 (step S126). ), The process from step S112 is executed again.
  • the CPU 102 (corresponding point search unit 10) stores all attention points in the memory (RAM 104). (Reference / reference) corresponding point set information 26 is stored and can be output for the next processing (step S128).
  • calculation cost As a reduction in calculation amount (calculation cost), it can be estimated as follows. More specifically, the basis for reducing the calculation cost in the Fourier transform by increasing the size of the search window can be calculated as follows.
  • the calculation cost of the two-dimensional Fourier transform when the search window is N pixels ⁇ N pixels can be calculated as 2N 2 ⁇ log 2 (N).
  • the calculation cost can be expressed as 2 2k + 1 ⁇ k.
  • the search window (N pixels ⁇ N pixels) is composed of, for example, four search windows of N / 2 pixels ⁇ N / 2 pixels, the calculation cost of the two-dimensional Fourier transform is 2 2k + 1 ⁇ (k ⁇ 1 ).
  • a unit region is set in the standard image 22 and the reference image 24, phase information for each unit region is calculated in advance, and a method of reusing them is adopted, whereby a Fourier transform process is performed. It is no longer necessary to perform each step, and the calculation cost can be further reduced.
  • Embodiments of the present invention include the following aspects.
  • a plurality of small regions are determined around the pixel of interest of the standard image (small region determination unit 12), and the corresponding region in the reference image is searched using the phase information for each small region (corresponding region).
  • the search unit 13 determines a corresponding point in the reference image corresponding to the target pixel of the reference image based on the positions of the plurality of small regions and the corresponding small regions (corresponding point position determining unit 14).
  • the reference image is divided into unit areas in advance, and the corresponding points are searched by combining the unit areas around the target pixel.
  • the unit area in advance the calculation result by the Fourier transform can be reused, and the calculation cost can be further reduced.
  • phase information is calculated in advance for a unit area, and calculation is performed based on this phase information when searching for corresponding points.
  • the corresponding small area is searched for one small area, and another small area is searched based on the positional relationship with the small area.
  • the search range at the time of searching for the corresponding small area corresponding to the area is limited. Such limitation of the search range can reduce the range to be searched, thereby further reducing the calculation cost.
  • the correspondence relation regarding these small areas is not used when determining the corresponding point position.
  • higher robustness can be maintained.
  • Standard image capturing camera 4 Reference image capturing camera, 10 Corresponding point search unit, 11 Attention point selection unit, 12 Small region determination unit, 13 Corresponding region search unit, 14 Corresponding point position determination unit, 22 Standard image, 24 Reference image, 26 (standard / reference) corresponding point set information, 100, 200 image processing device, 102 CPU, 104 RAM, 106 ROM, 108 network interface, 110 auxiliary storage device, 112 corresponding point search processing program, 114 processing target image 120, 206 display unit, 122, 204 input unit, 124 memory card interface, 126 memory card, 130 bus, 202 image processing engine, 212, 222 lens, 214, 224 image sensor, OBJ subject.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

 第1画像と第2画像との間で対応点を探索する対応点探索方法が提供される。対応点探索方法は、第1画像に含まれる注目点について、注目点を含むまたは注目点の周辺に、注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定ステップ(S112)と、複数の第1領域の各々についての位相情報に基づいて、複数の第1領域とそれぞれ対応する第2画像中の複数の第2領域を探索する探索ステップ(S116)と、複数の第2領域の位置関係に基づいて、注目点に対応する第2画像中の対応点を決定する対応点決定ステップ(S122)とを含む。

Description

対応点探索方法、対応点探索装置および対応点探索プログラム
 本発明は、画像間の対応点を探索する対応点探索方法、対応点探索装置および対応点探索プログラムに関する。
 従来から、例えば、同一の被写体を複数の撮像装置を用いて撮像することで得られる複数の画像に対して、当該被写体のある部分がそれぞれの画像上でいずれの位置に存在するのかといった、画像間の対応点を探索する技術が各種提案されている。このような対応点探索に係る技術は、典型的には、ステレオ画像を用いた立体視表示などの実現に利用される。
 このような画像間の対応点を探索する処理では、各種の方法が採用される。一例として、位相限定相関法(Phase-Only Correlation;以下、「POC法」とも称す。)がよく知られている。このPOC法は、画像に含まれる周波数空間の位相情報を用いて、画像間の対応点を探索する。このような対応点探索に係る先行技術としては、以下のようなものが知られている。
 非特許文献1は、2枚の画像を平行化した後、1次元POCを用いて画像の対応付けを行う技術を開示する。さらに、非特許文献1は、複数の1次元画像信号の組を基準点の近傍から抽出し、それらの相関計算の結果を統合することによってピーク位置(対応点)の推定を行なう方法も開示する。
 また、特開2011-028662号公報(特許文献1)は、第1画像の隣接ブロック(A,B)と対応する第2画像の対応領域(a,b)との位置関係をチェックし、(a,b)が重なっていたり、離れていたりする場合には低い尤度を算出し、この算出した尤度と各ブロックの類似度とを合わせて評価値を計算し、さらに動的計画法を用いて対応位置を決定する方法を開示する。
 さらに、特開平04-299474号公報(特許文献2)は、2つの画像のブロック同士の画素値の相関を計算し、その対応の相関値による順位付けを行い、順位の和に対して、対応のないブロックの数に応じた一定のペナルティを加えたものが最小になる対応を組み合わせを求めることを開示する。
特開2011-028662号公報 特開平04-299474号公報
柴原,青木,中島,小林、「1次元位相限定相関法に基づくステレオ画像のサブピクセル対応付け手法」、電子情報通信学会第21回信号処理シンポジウム、京都、2006年11月15-17日
 例えば、POC法を用いて、異なる視点から撮像された複数の画像の間で対応点を探索することを考えると、画像間に生じる視差の量に依存して探索窓の大きさを決定する必要がある。すなわち、相対的に大きな視差を生じる部分について対応点を探索する場合、より大きな探索窓を設定する必要がある。しかしながら、単純に大きな探索窓を設定した場合には、より多くの計算量(計算コスト)が必要になってしまう。これに対して、小さな探索窓を設定することで、処理の高速化を図ることもできるが、この場合には、大きい視差を生じる部分についての対応点探索を適切に行なうことができないなど、探索結果の精度を低下させる。
 しかしながら、上述したいずれの先行技術についても、上述のような探索窓の大きさに伴う課題を解決するための教示ないし示唆は存在しない。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、精度を維持しながら計算コストを低減する対応点探索方法、対応点探索装置および対応点探索プログラムを提供することである。
 本発明のある局面に従えば、第1画像と第2画像との間で対応点を探索する対応点探索方法が提供される。対応点探索方法は、第1画像に含まれる注目点について、注目点を含むまたは注目点の周辺に、注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定ステップと、複数の第1領域の各々についての位相情報に基づいて、複数の第1領域とそれぞれ対応する第2画像中の複数の第2領域を探索する探索ステップと、注目点と複数の第1領域との位置関係および複数の第2領域の位置関係に基づいて、注目点に対応する第2画像中の対応点を決定する対応点決定ステップとを含む。
 本発明の別の局面に従えば、第1画像と第2画像との間で対応点を探索する対応点探索装置が提供される。対応点探索装置は、第1画像に含まれる注目点について、注目点を含むまたは注目点の周辺に、注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定手段と、複数の第1領域の各々についての位相情報に基づいて、複数の第1領域とそれぞれ対応する第2画像中の複数の第2領域を探索する探索手段と、注目点と複数の第1領域との位置関係および複数の第2領域の位置関係に基づいて、注目点に対応する第2画像中の対応点を決定する対応点決定手段とを含む。
 第1画像と第2画像との間で対応点を探索する対応点探索プログラムが提供される。対応点探索プログラムはコンピューターに、第1画像に含まれる注目点について、注目点を含むまたは注目点の周辺に、注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定ステップと、複数の第1領域の各々についての位相情報に基づいて、複数の第1領域とそれぞれ対応する第2画像中の複数の第2領域を探索する探索ステップと、注目点と複数の第1領域との位置関係および複数の第2領域の位置関係に基づいて、注目点に対応する第2画像中の対応点を決定する対応点決定ステップとを実行させる。
 本発明によれば、精度を維持しながら計算コストを低減できる。
本発明の実施の形態に従う対応点探索方法の概要を説明するための図である。 本発明の実施の形態に従う対応点探索処理をパーソナルコンピューターにより実現した場合の構成を示すブロック図である。 本発明の実施の形態に従う対応点探索処理をデジタルカメラ類似の構成により実現した場合の構成を示すブロック図である。 本発明の実施の形態に従う対応点探索装置の機能構成を示すブロック図である。 本発明の実施の形態に従う対応点探索方法における小領域決定部の処理内容を説明するための図である。 本発明の実施の形態に従う対応点探索方法における前処理内容を説明するための図である。 本発明の実施の形態に従う対応点探索方法における小領域の設定例を示す図である。 対応領域探索部における位相情報の再利用を説明するための図である。 対応領域探索方法における小領域の別の設定例を示す図である。 対応領域探索方法における探索範囲の制限を説明するための図である。 対応領域探索方法における探索範囲の制限を説明するための図である。 対応点位置決定に用いられる補間演算の処理内容を説明するための図である。 対応点位置決定に用いられる投票演算の処理内容を説明するための図である。 対応点位置決定に用いられる平均値/中央値算出の処理内容を説明するための図である。 対応点位置決定に用いられる隣接領域間での一貫性を説明するための図である。 対応点位置決定に用いられる隣接領域間での一貫性を説明するための図である。 対応点位置決定に用いられる小領域の除外処理を説明するための図である。 対応点探索方法の全体手順を示すフローチャートである。
 本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
 <A.概要>
 本発明の実施の形態は、第1画像と第2画像との間で対応点を探索する対応点探索方法に向けられている。すなわち、対応点の探索対象となる複数の画像は、同一の被写体(の一部)を共通に含み得る画像を意味し、3つ以上の画像であってもよい。このような複数の画像は、典型的には、複数の撮像装置(カメラ)を用いて同一の被写体を異なる視点から撮像することで得られる。より具体的には、所定距離だけ離して配置された複数のカメラによって同一の被写体を撮像することでそれぞれの画像が得られる。
 以下の説明においては、説明の便宜上、第1画像に注目点を設定し、当該設定した注目点に対する第2画像中の対応点を探索するものとする。このような対応点の探索処理において、第1画像を「基準画像」と称し、第2画像を「参照画像」と称する。また、3つ以上の画像間で対応点探索を行なう場合には、いずれか1つの画像を「基準画像」として設定するとともに、それを撮像する撮像装置(カメラ)を「基準画像」の撮像用のカメラとして設定する。一方、それ以外の画像についてはいずれも「参照画像」として設定するとともに、それらを撮像する撮像装置(カメラ)を「参照画像」の撮像用のカメラとして設定する。このような拡張方法によって、本実施の形態に従う対応点探索方法を3つ以上の画像間における対応点の探索にも適用できる。
 また、本実施の形態に従う対応点探索方法は、典型的には、ステレオ撮像された画像間の対応点を探索して立体視画像を生成する処理に向けられるが、これに限られることなく、パノラマ画像の生成処理などにも適用できる。また、本実施の形態に従う対応点探索方法は、時系列に並ぶ複数の画像(動態画像)の間の対応点を探索する場合にも適用できる。
 本実施の形態に従う対応点探索方法によって得られる対応関係を、以下「(基準・参照)対応点組情報」と記す。この(基準・参照)対応点組情報は、典型的には、基準画像中のそれぞれの画素位置(各注目点の座標位置)と、当該それぞれの画素位置に対応する参照画像中の画素位置とを含む。
 図1は、本発明の実施の形態に従う対応点探索方法の概要を説明するための図である。図1を参照して、例えば、被写体OBJを一対のステレオカメラ(基準画像撮像用カメラ2および参照画像撮像用カメラ4)などで撮像することで、一対の画像(基準画像22および参照画像24)を取得する。基準画像22および参照画像24に対して、次のような処理が実行されることで、画像間の対応点が探索される。
 まず、注目点302を含むまたは注目点302の周辺に、注目点と所定の位置関係にある複数の2次元の第1領域(以下、「小領域」とも称す。)が決定される((1)領域決定)。
 続いて、複数の第1領域の各々についての位相情報に基づいて、当該複数の第1領域とそれぞれに対応する、参照画像24中の複数の第2領域がそれぞれ探索される((2)探索)。すなわち、第1領域と同一または類似した位相情報(詳細については後述する。)を有する第2領域が参照画像24内で探索される。この探索処理は、設定された第1領域の数だけ繰り返し実行される。この結果、図1に示すように、参照画像24中に複数の第1領域にそれぞれ対応する複数の第2領域が決定される。
 さらに、複数の第2領域の位置関係に基づいて、注目点302に対応する参照画像24中の対応点304が決定される((3)対応点決定)。より具体的には、複数の第2領域についてのそれぞれの位置(座標)に基づいて、対応点の位置(座標)が決定される。すなわち、第1領域と第2領域との対応関係の組(図1に示す例では3種類)を用いて、対応点が決定される。
 このように、本実施の形態に従う対応点探索処理においては、画像において複数の領域を設定し、個々の領域について対応点探索を実施することで、広い探索範囲を保ちながら、より高速な対応点探索を実現する。すなわち、複数の探索結果を用いて対応点を決定するので、探索範囲を維持しながら計算コストを下げることができる。
 以下、対応点探索処理のより詳細な内容について説明する。
 <B.システム構成>
 まず、本発明の実施の形態に従う対応点探索処理を実現する対応点探索装置の実装例について説明する。
 [b1:パーソナルコンピューターによる実現例]
 図2は、本発明の実施の形態に従う対応点探索処理をパーソナルコンピューターにより実現した場合の構成を示すブロック図である。
 図2を参照して、パーソナルコンピューターにより実現される画像処理装置100は、主として、汎用的なアーキテクチャーを有するコンピューター上に実装される。図2を参照して、画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)102と、RAM(Random Access Memory)104と、ROM(Read Only Memory)106と、ネットワークインターフェイス(I/F)108と、補助記憶装置110と、表示部120と、入力部122と、メモリーカードインターフェイス(I/F)124とを含む。各コンポーネントは、バス130を介して、互いに通信可能に接続されている。
 CPU102は、ROM106や補助記憶装置110などに格納された、オペレーティングシステム(OS:Operating System)や対応点探索処理プログラムなどの各種プログラムを実行することで、画像処理装置100の全体を制御する。RAM104は、CPU102でプログラムを実行するためのワーキングメモリとして機能し、 プログラムの実行に必要な各種データを一次的に格納する。ROM106は、画像処理装置100において起動時に実行される初期プログラム(ブートプログラム)などを格納する。
 ネットワークインターフェイス108は、各種の通信媒体を介して、他の装置(サーバー装置など)とデータを遣り取りする。より具体的には、ネットワークインターフェイス108は、イーサネット(登録商標)などの有線回線(LAN(Local Area Network)やWAN(Wide Area Network)など)、および/または、無線LANなどの無線回線を介してデータ通信を行なう。
 補助記憶装置110は、典型的には、ハードディスクなどの大容量磁気記憶媒体などからなり、本実施の形態に従う各種処理を実現するための対応点探索処理プログラム112および処理対象の処理対象画像114などを格納する。さらに、補助記憶装置110には、オペレーティングシステムなどのプログラムが格納されてもよい。
 処理対象画像114は、処理対象の2つの画像を含む。但し、画像処理装置100本体が被写体を撮像する機能を有していなくともよい。この場合、後述するようなデジタルカメラに類似した機構を用いて、2つの画像を取得し、それらの画像を任意の方法で画像処理装置100へ入力するようにしてもよい。より具体的には、上述のネットワークインターフェイス108やメモリーカードインターフェイス124を介して、画像が画像処理装置100へ入力される。
 表示部120は、オペレーティングシステムが提供するGUI(Graphical User Interface)画面や対応点探索処理プログラム112の実行によって生成される画像などを表示する。好ましくは、表示部120は、対応点探索処理プログラム112の実行によって得られる(基準・参照)対応点組情報、などから生成される立体視画像を用いて、被写体を立体視表示する。この場合、表示部120としては、3次元表示方式に対応した任意の表示デバイスによって構成される。このような3次元表示方式としては、パララックスバリア方式などを採用することができる。このパララックスバリア方式では、液晶表示面にパララックスバリアを設けることで、ユーザーの右眼で右眼用画像を視認させ、ユーザーの左眼で左眼用画像を視認させることができる。あるいは、シャッタメガネ方式を採用してもよい。このシャッタメガネ方式では、左眼用画像および右眼用画像を交互に高速で切り替えて表示するとともに、この画像の切り替えに同期して開閉するシャッターが搭載された専用メガネをユーザーが装着することで、立体視表示を楽しむことができる。
 入力部122は、典型的には、キーボード、マウス、タッチパネルなどからなり、ユーザーから受付けた指示の内容をCPU102などへ出力する。
 メモリーカードインターフェイス124は、SD(Secure Digital)カードやCF(Compact Flash(登録商標))カードなどの各種メモリーカード(不揮発性記憶媒体)126との間で、データの読み書きを行なう。典型的には、メモリーカードインターフェイス124には、何らかの装置で取得した処理対象画像を格納したメモリーカード126が装着され、そのメモリーカード126から読み出された処理対象画像が補助記憶装置110へ格納(コピー)される。
 補助記憶装置110に格納される対応点探索処理プログラム112は、CD-ROM(Compact Disk-Read Only Memory)などの記憶媒体に格納されて流通し、あるいは、ネットワークを介してサーバー装置などから配信される。対応点探索処理プログラム112は、画像処理装置100(パーソナルコンピューター)で実行されるオペレーティングシステムの一部として提供されるプログラムモジュールのうち必要なモジュールを、所定のタイミングおよび順序で呼出して処理を実現するようにしてもよい。この場合、対応点探索処理プログラム112自体には、オペレーティングシステムによって提供されるモジュールは含まれず、オペレーティングシステムと協働して画像処理が実現される。また、対応点探索処理プログラム112は、単体のプログラムではなく、何らかのプログラムの一部に組込まれて提供されてもよい。このような場合にも、対応点探索処理プログラム112自体には、当該何らかのプログラムにおいて共通に利用されるようなモジュールは含まれず、当該何らかのプログラムと協働して画像処理が実現される。このような一部のモジュールを含まない対応点探索処理プログラム112であっても、本実施の形態に従う画像処理装置100の趣旨を逸脱するものではない。
 さらに、対応点探索処理プログラム112によって提供される機能の一部または全部を専用のハードウェアによって実現してもよい。
 [b2:デジタルカメラ類似の構成による実現例]
 図3は、本発明の実施の形態に従う対応点探索処理をデジタルカメラ類似の構成により実現した場合の構成を示すブロック図である。
 図3を参照して、画像処理装置200は、実際に被写体を撮像することで、2つの処理対象画像を取得し、この取得した処理対象画像に対して、対応点探索処理を実行する。画像処理装置200は、主たるコンポーネントとして、画像処理エンジン202と、入力部204と、表示部206と、一対のレンズ212,222と、一対のCCD(Charge Coupled Device)イメージセンサー214,224とを含む。
 画像処理エンジン202は、本実施の形態に従う対応点探索処理を含む各種のデジタル処理を実行する。画像処理エンジン202は、典型的には、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、LSI(Large Scale Integration)、FPGA(Field-Programmable Gate Array)などからなる。
 入力部204は、典型的には、各種キーボタン、タッチパネルなどからなり、ユーザーから受付けた指示の内容を画像処理エンジン202へ出力する。
 表示部206は、被写体の撮像などに関するユーザーインターフェイス画面を表示する。好ましくは、表示部206は、画像処理エンジン202によって得られる(基準・参照)対応点組情報、などから生成される立体視画像を用いて、被写体を立体視表示する。この場合、表示部206としては、上述の表示部120(図2)と同様に、3次元表示方式に対応した任意の表示デバイスによって構成される。
 一対のレンズ212,222は、画像処理装置200の本体の異なる位置に設けられており、被写体を異なる視点でそれぞれ撮像することできる。すなわち、一対のレンズ212,222には、被写体からの互いに異なる反射光がそれぞれ入射する。一対のCCD214,224は、一対のレンズ212,222にそれぞれ対応付けられており、レンズ212,222によって集光された被写体からの光(像)を受光するとともに、その像を示す電気信号を画像処理エンジン202へ出力する。
 [b3:その他の構成による実現例]
 上述したパーソナルコンピューターにより実現する例、および、デジタルカメラ類似の構成による実現する例に加えて、携帯電話上に実装してもよい。さらに、少なくとも1つのサーバー装置が本実施の形態に従う処理を実現する、いわゆるクラウドサービスのような形態であってもよい。この場合、ユーザーは、自身の端末(パーソナルコンピューターやスマートフォンなど)を用いて、少なくとも2つの処理対象画像をサーバー装置(クラウド側)へ送信し、当該送信された処理対象画像に対して、サーバー装置側が本実施の形態に従う画像処理を行なうような構成が想定される。さらに、サーバー装置側がすべての機能(処理)を行なう必要はなく、ユーザー側の端末とサーバー装置とが協働して、本実施の形態に従う画像処理を実現するようにしてもよい。
 <C.機能構成>
 次に、本実施の形態に従う対応点探索装置および/または対応点探索プログラムの機能構成について説明する。
 図4は、本発明の実施の形態に従う対応点探索装置の機能構成を示すブロック図である。図4を参照して、本実施の形態に従う対応点探索装置は、その主たる機能構成として、対応点探索部10を含む。
 対応点探索部10は、基準画像22および参照画像24の入力に対して、両画像間の対応点を探索する。この対応点の探索結果として、(基準・参照)対応点組情報26を出力する。上述したように、(基準・参照)対応点組情報26は、典型的には、基準画像22中のそれぞれの画素位置(各注目点の座標位置)と、当該それぞれの画素位置に対応する参照画像24中の画素位置とを含む。
 より具体的には、対応点探索部10は、注目点選択部11と、小領域決定部12と、対応領域探索部13と、対応点位置決定部14とを含む。これらの機能構成は、図2に示す画像処理装置100においては、CPU102が対応点探索処理プログラムを実行することで実現され、図3に示す画像処理装置200においては、画像処理エンジン202によって実現される。
 注目点選択部11は、基準画像22に含まれる画素のうち、対応点探索の対象となる注目点を選択する。なお、基本的には、注目点は、画素単位で設定されるため、基準画像22に含まれる画素のうち1つが「注目点」として順次設定されることになる。しかしながら、本実施の形態に従う対応点探索方法によれば、画素配置とは独立して、注目点を設定することもできる。
 小領域決定部12は、注目点302を含むまたは注目点302の周辺に、注目点と所定の位置関係にある複数の2次元の小領域を決定する。この小領域決定部12における処理の詳細については後述する。
 対応領域探索部13は、複数の小領域の各々についての位相情報に基づいて、複数の小領域の各々に対応する参照画像24中の小領域をそれぞれ探索する。この対応領域探索部13における処理の詳細については後述する。
 対応点位置決定部14は、対応領域探索部13により探索された、参照画像24中の複数の小領域の位置関係に基づいて、注目点に対応する参照画像24中の対応点を決定する。この対応点位置決定部14における処理の詳細については後述する。
 <D.小領域決定部12における処理>
 次に、小領域決定部12における処理の詳細について説明する。
 図5は、本発明の実施の形態に従う対応点探索方法における小領域決定部12の処理内容を説明するための図である。図6は、本発明の実施の形態に従う対応点探索方法における前処理内容を説明するための図である。図7は、本発明の実施の形態に従う対応点探索方法における小領域の設定例を示す図である。
 図5を参照して、小領域決定部12は、注目点選択部11により注目点が設定されると、注目点の周辺に、複数の対応点探索用の小領域を決定する。図5において、注目点を丸印として表わし、小領域をハッチングした領域として表わす。この対応点探索用の小領域の設定方法としては、注目点の周辺により所定の大きさの探索窓を設定し、その設定した探索窓の中を複数の小領域に分割する方法を採用できる。
 あるいは、予め複数の単位領域を設定しておき、注目点が選択されると、当該選択された注目点の周辺に位置する複数の単位領域を、対応点探索用の小領域として選択する方法を採用してもよい。より具体的には、図6に示すように、基準画像22において複数の単位領域を格子状に設定する。このように設定された複数の単位領域のうち、いくつかの単位領域を選択することで、注目点に関連付けられた対応点探索用の小領域として決定する。すなわち、小領域決定部12は、基準画像22において予め設定された複数の2次元の単位領域のうち、注目点を含むまたは注目点の周辺に存在する単位領域を複数の小領域として選択する。
 図7に示すように、小領域決定部12により決定される対応点探索用の小領域の配置例としては、各種の方法を採用できる。図7において、注目点をハッチングした領域として表わし、小領域を太枠で囲んだ領域として表わす。
 例えば、図7(A)に示すように、注目点がほぼ中央になるように、ある小領域を決定し、当該決定した小領域に隣接してさらに小領域を決定してもよい。図7(A)の例では、小領域の大きさは、8画素×8画素の正方形である。図6に示すように単位領域が事前設定されているのであれば、これらの事前設定されている単位領域のうち、注目点を含む小領域を選択するとともに、当該選択した小領域に隣接する小領域をさらに選択することで、図7(A)に示すような、対応点探索用の複数の小領域を決定してもよい。この場合、単位領域と注目点との位置関係によっては、注目点が小領域のほぼ中央とならない場合もある。
 また、注目点の周辺に決定される複数の小領域は、基準画像22および参照画像24の間に生じる視差方向を考慮して配置されてもよい。すなわち、それぞれの撮像装置(カメラ)による視点が異なることによって発生するオクルージョンによる精度悪化を考慮する場合には、小領域を視差方向に並べることが好ましい。このような配置構成を採用することで、オクルージョン発生を考慮した対応点決定処理を実現できる。図7(A)に示す例は、基準画像撮像用カメラ2および参照画像撮像用カメラ4が紙面横方向に離れて配置されている場合に対応して小領域を配置している。なお、以下の説明においては、このようなオクルージョンを考慮した構成を想定して記載する。
 別の例として、基準画像22と参照画像24の間に生じる視差が大きいと想定される場合には、図7(B)に示すように、生じる視差方向に長い小領域を複数決定してもよい。図7(B)の例では、小領域の大きさは、紙面横方向(視差方向)に32画素、紙面縦方向に2画素である。このように視差方向に長い小領域を決定した場合には、小領域を視差方向と交差する方向(紙面縦方向)に並べてもよい。このように決定される複数の小領域から得られる複数の探索結果を用いて、対応点を決定することで、発生する視差が大きい場合であっても、対応点探索の精度を向上させることができる。
 さらに別の例として、基準画像22と参照画像24の間に、上下左右のいずれの方向にも視差が発生することが想定される場合には、図7(C)に示すように、注目点に近い位置に、複数の小領域を格子状に決定してもよい。図7(C)の例では、小領域の大きさは8画素×8画素の正方形であり、小領域を紙面横方向と紙面縦方向にそれぞれ2つずつ並べている2画素である。
 以上のように、小領域決定部12は、複数の対応点探索用の小領域を、視差が発生する方向に配列するように決定する。より具体的には、小領域決定部12は、複数の対応点探索用の小領域を、縦方向、横方向、格子状のいずれかに配列する。
 <E.対応領域探索部13における処理>
 次に、対応領域探索部13における処理の詳細について説明する。
 対応領域探索部13は、基準画像22上に決定された小領域ごとに、参照画像24中で対応する小領域を探索する。探索手法は、周波数変換(典型的には、フーリエ変換)によって得られる位相情報を用いる手法を用いる。このような位相情報を用いる手法としては、位相限定相関法(Phase-Only Correlation;POC法)、位相シフト解析法(Phase Shift Analyzing;PSA法)などを用いることができる。なお、以下の説明においては、POC法を用いる構成を想定して記載する。
 より具体的な一例として、対応領域探索部13は、参照画像24において、基準画像22に決定された対応点探索用の小領域と同じ位置に同様の小領域を決定し、POC法を用いて位置ずれ量を算出する。この際、まず、POC法によって算出されるPOC値(ピーク値)が所定値よりも小さい場合には、参照画像24中に現在決定されている小領域に隣接して別の小領域を決定する。そして、この決定した別の小領域についても、上述と同様の判断処理を行なう。この判断処理を繰り返し、そのPOC値が最大である小領域を決定し、そのPOC値のピーク位置から位置ずれ量を算出して、その位置ずれ量分だけずらした小領域を、対応領域として決定する。なお、この例では、参照画像24中で小領域を決定する場合に、現在決定されている小領域に隣接して別の小領域を決定するようにしたが、順次1画素又は所定数の画素ずつずらして次の小領域を決定するようにしても構わない。
 このような対応領域探索に係る処理において、以下のような処理を付加的/代替的に行なってもよい。
 [e1:位相情報の再利用]
 図6を参照して説明したように、基準画像22において、予め複数の単位領域を格子状に設定した場合には、各単位領域についての位相情報を予め取得しておき、当該予め取得しておいた位相情報を再利用することで、計算量(計算コスト)を低減するようにしてもよい。
 より具体的には、図6に示すように、基準画像22の全体において、複数の単位領域を設定し、各単位領域について、フーリエ変換後の位相情報を予め算出およびその結果を保持しておく。そして、これらの保持された結果(位相情報)を用いて、POC法による対応領域探索を実行する。
 図8は、対応領域探索部13における位相情報の再利用を説明するための図である。図8(A)は、一般的なPOC法の処理を説明するための図であり、図8(B)は、事前に算出された位相情報を再利用する処理を説明するための図である。
 まず、一般的なPOC法の処理について、図8(A)を参照して説明する。まず、基準画像22および参照画像24においてそれぞれ設定された小領域について、フーリエ変換(典型的には、高速フーリエ変換(FFT:Fast Fourier Transformation))を行なうことで、振幅情報および位相情報がそれぞれ算出される。POC法では位相情報を用いるので、それぞれの小領域について算出された位相情報を比較することで、位相差情報が算出される。そして、この算出された位相差情報からPOC値が算出される。このPOC値は、小領域の間の類似度を表わす指標である。
 図8(A)に示す小領域についての振幅情報および位相情報の算出処理は、小領域が決定されるたびに繰り返される。
 これに対して、位相情報を再利用する場合には、図8(B)に示すように、複数の単位領域の位相情報(計算済みのFFT結果)を用意しておき、基準画像22および参照画像24においてそれぞれ小領域が決定されると、対応する位相情報をそれぞれ読み出した上で、位相差情報の算出およびPOC値の算出が行なわれる。
 すなわち、参照画像24においても単位領域が設定されると、対応点探索において、POC値を算出される対象の小領域として、単位領域が順次選択されることになる。すなわち、この場合には、対応領域探索部13は、参照画像24において予め設定された複数の単位領域の位相情報を用いて、対応する小領域を探索する。このとき、参照画像24に設定される単位領域についても位相情報が予め算出されるので、これらの位相情報を再利用することで、小領域が決定/変更されるたびにフーリエ変換が逐一実行されることを省略することができる。
 したがって、上述の図6に示す単位領域の設定および位相情報の事前計算については、基準画像22だけではなく、参照画像24に対しても同様に行なっておくことが好ましい。このような前処理を行なっておくことで、計算量(計算コスト)をさらに低減し、計算時間を短縮できる。
 このように、位相情報を再利用することで、小領域が決定/変更されるたびにフーリエ変換が逐一実行されることを省略することができる。これによって、計算量(計算コスト)を低減し、計算時間を短縮できる。
 [e2:単位領域の重複設定]
 基準画像22および/または参照画像24において予め設定される単位領域については、互いに重複するように決定してもよい。すなわち、基準画像22および/または参照画像24を単純に分割して単位領域を設定するのでは、単位領域と単位領域との境界付近にある画素についての探索結果の精度が悪化する可能性がある。そこで、単位領域をまたぐように単位領域を設定し、対応領域探索対象に加えることで、上述したような位置における対応領域探索の精度悪化を回避できる。
 図9は、対応領域探索方法における小領域の別の決定例を示す図である。図9を参照して、第1群の単位領域(実線)が格子状に配置されるとともに、第1群の単位領域とは重ならない位置に第2群の単位領域(破線)が格子状に配置される。第1群および第2群の単位領域は、その群の区別なく、小領域として任意に選択することが可能である。
 [e3:探索範囲の制限]
 上述したような複数の対応点探索用の小領域に対応する参照画像24中の小領域を順次探索するにあたって、先の探索結果を用いて、その探索範囲を制限することで、より処理を高速化してもよい。以下では、探索済みの小領域の位置に基づいて、探索範囲を制限する処理例について説明する。
 図10および図11は、対応領域探索方法における探索範囲の制限を説明するための図である。図10および図11では、視差が右方向に発生する例を用いて説明する。
 例えば、図10(A)に示す例では、基準画像22上で決定した複数の対応点探索用の小領域のうち左端の小領域については、参照画像24中での対応する小領域が探索済であるとする。続いて、左端の小領域の右隣に位置する小領域について対応する小領域を探索する際には、図10(B)に示すように、左端の小領域に対応する参照画像24中の小領域と同じ位置か、それよりも右側に存在するものとして、探索範囲を制限する。すなわち、矢印で図示するように、左端の小領域に対応する参照画像24中の小領域より右側の範囲を探索範囲とし、左側の範囲については探索しない。このように探索範囲を制限することで、探索コストを削減できる。
 図11(A)に示す例では、図10(A)と同様に、基準画像22上で決定した複数の対応点探索用の小領域のうち左端の小領域については、参照画像24中での対応する小領域が探索済であるとする。この状態に引き続く探索処理の別の例として、図11(B)には、左端の小領域の右隣に位置する小領域について対応する小領域を探索する際には、矢印で図示するように、左端の小領域に対応する参照画像24中の小領域の右隣にある小領域と、その小領域に隣接する小領域のみについて探索を行なってもよい。このように探索範囲を制限することで、探索コストを削減できる。
 図10および図11に示す例に限らず、先の探索結果を利用して、任意の規則を用いて後続の探索処理を最適化することができる。以上のように、対応領域探索部13は、基準画像22上で決定した複数の対応点探索用の小領域のうち1つの小領域に対応する、参照画像24中の小領域を探索した後、複数の対応点探索用の小領域のうち別の小領域に対応する小領域を探索する際、先に探索された小領域の間の位置に基づいて、参照画像24中の小領域の探索範囲を制限してもよい。
 <F.対応点位置決定部14における処理>
 次に、対応点位置決定部14における処理の詳細について説明する。
 対応点位置決定部14は、小領域決定部12によって基準画像22上に決定された個々の小領域と注目点との位置関係、および、対応領域探索部13によって取得された参照画像24中での対応する小領域の位置関係に基づいて、基準画像22中の注目点に対応する参照画像24中の対応点の位置を決定する。
 このような対応点の位置を決定する方法として、各種のロジックを採用できる。典型的には、対応点位置決定部14は、基準画像22上に決定された複数の小領域に対応するとして探索された複数の小領域のそれぞれの位置を用いてに、補間演算、投票演算、平均値/中央値算出、隣接領域間での一貫性、加重平均演算、のいずれかに基づいて、参照画像24中の対応点を決定する。以下、各ロジックの詳細について説明する。
 (f1:補間演算)
 まず、補間演算について説明する。基準画像22および参照画像24の間では、小領域の位置と当該小領域に対応する対応小領域の位置との間には、対応関係があるものと考えられる。一方、基準画像22中の注目点と複数の小領域との位置関係は既知であるから、参照画像24中の対応小領域と同様の位置関係にある点を推定することで、注目点の位置に対応する対応点の位置を算出できる。
 図12は、対応点位置決定に用いられる補間演算の処理内容を説明するための図である。図12において、基準画像22に決定された小領域と参照画像24中で探索された小領域との位置関係を黒丸(●)印で表わし、注目点と対応点との位置関係をバツ(×)印で表わす。なお、ここでの小領域の位置とは、例えば、小領域の中心を用いることができる。
 図12に示すように、例えば、基準画像22上に決定される小領域の位置と対応する小領域の位置(対応小領域位置)との関係を関数で近似することで、当該近似した関数に基づいて、注目点の位置に対応する参照画像24中の位置を算出する。そして、この算出結果を対応点の位置として決定する。すなわち、図12には、4つの小領域(#1,#2,#3,#4)が探索された場合に、基準画像22上に決定された小領域の位置と参照画像24中で探索された小領域の位置とを、2次元の座標上にプロットし、それぞれのプロット位置を用いて近似関数を決定する。この近似関数上で、注目点に対応する対応点位置が決定される。近似関数の例としては、N次関数などの多項式や、スプライン関数などを用いることができる。なお、図12では、横軸および縦軸がそれぞれ注目点と小領域の位置および対応点と対応小領域の位置を示しているので、基準画像22及び参照画像24中の位置としては2次元(X-Y空間)のいずれか一方の座標(X座標またはY座標)を示していることになる。したがって、対応点の2次元の座標を求めるには、2次元のもう一方の座標についても同様の処理を行えばよい。一方、対応点が視差方向にしかずれていないことを前提とできるような場合には、視差方向の座標のみを求めればよい。
 (f2:投票演算)
 次に、投票演算について説明する。投票演算の一例として、基準画像22上に決定された小領域の位置と当該小領域に対応する参照画像24中で探索された小領域の位置(対応小領域位置)との組み合わせを2つ抽出し、この2つを結ぶ線形式(1次関数)として表現する。この線形式をすべての組み合わせについて求め、傾きおよび切片を座標とする投票空間上で投票する。この投票の結果、最も投票数の多い線形式を決定する。この決定した線形式を採用し、注目点の位置に対応する参照画像24中の位置を算出する。算出された位置が対応点位置として決定される。
 図13は、対応点位置決定に用いられる投票演算の処理内容を説明するための図である。図13において、基準画像22に決定された小領域と参照画像24中で探索された対応小領域との位置関係を黒丸(●)又は白丸(○)印で表わし、注目点と対応点との位置関係をバツ(×)印で表わす。
 図13に示す例においては、4つの小領域と対応小領域との位置関係(#1,#2,#3,#4)のうち、#3を除く残りの3つ(#1,#2,#4)のうちの2つから構成される線形式、すなわち、#1と#2とを結ぶ直線、#1と#4)とを結ぶ直線、および#2と#4とを結ぶ直線についての投票数が最も多くなる。そのため、この線形式を採用し、注目点に対応する対応点の位置が決定される。なお、この図13においても、図12の場合と同様に、画像における2次元のいずれか一方の座標を示しているので、対応点の2次元の座標を求めるには、2次元のもう一方の座標についても同様の処理を行えばよい。
 (f3:平均値/中央値算出)
 次に、平均値算出および中央値算出について説明する。
 図14は、対応点位置決定に用いられる平均値/中央値算出の処理内容を説明するための図である。図14において、基準画像22に決定された小領域と参照画像24中で探索された対応小領域との位置関係を黒丸(●)印で表わし、注目点と対応点との位置関係をバツ(×)印で表わす。
 例えば、基準画像22上に決定される複数の対応点探索用の小領域にそれぞれ対応する参照画像24中の複数の対応小領域のうち、最も外側に位置する2つの小領域と対応小領域の対(図14では#1と#4)を選択し、これらの選択した対についての平均位置が算出される。この場合の平均位置は、注目点とそれぞれの小領域との距離が同じであれば、対応小領域の間においても中点となる。この平均位置をそのまま対応点の位置として決定してもよいが、より好ましくは、この平均位置に最も近接した対応する小領域の位置(図の例では#2)を対応点の位置として決定する。
 別の例として、対応する参照画像24中の複数の小領域における視差量をそれぞれ算出し、それぞれの視差量の間での中央値を算出し、参照画像24中での注目点と同じ位置に視差量中央値を足し合わせて、これを対応点位置として決定してもよい。
 (f4:隣接領域間での一貫性)
 次に、隣接領域間での一貫性について説明する。
 図15および図16は、対応点位置決定に用いられる隣接領域間での一貫性を説明するための図である。
 図15(A)に示す例では、基準画像22上に決定された複数の小領域のうち、注目点に隣接する左右の小領域が、参照画像24中の同じ対応小領域に対応している。これは、例えば、図15(B)に示すように、基準画像撮像用カメラ2から得られた基準画像22上に決定された注目点に対応する被写体上の点が、参照画像24の撮像条件下においては、壁の横面にあり、参照画像撮像用カメラ4からは見えない位置にある場合に生じ得る。このような場合には、小領域の位置と対応する対応小領域の位置との間の視差量をチェックしたとき、視差量の分布が二分化することになる。
 このような状況で、上述したような投票演算を行なった場合には、投票空間上での投票先が2か所に分かれ、所定の投票数を獲得する線形式が複数存在することになる。この場合には、対応点が参照画像24中に存在しないものと判断して、対応点を設定しないようにすればよい。
 別の例として、図16に示すような、ステレオカメラ(基準画像撮像用カメラ2および参照画像撮像用カメラ4)に対して、傾斜している面上の点を観測した場合においても、同様の現象が発生する可能性がある。このような場合には、小領域の位置と対応する対応小領域の位置との間の視差量をチェックしたとき、視差量の分布が連続的に変化することになる。このような状況で、上述したような、投票演算を行なった場合には、投票空間内での投票先は集中せず分散することになる。そこで、所定の投票数以上を獲得する線形式が存在しない場合には、例えば、上述の補間演算の手法を用いて算出した値を用いて対応点を決定すればよい。
 (f5:加重平均演算)
 次に、加重平均演算について説明する。すなわち、対応点位置決定部14は、基準画像22上に決定された複数の対応点探索用の小領域に対応するとして探索された複数の小領域のそれぞれの位置についての加重平均演算に基づいて、参照画像24中の対応点を決定する。このとき、加重平均演算における重み付けは、参照画像24中の複数の小領域の間で等分に決定される、または、注目点から離れるほど小さくなるように決定される。
 より具体的には、対応点は、以下のような加重平均時の重み付け演算によって算出される。すなわち、注目点の位置をP、対応点の位置をP、小領域の位置A 、対応する対応小領域の位置A 、対応関係の重みをWとすると、加重平均演算に係る対応点位置の決定式は、以下のようになる。なお、ここではわかりやすさのために、対応小領域の位置A 、の加重平均演算によって対応点の位置をPの位置が求められるように、注目点の位置Pにおいて小領域の位置A を決定したことを前提としている。例えば、基準画像において、注目点について対称な(等距離にある)小領域の対を複数決定するようにすればよい。
 P=ΣW /ΣW
 この場合、重みW=β/(α+|A -P|)(但し、α,β:正の定数)、または、重みW=exp{-(A -P|)}といった関数を用いて、注目点と小領域の位置との間の距離に応じた重み付けを行なう。これらの重みWiは、注目点から離れるほど小さくなる。すなわち、前記複数の第2領域のそれぞれについて重み付けを行い、その対応する小領域が注目点から離れるほど重み付けが小さくなるように決定される。
 (f6:しきい値)
 上述したいずれかの方法において、対応領域探索時における評価値が所定値以下である小領域については、対応点の決定の対象から除外してもよい。
 図17は、対応点位置決定に用いられる小領域の除外処理を説明するための図である。図17に示すように、基準画像22上に決定された複数の小領域に対応する複数の対応小領域が検索された状態であって、右端の小領域についての対応領域探索時の評価値(典型的には、POC値)が低いものとする(符号354)。一方、左側の小領域についての対応領域探索時の評価値が高いものとする(符号352)。ここで、算出された評価値が予め定められたしきい値以下である場合には、この小領域についての対応関係の信頼性が低いものであると判断できる。そして、この場合には、信頼性が低い小領域を対象のデータから除外して対応点決定の処理を行なう。このように、信頼性の低い小領域を除くことで、より安定して対応点の位置を決定することができる。すなわち、対応領域探索時の評価値が所定のしきい値以上の小領域のみを、参照画像24中の対応点の決定に用いる。
 以上のように、対応点位置決定部14は、探索に係る評価値が所定のしきい値以下である対応小領域を、参照画像24中の対応点の決定に用いる小領域から除外する。
 <G.全体フロー>
 上述した対応点探索方法の全体手順について総括的に説明する。
 図18は、対応点探索方法の全体手順を示すフローチャートである。なお、ここでは、図6で説明したように、基準画像22および/または参照画像24に予め単位領域を設定し、各単位領域の位相情報を演算しておく場合を中心に説明する。図18に示す各ステップは、典型的には、CPU102(図2)が対応点探索処理プログラム112を実行するなどして実現される。
 図18を参照して、CPU102(対応点探索部10)は、基準画像22および参照画像24を取得する(ステップS100)。典型的には、被写体OBJを一対のステレオカメラ(基準画像撮像用カメラ2および参照画像撮像用カメラ4)などで撮像することで取得された一対のステレオ画像が入力される。
 続いて、以下の前処理が実行される。この前処理は、計算量(計算コスト)を低減するためのものである。すなわち、CPU102(対応点探索部10)は、取得した基準画像22および/または参照画像24において、複数の単位領域を設定する(ステップS102)。続いて、CPU102(対応点探索部10)は、設定した各単位領域についての位相情報を算出する(ステップS104)。CPU102(対応点探索部10)は、算出した各単位領域の位相情報を格納する(ステップS106)。以上で、前処理は完了する。なお、この前処理は、基準画像22および/または参照画像24に単位領域を設定しない場合には、行われない。
 CPU102(注目点選択部11)は、基準画像22において、注目点を設定する(ステップS110)。続いて、CPU102(小領域決定部12)は、基準画像22において、注目点を含むまたは注目点の周辺に複数の小領域を決定する(ステップS112)。これらの複数の小領域は、S102で決定された単位領域の中から選択することにより、決定される。CPU102(対応領域探索部13)は、ステップS112において決定された複数の小領域のうち1つの小領域を選択し(ステップS114)、選択した小領域の位相情報に基づいて、参照画像24中の対応する対応小領域を探索する(ステップS116)。この探索された参照画像24中の対応小領域の位置情報(例えば、中央位置)が格納される。なお、図10で説明したように、先に探索された結果が存在する場合には、探索範囲を制限することが望ましい。
 その後、CPU102(対応領域探索部13)は、基準画像22上に決定された複数の小領域のすべてについての対応小領域の探索が完了したか否かを判断する(ステップS118)。基準画像22上に決定された複数の小領域のすべてについての対応領域の探索が完了していない場合(ステップS118においてNOの場合)には、CPU102(対応領域探索部13)は、ステップS112において決定された複数の小領域のうち別の小領域を選択し(ステップS120)、ステップS116以下の処理を再度実行する。
 基準画像22上に決定された複数の小領域のすべてについての対応領域の探索が完了している場合(ステップS118においてYESの場合)には、CPU102(対応点位置決定部14)は、探索された複数の対応小領域の位置関係および注目点と小領域との位置関係に基づいて、注目点に対応する参照画像24中の対応点を決定する(ステップS122)。この基準画像22上に設定された注目点の画素位置(座標位置)と、参照画像24中の対応点の画素位置(座標位置)とは、(基準・参照)対応点組情報26として出力され、メモリ(RAM104)に格納される。
 続いて、CPU102(注目点選択部11)は、基準画像22において設定すべき注目点のすべてについての探索処理が完了したか否かを判断する(ステップS124)。
 基準画像22において設定すべき注目点が残っている場合(ステップS124においてNOの場合)には、CPU102(注目点選択部11)は、基準画像22において、別の注目点を設定し(ステップS126)、ステップS112以下の処理を再度実行する。
 基準画像22において設定すべき注目点のすべてについての探索処理が完了した場合(ステップS124においてYESの場合)には、CPU102(対応点探索部10)は、メモリ(RAM104)には全ての注目点についての(基準・参照)対応点組情報26が格納されており、これを次の処理に向けて出力することが可能となる(ステップS128)。
 <H.利点>
 本実施の形態によれば、探索結果の精度を維持しつつ、計算量(計算コスト)を低減させることができる。これにより、大きい視差を生じる部分であっても対応点探索を適切に行なうことができる。
 例えば、計算量(計算コスト)の削減としては、以下のように見積もることができる。より具体的には、探索窓の大きさが大きくなることによる、フーリエ変換における計算コストを削減できる根拠は以下のように算出できる。
 探索窓がN画素×N画素である場合の2次元フーリエ変換の計算コストは、2N・log(N)と算出できる。
 ここで、N=2kとした場合には、上記の計算コストは、22k+1・kと表わすことができる。上記の探索窓(N画素×N画素)を、例えば、N/2画素×N/2画素の探索窓4つで構成する場合の2次元フーリエ変換の計算コストは、22k+1・(k-1)と算出できる。
 したがって、N画素×N画素の探索窓を1つ用いる場合と、N/2画素×N/2画素の探索窓を4つ用いる場合との間における、計算コストの削減効果は、
 1-(k-1)/k=1/k
と表わすことができる。
 すなわち、複数のより小さい探索窓で探索することによる計算コスト削減効果は、例えば、k=5とした場合には約20%となり、k=4とした場合には約25%となる。
 さらに、前処理において、基準画像22および参照画像24において単位領域を設定し、各単位領域についての位相情報を予め計算しておき、それらを再利用するという方法を採用することで、フーリエ変換処理を逐一行なう必要がなくなり、計算コストをさらに削減できる。
 本発明の実施の形態としては、以下のような態様を含む。
 本手法においては、基準画像の注目画素の周辺に複数の小領域を決定し(小領域決定部12)、個々の小領域について位相情報を用いて参照画像中の対応領域を探索し(対応領域探索部13)、複数の小領域とそれぞれの対応小領域との位置をもとに、基準画像の注目画素に対応する参照画像中の対応点を決定する(対応点位置決定部14)。
 これにより、フーリエ変換処理に係る計算コストを削減できるとともに、より広い探索範囲を維持できる。
 好ましくは、基準画像を予め単位領域に分割しておき、注目画素の周辺にある単位領域を組み合わせて、対応点探索を行なう。これにより、単位領域を事前設定することで、フーリエ変換による演算結果を再利用することができ、計算コストをさらに削減できる。
 好ましくは、単位領域について予め位相情報を算出しておき、対応点探索の際に、この位相情報に基づいて計算を行なう。
 また、個々の小領域についての参照画像中の対応小領域探索の際には、ある1つの小領域について対応小領域を探索し、この1つの小領域との位置関係に基づいて、他の小領域に対応する対応小領域の探索時における探索範囲を制限する。このような探索範囲の制限によって、探索すべき範囲を低減でき、これによって計算コストをより削減できる。
 好ましくは、対応小領域の探索時における評価値が所定値以下の場合は、対応点位置の決定時に、これらの小領域に関する対応関係を用いない。このように、低い評価値を有する対応関係を除外することで、より高いロバスト性を維持できる。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 2 基準画像撮像用カメラ、4 参照画像撮像用カメラ、10 対応点探索部、11 注目点選択部、12 小領域決定部、13 対応領域探索部、14 対応点位置決定部、22 基準画像、24 参照画像、26 (基準・参照)対応点組情報、100,200 画像処理装置、102 CPU、104 RAM、106 ROM、108 ネットワークインターフェイス、110 補助記憶装置、112 対応点探索処理プログラム、114 処理対象画像、120,206 表示部、122,204 入力部、124 メモリーカードインターフェイス、126 メモリーカード、130 バス、202 画像処理エンジン、212,222 レンズ、214,224 イメージセンサー、OBJ 被写体。

Claims (11)

  1.  第1画像と第2画像との間で対応点を探索する対応点探索方法であって、
     前記第1画像に含まれる注目点について、前記注目点を含むまたは前記注目点の周辺に、前記注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定ステップと、
     前記複数の第1領域の各々についての位相情報に基づいて、前記複数の第1領域とそれぞれ対応する前記第2画像中の複数の第2領域を探索する探索ステップと、
     前記複数の第2領域の位置関係に基づいて、前記注目点に対応する前記第2画像中の対応点を決定する対応点決定ステップとを備える、対応点探索方法。
  2.  前記領域決定ステップは、前記第1画像において予め設定された複数の2次元の単位領域のうち、前記注目点を含むまたは前記注目点の周辺に存在する前記単位領域を前記複数の第1領域として選択するステップを含む、請求項1に記載の対応点探索方法。
  3.  前記第1画像において予め設定された複数の単位領域の各々についての位相情報を予め算出する位相情報算出ステップをさらに備え、
     前記探索ステップは、前記位相情報算出ステップで算出された前記複数の第1領域の位相情報を用いるステップを含む、請求項2に記載の対応点探索方法。
  4.  前記探索ステップは、前記第2画像において予め設定された複数の単位領域の位相情報を用いて、前記第2領域を探索するステップを含む、請求項2または3に記載の対応点探索方法。
  5.  前記複数の第1領域の一部は、互いに重複するように決定される、請求項1~4のいずれか1項に記載の対応点探索方法。
  6.  前記探索ステップは、前記複数の第1領域のうち1つの第1領域に対応する第2領域を探索した後、前記複数の第1領域のうち別の第1領域に対応する第2領域を探索する際、第1領域の間の位置に基づいて、当該第2領域の探索範囲を制限するステップを含む、請求項1~5のいずれか1項に記載の対応点探索方法。
  7.  前記対応点決定ステップにおいて、前記複数の第2領域のそれぞれについて重み付けを行い、その対応する第1領域が前記注目点から離れるほど重み付けが小さくなるように決定される、請求項1~6のいずれか1項に記載の対応点探索方法。
  8.  前記対応点決定ステップは、探索に係る評価値が所定のしきい値以上の第2領域のみを、前記第2画像上の対応点の決定に用いるステップを含む、請求項1~7のいずれか1項に記載の対応点探索方法。
  9.  前記領域決定ステップは、前記複数の第1領域を、視差が発生する方向に配列するように決定するステップを含む、請求項1~8のいずれか1項に記載の対応点探索方法。
  10.  第1画像と第2画像との間で対応点を探索する対応点探索装置であって、
     前記第1画像に含まれる注目点について、前記注目点を含むまたは前記注目点の周辺に、前記注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定手段と、
     前記複数の第1領域の各々についての位相情報に基づいて、前記複数の第1領域とそれぞれ対応する前記第2画像中の複数の第2領域を探索する探索手段と、
     前記複数の第2領域の位置関係に基づいて、前記注目点に対応する前記第2画像中の対応点を決定する対応点決定手段とを備える、対応点探索装置。
  11.  第1画像と第2画像との間で対応点を探索する対応点探索プログラムであって、前記対応点探索プログラムはコンピューターに、
     前記第1画像に含まれる注目点について、前記注目点を含むまたは前記注目点の周辺に、前記注目点と所定の位置関係にある複数の2次元の第1領域を決定する領域決定ステップと、
     前記複数の第1領域の各々についての位相情報に基づいて、前記複数の第1領域とそれぞれ対応する前記第2画像中の複数の第2領域を探索する探索ステップと、
     前記複数の第2領域の位置関係に基づいて、前記注目点に対応する前記第2画像中の対応点を決定する対応点決定ステップとを実行させる、対応点探索プログラム。
PCT/JP2012/079111 2011-12-16 2012-11-09 対応点探索方法、対応点探索装置および対応点探索プログラム WO2013088872A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011275645 2011-12-16
JP2011-275645 2011-12-16

Publications (1)

Publication Number Publication Date
WO2013088872A1 true WO2013088872A1 (ja) 2013-06-20

Family

ID=48612327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079111 WO2013088872A1 (ja) 2011-12-16 2012-11-09 対応点探索方法、対応点探索装置および対応点探索プログラム

Country Status (1)

Country Link
WO (1) WO2013088872A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130082A (ja) * 2014-01-08 2015-07-16 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6473469A (en) * 1987-09-14 1989-03-17 Sony Corp Image processor
JP2003187261A (ja) * 2001-12-14 2003-07-04 Canon Inc 3次元画像生成装置、3次元画像生成方法、立体画像処理装置、立体画像撮影表示システム、立体画像処理方法及び記憶媒体
JP2006039770A (ja) * 2004-07-23 2006-02-09 Sony Corp 画像処理装置及び方法、プログラム
JP2009015696A (ja) * 2007-07-06 2009-01-22 Konica Minolta Holdings Inc 情報処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6473469A (en) * 1987-09-14 1989-03-17 Sony Corp Image processor
JP2003187261A (ja) * 2001-12-14 2003-07-04 Canon Inc 3次元画像生成装置、3次元画像生成方法、立体画像処理装置、立体画像撮影表示システム、立体画像処理方法及び記憶媒体
JP2006039770A (ja) * 2004-07-23 2006-02-09 Sony Corp 画像処理装置及び方法、プログラム
JP2009015696A (ja) * 2007-07-06 2009-01-22 Konica Minolta Holdings Inc 情報処理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SEI NAGASHIMA ET AL.: "Ichijigen Iso Gentei Sokanho ni Motozuku Stereo Gazo no Koseino Taiozuke Shuho", IMAGE LAB, vol. 20, no. 3, 10 March 2009 (2009-03-10), pages 58 - 63 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130082A (ja) * 2014-01-08 2015-07-16 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム

Similar Documents

Publication Publication Date Title
JP4752918B2 (ja) 画像処理装置、画像照合方法、および、プログラム
JP5792157B2 (ja) 画像処理装置、方法、プログラム及び記録媒体
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
WO2013038833A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2009529824A (ja) 3次元映像獲得用cmosステレオカメラ
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP5035195B2 (ja) 画像生成装置及びプログラム
JP6052186B2 (ja) 画像処理装置
JP5747797B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2018503066A (ja) 画像ベースの深さ検知システムの精度測定
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
US8687000B2 (en) Image generating apparatus and computer program
JP2008090583A (ja) 情報処理システム、プログラムおよび情報処理方法
JP2013044597A (ja) 画像処理装置および方法、プログラム
US11385053B2 (en) Distance measuring camera
WO2013088872A1 (ja) 対応点探索方法、対応点探索装置および対応点探索プログラム
JP4998422B2 (ja) 画像生成装置、方法、通信システム及びプログラム
JP5086120B2 (ja) 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
WO2016056202A1 (en) Image processing apparatus, image processing method, and program
JP2018032144A (ja) 画像処理装置、画像処理方法およびプログラム。
JP6071142B2 (ja) 画像変換装置
JP5654956B2 (ja) 視差画像生成装置および視差画像生成プログラム
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム
KR102608466B1 (ko) 영상 처리 방법 및 영상 처리 장치
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12858575

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12858575

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP