WO2017090705A1 - 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2017090705A1
WO2017090705A1 PCT/JP2016/084897 JP2016084897W WO2017090705A1 WO 2017090705 A1 WO2017090705 A1 WO 2017090705A1 JP 2016084897 W JP2016084897 W JP 2016084897W WO 2017090705 A1 WO2017090705 A1 WO 2017090705A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
luminance
image blocks
difference
images
Prior art date
Application number
PCT/JP2016/084897
Other languages
English (en)
French (fr)
Inventor
喜宏 山下
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to JP2017552710A priority Critical patent/JPWO2017090705A1/ja
Publication of WO2017090705A1 publication Critical patent/WO2017090705A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an image processing apparatus and an image processing method for performing image processing using two images, and a computer-readable recording medium on which a program for realizing these is recorded.
  • stereo matching processing is performed on the basis of pair images obtained from an artificial satellite or an aircraft, etc., and three-dimensional data [DSM (Digital Surface Model) data showing terrain]
  • DSM Digital Surface Model
  • a pair image is an image obtained by photographing the same subject from different viewpoints with two cameras.
  • an image block of a certain size is extracted from each image constituting the stereo image, and then the image block of the other image that matches the image block of one image is specified. . Thereafter, the corresponding points are identified between the matching image blocks, and the depth and shape of the subject are obtained by performing triangulation using the parallax between the identified corresponding points.
  • Equation 1 when SAD is used, a pair of image blocks having the smallest R SAD value is identified using the following Equation 1, and it is determined that the identified pairs are image blocks that match each other.
  • I (i, j) and T (i, j) indicate the luminance of the corresponding pixel in the image block. Further, (i, j) represents the coordinates of the pixel.
  • Equation 2 when using SSD , the following equation 2 is used to identify a pair of image blocks with the smallest value of R SSD and determine that the identified pairs are image blocks that match each other (for example, (See Patent Document 4 and Non-Patent Document 1). Also in Equation 2, I (i, j) and T (i, j) indicate the luminance in the image block.
  • Equation 3 when using NCC , the following equation 3 is used to identify a pair of image blocks whose RNCC value is closest to 1.0, and determine that the identified pairs are image blocks that match each other. (For example, refer to Patent Document 5). Also in Equation 3, I (i, j) and T (i, j) indicate the luminance in the image block.
  • the two cameras that shoot the pair images have different shooting angles. Therefore, the incident angle of the light reflected by the subject differs from camera to camera, and the brightness of the image obtained by each camera is different. May be slightly different from each other. For this reason, when the stereo matching process is performed using SAD or SSD, the calculated value becomes high due to the difference in luminance between images, even though they are a pair of matching image blocks, There is a possible surname that is determined not to match.
  • Equation 3 it is generally considered that a difference in luminance between two images is allowed.
  • calculation is not performed for every two pixels of each of the two image blocks. For this reason, when stereo matching processing is performed using NCC, it may be determined that even image blocks that do not match are matched, depending on the overall luminance conditions of the image. That is, when stereo matching processing is performed using NCC, there is a problem that erroneous determination is likely to occur.
  • An example of an object of the present invention is to provide an image processing apparatus, an image processing method, and a computer-readable recording medium capable of solving the above-described problem and improving determination accuracy in matching processing for paired images having different luminances. It is to provide.
  • an image processing apparatus provides: A plurality of image blocks of a set size are extracted from each of the two target images, and one of the image blocks extracted from one of the two images and one of the image blocks extracted from the other image An image extraction unit that sets a set of a plurality of image blocks in combination with one, For each set of image blocks set, For each combination of pixels of one image block and corresponding pixels of the other image block, Calculating the difference between the luminance at the pixel of the one image block and the average value of the luminance of the one image block as a first luminance difference; Calculating the difference between the luminance at the corresponding pixel of the other image block and the average value of the luminance of the other image block as a second luminance difference; Further, a difference between the first luminance difference and the second luminance difference is calculated as a luminance difference between pixels, A correlation value calculation unit that integrates the luminance difference between the pixels for each of the obtained combinations, and sets the obtained integration value as a correlation value
  • an image processing method includes: (A) A plurality of image blocks of a set size are extracted from each of the two target images, and one of the image blocks extracted from one of the two images and the other image are extracted.
  • a computer-readable recording medium On the computer, (A) A plurality of image blocks of a set size are extracted from each of the two target images, and one of the image blocks extracted from one of the two images and the other image are extracted.
  • FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a specific configuration of the image processing apparatus according to the embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of a pair image from which an image block is extracted in the embodiment of the present invention.
  • FIG. 4 is a diagram for explaining an example of a set of image blocks set in the embodiment of the present invention.
  • FIG. 5 is a diagram for explaining an example of the inter-pixel combination used in the correlation value calculation process according to the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of a difference in luminance between image blocks in a pair image.
  • FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a specific configuration of the image processing apparatus according to the embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of a
  • FIG. 7 is a diagram illustrating an example of a difference between the average value of the luminance of the image block and the luminance of a specific pixel in each pair image.
  • FIG. 8 is a diagram illustrating an example in which the luminance value change pattern is approximated between image blocks.
  • FIG. 9 is a flowchart showing the operation of the image processing apparatus according to the embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a modification of the image block extraction method.
  • FIG. 11 is a diagram for explaining a modification of the image block extraction method.
  • FIG. 12 is a block diagram illustrating an example of a computer that implements the image processing apparatus according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus 100 is an apparatus that performs image processing on two images, and includes an image extraction unit 10, a correlation value calculation unit 20, a determination unit 30, and the like. It has.
  • the image extraction unit 10 extracts a plurality of image blocks having a set size from each of the two target images. Further, the image extraction unit 10 sets one set of a plurality of image blocks by combining one of the image blocks extracted from one of the two images and one of the image blocks extracted from the other image. .
  • the correlation value calculation unit 20 then continues, for each set of image block sets, a combination of a pixel of one image block and a corresponding pixel of the other image block (hereinafter referred to as “inter-pixel combination”). Every time (a) to (c) are calculated.
  • (A) The difference between the luminance at the pixel of one image block and the average value of the luminance of the one image block is calculated as the first luminance difference.
  • (B) The difference between the luminance of the corresponding pixel of the other image block and the average value of the luminance of the other image block is calculated as the second luminance difference.
  • C The difference between the first luminance difference and the second luminance difference is calculated as a luminance difference between pixels.
  • the correlation value calculation unit 20 integrates the luminance differences between the pixels calculated for each inter-pixel combination, and sets the obtained integrated value as the correlation value of the set of image blocks that are the calculation target.
  • the determination unit 30 determines, for each image block set, whether one image block of the set of image blocks matches the other image block based on the correlation value of each set of image blocks.
  • FIG. 2 is a block diagram showing a specific configuration of the image processing apparatus according to the embodiment of the present invention.
  • the image processing apparatus 100 is an apparatus that performs stereo matching processing.
  • the two images to be processed are a pair image obtained by photographing the same object from different angles, specifically, a pair image obtained from an artificial satellite or an aircraft.
  • the image processing apparatus 100 further acquires an image in addition to the image extraction unit 10, the correlation value calculation unit 20, and the determination unit 30 shown in FIG. Part 40 and a correlation value correction part 50 are provided.
  • the image acquisition unit 40 acquires a pair image to be processed. Specifically, the image acquisition unit 40 acquires each image data of a pair image transmitted via a network or the like, and inputs the acquired image data to the image extraction unit 10. Further, the image acquisition unit 40 determines whether or not the epipolar lines of the pair images match in the horizontal direction. If they do not match, at least one of rotation and projective transformation is performed on one or both images. One is performed and correction is performed so that the epipolar lines coincide.
  • the image extraction unit 10 extracts a plurality of image blocks from each pair image so that rows in the horizontal direction and columns in the vertical direction are formed along the vertical direction and the horizontal direction. To do.
  • the image extraction unit 10 divides each pair of images into tiles so that rows in the horizontal direction and columns in the vertical direction are formed along the vertical direction and the horizontal direction.
  • a plurality of image blocks are extracted from each pair image.
  • FIG. 3 is a diagram illustrating an example of a pair image obtained by extracting image blocks in the embodiment of the present invention.
  • the pair image includes an image 201 and an image 202.
  • the image extraction unit 10 extracts a rectangular image block having a preset size from each of the image 201 and the image 202.
  • the image blocks are arranged along the horizontal and vertical directions of the image.
  • the image extraction unit 10 selects one of the image blocks extracted from one image and one of the image blocks extracted from the other image so that the rows where both are located are mutually connected. Select to respond. Then, the image extraction unit 10 combines the selected image blocks, sets a set of image blocks, and inputs the set set of image blocks to the correlation value calculation unit 20.
  • the image acquisition unit 40 matches the epipolar lines of the pair images in the waterside direction. Therefore, as shown in FIG. 4, the image extraction unit 10 sets a set of image blocks by combining image blocks having the same number of rows.
  • FIG. 4 is a diagram for explaining an example of a set of image blocks set in the embodiment of the present invention.
  • the image extraction unit 10 first sets a set of image blocks using image blocks selected from the first row of each of the image 201 and the image 202. That is, the image extraction unit 10 sets all combinations obtained by all the image blocks in the first row of the image 201 and all the image blocks in the first row of the image 202 as a set of image blocks. For example, the image block 203 is combined with each of the image blocks 205 to 209 in addition to the image block 204.
  • the image extraction unit 10 similarly sets the image block set by combining the image block of the image 201 and the image block of the image 202 for the second and subsequent rows of the image 201 and the image 202, respectively. Then, the image extraction unit 10 inputs the set of each image block set in this way to the correlation value calculation unit 20.
  • the correlation value calculation unit 20 calculates a correlation value by performing a calculation process for each combination of image blocks for each combination of pixels.
  • the correlation value calculation processing by the correlation value calculation unit will be specifically described with reference to FIGS.
  • FIG. 5 is a diagram for explaining an example of the inter-pixel combination used in the correlation value calculation processing in the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of a difference in luminance between image blocks in a pair image.
  • FIG. 7 is a diagram illustrating an example of a difference between the average value of the luminance of the image block and the luminance of a specific pixel in each pair image.
  • the correlation value calculation unit 20 first sets an inter-pixel combination using pixels having the same coordinates in the image blocks 203 and 204. Assuming that the left end of the top row is the origin (0, 0), the correlation value calculation unit 20 uses, for example, the pixel 401 positioned at the coordinates (0, 0) of the image block 203 as the same coordinates (0 , 0) is combined with the pixel 402 located at 0. Similarly, the correlation value calculation unit 20 combines the pixel 403 located at the coordinate (1, 0) of the image block 203 with the pixel 404 located at the coordinate (1, 0) of the image block 204. Further, the correlation value calculation unit 20 similarly combines the pixels located at other coordinates of the image block 203 with the pixels of the image block 204.
  • the solid line indicates the luminance value of the pixel constituting the specific horizontal line of the image block 203
  • the broken line indicates the luminance value of the pixel constituting the horizontal line corresponding to the image block 204.
  • the difference between the average value of the luminance of the image block and the luminance of each pixel is extremely different between the images constituting the pair images even if the luminance values of the two images are different. It will be small.
  • the left diagram corresponds to the image block 203
  • the right diagram corresponds to the image block 204.
  • the solid line in the left diagram shows the luminance value of the pixels constituting the specific horizontal line of the image block 203
  • the broken line in the right diagram shows the luminance value of the pixel constituting the horizontal row corresponding to the image block 204.
  • the alternate long and short dash line in the left diagram indicates the average luminance value of the image block 203
  • the alternate long and short dash line in the right diagram indicates the average luminance value of the image block 204.
  • the correlation value calculation unit 20 calculates the first luminance difference and the second luminance difference for each inter-pixel combination, and further calculates the difference between them (the luminance difference between the pixels). Then, the correlation value calculation unit 20 integrates the luminance difference between the pixels for the set of image blocks to be calculated, and sets the obtained integrated value as the correlation value of the set of image blocks. Specifically, the correlation value calculation unit 20 calculates a correlation value R of a set of image blocks using the following formula 4.
  • M represents the number of image blocks (number of columns) in the horizontal direction of each image
  • N represents the number of image blocks (number of rows) in the vertical direction of each image.
  • I (i, j) represents the luminance value of the pixel located at the coordinates (i, j) in the image block of one image, and the I bar is located at the coordinates (i, j). The average value of the brightness
  • J (i, j) represents the luminance value of the pixel located at the coordinate (i, j) in the image block of the other image, and the J bar is located at the coordinate (i, j). The average value of the brightness
  • FIG. 8 is a diagram illustrating an example in which the luminance value change pattern is approximated between image blocks.
  • the solid line indicates the luminance value of the pixel constituting the specific horizontal line of the image block 203
  • the broken line indicates the luminance value of the pixel constituting the horizontal line corresponding to the image block 204.
  • the lower one-dot chain line indicates the average value of the luminance of the image block 203
  • the upper one-dot chain line indicates the average value of the luminance of the image block 204.
  • the correlation value correction unit 50 corrects the correlation value.
  • the correlation value correction unit 50 obtains the difference between the average value of the luminance of one image block and the average value of the luminance of the other image block for each set of set image blocks. Based on the obtained difference, the correlation value calculated by the correlation value calculation unit 20 is corrected. In the present embodiment, the corrected correlation value is input to the determination unit 30.
  • the correlation value correction unit 50 obtains a difference between the average value of the luminance of one image block and the average value of the luminance of the other image block, calculates a penalty P based on the obtained difference, When the penalty P exceeds a certain threshold, the calculated penalty P is given to the correlation value.
  • Penalty P can be calculated using, for example, Equation 5 below.
  • is an arbitrary value and is obtained by an experiment using a pair image as a sample.
  • I is an average value of luminance of one image block
  • J is an average value of luminance of the other image block.
  • the formula for calculating the penalty P is not limited to the following formula 5.
  • the penalty P may be calculated by squaring
  • the correlation value correcting unit 50 multiplies the correlation value by the calculated penalty P, for example, to correlate the correlation value. Correct the value.
  • the correlation value correction unit 50 calculates the penalty based on the difference between the average luminance value of one image block and the average luminance value of the other image block as described above. This is because the average value calculated by the unit 20 is used as it is. As a result, the calculation processing by the correlation value correction unit 50 can be reduced, and the processing time can be shortened.
  • the method of correction processing by the correlation value correction unit 50 is not limited to the above-described mode.
  • the correlation value correction unit 50 can also correct the correlation value by, for example, obtaining a difference between the luminance variance value of one image block and the luminance variance value of the other image block.
  • the determination unit 30 combines the correlation value R calculated by the above equation 4 among the image blocks extracted from the other image combined with one of the image blocks extracted from the one image.
  • the image block with the smallest (or corrected correlation value R) is specified.
  • the determination unit 30 determines that the identified image block matches one of the image blocks extracted from one image. That is, the determination unit 30 specifies a set of image blocks having the smallest correlation value R and determines that the image blocks constituting the specified image block match.
  • FIG. 9 is a flowchart showing the operation of the image processing apparatus according to the embodiment of the present invention.
  • FIGS. 1 to 8 are referred to as appropriate.
  • the image processing method is performed by operating the image processing apparatus 100. Therefore, the description of the image processing method in the present embodiment is replaced with the following description of the operation of the image processing apparatus 100.
  • the image acquisition unit 40 acquires a pair image transmitted via a network or the like (step A1). Furthermore, the image acquisition unit 40 corrects one or both images so that the epipolar lines of the pair images match in the horizontal direction (step A2).
  • the image extraction unit 10 divides each pair image into tile shapes so that rows in the horizontal direction and columns in the vertical direction are formed along the vertical direction and the horizontal direction. A plurality of image blocks are extracted from each (step A3).
  • the image extraction unit 10 sets a set of image blocks by combining one of the image blocks extracted from one image and one of the image blocks extracted from the other image (step A4). Specifically, the image extraction unit 10 sets a set of image blocks by combining image blocks having the same number of rows.
  • the correlation value calculation unit 20 calculates a correlation value by using the above equation 4 for each set of input image blocks (step A5). Specifically, the correlation value calculation unit 20 sets an inter-pixel combination with two pixels located at the same coordinates between image blocks, and calculates a first luminance difference and a second luminance difference for each inter-pixel combination. Further, the difference between the two (the luminance difference between the pixels) is calculated. Then, the correlation value calculation unit 20 integrates the calculated luminance difference between the pixels, and uses the obtained integrated value as a correlation value.
  • the correlation value correction unit 50 performs correction on the calculated correlation value as necessary (step A6). Specifically, the correlation value correction unit 50 obtains the difference between the average value of the luminance of one image block and the average value of the luminance of the other image block for each set of the set image blocks. A penalty P is calculated based on the difference. Then, when the penalty P exceeds a certain threshold, the correlation value correction unit 50 multiplies the calculated penalty P by the correlation value.
  • the determination unit 30 determines, for each image block set, whether one image block of the set of image blocks matches the other image block based on the correlation value of each set of image blocks. (Step A7). Specifically, the determination unit 30 specifies a set of image blocks having the smallest correlation value R, and determines that the image blocks constituting the specified set of image blocks match.
  • the image processing apparatus 100 identifies corresponding points between the matching image blocks, and performs triangulation using the parallax between the identified corresponding points. Furthermore, the image processing apparatus 100 identifies the depth and shape of the subject based on the result of triangulation.
  • the corresponding pixels of each image block are directly compared with each other.
  • the possible surnames that are judged to match are greatly reduced.
  • the correlation value is corrected according to the average luminance difference between the image blocks, and the correlation value of the set of image blocks in which only the luminance value change pattern is approximated becomes high. Therefore, such a situation will be avoided.
  • the program in the present embodiment may be a program that causes a computer to execute steps A1 to A7 shown in FIG.
  • a CPU Central Processing Unit
  • the image extraction unit 10 the correlation value calculation unit 20, the determination unit 30, the image acquisition unit 40, and the correlation value correction unit 50 to perform processing.
  • each computer may function as any one of the image extraction unit 10, the correlation value calculation unit 20, the determination unit 30, the image acquisition unit 40, and the correlation value correction unit 50, respectively.
  • step A3 the image extraction unit 10 extracts a plurality of image blocks from each pair image by dividing each pair image into image blocks of a preset size.
  • the method of extracting image blocks is not limited to the above example.
  • FIG. 10 is a diagram for explaining a modification of the image block extraction method.
  • FIG. 10 shows an image 201 and an image 202 acquired by the image acquisition unit 40.
  • each pixel included in the image is shown large for easy understanding. Therefore, actually, each image may include more pixels than shown in FIG.
  • the image extraction unit 10 includes a plurality of images so that rows in the horizontal direction and columns in the vertical direction are formed along the vertical direction and the horizontal direction from each pair image. Extract blocks. Specifically, referring to FIG. 10, the image extraction unit 10 in each of the images 201 and 202 performs a horizontal direction along a vertical direction (a direction indicated by an arrow V) and a horizontal direction (a method indicated by an arrow H). Set rows in H and columns in vertical direction V. Each row is composed of a plurality of pixels arranged in the horizontal direction H. Similarly, each column includes a plurality of pixels arranged in the vertical direction V. In the example of FIG. 10, 20 rows are set along the vertical direction V and 24 columns are set along the horizontal direction H in each of the images 201 and 202. Each row is composed of 24 pixels arranged in the horizontal direction H, and each column is composed of 20 pixels arranged in the vertical direction V.
  • the image extraction unit 10 extracts a plurality of image blocks from the images 201 and 202 in which a plurality of rows and a plurality of columns are set as described above.
  • the image block is composed of a plurality of pixels.
  • the image extraction unit 10 extracts, for each pixel of the image 201, an image block having that pixel as the central pixel. Further, the image extraction unit 10 extracts, for each pixel of the image 202, an image block having the pixel as a central pixel. Accordingly, the image extraction unit 10 extracts, for example, the same number of image blocks as the plurality of pixels constituting the image 201 from the image 201. Further, the image extraction unit 10 extracts, for example, the same number of image blocks as the plurality of pixels constituting the image 202 from the image 202.
  • FIG. 10 one image block 203 of a plurality of image blocks extracted from the image 201 is shown, and one image block 204 of a plurality of image blocks extracted from the image 202 is shown. .
  • a plurality of pixels constituting the image blocks 203 and 204 are hatched.
  • each of the image blocks 203 and 204 is composed of 9 pixels.
  • the image block 203 when the image block 203 is extracted using one of a plurality of pixels arranged on the outermost side in the image 201 as a central pixel, the image block is only composed of the pixels in the image 201. Cannot be configured.
  • an image block is extracted on the assumption that a plurality of pixels (hereinafter referred to as virtual pixels) having a constant luminance (for example, zero) are provided so as to surround the image 201. To do.
  • the image block 203 is configured by six pixels in the image 201 and three virtual pixels. Although the detailed description is omitted, the same applies to image blocks extracted from the image 202.
  • the image extraction unit 10 selects one of the image blocks extracted from one image and one of the image blocks extracted from the other image, in the row where the central pixel of both is located. Are selected to correspond to each other. Then, the selected image blocks are combined to set a plurality of sets of image blocks, and the set sets of the plurality of image blocks are input to the correlation value calculation unit 20.
  • one row of the image 202 is composed of 24 pixels. As described above, since an image block is set for each pixel, 24 image blocks are set for one row of the image 202. Accordingly, in the example of FIG. 10, an arbitrary image block extracted from one image 201 is combined with 24 image blocks set for each pixel constituting one row corresponding to the other image 202.
  • the image block is divided into 24 image blocks set for each pixel in the fifth row of the image 202. Each is combined.
  • a set of 24 image blocks is set for each image block extracted from the image 201. That is, a set of 24 image blocks is set for each of all the pixels constituting the image 201.
  • the image extraction unit 10 extracts the same number of image blocks 203 and 204 as the pixels from the pair images 201 and 202.
  • a pair of image blocks that match each other can be identified with higher accuracy. That is, the determination accuracy can be further improved in the matching process for the paired images.
  • FIG. 12 is a block diagram illustrating an example of a computer that implements the image processing apparatus according to the embodiment of the present invention.
  • the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.
  • the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 includes a hard disk drive and a semiconductor storage device such as a flash memory.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to the display device 119 and controls display on the display device 119.
  • the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic storage media such as a flexible disk
  • CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
  • the image processing apparatus 100 can be realized by using hardware corresponding to each unit, instead of a computer in which a program is installed. Furthermore, part of the image processing apparatus 100 may be realized by a program, and the remaining part may be realized by hardware.
  • a plurality of image blocks of a set size are extracted from each of the two target images, and one of the image blocks extracted from one of the two images and one of the image blocks extracted from the other image
  • An image extraction unit that sets a set of a plurality of image blocks in combination with one, For each set of image blocks set, For each combination of pixels of one image block and corresponding pixels of the other image block, Calculating the difference between the luminance at the pixel of the one image block and the average value of the luminance of the one image block as a first luminance difference; Calculating the difference between the luminance at the corresponding pixel of the other image block and the average value of the luminance of the other image block as a second luminance difference; Further, a difference between the first luminance difference and the second luminance difference is calculated as a luminance difference between pixels,
  • a correlation value calculation unit that integrates the luminance difference between the pixels for each of the obtained combinations, and sets the obtained integration value as a correlation value of the set of the image block;
  • a determination unit that determines,
  • Appendix 2 The image processing apparatus according to appendix 1, wherein the two images are pair images obtained by photographing the same object from different angles.
  • the determination unit identifies and specifies an image block having the smallest correlation value among image blocks extracted from the other image combined with one of the image blocks extracted from the one image.
  • the determined image block matches one of the image blocks extracted from the one image,
  • the image processing apparatus according to appendix 4.
  • a plurality of image blocks of a set size are extracted from each of the two target images, and one of the image blocks extracted from one of the two images and the other image are extracted. Combining one of the image blocks to set a set of multiple image blocks;
  • Appendix 7 The image processing method according to appendix 6, wherein the two images are pair images obtained by photographing the same object from different angles.
  • step (c) the image block having the smallest correlation value is identified from among the image blocks obtained from the other image combined with one of the image blocks extracted from the one image. And determining that the identified image block matches one of the image blocks extracted from the one image.
  • Appendix 12 The computer-readable recording medium according to appendix 11, wherein the two images are pair images obtained by photographing the same object from different angles.
  • step (E) When the two images are acquired, and when epipolar lines of the acquired two images do not coincide with each other in the horizontal direction, at least one of rotation and projective transformation is performed on one or both of the two images Performing one step to further match the epipolar lines of each of the two images in the horizontal direction, In the step (a), the plurality of image blocks are extracted from each of the two images so that rows in the horizontal direction and columns in the vertical direction are formed along the vertical direction and the horizontal direction.
  • One of the image blocks extracted from the one image and one of the image blocks extracted from the other image are selected so that the rows in which they are located correspond to each other, and the selected image blocks To set the set of image blocks,
  • the computer-readable recording medium according to any one of appendices 11 to 13.
  • step (c) the image block having the smallest correlation value is identified from among the image blocks extracted from the other image combined with one of the image blocks extracted from the one image. And determining that the identified image block matches one of the image blocks extracted from the one image.
  • the present invention it is possible to improve the determination accuracy in the matching process for pair images having different luminances.
  • the present invention is useful, for example, in a field that requires stereo matching.

Abstract

画像処理装置100は、ペア画像それぞれから画像ブロックを抽出し、一方の画像の画像ブロックと他方の画像の画像ブロックとを組み合せ、画像ブロックの組を設定する画像抽出部10と、各組について、一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、一方の画像ブロックの画素の輝度とその画像ブロックの輝度の平均値との差を算出し、他方の画像ブロックの対応する画素の輝度とその画像ブロックの輝度の平均値との差を算出し、一方の差から他方を減算して輝度差を算出し、輝度差の積算値を相関値とする相関値算出部20と、相関値に基づき、画像ブロックの組毎に、一方の画像ブロックと他方の画像ブロックとが一致しているか否かを判定する判定部30とを備える。

Description

画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、2つの画像を用いた画像処理を行なうための、画像処理装置、画像処理方法、及びこれらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 従来から、3次元データの自動生成方法として、人工衛星又は航空機等から得られたペア画像を基に、ステレオマッチング処理を行うことによって、地形を示す3次元データ[DSM(Digital Surface Model)データ]を生成する方法が広く知られている。ペア画像は、2台のカメラによって同一の被写体を異なる視点で撮影することによって得られた画像である。
 具体的には、ステレオマッチング処理では、まず、ステレオ画像を構成する各画像は一定サイズの画像ブロックが抽出され、次いで、一方の画像の画像ブロックに一致する他方の画像の画像ブロックが特定される。その後、一致する画像ブロック間で対応点を特定し、特定した対応点間の視差を用いて、三角測量を実行することによって、被写体の奥行き及び形状が求められる。
 ところで、ステレオマッチング処理において、精度を高めるためには、一致する画像ブロックを正確に特定することが重要となる。そして、一致する画像ブロックを特定する処理の具体的手法としては、輝度差の和(SAD:Sum of Absolute Difference)を利用した方法、輝度差の2乗和(SSD:Sum of Squared Difference)を利用した方法、正規化相互相関(NCC:Normalized Cross-Correlation)を利用した方法、などが知られている。
 具体的には、SADを利用する場合は、下記の数1を用いて、RSADの値が最も小さくなる画像ブロックのペアを特定し、特定したペアを互いに一致する画像ブロックであると判定する(例えば、特許文献1~3及び非特許文献1参照)。なお、数1において、I(i,j)及びT(i,j)は、画像ブロックにおける対応する画素の輝度を示している。また、(i,j)は、画素の座標を表している。
Figure JPOXMLDOC01-appb-M000001
 また、SSDを利用する場合は、下記の数2を用いて、RSSDの値が最も小さくなる画像ブロックのペアを特定し、特定したペアを互いに一致する画像ブロックであると判定する(例えば、特許文献4及び非特許文献1参照)。数2においても、I(i,j)及びT(i,j)は、画像ブロックにおける輝度を示している。
Figure JPOXMLDOC01-appb-M000002
 更に、NCCを利用する場合は、下記の数3を用いて、RNCCの値が1.0に最も近くなる画像ブロックのペアを特定し、特定したペアを互いに一致する画像ブロックであると判定する(例えば、特許文献5参照)。数3においても、I(i,j)及びT(i,j)は、画像ブロックにおける輝度を示している。
Figure JPOXMLDOC01-appb-M000003
特開平9-211080号公報 特開2000-003448号公報 特開2006-90896号公報 特開2000-082142号公報 特開平7-121711号公報
新井元基、鷲見和彦、松山 隆司著、「画像のブロックマッチングにおける相関関数とサブピクセル推定方式の最適化」、2004年5月6日、p.2、右パラグラム、第2~19行
 ところで、上記数1及び数2から分かるように、SADを利用した方法及びSSDを利用した方法のいずれにおいても、値の算出は、比較対象となる2つの画像ブロックそれぞれの互いに対応する2つの画素毎に行なわれている。このため、これらの方法によれば、2枚の画像同士が同一かどうかを判定することを目的とした一般的なマッチング処理においては、非常に正確な判定が期待出来る。
 しかしながら、ステレオマッチング処理においては、ペア画像を撮影する2台のカメラそれぞれの撮影角度が異なるため、被写体で反射された光の入射角度が、カメラ毎に異なり、各カメラで得られる画像の輝度が互いに微妙に異なる場合がある。このため、SAD又はSSDを用いてステレオマッチング処理を行なった場合は、画像間の輝度の違いが原因で、互いに一致する画像ブロックのペアであるにもかかわらず、算出された値が高くなり、一致していないと判定される可能姓がある。
 一方、NCCを利用した方法では、上記数3から分かるように、一般的には2枚の画像の輝度の違いが許容されると考えられる。しかしながら、NCCを利用した方法では、2つの画像ブロックそれぞれの2つの画素毎に計算が行なわれるわけではない。このため、NCCを利用してステレオマッチング処理を行なった場合は、一致しない画像ブロック間でも、画像全体的の輝度の条件によっては、一致すると判定されてしまう場合がある。つまり、NCCを利用してステレオマッチング処理を行なった場合には、誤判定が発生しやすいという問題がある。
 本発明の目的の一例は、上記問題を解消し、輝度が異なるペア画像を対象としたマッチング処理において判定精度の向上を図り得る、画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における画像処理装置は、
 対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、画像抽出部と、
 設定された画像ブロックの組それぞれについて、
一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、相関値算出部と、
 前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、判定部と、
を備えている、ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面における画像処理方法は、
(a)対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、ステップと、
(b)設定された画像ブロックの組それぞれについて、
一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、ステップと、
(c)前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、ステップと、
を有する、ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、ステップと、
(b)設定された画像ブロックの組それぞれについて、
一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、ステップと、
(c)前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
 以上のように本発明によれば、輝度が異なるペア画像を対象としたマッチング処理において判定精度の向上を図ることができる。
図1は、本発明の実施の形態における画像処理装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態における画像処理装置の具体的構成を示すブロック図である。 図3は、本発明の実施の形態において画像ブロックが抽出されたペア画像の一例を示す図である。 図4は、本発明の実施の形態において設定される画像ブロックの組の一例を説明する図である。 図5は、本発明の実施の形態における相関値の算出処理で用いられる画素間組合せの一例を説明するための図である。 図6は、ペア画像における画像ブロック間の輝度の相違の一例を示す図である。 図7は、ペア画像それぞれにおける画像ブロックの輝度の平均値と特定の画素の輝度との差の一例を示す図である。 図8は、画像ブロック間で輝度値の変化のパターンが近似している例を示す図である。 図9は、本発明の実施の形態における画像処理装置の動作を示すフロー図である。 図10は、画像ブロックの抽出方法の変形例を説明するための図である。 図11は、画像ブロックの抽出方法の変形例を説明するための図である。 図12は、本発明の実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
 以下、本発明の実施の形態における、画像処理装置、画像処理方法、及びプログラムについて、図1~図12を参照しながら説明する。
[装置構成]
 最初に、図1を用いて、本発明の実施の形態における画像処理装置の概略構成について説明する。図1は、本発明の実施の形態における画像処理装置の概略構成を示すブロック図である。
 図1に示すように、本実施の形態における画像処理装置100は、2枚の画像を対象として画像処理を行なう装置であり、画像抽出部10と、相関値算出部20と、判定部30とを備えている。
 画像抽出部10は、対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出する。また、画像抽出部10は、2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する。
 相関値算出部20は、続いて、設定された画像ブロックの組それぞれについて、一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ(以下「画素間組合せ」と表記する。)毎に、(a)~(c)の算出処理を行なう。
(a)一方の画像ブロックの画素における輝度と一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出する。
(b)他方の画像ブロックの対応する画素における輝度と他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出する。
(c)第1の輝度差と第2の輝度差との差を、画素間の輝度差として算出する。
 更に、相関値算出部20は、画素間組合せ毎に算出した画素間の輝度差を積算し、得られた積算値を、計算対象となった画像ブロックの組の相関値とする。
 判定部30は、画像ブロックの組それぞれの相関値に基づいて、画像ブロックの組毎に、各画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する。
 このように、図1に示した構成では、一方の画像ブロックの画素と他方の画像ブロックの画素との間で相関値を比較する際に、両画像ブロックにおいて全体の平均の輝度値(平均値)と画素単独の輝度値との差が求められ、この差に基づいて、相関値が計算される。このため、図1に示した構成によれば、一方の画像ブロックと他方の画像ブロックとの間の全体的な輝度の違いによる影響が、大きく軽減されるので、輝度が異なるペア画像を対象としたマッチング処理において、従来からの方法に比べて、判定精度の向上が図られることになる。
 続いて、図2を用いて、本発明の実施の形態における画像処理装置の構成及び機能について更に具体的に説明する。図2は、本発明の実施の形態における画像処理装置の具体的構成を示すブロック図である。
 まず、本実施の形態では、画像処理装置100は、ステレオマッチング処理を行なう装置である。処理対象となる2つの画像は、異なる角度から同一対象を撮影して得られたペア画像、具体的には、人工衛星又は航空機等から撮影されたペア画像である。
 また、図2に示すように、本実施の形態では、画像処理装置100は、図1に示した、画像抽出部10、相関値算出部20、及び判定部30に加えて、更に、画像取得部40と相関値補正部50とを備えている。
 画像取得部40は、処理対象となるペア画像を取得する。具体的には、画像取得部40は、ネットワーク等を介して送信されてきたペア画像の各画像データを取得し、取得した各画像データを画像抽出部10に入力する。また、画像取得部40は、ペア画像それぞれのエピポーラ線が水平方向において一致しているかどうかを判定し、一致していない場合は、一方又は両方の画像に対して、回転および射影変換のうち少なくとも1つを行なって、エピポーラ線が一致するように補正を実行する。
 画像抽出部10は、図3に示すように、ペア画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、複数の画像ブロックを抽出する。本実施の形態で、画像抽出部10は、ペア画像それぞれを、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、タイル状に分割した形で、ペア画像それぞれから複数の画像ブロックを抽出する。図3は、本発明の実施の形態において画像ブロックを抽出したペア画像の一例を示す図である。
 具体的には、図3の例では、ペア画像は、画像201と画像202とで構成されている。そして、図3に示すように、画像抽出部10は、画像201及び画像202それぞれから、予め設定された大きさの矩形の画像ブロックを抽出する。これにより、画像ブロックは、画像の水平方向及び垂直方向に沿って配列される。
 また、画像抽出部10は、本実施の形態では、一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出する。そして、画像抽出部10は、選出した画像ブロック同士を組み合せて、画像ブロックの組を設定し、設定した画像ブロックの組を、相関値算出部20に入力する。
 具体的には、上述したように、本実施の形態では、画像取得部40によって、ペア画像それぞれのエピポーラ線は水辺方向において一致している。従って、図4に示すように、画像抽出部10は、行数が一致する画像ブロック同士を組み合せて、画像ブロックの組を設定する。図4は、本発明の実施の形態において設定される画像ブロックの組の一例を説明する図である。
 図4の例では、画像抽出部10は、まず、画像201及び画像202それぞれの1行目から選出した画像ブロックを用いて、画像ブロックの組を設定する。つまり、画像抽出部10は、画像201の1行目の全画像ブロックと画像202の1行目の全画像ブロックとで得られる、全ての組合せを、画像ブロックの組として設定する。例えば、画像ブロック203は、画像ブロック204に加えて、画像ブロック205~画像ブロック209それぞれとも組合せられる。
 続いて、画像抽出部10は、画像201及び画像202それぞれの2行目以降についても同様に、画像201の画像ブロックと画像202の画像ブロックとを組み合せて、画像ブロックの組を設定する。そして、画像抽出部10は、このようにして設定した各画像ブロックの組を相関値算出部20に入力する。
 相関値算出部20は、入力された画像ブロックの組それぞれについて、画素間組合せ毎に算出処理を行なって、相関値を算出する。ここで、図5~図7を用いて、相関値算出部による相関値の算出処理について具体的に説明する。
 図5は、本発明の実施の形態における相関値の算出処理で用いられる画素間組合せの一例を説明するための図である。図6は、ペア画像における画像ブロック間の輝度の相違の一例を示す図である。図7は、ペア画像それぞれにおける画像ブロックの輝度の平均値と特定の画素の輝度との差の一例を示す図である。
 図5に示すように、相関値算出部20は、まず、画像ブロック203及び204それぞれにおける座標が同じ画素によって画素間組合せを設定する。最上段の行の左端を原点(0,0)とすると、相関値算出部20は、例えば、画像ブロック203の座標(0,0)に位置する画素401を、画像ブロック204の同じ座標(0,0)に位置する画素402と組み合わせる。同様に、相関値算出部20は、画像ブロック203の座標(1,0)に位置する画素403を、画像ブロック204の座標(1,0)に位置する画素404と組み合わせる。更に、相関値算出部20は、画像ブロック203の他の座標に位置する画素についても、同様にして、画像ブロック204の画素と組み合わせる。
 ところで、エピポーラ線が一致しているペア画像において、行数が同じ画像ブロック同士であっても、図6に示すように、画像ブロック全体の輝度値が相違する場合がある。これはペア画像それぞれの被写体は同じであっても、ペア画像を構成する画像毎に、撮影角度が異なり、それによって全体の輝度値が微妙に異なるからである。
 なお、図6において、実線は、画像ブロック203の特定の水平行を構成する画素の輝度値を示し、破線は、画像ブロック204の対応する水平行を構成する画素の輝度値を示している。
 一方、図7に示すように、ペア画像を構成する画像間では、両者の全体の輝度値が異なっていても、画像ブロックの輝度の平均値と各画素の輝度との差は両者間で極めて小さいものとなる。
 なお、図7において、左側の図は画像ブロック203に対応し、右側の図は画像ブロック204に対応する。そして、左側の図における実線は、画像ブロック203の特定の水平行を構成する画素の輝度値を示し、右側の図における破線は、画像ブロック204の対応する水平行を構成する画素の輝度値を示している。また、左側の図における一点鎖線は、画像ブロック203の輝度の平均値を示し、右側の図における一点鎖線は、画像ブロック204の輝度の平均値を示している。
 このため、相関値算出部20は、画素間組合せ毎に、第1の輝度差及び第2の輝度差を算出し、更に、両者の差(画素間の輝度差)を算出する。そして、相関値算出部20は、計算対象となっている画像ブロックの組について、画素間の輝度差を積算し、得られた積算値を、画像ブロックの組の相関値とする。具体的には、相関値算出部20は、下記の数4を用いて、画像ブロックの組の相関値Rを算出する。
Figure JPOXMLDOC01-appb-M000004
 また、上記数4において、Mは、各画像の水平方向における画像ブロックの数(列数)を示し、Nは、各画像の垂直方向における画像ブロックの数(行数)を示している。また、上記数4においてI(i,j)は、一方の画像の画像ブロックにおいて座標(i,j)に位置する画素の輝度値を示し、Iバーは、座標(i,j)に位置する画素が属する画像ブロックの輝度の平均値を示している。更に、上記数4においてJ(i,j)は、他方の画像の画像ブロックにおいて座標(i,j)に位置する画素の輝度値を示し、Jバーは、座標(i,j)に位置する画素が属する画像ブロックの輝度の平均値を示している。
 ところで、例えば、被写体がビル壁などである場合は、複数の画像ブロックが同じ色で構成されてしまう。このため、図8に示すように、一致しないはずの画像ブロック間で輝度値の変化のパターンが近似することがある。図8は、画像ブロック間で輝度値の変化のパターンが近似している例を示す図である。
 なお、図8において、実線は、画像ブロック203の特定の水平行を構成する画素の輝度値を示し、破線は、画像ブロック204の対応する水平行を構成する画素の輝度値を示している。また、2本の一点鎖線のうち、下側の一点鎖線は、画像ブロック203の輝度の平均値を示し、上側の一点鎖線は、画像ブロック204の輝度の平均値を示している。
 そして、このようなケースにおいては、両者の輝度値は異なるが、上述の相関値Rの値は小さくなってしまい、後述する判定部30において間違った判定がなされるおそれがある。
 このため、本実施の形態では、相関値補正部50によって相関値の補正が行なわれる。相関値補正部50は、設定された画像ブロックの組毎に、一方の画像ブロックの輝度の平均値と、他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた差に基づいて、相関値算出部20によって算出された相関値を補正する。本実施の形態では、補正後の相関値が、判定部30に入力される。
 具体的には、相関値補正部50は、一方の画像ブロックの輝度の平均値と、他方の画像ブロックの輝度の平均値との差を求め、求めた差を基準にペナルティPを算出し、ペナルティPが一定の閾値を超えている場合に、相関値に対して、算出したペナルティPを付与する。
 ペナルティPの算出は、例えば、下記の数5を用いて行なうことができる。下記の数5において、αは、任意の値であり、サンプルとなるペア画像を用いた実験によって求められる。また、Iは、一方の画像ブロックの輝度の平均値であり、Jは、他方の画像ブロックの輝度の平均値である。また、本実施の形態において、ペナルティPの算出式は、下記の数5に限定されることはない。ペナルティPは、|I-J|を二乗したり、|I-J|の対数を取ったりすることによって算出されても良い。
Figure JPOXMLDOC01-appb-M000005
 また、上記数5によってペナルティが算出され、ペナルティPが一定の閾値を超えている場合は、相関値補正部50は、例えば、相関値に対して、算出したペナルティPを乗算することによって、相関値を補正する。
 また、相関値補正部50が、このように、一方の画像ブロックの輝度の平均値と他方の画像ブロックの輝度の平均値との差を基準にペナルティを計算しているのは、相関値計算部20によって算出された平均値をそのまま流用するためである。この結果、相関値補正部50による計算処理を削減でき、処理時間の短縮化が図られることになる。但し、相関値補正部50による補正処理の仕方は、上記態様に限定されるものではない。相関値補正部50は、例えば、一方の画像ブロックの輝度の分散値と、他方の画像ブロックの輝度の分散値との差を求めることによって、相関値を補正することもできる。
 判定部30は、本実施の形態では、一方の画像から抽出された画像ブロックの一つに組み合わされた、他方の画像から抽出された画像ブロックのうち、上記数4によって算出された相関値R(又は補正後の相関値R)が最も小さくなる画像ブロックを特定する。そして、判定部30は、特定した画像ブロックは、一方の画像から抽出された画像ブロックの一つと一致していると判定する。つまり、判定部30は、相関値Rが最も小さくなる画像ブロックの組を特定し、特定した画像ブロックを構成する画像ブロック同士は一致していると判定する。
[装置動作]
 次に、本発明の実施の形態における画像処理装置100の動作について図9を用いて説明する。図9は、本発明の実施の形態における画像処理装置の動作を示すフロー図である。以下の説明においては、適宜図1~図8を参酌する。また、本実施の形態では、画像処理装置100を動作させることによって、画像処理方法が実施される。よって、本実施の形態における画像処理方法の説明は、以下の画像処理装置100の動作説明に代える。
 図9に示すように、画像処理装置100においては、最初に、画像取得部40が、ネットワーク等を介して送信されてきたペア画像を取得する(ステップA1)。更に、画像取得部40は、ペア画像それぞれのエピポーラ線が水平方向において一致するように、一方又は両方の画像を補正する(ステップA2)。
 次に、画像抽出部10は、ペア画像それぞれを、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、タイル状に分割した形で、ペア画像それぞれから複数の画像ブロックを抽出する(ステップA3)。
 次に、画像抽出部10は、一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、画像ブロックの組を設定する(ステップA4)。具体的には、画像抽出部10は、行数が一致する画像ブロック同士を組み合せて、画像ブロックの組を設定する。
 次に、相関値算出部20は、入力された画像ブロックの組毎に、上記数4を用いて、相関値を算出する(ステップA5)。具体的には、相関値算出部20は、画像ブロック間で同じ座標に位置する2つの画素によって画素間組合せを設定し、画素間組合せ毎に、第1の輝度差及び第2の輝度差を算出し、更に、両者の差(画素間の輝度差)を算出する。そして、相関値算出部20は、算出した画素間の輝度差を積算し、得られた積算値を相関値とする。
 次に、相関値補正部50は、算出された相関値に対して必要に応じて補正を実行する(ステップA6)。具体的には、相関値補正部50は、設定された画像ブロックの組毎に、一方の画像ブロックの輝度の平均値と、他方の画像ブロックの輝度の平均値との差を求め、求めた差を基準にペナルティPを算出する。そして、相関値補正部50は、ペナルティPが一定の閾値を超えている場合に、相関値に対して、算出したペナルティPを乗算する。
 次に、判定部30は、画像ブロックの組それぞれの相関値に基づいて、画像ブロックの組毎に、画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する(ステップA7)。具体的には、判定部30は、相関値Rが最も小さくなる画像ブロックの組を特定し、特定した画像ブロックの組を構成する画像ブロック同士は一致していると判定する。
 このように、ステップA1~A7の実行により、ペア画像において一致する画像ブロックの組が特定される。その後、画像処理装置100は、一致する画像ブロック間で対応点を特定し、特定した対応点間の視差を用いて、三角測量を実行する。更に、画像処理装置100は、三角測量の結果に基づいて、被写体の奥行き及び形状を特定する。
[実施の形態における効果]
 以上のように、本実施の形態では、各画像ブロックにおいて、画像ブロック全体の平均の輝度値と画素単独の輝度値との差が求められ、この差に基づいて、画像ブロック間の相関値が求められる。従って、本実施の形態によれば、従来からのSAD又はSSDを利用する場合と異なり、直接の輝度値のみで相関値が算出されないので、画像ブロック間の全体的な輝度の違いによる影響が大きく軽減される。
 また、本実施の形態では、NCCを利用する場合と異なり、画像ブロック間の相関値を計算するに際して、各画像ブロックの対応する画素同士が直接比較されるので、一致しない画像ブロックの組が誤って一致していると判断される可能姓は大きく低減される。
 また、一致しないはずの画像ブロックの組で、両者の輝度値の変化のパターンが近似していると、誤って両者が一致していると判断される可能姓がある。しかし、本実施の形態では、画像ブロック間の平均の輝度の差に応じて、相関値が補正され、輝度値の変化のパターンが近似しているだけの画像ブロックの組の相関値は高くなるので、このような事態が回避されることになる。
[プログラム]
 本実施の形態におけるプログラムは、コンピュータに、図9に示すステップA1~A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における画像処理装置100と画像処理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、画像抽出部10、相関値算出部20、判定部30、画像取得部40、及び相関値補正部50として機能し、処理を行なう。
 また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像抽出部10、相関値算出部20、判定部30、画像取得部40、及び相関値補正部50のいずれかとして機能しても良い。
[変形例]
 上述した例では、ステップA3において画像抽出部10は、ペア画像それぞれを予め設定されたサイズの画像ブロックに分割することによって、ペア画像それぞれから複数の画像ブロックを抽出しているが、ステップA3における画像ブロックの抽出方法は上述の例に限定されない。図10は、画像ブロックの抽出方法の変形例を説明するための図である。なお、図10には、画像取得部40によって取得された画像201及び画像202が示されている。図10においては、説明を分かりやすくするために、画像に含まれる各画素を大きく示している。したがって、実際には、各画像には、図10に示すよりも多くの画素が含まれていてもよい。
 本実施の形態における変形例においても、画像抽出部10は、ペア画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、複数の画像ブロックを抽出する。具体的には、図10を参照して、画像抽出部10は、画像201,202それぞれにおいて、垂直方向(矢印Vで示す方向)及び水平方向(矢印Hで示す方法)に沿って、水平方向Hにおける行と垂直方向Vにおける列とを設定する。各行は、水平方向Hに並ぶ複数の画素によって構成されている。同様に、各列は、垂直方向Vに並ぶ複数の画素によって構成されている。図10の例では、画像201,202それぞれにおいて、垂直方向Vに沿って20個の行が設定され、水平方向Hに沿って24個の列が設定されている。各行は、水平方向Hに並ぶ24個の画素によって構成され、各列は、垂直方向Vに並ぶ20個の画素によって構成されている。
 画像抽出部10は、上記のように複数の行及び複数の列が設定された画像201,202それぞれから、複数の画像ブロックを抽出する。画像ブロックは、複数の画素によって構成される。本変形例では、画像抽出部10は、画像201の画素ごとに、その画素を中心画素とする画像ブロックを抽出する。また、画像抽出部10は、画像202の画素ごとに、その画素を中心画素とする画像ブロックを抽出する。したがって、画像抽出部10は、例えば、画像201を構成する複数の画素と同数の画像ブロックを、画像201から抽出する。また、画像抽出部10は、例えば、画像202を構成する複数の画素と同数の画像ブロックを、画像202から抽出する。
 図10においては、画像201から抽出された複数の画像ブロックのうちの一つの画像ブロック203が示され、画像202から抽出された複数の画像ブロックのうちの一つの画像ブロック204が示されている。図10においては、画像ブロック203,204を構成する複数の画素にハッチングを付している。図10の例では、画像ブロック203,204はそれぞれ、9画素によって構成されている。
 なお、図11を参照して、例えば、画像201内の最も外側に並ぶ複数の画素のうちの一つを中心画素として画像ブロック203を抽出する際には、画像201内の画素のみによって画像ブロックを構成することはできない。この場合には、例えば、一定の輝度(例えば、零)を有する複数の画素(以下、仮想画素と記載する。)が、画像201を囲むように設けられていると仮定して画像ブロックを抽出する。図11の例では、例えば、画像201内の6個の画素と、3個の仮想画素とによって、画像ブロック203が構成されている。詳細な説明は省略するが、画像202から抽出される画像ブロックについても同様である。
 更に、本変形例では、画像抽出部10は、一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを、両者の中心画素が位置している行が互いに対応するように選出する。そして、選出した画像ブロック同士を組み合せて、複数の画像ブロックの組を設定し、設定した複数の画像ブロックの組を、相関値算出部20に入力する。例えば、図10では、画像202の一つの行は、24画素によって構成されている。上述したように、画像ブロックは画素ごとに設定されるので、画像202の一つの行に対して24個の画像ブロックが設定される。したがって、図10の例では、一方の画像201から抽出された任意の画像ブロックは、他方の画像202の対応する一つの行を構成する画素ごとに設定された24個の画像ブロックにそれぞれに組み合わされる。例えば、画像201から抽出された画像ブロックの中心画素が5行目に位置している場合には、その画像ブロックは、画像202の5行目の画素ごとに設定された24個の画像ブロックにそれぞれ組み合わされる。このようにして、本変形例では、画像201から抽出された画像ブロックごとに、24個の画像ブロックの組が設定される。すなわち、画像201を構成する全ての画素それぞれに対して、24個の画像ブロックの組が設定される。
 以上のように、本変形例においては、画像抽出部10は、ペア画像201,202から、画素と同数の画像ブロック203,204を抽出する。この場合、互いに一致する画像ブロックのペアをより高精度に特定することが可能になる。すなわち、ペア画像を対象としたマッチング処理において、判定精度をさらに向上させることができる。
 ここで、本実施の形態におけるプログラムを実行することによって、画像処理装置100を実現するコンピュータについて図12を用いて説明する。図12は、本発明の実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。
 図12に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
 なお、本実施の形態における画像処理装置100は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、画像処理装置100は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記15)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、画像抽出部と、
 設定された画像ブロックの組それぞれについて、
一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、相関値算出部と、
 前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、判定部と、
を備えている、ことを特徴とする画像処理装置。
(付記2)
 前記2つの画像が、異なる角度から同一対象を撮影して得られたペア画像である、付記1に記載の画像処理装置。
(付記3)
 前記画像ブロックの組それぞれ毎に、前記一方の画像ブロックの輝度の平均値と、前記他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた前記差に基づいて前記相関値を補正する、相関値補正部を更に備えている、
付記1または2に記載の画像処理装置。
(付記4)
 前記2つの画像を取得し、取得した前記2つの画像それぞれのエピポーラ線が水平方向において一致していない場合に、前記2つの画像の一方または両方に対して、回転および射影変換のうち少なくとも1つを行なって、前記2つの画像それぞれのエピポーラ線を水平方向において一致させる、画像取得部を更に備え、
 前記画像抽出部が、前記2つの画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、前記複数の画像ブロックを抽出し、
前記一方の画像から抽出された画像ブロックの一つと、前記他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出し、選出した画像ブロック同士を組み合せて、前記画像ブロックの組を設定する、
付記1~3のいずれかに記載の画像処理装置。
(付記5)
 前記判定部は、前記一方の画像から抽出された画像ブロックの一つに組み合わされた、前記他方の画像から抽出された画像ブロックのうち、前記相関値が最も小さくなる画像ブロックを特定し、特定した画像ブロックは、前記一方の画像から抽出された画像ブロックの一つと一致していると判定する、
付記4に記載の画像処理装置。
(付記6)
(a)対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、ステップと、
(b)設定された画像ブロックの組それぞれについて、
一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、ステップと、
(c)前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、ステップと、
を有する、ことを特徴とする画像処理方法。
(付記7)
 前記2つの画像が、異なる角度から同一対象を撮影して得られたペア画像である、付記6に記載の画像処理方法。
(付記8)
(d)前記画像ブロックの組それぞれ毎に、前記一方の画像ブロックの輝度の平均値と、前記他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた前記差に基づいて前記相関値を補正する、ステップを更に有する、
付記6または7に記載の画像処理方法。
(付記9)
(e)前記2つの画像を取得し、取得した前記2つの画像それぞれのエピポーラ線が水平方向において一致していない場合に、前記2つの画像の一方または両方に対して、回転および射影変換のうち少なくとも1つを行なって、前記2つの画像それぞれのエピポーラ線を水平方向において一致させる、ステップを更に有し、
 前記(a)のステップにおいて、前記2つの画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、前記複数の画像ブロックを抽出し、
前記一方の画像から抽出された画像ブロックの一つと、前記他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出し、選出した画像ブロック同士を組み合せて、前記画像ブロックの組を設定する、
付記6~8のいずれかに記載の画像処理方法。
(付記10)
 前記(c)のステップにおいて、前記一方の画像から抽出された画像ブロックの一つに組み合わされた、前記他方の画像から得られた画像ブロックのうち、前記相関値が最も小さくなる画像ブロックを特定し、特定した画像ブロックは、前記一方の画像から抽出された画像ブロックの一つと一致していると判定する、
付記9に記載の画像処理方法。
(付記11)
コンピュータに、
(a)対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、ステップと、
(b)設定された画像ブロックの組それぞれについて、
一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、ステップと、
(c)前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記12)
 前記2つの画像が、異なる角度から同一対象を撮影して得られたペア画像である、付記11に記載のコンピュータ読み取り可能な記録媒体。
(付記13)
前記コンピュータに、
(d)前記画像ブロックの組それぞれ毎に、前記一方の画像ブロックの輝度の平均値と、前記他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた前記差に基づいて前記相関値を補正する、ステップを更に実行させる、
付記11または12に記載のコンピュータ読み取り可能な記録媒体。
(付記14)
前記コンピュータに、
(e)前記2つの画像を取得し、取得した前記2つの画像それぞれのエピポーラ線が水平方向において一致していない場合に、前記2つの画像の一方または両方に対して、回転および射影変換うち少なくとも1つを行なって、前記2つの画像それぞれのエピポーラ線を水平方向において一致させる、ステップを更に実行させ、
 前記(a)のステップにおいて、前記2つの画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、前記複数の画像ブロックを抽出し、
前記一方の画像から抽出された画像ブロックの一つと、前記他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出し、選出した画像ブロック同士を組み合せて、前記画像ブロックの組を設定する、
付記11~13のいずれかに記載のコンピュータ読み取り可能な記録媒体。
(付記15)
 前記(c)のステップにおいて、前記一方の画像から抽出された画像ブロックの一つに組み合わされた、前記他方の画像から抽出された画像ブロックのうち、前記相関値が最も小さくなる画像ブロックを特定し、特定した画像ブロックは、前記一方の画像から抽出された画像ブロックの一つと一致していると判定する、
付記14に記載のコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2015年11月27日に出願された日本出願特願2015-232063を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように本発明によれば、輝度が異なるペア画像を対象としたマッチング処理において判定精度の向上を図ることができる。本発明は、例えば、ステレオマッチングが必要な分野に有用である。
 10 画像抽出部
 20 相関値算出部
 30 判定部
 40 画像取得部
 50 相関値補正部
 100 画像処理装置
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (15)

  1.  対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、画像抽出部と、
     設定された画像ブロックの組それぞれについて、
    一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
    前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
    前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
    更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
    求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、相関値算出部と、
     前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、判定部と、
    を備えている、ことを特徴とする画像処理装置。
  2.  前記2つの画像が、異なる角度から同一対象を撮影して得られたペア画像である、請求項1に記載の画像処理装置。
  3.  前記画像ブロックの組それぞれ毎に、前記一方の画像ブロックの輝度の平均値と、前記他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた前記差に基づいて前記相関値を補正する、相関値補正部を更に備えている、
    請求項1または2に記載の画像処理装置。
  4.  前記2つの画像を取得し、取得した前記2つの画像それぞれのエピポーラ線が水平方向において一致していない場合に、前記2つの画像の一方または両方に対して、回転および射影変換のうち少なくとも1つを行なって、前記2つの画像それぞれのエピポーラ線を水平方向において一致させる、画像取得部を更に備え、
     前記画像抽出部が、前記2つの画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、前記複数の画像ブロックを抽出し、
    前記一方の画像から抽出された画像ブロックの一つと、前記他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出し、選出した画像ブロック同士を組み合せて、前記画像ブロックの組を設定する、
    請求項1~3のいずれかに記載の画像処理装置。
  5.  前記判定部は、前記一方の画像から抽出された画像ブロックの一つに組み合わされた、前記他方の画像から抽出された画像ブロックのうち、前記相関値が最も小さくなる画像ブロックを特定し、特定した画像ブロックは、前記一方の画像から抽出された画像ブロックの一つと一致していると判定する、
    請求項4に記載の画像処理装置。
  6.  (a)対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、ステップと、
     (b)設定された画像ブロックの組それぞれについて、
    一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
    前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
    前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
    更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
    求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、ステップと、
     (c)前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、ステップと、
    を有する、ことを特徴とする画像処理方法。
  7.  前記2つの画像が、異なる角度から同一対象を撮影して得られたペア画像である、請求項6に記載の画像処理方法。
  8.  (d)前記画像ブロックの組それぞれ毎に、前記一方の画像ブロックの輝度の平均値と、前記他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた前記差に基づいて前記相関値を補正する、ステップを更に有する、
    請求項6または7に記載の画像処理方法。
  9.  (e)前記2つの画像を取得し、取得した前記2つの画像それぞれのエピポーラ線が水平方向において一致していない場合に、前記2つの画像の一方または両方に対して、回転および射影変換のうち少なくとも1つを行なって、前記2つの画像それぞれのエピポーラ線を水平方向において一致させる、ステップを更に有し、
     前記(a)のステップにおいて、前記2つの画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、前記複数の画像ブロックを抽出し、
    前記一方の画像から抽出された画像ブロックの一つと、前記他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出し、選出した画像ブロック同士を組み合せて、前記画像ブロックの組を設定する、
    請求項6~8のいずれかに記載の画像処理方法。
  10.  前記(c)のステップにおいて、前記一方の画像から抽出された画像ブロックの一つに組み合わされた、前記他方の画像から得られた画像ブロックのうち、前記相関値が最も小さくなる画像ブロックを特定し、特定した画像ブロックは、前記一方の画像から抽出された画像ブロックの一つと一致していると判定する、
    請求項9に記載の画像処理方法。
  11.  コンピュータに、
     (a)対象となる2つの画像それぞれから、設定されたサイズの複数の画像ブロックを抽出し、前記2つの画像の一方の画像から抽出された画像ブロックの一つと、他方の画像から抽出された画像ブロックの一つとを組み合せて、複数の画像ブロックの組を設定する、ステップと、
     (b)設定された画像ブロックの組それぞれについて、
    一方の画像ブロックの画素と他方の画像ブロックの対応する画素との組合せ毎に、
    前記一方の画像ブロックの前記画素における輝度と前記一方の画像ブロックの輝度の平均値との差を第1の輝度差として算出し、
    前記他方の画像ブロックの前記対応する画素における輝度と前記他方の画像ブロックの輝度の平均値との差を第2の輝度差として算出し、
    更に、前記第1の輝度差と前記第2の輝度差との差を、画素間の輝度差として算出し、
    求められた前記組合せ毎の前記画素間の輝度差を積算し、得られた積算値を、当該画像ブロックの組の相関値とする、ステップと、
     (c)前記画像ブロックの組それぞれの相関値に基づいて、前記画像ブロックの組毎に、当該画像ブロックの組の一方の画像ブロックと他方の画像ブロックとが一致しているかどうかを判定する、ステップと、
    を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  12.  前記2つの画像が、異なる角度から同一対象を撮影して得られたペア画像である、請求項11に記載のコンピュータ読み取り可能な記録媒体。
  13.  前記コンピュータに、
     (d)前記画像ブロックの組それぞれ毎に、前記一方の画像ブロックの輝度の平均値と、前記他方の画像ブロックの輝度の平均値との差を求め、一定条件を満たす場合に、求めた前記差に基づいて前記相関値を補正する、ステップを更に実行させる、
    請求項11または12に記載のコンピュータ読み取り可能な記録媒体。
  14.  前記コンピュータに、
     (e)前記2つの画像を取得し、取得した前記2つの画像それぞれのエピポーラ線が水平方向において一致していない場合に、前記2つの画像の一方または両方に対して、回転および射影変換うち少なくとも1つを行なって、前記2つの画像それぞれのエピポーラ線を水平方向において一致させる、ステップを更に実行させ、
     前記(a)のステップにおいて、前記2つの画像それぞれから、垂直方向及び水平方向に沿って、水平方向における行と垂直方向における列とが形成されるように、前記複数の画像ブロックを抽出し、
    前記一方の画像から抽出された画像ブロックの一つと、前記他方の画像から抽出された画像ブロックの一つとを、両者が位置している行が互いに対応するように選出し、選出した画像ブロック同士を組み合せて、前記画像ブロックの組を設定する、
    請求項11~13のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  15.  前記(c)のステップにおいて、前記一方の画像から抽出された画像ブロックの一つに組み合わされた、前記他方の画像から抽出された画像ブロックのうち、前記相関値が最も小さくなる画像ブロックを特定し、特定した画像ブロックは、前記一方の画像から抽出された画像ブロックの一つと一致していると判定する、
    請求項14に記載のコンピュータ読み取り可能な記録媒体。
PCT/JP2016/084897 2015-11-27 2016-11-25 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体 WO2017090705A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017552710A JPWO2017090705A1 (ja) 2015-11-27 2016-11-25 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-232063 2015-11-27
JP2015232063 2015-11-27

Publications (1)

Publication Number Publication Date
WO2017090705A1 true WO2017090705A1 (ja) 2017-06-01

Family

ID=58763485

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/084897 WO2017090705A1 (ja) 2015-11-27 2016-11-25 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JPWO2017090705A1 (ja)
WO (1) WO2017090705A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109094451A (zh) * 2018-07-23 2018-12-28 华南师范大学 夜间会车远光灯控制方法及其系统、计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121711A (ja) * 1993-08-30 1995-05-12 Omron Corp パターン・マッチングにおける正規化相互相関の相関値補正装置および方法
JPH11234701A (ja) * 1998-02-18 1999-08-27 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2001116513A (ja) * 1999-10-18 2001-04-27 Toyota Central Res & Dev Lab Inc 距離画像算出装置
JP2009276906A (ja) * 2008-05-13 2009-11-26 Panasonic Corp 走行情報提供装置
JP2013045276A (ja) * 2011-08-24 2013-03-04 Ricoh Co Ltd 画像処理方法、ステレオカメラシステム
JP2015069568A (ja) * 2013-09-30 2015-04-13 富士重工業株式会社 フィルタリング装置
JP2015172876A (ja) * 2014-03-12 2015-10-01 株式会社デンソーアイティーラボラトリ 車両周辺監視装置、車両周辺監視システム、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121711A (ja) * 1993-08-30 1995-05-12 Omron Corp パターン・マッチングにおける正規化相互相関の相関値補正装置および方法
JPH11234701A (ja) * 1998-02-18 1999-08-27 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2001116513A (ja) * 1999-10-18 2001-04-27 Toyota Central Res & Dev Lab Inc 距離画像算出装置
JP2009276906A (ja) * 2008-05-13 2009-11-26 Panasonic Corp 走行情報提供装置
JP2013045276A (ja) * 2011-08-24 2013-03-04 Ricoh Co Ltd 画像処理方法、ステレオカメラシステム
JP2015069568A (ja) * 2013-09-30 2015-04-13 富士重工業株式会社 フィルタリング装置
JP2015172876A (ja) * 2014-03-12 2015-10-01 株式会社デンソーアイティーラボラトリ 車両周辺監視装置、車両周辺監視システム、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109094451A (zh) * 2018-07-23 2018-12-28 华南师范大学 夜间会车远光灯控制方法及其系统、计算机可读存储介质

Also Published As

Publication number Publication date
JPWO2017090705A1 (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
US10559090B2 (en) Method and apparatus for calculating dual-camera relative position, and device
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
KR101622344B1 (ko) 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템
EP3016071B1 (en) Estimating device and estimation method
CN110493488B (zh) 视频稳像方法、视频稳像装置和计算机可读存储介质
US9967516B2 (en) Stereo matching method and device for performing the method
KR102483641B1 (ko) 양안 시차 영상의 처리 방법 및 장치
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
JP2018511874A (ja) 3次元モデリング方法及び装置
KR20170026591A (ko) 카메라 교정
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
JP2018195084A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
US10134136B2 (en) Image processing apparatus and image processing method
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2017090705A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
US20170178351A1 (en) Method for determining missing values in a depth map, corresponding device, computer program product and non-transitory computer-readable carrier medium
JP5769248B2 (ja) ステレオマッチング処理装置、ステレオマッチング処理方法、及び、プログラム
JP6175878B2 (ja) 画像処理回路、画像処理装置及び画像処理方法
KR20200057929A (ko) 캘리브레이트된 카메라들에 의해 캡쳐된 스테레오 영상들의 렉티피케이션 방법과 컴퓨터 프로그램
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム
JP6668740B2 (ja) 道路面推定装置
US10713808B2 (en) Stereo matching method and system using rectangular window
JP6601883B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16868648

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017552710

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16868648

Country of ref document: EP

Kind code of ref document: A1