WO2019009579A1 - Stereo matching method and apparatus using support point interpolation - Google Patents

Stereo matching method and apparatus using support point interpolation Download PDF

Info

Publication number
WO2019009579A1
WO2019009579A1 PCT/KR2018/007496 KR2018007496W WO2019009579A1 WO 2019009579 A1 WO2019009579 A1 WO 2019009579A1 KR 2018007496 W KR2018007496 W KR 2018007496W WO 2019009579 A1 WO2019009579 A1 WO 2019009579A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
edge
pixel
pixels
disparity
Prior art date
Application number
PCT/KR2018/007496
Other languages
French (fr)
Korean (ko)
Inventor
박상현
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2019009579A1 publication Critical patent/WO2019009579A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Definitions

  • the present invention relates to a stereo matching method and apparatus, and more particularly, to a stereo matching method and apparatus using a support point interpolation method for extracting depth information of a two-dimensional image.
  • stereo matching techniques are used to obtain a three-dimensional image from a stereo image and are used to obtain a three-dimensional image from a plurality of two-dimensional images photographed at different photographing positions in the same line with respect to the same subject.
  • the stereo image thus refers to a plurality of two-dimensional images taken at different photographing positions with respect to the subject, i.e., a plurality of two-dimensional images in a pair relationship with each other.
  • a z coordinate which is depth information
  • x and y coordinates which are horizontal and vertical position information of the two-dimensional image.
  • a stereo matching technique using a stereo image is used.
  • the conventional stereo matching technology is a technology that can be operated on a CPU of a general computer, and when it is implemented as an FPGA / ASIC, it requires a lot of memory, which makes it difficult to apply it to a mass-production FPGA / ASIC hardware.
  • a stereo matching method including receiving a stereo image including a first image and a second image simultaneously captured by two cameras; Extracting a first horizontal edge image and a first vertical edge image for the first image, and extracting a second horizontal edge image and a second vertical edge image for the second image; Matching a first edge pixel included in the first image with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image; Calculating a disparity value that is a distance difference between the first edge pixel and the second edge pixel matched with respect to a part or all of the edge pixels included in the first image.
  • the matching step may include comparing a first horizontal edge image for a plurality of first peripheral pixels disposed in the periphery of the first edge pixel and pixel values in the first vertical edge image to a second horizontal edge image and a second vertical It may be determined as a second edge pixel to be matched with the first edge pixel by comparing the pixel value of the edge image with the pixel values of the edge image.
  • the matching step includes matching the pixel values of the first horizontal edge image and the plurality of first peripheral pixels in the first vertical edge image with the pixel values of the second horizontal pixel in the second horizontal pixel,
  • the pixel having the smallest sum of the difference values of the edge image and the pixel values of the second neighboring pixels in the second vertical edge image may be determined as the second edge pixel matching the first edge pixel.
  • the first peripheral pixels may include more objects included in the first vertical edge image than those included in the first horizontal edge image.
  • the first peripheral pixels may be divided into four regions arranged around the first edge pixel, and peripheral pixels arranged in the same shape may be selected for each region.
  • the removal step may remove unnecessary support points by removing all the support points in the area when the support point includes a certain number or less in the area of the specific size.
  • generating a first disparity map by performing a first-order interpolation on a disparity value of the support point map, wherein the step of generating the primary disparity map comprises: ; Interpolating a disparity value by assigning pixels having no disparity value assigned in the reduced support point map to a smaller value among disparity values of pixels located on the left or right side; And expanding the reduced support point map to its original size if a disparity value is assigned to all pixels of the reduced support point map through interpolation.
  • the method may further include generating a second disparity map by performing a second interpolation on the first disparity map, wherein the step of generating the second disparity map comprises: The disparity value of the pixel to which the disparity value is not allocated is interpolated using the disparity values of the pixels having the four surrounding disparity values and the distances to the corresponding pixels, The second disparity map may be generated by interpolating disparity values of the unassigned pixels.
  • a computer-readable recording medium having a computer readable recording medium having a computer readable recording medium configured to receive a stereo image including a first image and a second image simultaneously captured by two cameras; Extracting a first horizontal edge image and a first vertical edge image for the first image, and extracting a second horizontal edge image and a second vertical edge image for the second image; Matching a first edge pixel included in the first image with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image; Calculating a disparity value that is a distance difference between a first edge pixel and a second edge pixel matched with respect to a part or all of the edge pixels included in the first image;
  • a computer program may be included.
  • a stereo matching apparatus comprising: a camera unit for capturing a stereo image including a first image and a second image simultaneously captured by two cameras; An edge extraction unit for extracting a first horizontal edge image and a first vertical edge image for the first image and extracting a second horizontal edge image and a second vertical edge image for the second image; And a first edge pixel included in the first image is matched with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image, And a video processing unit for calculating a disparity value, which is a distance difference between the first edge pixel and the second edge pixel matched for some or all of them.
  • An intelligent driver assistance system for recognizing objects around a vehicle using a stereo matching device includes a camera unit for photographing a stereo image including a first image and a second image simultaneously captured by two cameras; An edge extraction unit for extracting a first horizontal edge image and a first vertical edge image for the first image and extracting a second horizontal edge image and a second vertical edge image for the second image; And a first edge pixel included in the first image is matched with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image, And a video processing unit for calculating a disparity value, which is a distance difference between the first edge pixel and the second edge pixel matched for some or all of the pixels.
  • a stereo matching method for extracting an edge image of an inputted stereo image and calculating matching and disparity values therefor So that the memory usage and processing time required to obtain a three-dimensional image from a stereo image can be reduced, which makes it easy to apply stereo matching to an automotive electrical and electronic system.
  • FIG. 1 is a block diagram showing the configuration of a stereo matching apparatus according to an embodiment of the present invention
  • Figure 2 is a flow chart provided to illustrate a stereo matching method, in accordance with an embodiment of the present invention
  • FIG. 3 illustrates a process of a stereo matching method according to an embodiment of the present invention
  • FIG. 4 is a diagram illustrating a process of finding matching pixels according to an exemplary embodiment of the present invention.
  • FIG. 5 is a diagram showing peripheral pixels of a horizontal edge image and peripheral pixels of a vertical edge image according to an embodiment of the present invention
  • FIG. 6 is a diagram for explaining a process of calculating a disparity value and a depth value using the disparity value according to an embodiment of the present invention
  • Figure 7 illustrates a support point map, in accordance with one embodiment of the present invention.
  • Figure 8 illustrates an algorithm for eliminating unnecessary support points according to an embodiment of the present invention
  • FIG. 9 is a diagram illustrating a support point map in which unnecessary support points are removed, according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a process of performing a first-order interpolation according to an embodiment of the present invention.
  • FIG. 11 is a view showing some pixels of a support point map before reduction according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a process of reducing a support point map at a certain rate according to an embodiment of the present invention
  • FIG. 13 is a diagram illustrating a process of interpolating a disparity value of a reduced support point map and enlarging the disparity value back to its original size according to an embodiment of the present invention
  • Figure 14 illustrates a method of performing a quadratic interpolation according to an embodiment of the present invention
  • Figure 15 illustrates a post-processed disparity map, in accordance with one embodiment of the present invention.
  • 16 is a diagram illustrating a disparity map for an input stereo image according to an embodiment of the present invention.
  • 17 is a diagram illustrating a parallel processing process using a line unit buffer according to an embodiment of the present invention.
  • Figure 18 illustrates a pipeline for a matching process, according to one embodiment of the present invention
  • FIG. 19 is a diagram illustrating a hardware parallel processing structure according to an embodiment of the present invention.
  • Stereo matching technology is a technique used to obtain a three-dimensional image from a stereo image, which is used to obtain a three-dimensional image from a plurality of two-dimensional images photographed at different shooting positions in the same line for the same subject.
  • the stereo image means a plurality of two-dimensional images taken at different photographing positions with respect to the subject, that is, a plurality of two-dimensional images having a pair relationship with each other. For example, have.
  • a z coordinate which is depth information
  • x and y coordinates which are horizontal and vertical position information of the two-dimensional image.
  • disparity disparity
  • Stereo matching is a technique used to obtain such a disparity. For example, if the stereo image is left and right images taken by two left and right cameras, one of the left and right images is set as the reference image and the other is set as the search image. In this case, the distance between the reference image and the search image for the same point in space, that is, the difference between the coordinates, is called disparity, and the disparity can be obtained using the stereo matching technique.
  • the stereo matching apparatus 100 obtains depth information for each pixel using the disparities between the reference image and the search image obtained as described above for all the pixels of the image, and generates a disparity map expressed by the three-dimensional coordinates .
  • the stereo matching apparatus 100 sets a plurality of windows around a reference pixel of a reference image, and sets a window of the same size around the search pixels with respect to the search image.
  • the reference pixel means a corresponding point in the search image among the edge pixels of the reference image, i.e., a pixel to which the corresponding point is to be currently searched.
  • the search pixel means a pixel to be currently identified as a corresponding point to the reference pixel among the pixels of the search image.
  • the plurality of windows are in the form of a plurality of matrices each including a center pixel and surrounding pixels surrounding the center pixel.
  • the stereo matching apparatus 100 calculates the similarity between some of the surrounding pixels in the set reference pixel windows and some of the surrounding pixels in each of the searching pixel windows, And the search pixel of the search pixel window having the value corresponding to the corresponding point is matched with the corresponding pixel corresponding to the corresponding point. The distance between the reference pixel and the corresponding pixel is obtained as a disparity.
  • the stereo matching apparatus 100 can generate a disparity map by performing a stereo matching method on the inputted stereo image.
  • the stereo matching apparatus 100 includes a camera unit 110, an edge extraction unit 120, and an image processing unit 130.
  • the camera unit 110 includes a first camera 111 and a second camera 112.
  • the camera unit 110 photographs a stereo image including a first image and a second image simultaneously captured by two cameras.
  • the first camera 111 and the second camera 112 may be a left eye camera and a right eye camera, and the first image may be a left eye image and the second image may be a right eye image.
  • the first image may be the reference image and the second image may be the search image.
  • the edge extracting unit 120 extracts a first horizontal edge image and a first vertical edge image for the first image and extracts a second horizontal edge image and a second vertical edge image for the second image.
  • the edge extracting unit 120 includes a Sobel filter, and extracts a horizontal edge image and a vertical edge image using a Sobel filter.
  • the image processing unit 130 processes various images, processes first and second images and corresponding edge images, and generates a disparity map for generating a three-dimensional image.
  • the image processor 130 may match a first edge pixel included in the first image with a second edge pixel included in the second image, for a part or all of the edge pixels included in the first image, A disparity value which is a distance difference between the matched first edge pixel and the second edge pixel is calculated for part or all of the edge pixels included in one image.
  • the image processing unit 130 generates a support point map composed of matched pixels, generates a disparity map through the primary interpolation and the secondary interpolation, and performs correction so as to further refine the disparity map .
  • FIG. 2 is a flow chart provided to illustrate a stereo matching method, in accordance with an embodiment of the present invention.
  • 3 is a diagram illustrating a process of a stereo matching method according to an embodiment of the present invention.
  • the stereo matching apparatus 100 receives a stereo image including a first image and a second image simultaneously captured by two cameras (S210).
  • the original left image 310 and the original right image 320 of FIG. 3 correspond to the first image and the second image, respectively.
  • the stereo matching apparatus 100 extracts a first horizontal edge image and a first vertical edge image for the first image, extracts a second horizontal edge image and a second vertical edge image for the second image, (S220). At this time, the stereo matching apparatus 100 can extract an edge image using a Sobel filter and generate a first horizontal edge image 311, a first vertical edge image 312, The second horizontal edge image 321, and the second vertical edge image 322, as shown in FIG.
  • the stereo matching apparatus 100 matches the first edge pixels included in the first image with the second edge pixels included in the second image, for some or all of the edge pixels included in the first image, A disparity value, which is a distance difference between the matched first and second edge pixels, is calculated for some or all of the edge pixels included in the first image (S230).
  • the first image becomes the reference image and the second image becomes the search image.
  • the stereo matching apparatus 100 outputs a first horizontal edge image for a plurality of first peripheral pixels disposed around the first edge pixel and pixel values within the first vertical edge image to a second horizontal edge And determines the second edge pixel to be a second edge pixel to be matched with the first edge pixel by comparing the pixel value with the pixel values of the image and the second vertical edge image.
  • the stereo matching apparatus 100 calculates the pixel values of the first horizontal edge image and the plurality of first peripheral pixels in the first vertical edge image, among the pixels of the second image in the row corresponding to the first edge pixel, And the second edge pixel which matches the first edge pixel is determined as the pixel having the minimum sum of the difference values of the pixel values of the second horizontal edge image and the second surrounding pixels in the second vertical edge image.
  • the first peripheral pixels divide the four regions arranged around the first edge pixel, and peripheral pixels arranged in the same shape for each region are selected.
  • FIG. 4 the selection process of the neighboring pixels for matching and the matching process will be described with reference to FIGS. 4 and 5.
  • FIG. 4 is a diagram for explaining a process of finding matching pixels according to an embodiment of the present invention.
  • Left Image represents a first image which is a reference image
  • Right represents a second image which is a search image.
  • a first edge pixel which is a reference pixel in the first image corresponds to I_desc (x, y) in FIG.
  • the stereo matching apparatus 100 selects 5x5 window regions in the upper left, upper right, lower left, and lower right regions based on the first edge pixel (x, y).
  • each window region is represented by Lf1, Lf2, Lf3, and Lf4.
  • the stereo matching apparatus 100 selects four surrounding pixels for the horizontal edge image for each window area, selects 12 surrounding pixels for the vertical edge image, and selects 16 peripheral pixels for each window area .
  • the first peripheral pixels are set to include more objects included in the first vertical edge image than those included in the first horizontal edge image. This is because the vertical edge has a more significant effect on matching than the horizontal edge. Accordingly, the stereo matching apparatus 100 selects more peripheral pixels of the first vertical edge image than the number of peripheral pixels of the first horizontal edge image, and considers the matching. A method of selecting 16 peripheral pixels for one 5x5 window region is shown in detail in Fig.
  • FIG. 5 is a diagram showing peripheral pixels of a horizontal edge image and peripheral pixels of a vertical edge image, according to an embodiment of the present invention.
  • the image on the left represents a horizontal edge image, and in the horizontal edge image, four peripheral pixels around the center point of the 5x5 window region are selected.
  • the right image represents a vertical edge image.
  • a total of 12 peripheral pixels including 10 peripheral points and 2 central points of the 5x5 window region are selected.
  • the center point since the center point plays an important role in matching, the center point is selected twice by weighting.
  • the stereo matching apparatus 100 selects four surrounding pixels for each horizontal edge image for each 5x5 window region, selects 12 surrounding pixels for the vertical edge image, A total of 16 peripheral pixels are selected for each region.
  • the stereo matching apparatus 100 selects 16 first peripheral pixels for each of the four window regions Lf1, Lf2, Lf3, and Lf4.
  • the stereo matching apparatus 100 calculates the pixel values of the pixels (xd, y) of the second image in the row corresponding to the first edge pixel (x, y) of the first image (Left image)
  • the second peripheral pixels are selected in the same manner. 4
  • the stereo matching apparatus 100 obtains a matching cost value, which is the sum of the difference values of the pixel values of the first and second neighboring pixels .
  • the stereo matching apparatus 100 determines a pixel having a minimum matching cost value as a second edge pixel to be matched with the first edge pixel.
  • the matching cost value is the pixel of the second image having the second neighboring pixels most similar to the first neighboring pixels of the first edge pixel, And the second edge pixel of the second image corresponding to the second edge.
  • Sum1 represents the sum of the difference between the pixel value of the peripheral pixels in the Lf1 window region and the pixel value of the peripheral pixels in the Rf1 window region
  • Sum2 denotes the sum of the pixel value of the peripheral pixels in the Lf2 window region
  • Rf2 Sum3 represents the sum of pixel values of neighboring pixels of the Lf3 window region and neighboring pixels of the Rf3 window region
  • Sum4 represents the sum of the difference values of the pixel values of neighboring pixels of the Lf4 window region And a difference value between pixel values of neighboring pixels of the Rf4 window region.
  • the sum of the sum values of Sum1 + Sum2 + Sum3 + Sum4 represents the matching cost value, which is the sum of the difference values of the pixel values of the second peripheral pixels corresponding to the first peripheral pixels.
  • all matching cost values are calculated for 245 pixels in the y-th row of the second image, and a pixel having the lowest matching cost value among the 245 pixels in the y- 2 edge pixels.
  • the stereo matching apparatus 100 can determine a second edge pixel that matches the first edge pixel.
  • the stereo matching apparatus 100 calculates a disparity value, which is a distance difference between the first edge pixel and the second edge pixel, and will be described with reference to FIG. 6 is a diagram for explaining a process of calculating a disparity value and a depth value using the disparity value according to an embodiment of the present invention.
  • the disparity is a value indicating how the positions of the pixels representing the same point differ from each other in the two images. Referring to the formula shown in FIG. 6, the disparity value (x R -x T ) Can be obtained.
  • the stereo matching apparatus 100 designates each of the matched pixels as a support point to generate a support point map 330 (S240).
  • 7 is a diagram illustrating a support point map according to an embodiment of the present invention. Referring to FIG. 7, it can be seen that a support point map (Initial SPOINT) which is a collection of pixels matched from the left image and the right image is displayed.
  • Initial SPOINT Initial SPOINT
  • the stereo matching apparatus 100 removes unnecessary support points from the support point map (S250). Specifically, when the support point includes a specific number or less within a specific size area, the stereo matching apparatus 100 removes all the support points in the corresponding area, thereby eliminating unnecessary support points, Thereby generating a map 340. This will be described with reference to Figs. 8 and 9. Fig.
  • Figure 8 is a diagram illustrating an algorithm for eliminating unwanted support points, in accordance with an embodiment of the present invention.
  • FIG. 8 when there are five or less support points in a 40x40 area, it can be confirmed that the algorithm is implemented by deleting the support points of the corresponding area. However, it goes without saying that the size of the area and the number of support points can be changed flexibly.
  • FIG. 9 is a diagram illustrating a support point map in which unnecessary support points are removed according to an embodiment of the present invention.
  • the support points map (Refined SPOINT) from which unnecessary support points are removed shows that unnecessary support points disappear in the sky area.
  • the stereo matching apparatus 100 performs a first-order interpolation on the disparity value of the support point map to generate the primary disparity map 350 (S260). Specifically, the stereo matching apparatus 100 reduces the support point map at a certain ratio, and assigns the pixels to which the disparity value is not allocated in the reduced support point map to a smaller value among the disparity values of the pixels located on the left or right The disparity value is interpolated. When disparity values are assigned to all the pixels of the support point map reduced through interpolation, the reduced support point map is expanded to the original size, thereby performing the primary interpolation.
  • FIG. 10 is a diagram illustrating a process of performing a first-order interpolation according to an embodiment of the present invention.
  • the stereo matching apparatus 100 reduces the support point map to a 1/16 ratio, and assigns the pixels to which the disparity value is not allocated in the reduced support point map to the left or right And the disparity value is allocated to all the pixels of the support point map reduced through the interpolation, the reduced support point map is enlarged to the original size, The process of performing the interpolation can be confirmed.
  • FIG. 11 is a diagram showing some pixels of a support point map before reduction according to an embodiment of the present invention.
  • the stereo matching apparatus 100 selects pixels (black and oblique lines) at regular intervals when reducing the image at a constant rate.
  • pixels black and oblique lines
  • FIG. 11 it can be confirmed that, in order to reduce to 1/16, a pixel for only the uppermost pixel in the 4x4 region is selected as the pixel to be removed and the remaining pixel is selected as the pixel to be removed.
  • FIG. 12 is a diagram illustrating a process of reducing a support point map at a predetermined ratio according to an embodiment of the present invention. If you reduce it to 1/16, you can see that only black and oblique pixels remain.
  • FIG. 13 is a diagram illustrating a process of interpolating a disparity value of a reduced support point map and enlarging the disparity value back to its original size according to an embodiment of the present invention.
  • the disparity value assigned to the black pixel is applied to the oblique pixel to which the disparity value is not assigned (for example, the disparity value of the smallest black pixel among surrounding black pixels is applied). Then, if it is increased to 16 times and then enlarged to the original size, it can be confirmed that the disparity value is allotted to the uppermost pixel in the 4x4 matrix.
  • the stereo matching apparatus 100 performs a first-order interpolation on the disparity value of the support point map to generate the primary disparity map 350.
  • the primary disparity map can confirm that a disparity value is allocated to only some pixels at predetermined intervals.
  • the stereo matching apparatus 100 performs a secondary interpolation on the primary disparity map to generate a secondary disparity map (S270). Specifically, the stereo matching apparatus 100 uses the disparity values of the pixels having the four surrounding disparity values and the distances to the pixels to which the disparity values are not allocated, A disparity map is generated by interpolating disparity values of pixels to which all disparity values are not allocated in a method of interpolating disparity values of pixels to which no values are assigned. This will be described in detail with reference to Fig.
  • FIG. 14 is a diagram illustrating a method of performing a second-order interpolation according to an embodiment of the present invention. As shown in FIG. 14, the secondary interpolation is performed using four peripheral support points.
  • the stereo matching apparatus 100 can generate a secondary disparity map to which disparity values for all pixels are allocated.
  • the stereo matching apparatus can perform noise elimination and hole filling using a median filter to generate a more accurate secondary disparity map, which is shown in FIG. 15 is a diagram illustrating a post-processed disparity map, in accordance with an embodiment of the present invention.
  • the stereo matching apparatus 100 may generate a more precise second-order disparity map by post-processing the second disparity map by a median filter.
  • FIG. 16 is a diagram illustrating a disparity map for an input stereo image according to an embodiment of the present invention.
  • the stereo matching apparatus 100 can generate the disparity map using the original image photographed through the two cameras as shown in FIG.
  • the stereo matching apparatus 100 may optimize the memory size and processing speed through parallel processing. This will be described with reference to FIGS. 17 to 19.
  • FIG. 17 is a diagrammatic representation of the stereo matching apparatus 100.
  • FIG. 17 is a diagram illustrating a parallel processing process using a line unit buffer according to an embodiment of the present invention. As shown in FIG. 17, the stereo matching apparatus 100 may perform parallel processing using two buffer lines in an edge image generation process.
  • the stereo matching apparatus 100 can reduce the time complexity to 1/4 through the four pipeline configurations. This allows the stereo matching device 100 to optimize memory size and access.
  • the stereo matching apparatus 100 can reduce the time complexity to 1/4 through four parallel processes when performing the second-order interpolation.
  • the stereo matching apparatus 100 can reduce the time complexity and improve the memory usage through parallel processing.
  • the stereo matching apparatus 100 may be applied to an ADAS (Advanced Driver Assistance System) that recognizes objects around the vehicle.
  • ADAS Advanced Driver Assistance System
  • the technical idea of the present invention can also be applied to a computer-readable recording medium in which a function of the stereo matching apparatus 100 according to the present embodiment and a computer program for performing a stereo matching method are recorded.
  • the technical idea according to various embodiments of the present invention may be realized in the form of a computer-readable programming language code recorded on a computer-readable recording medium.
  • the computer-readable recording medium is any data storage device that can be read by a computer and can store data.
  • the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, a flash memory, a solid state disk (SSD), or the like.
  • the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Provided are a stereo matching method, a stereo matching device, a recording medium, and an intelligent driver assistance system using the same. According to the present stereo matching method, as it is possible to extract an edge image of an input stereo image and calculate matching and disparity values thereof, memory usage and processing time required to obtain a three-dimensional image from a stereo image can be reduced. Therefore, it is possible to easily apply stereo matching to electrical and electronic systems for vehicles.

Description

지원점 보간법을 이용한 스테레오 매칭 방법 및 장치Stereo matching method and apparatus using support point interpolation method
본 발명은 스테레오 매칭 방법 및 장치에 관한 것으로, 더욱 상세하게는, 2차원 영상의 깊이정보를 추출하기 위해 지원점 보간법을 이용하는 스테레오 매칭 방법 및 장치에 관한 것이다.The present invention relates to a stereo matching method and apparatus, and more particularly, to a stereo matching method and apparatus using a support point interpolation method for extracting depth information of a two-dimensional image.
종래의 스테레오 매칭 기술은 스테레오 이미지로부터 3차원 이미지를 얻기 위해 이용되는 기술로서, 동일 피사체에 대하여 동일선상의 서로 다른 촬영 위치에서 촬영된 다수의 2차원 이미지로부터 3차원 이미지를 얻기 위해 이용된다. 스테레오 이미지는 이처럼 피사체에 대하여 서로 다른 촬영 위치에서 촬영된 다수의 2차원 이미지, 즉 서로 짝(pair) 관계에 있는 다수의 2차원 이미지를 의미한다.Conventional stereo matching techniques are used to obtain a three-dimensional image from a stereo image and are used to obtain a three-dimensional image from a plurality of two-dimensional images photographed at different photographing positions in the same line with respect to the same subject. The stereo image thus refers to a plurality of two-dimensional images taken at different photographing positions with respect to the subject, i.e., a plurality of two-dimensional images in a pair relationship with each other.
일반적으로 2차원 이미지로부터 3차원 이미지를 생성하기 위해서는 2차원 이미지의 수평, 수직의 위치 정보인 x,y 좌표에 더하여 깊이 정보인 z 좌표를 필요로 한다. z 좌표를 구하기 위해서는 스테레오 이미지를 이용한 스테레오 매칭 기술이 사용된다. Generally, in order to generate a three-dimensional image from a two-dimensional image, a z coordinate, which is depth information, is required in addition to the x and y coordinates, which are horizontal and vertical position information of the two-dimensional image. To obtain the z-coordinate, a stereo matching technique using a stereo image is used.
하지만, 종래의 스테레오 매칭 기술은 일반적인 컴퓨터의 CPU 상에서 동작 가능한 기술로, FPGA/ASIC 으로 구현할 경우 많은 메모리를 필요로 하여 양산형 FPGA/ASIC 하드웨어에 적용하기 힘든 점이 존재한다.However, the conventional stereo matching technology is a technology that can be operated on a CPU of a general computer, and when it is implemented as an FPGA / ASIC, it requires a lot of memory, which makes it difficult to apply it to a mass-production FPGA / ASIC hardware.
이에 따라, 좀더 적은 메모리를 이용하여 2차원 스테레오 이미지를 이용한 3차원 이미지를 생성할 수 있는 방안의 모색이 요청된다. Accordingly, it is required to search for a method of generating a three-dimensional image using a two-dimensional stereo image using less memory.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 입력된 스테레오 영상에 대한 에지 이미지를 추출하고 이에 대한 매칭 및 디스패리티 값을 산출하는 스테레오 매칭방법, 스테레오 매칭장치, 기록매체 및 이를 적용한 지능형 운전자 보조시스템을 제공함에 있다.It is an object of the present invention to provide a stereo matching method, a stereo matching apparatus, and a stereo matching method for extracting an edge image of an input stereo image and calculating matching and disparity values for the edge image, A recording medium, and an intelligent driver assistance system using the same.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 스테레오 매칭방법은, 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 입력받는 단계; 제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 단계; 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키는 단계; 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 단계;를 포함한다. According to an aspect of the present invention, there is provided a stereo matching method including receiving a stereo image including a first image and a second image simultaneously captured by two cameras; Extracting a first horizontal edge image and a first vertical edge image for the first image, and extracting a second horizontal edge image and a second vertical edge image for the second image; Matching a first edge pixel included in the first image with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image; Calculating a disparity value that is a distance difference between the first edge pixel and the second edge pixel matched with respect to a part or all of the edge pixels included in the first image.
그리고, 매칭 단계는, 제1 에지화소의 주변에 배치된 복수개의 제1 주변화소들에 대한 제1 수평 에지 이미지와 제1 수직 에지 이미지 내에서의 화소값들을 제2 수평 에지 이미지와 제2 수직 에지 이미지의 화소값들과 비교함으로써, 제1 에지화소와 매칭되는 제2 에지화소로 결정할 수도 있다. The matching step may include comparing a first horizontal edge image for a plurality of first peripheral pixels disposed in the periphery of the first edge pixel and pixel values in the first vertical edge image to a second horizontal edge image and a second vertical It may be determined as a second edge pixel to be matched with the first edge pixel by comparing the pixel value of the edge image with the pixel values of the edge image.
또한, 매칭 단계는, 제1 에지화소와 대응되는 행에 있는 제2 영상의 화소들 중, 제1 수평 에지 이미지와 제1 수직 에지 이미지 내의 복수개의 제1 주변화소들의 화소값들과 제2 수평 에지 이미지와 제2 수직 에지 이미지 내의 제2 주변화소들의 화소값들의 각각의 차이값의 합이 최소가 되는 화소를 제1 에지화소와 매칭되는 제2 에지화소로 결정할 수도 있다. The matching step includes matching the pixel values of the first horizontal edge image and the plurality of first peripheral pixels in the first vertical edge image with the pixel values of the second horizontal pixel in the second horizontal pixel, The pixel having the smallest sum of the difference values of the edge image and the pixel values of the second neighboring pixels in the second vertical edge image may be determined as the second edge pixel matching the first edge pixel.
그리고, 제1 주변화소들은, 제1 수평 에지 이미지에 포함된 것보다 제1 수직 에지 이미지에 포함된 것들이 더 많을 수도 있다. And, the first peripheral pixels may include more objects included in the first vertical edge image than those included in the first horizontal edge image.
또한, 제1 주변화소들은, 제1 에지화소를 중심으로 배치된 4개의 영역을 구분하고, 각 영역별로 동일한 형태로 배치된 주변화소들이 선택될 수도 있다. Also, the first peripheral pixels may be divided into four regions arranged around the first edge pixel, and peripheral pixels arranged in the same shape may be selected for each region.
그리고, 매칭된 화소들을 각각 지원점으로 지정하여 지원점 맵을 생성하는 단계; 및 지원점 맵에서 불필요한 지원점을 제거하는 단계;를 더 포함할 수도 있다. Generating a support point map by designating matched pixels as support points; And removing unnecessary support points from the support point map.
또한, 제거 단계는, 특정 크기의 영역 내에 지원점이 특정 개수 이하가 포함되어 있는 경우, 해당 영역 내의 지원점들을 모두 제거함으로써, 불필요한 지원점을 제거할 수도 있다. In addition, the removal step may remove unnecessary support points by removing all the support points in the area when the support point includes a certain number or less in the area of the specific size.
그리고, 지원점 맵의 디스패리티값에 대한 1차 보간을 수행하여 1차 디스패리티 맵을 생성하는 단계;를 더 포함하고, 1차 디스패리티 맵을 생성하는 단계는, 지원점 맵을 일정 비율로 축소하는 단계; 축소된 지원점 맵에서 디스패리티 값이 할당되지 않은 화소들을 좌측 또는 우측에 위치된 화소의 디스패리티 값 중 작은 값으로 할당함으로써, 디스패리티 값을 보간하는 단계; 및 보간을 통해 축소된 지원점 맵의 모든 화소에 디스패리티 값이 할당되면, 축소된 지원점 맵을 원래 크기로 확대하는 단계;를 포함할 수도 있다. And generating a first disparity map by performing a first-order interpolation on a disparity value of the support point map, wherein the step of generating the primary disparity map comprises: ; Interpolating a disparity value by assigning pixels having no disparity value assigned in the reduced support point map to a smaller value among disparity values of pixels located on the left or right side; And expanding the reduced support point map to its original size if a disparity value is assigned to all pixels of the reduced support point map through interpolation.
또한, 1차 디스패리티 맵에 2차 보간을 수행하여 2차 디스패리티 맵을 생성하는 단계;를 더 포함하고, 2차 디스패리티 맵을 생성하는 단계는, 디스패리티 값이 할당되지 않은 화소에 대해, 주변의 4개의 디스패리티 값이 존재하는 화소들의 디스패리티 값들 및 해당 화소들과의 거리를 이용하여, 해당 디스패리티 값이 할당되지 않은 화소의 디스패리티값을 보간하는 방식으로, 모든 디스패리티 값이 할당되지 않은 화소들의 디스패리티값을 보간함으로써, 2차 디스패리티 맵을 생성할 수도 있다. The method may further include generating a second disparity map by performing a second interpolation on the first disparity map, wherein the step of generating the second disparity map comprises: The disparity value of the pixel to which the disparity value is not allocated is interpolated using the disparity values of the pixels having the four surrounding disparity values and the distances to the corresponding pixels, The second disparity map may be generated by interpolating disparity values of the unassigned pixels.
한편, 본 발명의 일 실시예에 따른, 컴퓨터로 읽을 수 있는 기록매체는, 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 입력받는 단계; 제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 단계; 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키는 단계; 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 단계;를 포함하는 스테레오 매칭방법을 수행하는 컴퓨터 프로그램이 수록될 수도 있다. According to an embodiment of the present invention, there is provided a computer-readable recording medium having a computer readable recording medium having a computer readable recording medium configured to receive a stereo image including a first image and a second image simultaneously captured by two cameras; Extracting a first horizontal edge image and a first vertical edge image for the first image, and extracting a second horizontal edge image and a second vertical edge image for the second image; Matching a first edge pixel included in the first image with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image; Calculating a disparity value that is a distance difference between a first edge pixel and a second edge pixel matched with respect to a part or all of the edge pixels included in the first image; A computer program may be included.
한편, 본 발명의 일 실시예에 따른, 스테레오 매칭 장치는, 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 촬영하는 카메라부; 제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 에지추출부; 및 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키고, 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 영상처리부;를 포함한다. According to another aspect of the present invention, there is provided a stereo matching apparatus comprising: a camera unit for capturing a stereo image including a first image and a second image simultaneously captured by two cameras; An edge extraction unit for extracting a first horizontal edge image and a first vertical edge image for the first image and extracting a second horizontal edge image and a second vertical edge image for the second image; And a first edge pixel included in the first image is matched with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image, And a video processing unit for calculating a disparity value, which is a distance difference between the first edge pixel and the second edge pixel matched for some or all of them.
스테레오 매칭장치를 이용하여 차량 주변의 사물을 인식하는 지능형 운전자 보조시스템은, 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 촬영하는 카메라부; 제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 에지추출부; 및 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키고, 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 영상처리부;를 포함하는 스테레오 매칭장치를 포함한다. An intelligent driver assistance system for recognizing objects around a vehicle using a stereo matching device includes a camera unit for photographing a stereo image including a first image and a second image simultaneously captured by two cameras; An edge extraction unit for extracting a first horizontal edge image and a first vertical edge image for the first image and extracting a second horizontal edge image and a second vertical edge image for the second image; And a first edge pixel included in the first image is matched with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image, And a video processing unit for calculating a disparity value, which is a distance difference between the first edge pixel and the second edge pixel matched for some or all of the pixels.
본 발명의 다양한 실시예에 따르면, 입력된 스테레오 영상에 대한 에지 이미지를 추출하고 이에 대한 매칭 및 디스패리티 값을 산출하는 스테레오 매칭방법, 스테레오 매칭장치, 기록매체 및 이를 적용한 지능형 운전자 보조시스템을 제공할 수 있게 되어, 스테레오 이미지로부터 3차원 이미지를 얻는데 필요한 메모리 사용량과 처리 시간을 감소시킬 수 있기 때문에 차량용 전기·전자 시스템에 스테레오 매칭을 용이하게 적용할 수 있게 된다. According to various embodiments of the present invention, there is provided a stereo matching method, a stereo matching device, a recording medium, and an intelligent driver assistance system using the stereo matching method for extracting an edge image of an inputted stereo image and calculating matching and disparity values therefor So that the memory usage and processing time required to obtain a three-dimensional image from a stereo image can be reduced, which makes it easy to apply stereo matching to an automotive electrical and electronic system.
도 1은 본 발명의 일 실시예에 따른, 스테레오 매칭 장치의 구성을 도시한 블록도, 1 is a block diagram showing the configuration of a stereo matching apparatus according to an embodiment of the present invention;
도 2는 본 발명의 일 실시예에 따른, 스테레오 매칭 방법을 설명하기 위해 제공되는 흐름도, Figure 2 is a flow chart provided to illustrate a stereo matching method, in accordance with an embodiment of the present invention;
도 3은 본 발명의 일 실시예에 따른, 스테레오 매칭 방법의 과정을 도시한 도면, FIG. 3 illustrates a process of a stereo matching method according to an embodiment of the present invention; FIG.
도 4는 본 발명의 일 실시예에 따른, 매칭되는 화소를 찾는 과정을 설명하기 위한 도면, FIG. 4 is a diagram illustrating a process of finding matching pixels according to an exemplary embodiment of the present invention. FIG.
도 5는 본 발명의 일 실시예에 따른, 수평 에지 이미지의 주변화소와 수직 에지 이미지의 주변화소를 도시한 도면, 5 is a diagram showing peripheral pixels of a horizontal edge image and peripheral pixels of a vertical edge image according to an embodiment of the present invention;
도 6은 본 발명의 일 실시예에 따른, 디스패리티값 및 이를 이용한 깊이값을 계산하는 과정을 설명하기 위한 도면,6 is a diagram for explaining a process of calculating a disparity value and a depth value using the disparity value according to an embodiment of the present invention;
도 7은 본 발명의 일 실시예에 따른, 지원점 맵을 도시한 도면, Figure 7 illustrates a support point map, in accordance with one embodiment of the present invention;
도 8은 본 발명의 일 실시예에 따른, 불필요한 지원점을 제거하는 알고리즘을 도시한 도면, Figure 8 illustrates an algorithm for eliminating unnecessary support points according to an embodiment of the present invention;
도 9는 본 발명의 일 실시예에 따른, 불필요한 지원점이 제거된 지원점 맵을 도시한 도면, 9 is a diagram illustrating a support point map in which unnecessary support points are removed, according to an embodiment of the present invention;
도 10은 본 발명의 일 실시예에 따른, 1차 보간을 수행하는 과정을 도시한 도면, 10 is a diagram illustrating a process of performing a first-order interpolation according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따른, 축소 전의 지원점 맵의 일부 화소들을 도시한 도면, 11 is a view showing some pixels of a support point map before reduction according to an embodiment of the present invention;
도 12는 본 발명의 일 실시예에 따른, 지원점 맵을 일정 비율로 축소하는 과정을 도시한 도면, 12 is a diagram illustrating a process of reducing a support point map at a certain rate according to an embodiment of the present invention;
도 13은 본 발명의 일 실시예에 따른, 축소된 지원점 맵의 디스패리티 값을 보간하고 다시 원래크기로 확대하는 과정을 도시한 도면, 13 is a diagram illustrating a process of interpolating a disparity value of a reduced support point map and enlarging the disparity value back to its original size according to an embodiment of the present invention;
도 14는 본 발명의 일 실시예에 따른, 2차 보간을 수행하는 방법을 도시한 도면, Figure 14 illustrates a method of performing a quadratic interpolation according to an embodiment of the present invention;
도 15는 본 발명의 일 실시예에 따른, 후처리된 디스패리티 맵을 도시한 도면, Figure 15 illustrates a post-processed disparity map, in accordance with one embodiment of the present invention;
도 16은 본 발명의 일 실시예에 따른, 입력된 스테레오 영상에 대한 디스패리티 맵을 도시한 도면, 16 is a diagram illustrating a disparity map for an input stereo image according to an embodiment of the present invention;
도 17은 본 발명의 일 실시예에 따른, 라인단위 버퍼를 이용한 병렬처리 과정을 도시한 도면, 17 is a diagram illustrating a parallel processing process using a line unit buffer according to an embodiment of the present invention;
도 18은 본 발명의 일 실시예에 따른, 매칭 과정에 대한 파이프라인을 도시한 도면, Figure 18 illustrates a pipeline for a matching process, according to one embodiment of the present invention;
도 19는 본 발명의 일 실시예에 따른, 하드웨어 병렬처리 구조를 도시한 도면이다. 19 is a diagram illustrating a hardware parallel processing structure according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in detail with reference to the drawings.
스테레오 매칭 기술은 스테레오 이미지로부터 3차원 이미지를 얻기 위해 이용되는 기술로서, 동일 피사체에 대하여 동일선상의 서로 다른 촬영 위치에서 촬영된 다수의 2차원 영상으로부터 3차원 이미지를 얻기 위해 이용된다. 스테레오 영상은 이처럼 피사체에 대하여 서로 다른 촬영 위치에서 촬영된 다수의 2차원 영상, 즉 서로 짝(pair) 관계에 있는 다수의 2차원 영상을 의미하며, 예를 들어, 좌안 영상과 우안 영상을 들 수 있다. Stereo matching technology is a technique used to obtain a three-dimensional image from a stereo image, which is used to obtain a three-dimensional image from a plurality of two-dimensional images photographed at different shooting positions in the same line for the same subject. The stereo image means a plurality of two-dimensional images taken at different photographing positions with respect to the subject, that is, a plurality of two-dimensional images having a pair relationship with each other. For example, have.
일반적으로 2차원 이미지로부터 3차원 이미지를 생성하기 위해서는 2차원 이미지의 수평, 수직의 위치 정보인 x,y 좌표에 더하여 깊이 정보인 z 좌표를 필요로 한다. z 좌표를 구하기 위해서는 스테레오 이미지의 디스패리티(disparity, 시차) 정보를 필요로 하는데, 스테레오 매칭은 이러한 디스패리티를 얻기 위해 사용되는 기술이다. 예를 들어 스테레오 이미지가 두 대의 좌,우 카메라에 의해 촬영된 좌,우 이미지라면, 좌,우 이미지 중에 하나를 기준 이미지로, 다른 하나를 탐색 이미지로 정한다. 이러한 경우에 공간상의 동일한 한 점에 대한 기준 이미지와 탐색 이미지 간의 거리, 즉 좌표의 차이를 디스패리티라고 하는데, 스테레오 매칭 기술을 이용하여 디스패리티를 얻을 수 있게 된다. Generally, in order to generate a three-dimensional image from a two-dimensional image, a z coordinate, which is depth information, is required in addition to the x and y coordinates, which are horizontal and vertical position information of the two-dimensional image. In order to obtain the z coordinate, disparity (disparity) information of the stereo image is required. Stereo matching is a technique used to obtain such a disparity. For example, if the stereo image is left and right images taken by two left and right cameras, one of the left and right images is set as the reference image and the other is set as the search image. In this case, the distance between the reference image and the search image for the same point in space, that is, the difference between the coordinates, is called disparity, and the disparity can be obtained using the stereo matching technique.
스테레오 매칭 장치(100)는 이미지의 전체 화소들에 대하여 위와 같이 얻어지는 기준 이미지와 탐색 이미지 간의 디스패리티들을 이용하여 각 화소들에 대한 깊이 정보를 얻어 3차원 좌표들로 표현되는 디스패리티 맵을 생성한다.The stereo matching apparatus 100 obtains depth information for each pixel using the disparities between the reference image and the search image obtained as described above for all the pixels of the image, and generates a disparity map expressed by the three-dimensional coordinates .
본 실시예에 따른, 기준 이미지와 탐색 이미지간의 시차를 구하기 위해 사용되는 스테레오 매칭 기술을 개략적으로 설명하면 다음과 같다. 먼저, 스테레오 매칭 장치(100)는 기준 이미지의 기준 화소를 중심으로 복수개의 윈도우(window)를 설정하며, 탐색 이미지에 대해서도 탐색 화소들을 중심으로 같은 크기의 윈도우를 설정한다. 기준 화소는 기준 이미지의 에지 화소들 중에 탐색 이미지에서 대응하는 점, 즉 대응점을 현재 탐색해야할 화소를 의미한다. 탐색 화소는 탐색 이미지의 화소들 중에 기준 화소에 대한 대응점인지를 현재 확인해야할 화소를 의미한다. 복수개의 윈도우는 중심 화소와 그를 둘러싼 주변 화소들로 이루어지는 복수개의 매트릭스 형태이다.A stereo matching technique used to calculate the parallax between the reference image and the search image according to the present embodiment will be schematically described as follows. First, the stereo matching apparatus 100 sets a plurality of windows around a reference pixel of a reference image, and sets a window of the same size around the search pixels with respect to the search image. The reference pixel means a corresponding point in the search image among the edge pixels of the reference image, i.e., a pixel to which the corresponding point is to be currently searched. The search pixel means a pixel to be currently identified as a corresponding point to the reference pixel among the pixels of the search image. The plurality of windows are in the form of a plurality of matrices each including a center pixel and surrounding pixels surrounding the center pixel.
위와 같이, 스테레오 매칭 장치(100)는 설정된 기준 화소 윈도우들 내의 일부 주변 화소들과 각각의 탐색 화소 윈도우 내의 일부 주변화소들 간의 유사도를 계산하고, 탐색 화소 윈도우들 중에 기준 화소 윈도우와 가장 유사도가 큰 값을 갖는 탐색 화소 윈도우의 탐색 화소를 대응점에 해당하는 대응 화소로 매칭 결정한다. 그리고 기준 화소와 대응화소 간의 거리를 디스패리티로서 구한다.As described above, the stereo matching apparatus 100 calculates the similarity between some of the surrounding pixels in the set reference pixel windows and some of the surrounding pixels in each of the searching pixel windows, And the search pixel of the search pixel window having the value corresponding to the corresponding point is matched with the corresponding pixel corresponding to the corresponding point. The distance between the reference pixel and the corresponding pixel is obtained as a disparity.
이와 같은 과정을 통해, 스테레오 매칭 장치(100)는 입력된 스테레오 영상에 대한 스테레오 매칭방법을 수행하여 디스패리티 맵을 생성할 수 있게 된다. Through this process, the stereo matching apparatus 100 can generate a disparity map by performing a stereo matching method on the inputted stereo image.
도 1은 본 발명의 일 실시예에 따른, 스테레오 매칭 장치(100)의 구성을 도시한 블록도이다. 도 1에 도시된 바와 같이, 스테레오 매칭 장치(100)는 카메라부(110), 에지 추출부(120), 및 영상처리부(130)를 포함한다. 1 is a block diagram showing the configuration of a stereo matching apparatus 100 according to an embodiment of the present invention. 1, the stereo matching apparatus 100 includes a camera unit 110, an edge extraction unit 120, and an image processing unit 130. [
카메라부(110)는 제1 카메라(111) 및 제2 카메라(112)를 포함한다. 그리고 카메라부(110)는 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 촬영한다. 구체적으로, 제1 카메라(111) 및 제2 카메라(112)는 좌안 카메라와 우안 카메라가 될 수도 있으며, 제1 영상은 좌안영상이고 제2 영상은 우안영상이 될 수도 있다. 또한, 제1 영상이 기준이미지가 되고, 제2 영상이 탐색이미지가 될 수도 있다. The camera unit 110 includes a first camera 111 and a second camera 112. The camera unit 110 photographs a stereo image including a first image and a second image simultaneously captured by two cameras. Specifically, the first camera 111 and the second camera 112 may be a left eye camera and a right eye camera, and the first image may be a left eye image and the second image may be a right eye image. Also, the first image may be the reference image and the second image may be the search image.
에지추출부(120)는 제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출한다. 구체적으로, 에지추출부(120)는 소벨(sobel) 필터를 포함하고, 소벨 필터에 의해 수평 에지 이미지와 수직 에지 이미지를 추출하게 된다. The edge extracting unit 120 extracts a first horizontal edge image and a first vertical edge image for the first image and extracts a second horizontal edge image and a second vertical edge image for the second image. Specifically, the edge extracting unit 120 includes a Sobel filter, and extracts a horizontal edge image and a vertical edge image using a Sobel filter.
영상처리부(130)는 다양한 영상을 처리하고, 제1 영상 및 제2 영상과 그에 대응되는 에지 영상들을 처리하여, 3차원 이미지 생성을 위한 디스패리티 맵을 생성한다. 이를 위해, 영상처리부(130)는 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키고, 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출한다. 그리고, 영상처리부(130)는 매칭된 화소로 구성된 지원점 맵을 생성하고, 1차 보간 및 2차 보간을 통해 디스패리티 맵을 생성하게 되며, 디스패리티 맵을 더욱 정밀해지도록 보정을 수행하게 된다. The image processing unit 130 processes various images, processes first and second images and corresponding edge images, and generates a disparity map for generating a three-dimensional image. To this end, the image processor 130 may match a first edge pixel included in the first image with a second edge pixel included in the second image, for a part or all of the edge pixels included in the first image, A disparity value which is a distance difference between the matched first edge pixel and the second edge pixel is calculated for part or all of the edge pixels included in one image. The image processing unit 130 generates a support point map composed of matched pixels, generates a disparity map through the primary interpolation and the secondary interpolation, and performs correction so as to further refine the disparity map .
이와 같은 구성의 스테레오 매칭 장치(100)의 구체적인 동작에 대해서는 이하에서 도 2와 도 3을 이용하여 설명한다. 도 2는 본 발명의 일 실시예에 따른, 스테레오 매칭 방법을 설명하기 위해 제공되는 흐름도이다. 그리고, 도 3은 본 발명의 일 실시예에 따른, 스테레오 매칭 방법의 과정을 도시한 도면이다.The specific operation of the stereo matching apparatus 100 having such a configuration will be described below with reference to FIG. 2 and FIG. 2 is a flow chart provided to illustrate a stereo matching method, in accordance with an embodiment of the present invention. 3 is a diagram illustrating a process of a stereo matching method according to an embodiment of the present invention.
먼저, 스테레오 매칭 장치(100)는 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 입력받는다(S210). 도 3의 Original Left Image(310) 및 Original Right Image(320)가 각각 제1 영상 및 제2 영상에 해당된다. First, the stereo matching apparatus 100 receives a stereo image including a first image and a second image simultaneously captured by two cameras (S210). The original left image 310 and the original right image 320 of FIG. 3 correspond to the first image and the second image, respectively.
그리고, 스테레오 매칭 장치(100)는 제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출한다(S220). 이 때, 스테레오 매칭 장치(100)는 소벨(Sobel) 필터를 이용하여 에지 이미지를 추출할 수 있으며, 도 3에 도시된 바와 같이 제1 수평 에지 이미지(311), 제1 수직 에지 이미지(312), 제2 수평 에지 이미지(321) 및 제2 수직 에지 이미지(322)를 추출할 수도 있다. Then, the stereo matching apparatus 100 extracts a first horizontal edge image and a first vertical edge image for the first image, extracts a second horizontal edge image and a second vertical edge image for the second image, (S220). At this time, the stereo matching apparatus 100 can extract an edge image using a Sobel filter and generate a first horizontal edge image 311, a first vertical edge image 312, The second horizontal edge image 321, and the second vertical edge image 322, as shown in FIG.
그 후에, 스테레오 매칭 장치(100)는 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키고, 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하게 된다(S230). 이 경우, 제1 영상이 기준이미지가 되고, 제2 영상이 탐색이미지가 된다.Thereafter, the stereo matching apparatus 100 matches the first edge pixels included in the first image with the second edge pixels included in the second image, for some or all of the edge pixels included in the first image, A disparity value, which is a distance difference between the matched first and second edge pixels, is calculated for some or all of the edge pixels included in the first image (S230). In this case, the first image becomes the reference image and the second image becomes the search image.
매칭 단계에서, 스테레오 매칭 장치(100)는 제1 에지화소의 주변에 배치된 복수개의 제1 주변화소들에 대한 제1 수평 에지 이미지와 제1 수직 에지 이미지 내에서의 화소값들을 제2 수평 에지 이미지와 제2 수직 에지 이미지의 화소값들과 비교함으로써, 제1 에지화소와 매칭되는 제2 에지화소로 결정하게 된다. 구체적으로, 스테레오 매칭 장치(100)는 제1 에지화소와 대응되는 행에 있는 제2 영상의 화소들 중, 제1 수평 에지 이미지와 제1 수직 에지 이미지 내의 복수개의 제1 주변화소들의 화소값들과 제2 수평 에지 이미지와 제2 수직 에지 이미지 내의 제2 주변화소들의 화소값들의 각각의 차이값의 합이 최소가 되는 화소를 제1 에지화소와 매칭되는 제2 에지화소로 결정하게 된다. 이 때, 제1 주변화소들은, 제1 에지화소를 중심으로 배치된 4개의 영역을 구분하고, 각 영역별로 동일한 형태로 배치된 주변화소들이 선택된다. In the matching step, the stereo matching apparatus 100 outputs a first horizontal edge image for a plurality of first peripheral pixels disposed around the first edge pixel and pixel values within the first vertical edge image to a second horizontal edge And determines the second edge pixel to be a second edge pixel to be matched with the first edge pixel by comparing the pixel value with the pixel values of the image and the second vertical edge image. Specifically, the stereo matching apparatus 100 calculates the pixel values of the first horizontal edge image and the plurality of first peripheral pixels in the first vertical edge image, among the pixels of the second image in the row corresponding to the first edge pixel, And the second edge pixel which matches the first edge pixel is determined as the pixel having the minimum sum of the difference values of the pixel values of the second horizontal edge image and the second surrounding pixels in the second vertical edge image. At this time, the first peripheral pixels divide the four regions arranged around the first edge pixel, and peripheral pixels arranged in the same shape for each region are selected.
구체적으로, 매칭을 위한 주변화소들의 선택 과정 및 매칭 진행 과정에 대해 도 4 및 도 5를 참고하여 설명한다. More specifically, the selection process of the neighboring pixels for matching and the matching process will be described with reference to FIGS. 4 and 5. FIG.
도 4는 본 발명의 일 실시예에 따른, 매칭되는 화소를 찾는 과정을 설명하기 위한 도면이다. 도 4에서 Left Image가 기준이미지인 제1 영상을 나타내고, Right가 탐색이미지인 제2 영상을 나타낸다. 4 is a diagram for explaining a process of finding matching pixels according to an embodiment of the present invention. In Fig. 4, Left Image represents a first image which is a reference image, and Right represents a second image which is a search image.
일단 제1 영상에서 기준 화소인 제1 에지화소가 도 4에서 I_desc(x,y)에 해당된다. 도 4에 도시된 바와 같이, 스테레오 매칭 장치(100)는 제1 에지화소 (x,y)를 기준으로 왼쪽위, 오른쪽위, 왼쪽아래, 오른쪽아래 영역에 각각 5x5의 윈도우 영역을 선택한다. 도 4에서 각 윈도우 영역은 Lf1, Lf2, Lf3, Lf4로 표시되어 있다. 그리고, 스테레오 매칭 장치(100)는 각 윈도우 영역별로 수평 에지 이미지에 대해 4개의 주변화소를 선택하고, 수직 에지 이미지에 대해 12개의 주변화소를 선택하여, 각 윈도우 영역별로 총 16개의 주변화소를 선택하게 된다. First, a first edge pixel which is a reference pixel in the first image corresponds to I_desc (x, y) in FIG. As shown in FIG. 4, the stereo matching apparatus 100 selects 5x5 window regions in the upper left, upper right, lower left, and lower right regions based on the first edge pixel (x, y). In Fig. 4, each window region is represented by Lf1, Lf2, Lf3, and Lf4. Then, the stereo matching apparatus 100 selects four surrounding pixels for the horizontal edge image for each window area, selects 12 surrounding pixels for the vertical edge image, and selects 16 peripheral pixels for each window area .
이 때, 제1 주변화소들은, 제1 수평 에지 이미지에 포함된 것보다 제1 수직 에지 이미지에 포함된 것들이 더 많도록 설정된다. 이는 수평 에지보다 수직 에지가 매칭과 관련하여 더 중요한 영향을 미치기 때문이다. 이 때문에, 스테레오 매칭장치(100)는 제1 수평 에지 이미지의 주변화소 개수보다 제1 수직 에지 이미지의 주변화소 개수를 더욱 많이 선정하여 매칭시 고려하게 된다. 하나의 5x5 윈도우 영역에 대해 16개의 주변화소를 선택하는 방법에 대해서는 도 5에 상세히 도시되어 있다. At this time, the first peripheral pixels are set to include more objects included in the first vertical edge image than those included in the first horizontal edge image. This is because the vertical edge has a more significant effect on matching than the horizontal edge. Accordingly, the stereo matching apparatus 100 selects more peripheral pixels of the first vertical edge image than the number of peripheral pixels of the first horizontal edge image, and considers the matching. A method of selecting 16 peripheral pixels for one 5x5 window region is shown in detail in Fig.
도 5는 본 발명의 일 실시예에 따른, 수평 에지 이미지의 주변화소와 수직 에지 이미지의 주변화소를 도시한 도면이다. 5 is a diagram showing peripheral pixels of a horizontal edge image and peripheral pixels of a vertical edge image, according to an embodiment of the present invention.
도 5에서 왼쪽의 이미지가 수평 에지 이미지를 나타내며, 수평에지 이미지에서는 5x5 윈도우 영역의 중심점의 주변 4개의 주변화소가 선택된 것을 확인할 수 있다. In FIG. 5, the image on the left represents a horizontal edge image, and in the horizontal edge image, four peripheral pixels around the center point of the 5x5 window region are selected.
도 5에서 오른쪽의 이미지가 수직 에지 이미지를 나타내며, 수직에지 이미지에서는 5x5 윈도우 영역의 중심점의 주변 10개와 중심점 2번을 포함하여 총 12개의 주변화소가 선택된 것을 확인할 수 있다. 여기에서, 수직 에지 이미지의 경우 중심점이 매칭에 중요한 역할을 하기 때문에 가중치를 부여하여 중심점은 2번 선택되게 된다. In FIG. 5, the right image represents a vertical edge image. In the vertical edge image, a total of 12 peripheral pixels including 10 peripheral points and 2 central points of the 5x5 window region are selected. Here, in the case of the vertical edge image, since the center point plays an important role in matching, the center point is selected twice by weighting.
이와 같이, 스테레오 매칭 장치(100)는 도 5에 도시된 방식으로 각 5x5 윈도우 영역별로 수평 에지 이미지에 대해 4개의 주변화소를 선택하고, 수직 에지 이미지에 대해 12개의 주변화소를 선택하여, 각 윈도우 영역별로 총 16개의 주변화소를 선택하게 된다. 5, the stereo matching apparatus 100 selects four surrounding pixels for each horizontal edge image for each 5x5 window region, selects 12 surrounding pixels for the vertical edge image, A total of 16 peripheral pixels are selected for each region.
다시 도 4로 돌아가면, 스테레오 매칭 장치(100)는 4개의 윈도우 영역(Lf1, Lf2, Lf3, Lf4)에 대해 각각 16개씩의 제1 주변화소들을 선택하게 된다. 4, the stereo matching apparatus 100 selects 16 first peripheral pixels for each of the four window regions Lf1, Lf2, Lf3, and Lf4.
그리고, 스테레오 매칭 장치(100)는 제1 영상(Left image)의 제1 에지화소(x,y)와 대응되는 행에 있는 제2 영상(Right image)의 화소들(x-d, y)에 대해, 동일한 방식으로 제2 주변화소들을 선택하게 된다. 그리고, 도 4에 도시된 수식과 같이, 스테레오 매칭 장치(100)는 제1 주변화소들과 대응되는 제2 주변화소들 각각의 화소값의 차이값의 합인 매칭 코스트(matching cost)값을 구하게 된다. 그리고, 스테레오 매칭 장치(100)는 매칭 코스트 값이 최소가 되는 화소를 제1 에지화소와 매칭되는 제2 에지화소로 결정하게 된다. 주변화소들의 차이값의 합, 즉 매칭 코스트 값이 가장 작다는 것은, 제1 에지화소의 제1 주변화소들과 가장 유사한 제2 주변화소들을 가지는 제2 영상의 화소가 되므로, 결국 제1 에지화소에 대응되는 제2 영상의 제2 에지화소에 해당되는 것이 된다. The stereo matching apparatus 100 then calculates the pixel values of the pixels (xd, y) of the second image in the row corresponding to the first edge pixel (x, y) of the first image (Left image) The second peripheral pixels are selected in the same manner. 4, the stereo matching apparatus 100 obtains a matching cost value, which is the sum of the difference values of the pixel values of the first and second neighboring pixels . Then, the stereo matching apparatus 100 determines a pixel having a minimum matching cost value as a second edge pixel to be matched with the first edge pixel. Since the sum of the difference values of neighboring pixels, that is, the matching cost value, is the pixel of the second image having the second neighboring pixels most similar to the first neighboring pixels of the first edge pixel, And the second edge pixel of the second image corresponding to the second edge.
도 4에 도시된 수식에서, Sum1이 Lf1 윈도우 영역의 주변화소들의 화소값과 Rf1 윈도우 영역의 주변화소들의 화소값의 차이값의 합을 나타내고, Sum2이 Lf2 윈도우 영역의 주변화소들의 화소값과 Rf2 윈도우 영역의 주변화소들의 화소값의 차이값의 합을 나타내고, Sum3이 Lf3 윈도우 영역의 주변화소들의 화소값과 Rf3 윈도우 영역의 주변화소들의 화소값의 차이값의 합을 나타내고, Sum4이 Lf4 윈도우 영역의 주변화소들의 화소값과 Rf4 윈도우 영역의 주변화소들의 화소값의 차이값의 합을 나타낸다. 따라서, Sum1+Sum2+Sum3+Sum4 값이 제1 주변화소들과 대응되는 제2 주변화소들 각각의 화소값의 차이값의 합인 매칭 코스트(matching cost)값을 나타내게 된다. Sum1 represents the sum of the difference between the pixel value of the peripheral pixels in the Lf1 window region and the pixel value of the peripheral pixels in the Rf1 window region, Sum2 denotes the sum of the pixel value of the peripheral pixels in the Lf2 window region and Rf2 Sum3 represents the sum of pixel values of neighboring pixels of the Lf3 window region and neighboring pixels of the Rf3 window region, and Sum4 represents the sum of the difference values of the pixel values of neighboring pixels of the Lf4 window region And a difference value between pixel values of neighboring pixels of the Rf4 window region. Accordingly, the sum of the sum values of Sum1 + Sum2 + Sum3 + Sum4 represents the matching cost value, which is the sum of the difference values of the pixel values of the second peripheral pixels corresponding to the first peripheral pixels.
도 4에서는 제2 영상(Right image)의 y행에 있는 245개의 화소에 대해 모든 매칭 코스트 값을 계산하였으며, 그중 가장 낮은 매칭 코스트값을 가지는 화소를 제1 에지화소와 매칭되는 제2 영상의 제2 에지화소로 결정한 것을 확인할 수 있다. In FIG. 4, all matching cost values are calculated for 245 pixels in the y-th row of the second image, and a pixel having the lowest matching cost value among the 245 pixels in the y- 2 edge pixels.
이와 같은 과정을 통해, 스테레오 매칭 장치(100)는 제1 에지화소에 매칭되는 제2 에지화소를 결정할 수 있게 된다. Through this process, the stereo matching apparatus 100 can determine a second edge pixel that matches the first edge pixel.
그리고, 스테레오 매칭 장치(100)는 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하게 되며, 이와 관련하여 도 6을 참고하여 설명한다. 도 6은 본 발명의 일 실시예에 따른, 디스패리티값 및 이를 이용한 깊이값을 계산하는 과정을 설명하기 위한 도면이다. The stereo matching apparatus 100 calculates a disparity value, which is a distance difference between the first edge pixel and the second edge pixel, and will be described with reference to FIG. 6 is a diagram for explaining a process of calculating a disparity value and a depth value using the disparity value according to an embodiment of the present invention.
디스패리티는 동일한 지점을 나타내는 화소가 두개의 영상에서 서로 얼마나 위치가 차이나는지를 나타내는 값이며, 도 6에 도시된 공식을 참고하면 디스패리티값(xR-xT)을 이용하여 깊이값인 Z를 구할 수 있는 것을 확인할 수 있다. The disparity is a value indicating how the positions of the pixels representing the same point differ from each other in the two images. Referring to the formula shown in FIG. 6, the disparity value (x R -x T ) Can be obtained.
다시, 도 2 및 도 3으로 돌아가서, 스테레오 매칭 장치(100)는 매칭된 화소들을 각각 지원점(Support point)으로 지정하여 지원점 맵(330)을 생성한다(S240). 도 7은 본 발명의 일 실시예에 따른, 지원점 맵을 도시한 도면이다. 도 7을 참고하면, Left image와 Right image로부터 매칭된 화소들을 모아놓은 지원점 맵(Initial SPOINT)이 표시된 것을 확인할 수 있다. Referring back to FIGS. 2 and 3, the stereo matching apparatus 100 designates each of the matched pixels as a support point to generate a support point map 330 (S240). 7 is a diagram illustrating a support point map according to an embodiment of the present invention. Referring to FIG. 7, it can be seen that a support point map (Initial SPOINT) which is a collection of pixels matched from the left image and the right image is displayed.
그 후에, 스테레오 매칭 장치(100)는 지원점 맵에서 불필요한 지원점을 제거한다(S250). 구체적으로, 스테레오 매칭 장치(100)는 특정 크기의 영역 내에 지원점이 특정 개수 이하가 포함되어 있는 경우, 해당 영역 내의 지원점들을 모두 제거함으로써, 불필요한 지원점을 제거하여, 불필요한 지원점이 제거된 지원점 맵(340)을 생성하게 된다. 이에 대해, 도 8 및 도 9를 참고하여 설명한다. Thereafter, the stereo matching apparatus 100 removes unnecessary support points from the support point map (S250). Specifically, when the support point includes a specific number or less within a specific size area, the stereo matching apparatus 100 removes all the support points in the corresponding area, thereby eliminating unnecessary support points, Thereby generating a map 340. This will be described with reference to Figs. 8 and 9. Fig.
도 8은 본 발명의 일 실시예에 따른, 불필요한 지원점을 제거하는 알고리즘을 도시한 도면이다. 도 8에서는 40x40 크기의 영역 내에 5개 이하의 지원점이 포함되어 있는 경우, 해당 영역의 지원점은 삭제하는 형태로 알고리즘을 구현한 것을 확인할 수 있다. 하지만, 영역의 크기나 지원점의 개수는 유동적으로 변경될 수 있음은 물론이다. Figure 8 is a diagram illustrating an algorithm for eliminating unwanted support points, in accordance with an embodiment of the present invention. In FIG. 8, when there are five or less support points in a 40x40 area, it can be confirmed that the algorithm is implemented by deleting the support points of the corresponding area. However, it goes without saying that the size of the area and the number of support points can be changed flexibly.
도 9는 본 발명의 일 실시예에 따른, 불필요한 지원점이 제거된 지원점 맵을 도시한 도면이다. 초기 지원점 맵(Initial SPOINT)에서 불필요한 지원점이 제거된 지원점 맵(Refined SPOINT)은 하늘 영역에 불필요한 지원 점들이 사라진 것을 확인할 수 있다. 9 is a diagram illustrating a support point map in which unnecessary support points are removed according to an embodiment of the present invention. In the initial SPOINT, the support points map (Refined SPOINT) from which unnecessary support points are removed shows that unnecessary support points disappear in the sky area.
다시, 도 2 및 도 3으로 돌아가서, 스테레오 매칭 장치(100)는 지원점 맵의 디스패리티값에 대한 1차 보간을 수행하여 1차 디스패리티 맵(350)을 생성한다(S260). 구체적으로, 스테레오 매칭 장치(100)는 지원점 맵을 일정 비율로 축소하고, 축소된 지원점 맵에서 디스패리티 값이 할당되지 않은 화소들을 좌측 또는 우측에 위치된 화소의 디스패리티 값 중 작은 값으로 할당함으로써, 디스패리티 값을 보간하며, 보간을 통해 축소된 지원점 맵의 모든 화소에 디스패리티 값이 할당되면 축소된 지원점 맵을 원래 크기로 확대함으로써, 1차 보간을 수행하게 된다. 2 and 3, the stereo matching apparatus 100 performs a first-order interpolation on the disparity value of the support point map to generate the primary disparity map 350 (S260). Specifically, the stereo matching apparatus 100 reduces the support point map at a certain ratio, and assigns the pixels to which the disparity value is not allocated in the reduced support point map to a smaller value among the disparity values of the pixels located on the left or right The disparity value is interpolated. When disparity values are assigned to all the pixels of the support point map reduced through interpolation, the reduced support point map is expanded to the original size, thereby performing the primary interpolation.
구체적인 1차 보간 과정에 대해서는, 도 10 내지 도 13을 참고하여 설명한다. 도 10은 본 발명의 일 실시예에 따른, 1차 보간을 수행하는 과정을 도시한 도면이다. 도 10에 도시된 바와 같이, 스테레오 매칭 장치(100)는 지원점 맵을 1/16 비율로 축소하고, 축소된 지원점 맵에서 디스패리티 값이 할당되지 않은 화소들을 좌측 또는 우측에 위치된 화소의 디스패리티 값 중 작은 값으로 할당함으로써, 디스패리티 값을 모두 채우게 되며, 보간을 통해 축소된 지원점 맵의 모든 화소에 디스패리티 값이 할당되면 축소된 지원점 맵을 원래 크기로 확대함으로써, 1차 보간을 수행하게 되는 과정을 확인할 수 있다. The specific primary interpolation process will be described with reference to FIGS. 10 to 13. FIG. 10 is a diagram illustrating a process of performing a first-order interpolation according to an embodiment of the present invention. As shown in FIG. 10, the stereo matching apparatus 100 reduces the support point map to a 1/16 ratio, and assigns the pixels to which the disparity value is not allocated in the reduced support point map to the left or right And the disparity value is allocated to all the pixels of the support point map reduced through the interpolation, the reduced support point map is enlarged to the original size, The process of performing the interpolation can be confirmed.
도 11은 본 발명의 일 실시예에 따른, 축소 전의 지원점 맵의 일부 화소들을 도시한 도면이다. 도 11에 도시된 바와 같이, 스테레오 매칭 장치(100)는 우선 일정 비율로 축소할 때, 제거하지 않고 살려놓을 화소(검정 및 사선)들을 일정 간격으로 선택한다. 도 11의 경우, 1/16으로 축소하기 위해 4x4 영역에서 가장 왼쪽 위에있는 화소만을 살리는 화소로 선택하고 나머지는 제거 대상 화소로 선택하는 것을 확인할 수 있다. 11 is a diagram showing some pixels of a support point map before reduction according to an embodiment of the present invention. As shown in FIG. 11, the stereo matching apparatus 100 selects pixels (black and oblique lines) at regular intervals when reducing the image at a constant rate. In the case of FIG. 11, it can be confirmed that, in order to reduce to 1/16, a pixel for only the uppermost pixel in the 4x4 region is selected as the pixel to be removed and the remaining pixel is selected as the pixel to be removed.
도 12는 본 발명의 일 실시예에 따른, 지원점 맵을 일정 비율로 축소하는 과정을 도시한 도면이다. 1/16으로 축소하면 검정과 사선의 화소만 남게 되는 것을 확인할 수 있다. FIG. 12 is a diagram illustrating a process of reducing a support point map at a predetermined ratio according to an embodiment of the present invention. If you reduce it to 1/16, you can see that only black and oblique pixels remain.
도 13은 본 발명의 일 실시예에 따른, 축소된 지원점 맵의 디스패리티 값을 보간하고 다시 원래 크기로 확대하는 과정을 도시한 도면이다. 검정 화소에 할당되어 있는 디스패리티값을 디스패리티값이 할당되지 않은 사선 화소에 적용(이를 테면, 주변의 검정 화소 중 가장 작은 검정 화소의 디스패리티값을 적용)한다. 그리고, 다시 16배로 늘려서 원래 크기로 확대하면, 4x4 행렬에서 가장 왼쪽 위에 있는 화소에는 모두 디스패리티값이 할당되어 있는 상태가 된 것을 확인할 수 있다.13 is a diagram illustrating a process of interpolating a disparity value of a reduced support point map and enlarging the disparity value back to its original size according to an embodiment of the present invention. The disparity value assigned to the black pixel is applied to the oblique pixel to which the disparity value is not assigned (for example, the disparity value of the smallest black pixel among surrounding black pixels is applied). Then, if it is increased to 16 times and then enlarged to the original size, it can be confirmed that the disparity value is allotted to the uppermost pixel in the 4x4 matrix.
이와 같은 방식으로, 스테레오 매칭 장치(100)는 지원점 맵의 디스패리티값에 대한 1차 보간을 수행하여 1차 디스패리티 맵(350)을 생성하게 된다. 1차 디스패리티맵은 일정 간격으로 일부 화소만 디스패리티값이 할당된 상태임을 확인할 수 있다. In this manner, the stereo matching apparatus 100 performs a first-order interpolation on the disparity value of the support point map to generate the primary disparity map 350. [ The primary disparity map can confirm that a disparity value is allocated to only some pixels at predetermined intervals.
다시, 도 2 및 도 3으로 돌아가서, 스테레오 매칭 장치(100)는 1차 디스패리티 맵에 2차 보간을 수행하여 2차 디스패리티 맵을 생성하게 된다(S270). 구체적으로, 스테레오 매칭 장치(100)는 디스패리티 값이 할당되지 않은 화소에 대해, 주변의 4개의 디스패리티 값이 존재하는 화소들의 디스패리티 값들 및 해당 화소들과의 거리를 이용하여, 해당 디스패리티 값이 할당되지 않은 화소의 디스패리티값을 보간하는 방식으로, 모든 디스패리티 값이 할당되지 않은 화소들의 디스패리티값을 보간함으로써, 2차 디스패리티 맵을 생성하게 된다. 이와 관련하여, 도 14를 참고하여 구체적으로 설명한다. 2 and 3, the stereo matching apparatus 100 performs a secondary interpolation on the primary disparity map to generate a secondary disparity map (S270). Specifically, the stereo matching apparatus 100 uses the disparity values of the pixels having the four surrounding disparity values and the distances to the pixels to which the disparity values are not allocated, A disparity map is generated by interpolating disparity values of pixels to which all disparity values are not allocated in a method of interpolating disparity values of pixels to which no values are assigned. This will be described in detail with reference to Fig.
도 14는 본 발명의 일 실시예에 따른, 2차 보간을 수행하는 방법을 도시한 도면이다. 도 14에 도시된 바와 같이, 2차 보간은 4개의 주변 지원점을 이용하여 수행된다. FIG. 14 is a diagram illustrating a method of performing a second-order interpolation according to an embodiment of the present invention. As shown in FIG. 14, the secondary interpolation is performed using four peripheral support points.
이와 같은 과정을 통해, 스테레오 매칭 장치(100)는 모든 화소에 대한 디스패리티값이 할당된 2차 디스패리티 맵을 생성할 수 있게 된다. 또한, 스테레오 매칭 장치는 메디안 필터(median filter)를 이용하여 잡음제거 및 구멍메우기를 수행하여, 더욱 정밀한 2차 디스패리티 맵을 생성할 수 있으며, 이에 대해서는 도 15에 도시되어 있다. 도 15는 본 발명의 일 실시예에 따른, 후처리된 디스패리티 맵을 도시한 도면이다. 도 15에 도시된 바와 같이, 스테레오 매칭 장치(100)는 2차 디스패리티맵(Disparity map)을 메디안 필터에 의해 후처리하여 더욱 정밀한 2차 디스패리티 맵(Refined Disparity map)을 생성할 수 있다. Through this process, the stereo matching apparatus 100 can generate a secondary disparity map to which disparity values for all pixels are allocated. In addition, the stereo matching apparatus can perform noise elimination and hole filling using a median filter to generate a more accurate secondary disparity map, which is shown in FIG. 15 is a diagram illustrating a post-processed disparity map, in accordance with an embodiment of the present invention. As shown in FIG. 15, the stereo matching apparatus 100 may generate a more precise second-order disparity map by post-processing the second disparity map by a median filter.
도 16은 본 발명의 일 실시예에 따른, 입력된 스테레오 영상에 대한 디스패리티 맵을 도시한 도면이다. 상술한 과정을 통해, 스테레오 매칭 장치(100)는 도 16과 같이 2개의 카메라를 통해 촬영된 오리지널 이미지를 이용하여, 디스패리티 맵을 생성할 수 있게 된다. 16 is a diagram illustrating a disparity map for an input stereo image according to an embodiment of the present invention. Through the above-described process, the stereo matching apparatus 100 can generate the disparity map using the original image photographed through the two cameras as shown in FIG.
또한, 스테레오 매칭 장치(100)는 병렬 처리를 통해 메모리 사이즈 및 처리속도를 최적화할 수도 있다. 이와 관련하여 도 17 내지 도 19를 참고하여 설명한다. In addition, the stereo matching apparatus 100 may optimize the memory size and processing speed through parallel processing. This will be described with reference to FIGS. 17 to 19. FIG.
도 17은 본 발명의 일 실시예에 따른, 라인단위 버퍼를 이용한 병렬처리 과정을 도시한 도면이다. 도 17에 도시된 바와 같이, 스테레오 매칭 장치(100)는 에지 이미지 생성 과정에서 2개의 버퍼 라인을 이용하여 병렬 처리를 수행할 수도 있다. 17 is a diagram illustrating a parallel processing process using a line unit buffer according to an embodiment of the present invention. As shown in FIG. 17, the stereo matching apparatus 100 may perform parallel processing using two buffer lines in an edge image generation process.
도 18은 본 발명의 일 실시예에 따른, 매칭 과정에 대한 파이프라인을 도시한 도면이다. 도 18에 도시된 바와 같이, 스테레오 매칭 장치(100)는 4개의 파이프라인 구성을 통해 시간 복잡도를 1/4로 줄일 수 있다. 이를 통해, 스테레오 매칭 장치(100)는 메모리 사이즈 및 액세스를 최적화 할 수 있게 된다. 18 is a diagram illustrating a pipeline for a matching process according to an embodiment of the present invention. As shown in FIG. 18, the stereo matching apparatus 100 can reduce the time complexity to 1/4 through the four pipeline configurations. This allows the stereo matching device 100 to optimize memory size and access.
도 19는 본 발명의 일 실시예에 따른, 하드웨어 병렬처리 구조를 도시한 도면이다. 도 19에 도시된 바와 같이, 스테레오 매칭 장치(100)는 2차 보간 수행시 4개의 병렬 처리를 통해 시간복잡도를 1/4로 줄일 수 있게 된다. 19 is a diagram illustrating a hardware parallel processing structure according to an embodiment of the present invention. As shown in FIG. 19, the stereo matching apparatus 100 can reduce the time complexity to 1/4 through four parallel processes when performing the second-order interpolation.
이와 같이, 스테레오 매칭 장치(100)는 병렬 처리를 통해 시간 복잡도를 줄이고 메모리 사용을 효율화 할 수 있게 된다. In this manner, the stereo matching apparatus 100 can reduce the time complexity and improve the memory usage through parallel processing.
한편, 본 실시예에 따른 스테레오 매칭 장치(100)는 이를 이용하여 차량 주변의 사물을 인식하는 지능형 운전자 보조시스템(ADAS: Advanced Driver Assistance Systems)에 적용될 수도 있음은 물론이다. It should be noted that the stereo matching apparatus 100 according to the present embodiment may be applied to an ADAS (Advanced Driver Assistance System) that recognizes objects around the vehicle.
한편, 본 실시예에 따른 스테레오 매칭 장치(100)의 기능 및 스테레오 매칭 방법을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 프로그래밍 언어 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 플래시 메모리, 솔리드 스테이트 디스크(SSD) 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다. Needless to say, the technical idea of the present invention can also be applied to a computer-readable recording medium in which a function of the stereo matching apparatus 100 according to the present embodiment and a computer program for performing a stereo matching method are recorded. In addition, the technical idea according to various embodiments of the present invention may be realized in the form of a computer-readable programming language code recorded on a computer-readable recording medium. The computer-readable recording medium is any data storage device that can be read by a computer and can store data. For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, a flash memory, a solid state disk (SSD), or the like. In addition, the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

Claims (12)

  1. 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 입력받는 단계;Receiving a stereo image including a first image and a second image simultaneously captured by two cameras;
    제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 단계; Extracting a first horizontal edge image and a first vertical edge image for the first image, and extracting a second horizontal edge image and a second vertical edge image for the second image;
    제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키는 단계; 및Matching a first edge pixel included in the first image with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image; And
    제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 단계;를 포함하는 스테레오 매칭방법.Calculating a disparity value that is a distance difference between a first edge pixel and a second edge pixel matched with respect to a part or all of the edge pixels included in the first image.
  2. 청구항 1에 있어서, The method according to claim 1,
    매칭 단계는, In the matching step,
    제1 에지화소의 주변에 배치된 복수개의 제1 주변화소들에 대한 제1 수평 에지 이미지와 제1 수직 에지 이미지 내에서의 화소값들을 제2 수평 에지 이미지와 제2 수직 에지 이미지의 화소값들과 비교함으로써, 제1 에지화소와 매칭되는 제2 에지화소로 결정하는 것을 특징으로 하는 스테레오 매칭방법.The first horizontal edge image and the pixel values in the first vertical edge image for a plurality of first peripheral pixels arranged in the periphery of the first edge pixel are divided into pixel values of the second horizontal edge image and the second vertical edge image, And a second edge pixel which is matched with the first edge pixel by comparing the first edge pixel and the second edge pixel.
  3. 청구항 1에 있어서,The method according to claim 1,
    매칭 단계는, In the matching step,
    제1 에지화소와 대응되는 행에 있는 제2 영상의 화소들 중, 제1 수평 에지 이미지와 제1 수직 에지 이미지 내의 복수개의 제1 주변화소들의 화소값들과 제2 수평 에지 이미지와 제2 수직 에지 이미지 내의 제2 주변화소들의 화소값들의 각각의 차이값의 합이 최소가 되는 화소를 제1 에지화소와 매칭되는 제2 에지화소로 결정하는 것을 특징으로 하는 스테레오 매칭방법.The first horizontal edge image and the pixel values of the plurality of first peripheral pixels in the first vertical edge image and the second horizontal edge image and the second vertical edge image in the pixels of the second image in the row corresponding to the first edge pixel, Wherein a pixel having a minimum sum of difference values of pixel values of second surrounding pixels in an edge image is determined as a second edge pixel to be matched with a first edge pixel.
  4. 청구항 3에 있어서, The method of claim 3,
    제1 주변화소들은,The first peripheral pixels,
    제1 수평 에지 이미지에 포함된 것보다 제1 수직 에지 이미지에 포함된 것들이 더 많은 것을 특징으로 하는 스테레오 매칭방법.Wherein more of the first vertical edge image is contained in the first vertical edge image than that contained in the first horizontal edge image.
  5. 청구항 3에 있어서, The method of claim 3,
    제1 주변화소들은,The first peripheral pixels,
    제1 에지화소를 중심으로 배치된 4개의 영역을 구분하고, 각 영역별로 동일한 형태로 배치된 주변화소들이 선택되는 것을 특징으로 하는 스테레오 매칭방법.Wherein four regions arranged around the first edge pixel are divided, and neighboring pixels arranged in the same shape for each region are selected.
  6. 청구항 1에 있어서, The method according to claim 1,
    매칭된 화소들을 각각 지원점으로 지정하여 지원점 맵을 생성하는 단계; 및 Designating matched pixels as support points to generate a support point map; And
    지원점 맵에서 불필요한 지원점을 제거하는 단계;를 더 포함하는 것을 특징으로 하는 스테레오 매칭방법.And removing unnecessary support points from the support point map.
  7. 청구항 6에 있어서, The method of claim 6,
    제거 단계는, In the removing step,
    특정 크기의 영역 내에 지원점이 특정 개수 이하가 포함되어 있는 경우, 해당 영역 내의 지원점들을 모두 제거함으로써, 불필요한 지원점을 제거하는 것을 특징으로 하는 스테레오 매칭방법.And removing unnecessary support points by removing all the support points in the area when the support point contains a certain number or less in the area of the specific size.
  8. 청구항 6에 있어서, The method of claim 6,
    지원점 맵의 디스패리티값에 대한 1차 보간을 수행하여 1차 디스패리티 맵을 생성하는 단계;를 더 포함하고, And generating a first disparity map by performing a first-order interpolation on the disparity value of the support point map,
    1차 디스패리티 맵을 생성하는 단계는, The step of generating the primary disparity map comprises:
    지원점 맵을 일정 비율로 축소하는 단계;Reducing the support point map at a constant rate;
    축소된 지원점 맵에서 디스패리티 값이 할당되지 않은 화소들을 좌측 또는 우측에 위치된 화소의 디스패리티 값 중 작은 값으로 할당함으로써, 디스패리티 값을 보간하는 단계; 및Interpolating a disparity value by assigning pixels having no disparity value assigned in the reduced support point map to a smaller value among disparity values of pixels located on the left or right side; And
    보간을 통해 축소된 지원점 맵의 모든 화소에 디스패리티 값이 할당되면, 축소된 지원점 맵을 원래 크기로 확대하는 단계;를 포함하는 스테레오 매칭방법.Expanding the reduced support point map to its original size if a disparity value is assigned to all pixels of the reduced support point map through interpolation.
  9. 청구항 8에 있어서, The method of claim 8,
    1차 디스패리티 맵에 2차 보간을 수행하여 2차 디스패리티 맵을 생성하는 단계;를 더 포함하고, And generating a second disparity map by performing a second interpolation on the first disparity map,
    2차 디스패리티 맵을 생성하는 단계는, The step of generating the second disparity map comprises:
    디스패리티 값이 할당되지 않은 화소에 대해, 주변의 4개의 디스패리티 값이 존재하는 화소들의 디스패리티 값들 및 해당 화소들과의 거리를 이용하여, 해당 디스패리티 값이 할당되지 않은 화소의 디스패리티값을 보간하는 방식으로, 모든 디스패리티 값이 할당되지 않은 화소들의 디스패리티값을 보간함으로써, 2차 디스패리티 맵을 생성하는 것을 특징으로 하는 스테레오 매칭방법.For a pixel to which a disparity value is not assigned, the disparity values of the pixels having the four nearby disparity values and the distance from the pixels to the disparity value of the pixel to which the disparity value is not allocated are used Wherein the second disparity map is generated by interpolating the disparity values of the pixels to which all disparity values are not allocated.
  10. 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 입력받는 단계;Receiving a stereo image including a first image and a second image simultaneously captured by two cameras;
    제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 단계; Extracting a first horizontal edge image and a first vertical edge image for the first image, and extracting a second horizontal edge image and a second vertical edge image for the second image;
    제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키는 단계;Matching a first edge pixel included in the first image with a second edge pixel included in the second image with respect to some or all of the edge pixels included in the first image;
    제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 단계;를 포함하는 스테레오 매칭방법을 수행하는 컴퓨터 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체.Calculating a disparity value that is a distance difference between a first edge pixel and a second edge pixel matched with respect to a part or all of the edge pixels included in the first image; A computer-readable recording medium containing a computer program.
  11. 두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 촬영하는 카메라부;A camera unit for photographing a stereo image including a first image and a second image simultaneously photographed by two cameras;
    제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 에지추출부; 및An edge extraction unit for extracting a first horizontal edge image and a first vertical edge image for the first image and extracting a second horizontal edge image and a second vertical edge image for the second image; And
    제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키고, 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 영상처리부;를 포함하는 스테레오 매칭장치.The first edge pixels included in the first image are matched with the second edge pixels included in the second image with respect to a part or all of the edge pixels included in the first image and a part of the edge pixels included in the first image And a disparity value that is a difference in distance between the first edge pixel and the second edge pixel matched with respect to all of the first edge pixel and the second edge pixel.
  12. 스테레오 매칭장치를 이용하여 차량 주변의 사물을 인식하는 지능형 운전자 보조시스템에 있어서, An intelligent driver assistance system for recognizing objects around a vehicle using a stereo matching device,
    상기 스테레오 매칭장치는, The stereo matching apparatus comprises:
    두개의 카메라로 동시에 촬영된 제1 영상과 제2 영상을 포함하는 스테레오 영상을 촬영하는 카메라부;A camera unit for photographing a stereo image including a first image and a second image simultaneously photographed by two cameras;
    제1 영상에 대한 제1 수평 에지(edge) 이미지와 제1 수직 에지 이미지를 추출하고, 제2 영상에 대한 제2 수평 에지 이미지 및 제2 수직 에지 이미지를 추출하는 에지추출부; 및An edge extraction unit for extracting a first horizontal edge image and a first vertical edge image for the first image and extracting a second horizontal edge image and a second vertical edge image for the second image; And
    제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 제1 영상에 포함된 제1 에지 화소를 제2 영상에 포함된 제2 에지 화소와 매칭시키고, 제1 영상에 포함된 에지 화소들 일부 또는 전부에 대해, 매칭된 제1 에지화소와 제2 에지화소간의 거리차이인 디스패리티(disparity) 값을 산출하는 영상처리부;를 포함하는 것을 특징으로 하는 지능형 운전자 보조 시스템.The first edge pixels included in the first image are matched with the second edge pixels included in the second image with respect to a part or all of the edge pixels included in the first image and a part of the edge pixels included in the first image And a disparity value which is a difference in distance between the first edge pixel and the second edge pixel which are matched with respect to all of the first edge pixel and the second edge pixel.
PCT/KR2018/007496 2017-07-07 2018-07-03 Stereo matching method and apparatus using support point interpolation WO2019009579A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170086334A KR101920159B1 (en) 2017-07-07 2017-07-07 Stereo Matching Method and Device using Support point interpolation
KR10-2017-0086334 2017-07-07

Publications (1)

Publication Number Publication Date
WO2019009579A1 true WO2019009579A1 (en) 2019-01-10

Family

ID=64561969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/007496 WO2019009579A1 (en) 2017-07-07 2018-07-03 Stereo matching method and apparatus using support point interpolation

Country Status (2)

Country Link
KR (1) KR101920159B1 (en)
WO (1) WO2019009579A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115689965A (en) * 2022-12-30 2023-02-03 武汉大学 Whole-scene satellite image deep learning dense matching oriented multi-level parallax fusion method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100762670B1 (en) * 2006-06-07 2007-10-01 삼성전자주식회사 Method and device for generating disparity map from stereo image and stereo matching method and device therefor
JP2009176087A (en) * 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd Vehicle environment recognizing system
KR100943635B1 (en) * 2008-11-06 2010-02-24 삼성에스디에스 주식회사 Method and apparatus for generating disparity map using digital camera image
KR101265021B1 (en) * 2012-02-29 2013-05-24 성균관대학교산학협력단 Creation method and apparatus for high resolution disparity map from fixed or variable frame rate
KR101265020B1 (en) * 2012-02-29 2013-05-24 성균관대학교산학협력단 Creation method and apparatus for high resolution disparity map by the histogram analysis of duplicated territory from the stereo image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100762670B1 (en) * 2006-06-07 2007-10-01 삼성전자주식회사 Method and device for generating disparity map from stereo image and stereo matching method and device therefor
JP2009176087A (en) * 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd Vehicle environment recognizing system
KR100943635B1 (en) * 2008-11-06 2010-02-24 삼성에스디에스 주식회사 Method and apparatus for generating disparity map using digital camera image
KR101265021B1 (en) * 2012-02-29 2013-05-24 성균관대학교산학협력단 Creation method and apparatus for high resolution disparity map from fixed or variable frame rate
KR101265020B1 (en) * 2012-02-29 2013-05-24 성균관대학교산학협력단 Creation method and apparatus for high resolution disparity map by the histogram analysis of duplicated territory from the stereo image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115689965A (en) * 2022-12-30 2023-02-03 武汉大学 Whole-scene satellite image deep learning dense matching oriented multi-level parallax fusion method
CN115689965B (en) * 2022-12-30 2023-03-21 武汉大学 Whole-scene satellite image deep learning dense matching oriented multi-level parallax fusion method

Also Published As

Publication number Publication date
KR101920159B1 (en) 2018-11-19

Similar Documents

Publication Publication Date Title
WO2015005577A1 (en) Camera pose estimation apparatus and method
WO2021085784A1 (en) Learning method of object detection model, and object detection device in which object detection model is executed
WO2020027607A1 (en) Object detection device and control method
WO2013151270A1 (en) Apparatus and method for reconstructing high density three-dimensional image
WO2019164379A1 (en) Method and system for facial recognition
WO2012064010A4 (en) Image conversion apparatus and display apparatus and methods using the same
WO2011087289A2 (en) Method and system for rendering three dimensional views of a scene
WO2019139234A1 (en) Apparatus and method for removing distortion of fisheye lens and omni-directional images
WO2011136407A1 (en) Apparatus and method for image recognition using a stereo camera
WO2012026768A2 (en) Rendering apparatus and method for generating multi-views
WO2021241804A1 (en) Multi-flow-based frame interpolation device and method
WO2020017825A1 (en) Method of combining content from multiple frames and electronic device therefor
WO2019147024A1 (en) Object detection method using two cameras having different focal distances, and apparatus therefor
WO2021101045A1 (en) Electronic apparatus and method for controlling thereof
EP2859727A1 (en) Method and apparatus for estimating image motion using disparity information of a multi-view image
WO2019009579A1 (en) Stereo matching method and apparatus using support point interpolation
EP3066508A1 (en) Method and system for creating a camera refocus effect
WO2021133002A2 (en) Image retargeting method and apparatus for increasing or reducing image ratio
WO2019098421A1 (en) Object reconstruction device using motion information and object reconstruction method using same
JP2023517365A (en) Parking space detection method, device, device and storage medium
WO2018021657A1 (en) Method and apparatus for measuring confidence of deep value through stereo matching
WO2014051309A1 (en) Stereo matching apparatus using image property
WO2017086522A1 (en) Method for synthesizing chroma key image without requiring background screen
WO2023096133A1 (en) Method and device for providing lightweight pose estimation model
WO2016006901A1 (en) Method and apparatus for extracting depth information from image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18828457

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18828457

Country of ref document: EP

Kind code of ref document: A1