KR101142873B1 - Method and system for stereo image creation - Google Patents

Method and system for stereo image creation Download PDF

Info

Publication number
KR101142873B1
KR101142873B1 KR1020100060825A KR20100060825A KR101142873B1 KR 101142873 B1 KR101142873 B1 KR 101142873B1 KR 1020100060825 A KR1020100060825 A KR 1020100060825A KR 20100060825 A KR20100060825 A KR 20100060825A KR 101142873 B1 KR101142873 B1 KR 101142873B1
Authority
KR
South Korea
Prior art keywords
image
cluster
distance
generate
vergence
Prior art date
Application number
KR1020100060825A
Other languages
Korean (ko)
Other versions
KR20120000455A (en
Inventor
손완재
Original Assignee
손완재
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손완재 filed Critical 손완재
Priority to KR1020100060825A priority Critical patent/KR101142873B1/en
Publication of KR20120000455A publication Critical patent/KR20120000455A/en
Application granted granted Critical
Publication of KR101142873B1 publication Critical patent/KR101142873B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

입체 영상 생성 방법 및 장치가 개시된다. 입체 영상 생성 장치는, 피사체를 촬상하여 좌측 영상 및 우측 영상을 생성하는 복수의 카메라; 센서를 구비하며, 센서를 이용하여 피사체와의 거리를 측정하여 거리 정보를 생성하는 거리 측정기; 거리 정보를 이용하여 주시각 제어량을 계산하고, 계산된 주시각 제어량을 이용하여 카메라의 주시각을 제어하는 주시각 제어기; 및 좌측 영상 및 우측 영상을 정해진 스캔 방식으로 비교하여 일치되는 일치 영역을 검출하고, 검출된 일치 영역을 중심으로 좌측 영상 및 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 영상 합성기를 포함한다.Disclosed are a method and apparatus for generating a stereoscopic image. The stereoscopic image generating apparatus includes a plurality of cameras for photographing a subject to generate a left image and a right image; A distance measurer having a sensor and generating distance information by measuring a distance to a subject using the sensor; A vergence controller for calculating a vergence control amount using distance information and controlling a vergence angle of the camera using the calculated vergence control amount; And an image synthesizer for comparing the left image and the right image by a predetermined scan method to detect a matching region, and clipping and combining the left image and the right image based on the detected matching region to generate a stereoscopic image.

Description

입체 영상 생성 방법 및 장치{Method and system for stereo image creation}Method and apparatus for generating stereoscopic images {Method and system for stereo image creation}

본 발명은 영상 처리에 관한 것으로, 보다 상세하게 다시점 입체 영상을 생성할 수 있는 방법 및 장치에 관한 것이다.
The present invention relates to image processing, and more particularly, to a method and an apparatus capable of generating a multiview stereoscopic image.

인간은 수평으로 분리된 두 눈으로 인하여, 망막상에 시차가 발생되며, 이 시차로 인해 두 눈의 상(image)를 대뇌에서 하나로 합성하여 대상물체의 입체를 인지한다.Due to the two eyes separated horizontally, the parallax is generated on the retina. Due to this parallax, images of the two eyes are synthesized into one from the cerebrum to recognize the stereoscopic object.

그러나, 사진, 영상, TV에서 보여지는 이미지는 입체감이 없는 평면적인 이미지인데 이는 양안 중 한눈에 보이는 이미지의 조건을 비디오 카메라나 스틸 카메라를 이용하여 인위적으로 만든 이미지이기 때문이다.However, images shown in photographs, videos, and TV are flat images without a three-dimensional effect because they are artificially created using video cameras or still cameras.

이를 해결하기 위해, 현재 복수의 카메라를 이용하여 대상 물체에 대해 복수의 이미지를 획득한 후 합성하여 입체 영상을 생성하는 방법이 존재하고 있다. 이와 같은 입체 영상 구현 방법들은 피사체와의 거리에 따라 이심도가 발생하게 되어 입체 영상의 효과가 상실되어 이를 보정하기 위해 많은 시간과 비용이 소요되는 문제점이 있다.
In order to solve this problem, a method of generating a stereoscopic image by acquiring a plurality of images of a target object using a plurality of cameras and then combining them is present. Such stereoscopic image implementation methods have a problem in that a depth is generated according to a distance from a subject, so that the effect of the stereoscopic image is lost and a lot of time and cost are required to correct it.

본 발명은 피사체의 원근에 따라 복수의 카메라의 주시각을 제어하여 이중상 발생으로 인한 화질 저하를 방지하고, 피사체의 거리에 무관하게 실시간으로 주시각 제어가 가능하며 입체 영상을 생성하기 위한 시간과 비용을 대폭 절감할 수 있는 입체 영상 생성 방법 및 장치를 제공하기 위한 것이다.The present invention controls the angle of view of a plurality of cameras according to the perspective of the subject to prevent deterioration of image quality due to the occurrence of a double image, it is possible to control the angle of view in real time irrespective of the distance of the subject and time and cost for generating a stereoscopic image It is to provide a method and apparatus for generating a stereoscopic image that can significantly reduce the amount.

또한, 본 발명은 캐스캐이드 방식으로 다시점 입체 영상을 생성하여 입체 영상 생성을 위한 시간 소모를 최소화할 수 있는 입체 영상 생성 방법 및 장치를 제공하기 위한 것이다.
In addition, the present invention is to provide a method and apparatus for generating a stereoscopic image that can minimize the time consumption for generating a stereoscopic image by generating a multi-view stereoscopic image in a cascade method.

본 발명의 일 측면에 따르면, 피사체의 거리에 따라 카메라의 주시각을 제어하여 복수의 영상을 획득한 후 입체 영상으로 합성할 수 있는 장치가 제공된다.According to an aspect of the present invention, there is provided a device capable of synthesizing a stereoscopic image after obtaining a plurality of images by controlling the viewing angle of the camera according to the distance of the subject.

본 발명의 일 실시예에 따르면, 피사체를 촬상하여 좌측 영상 및 우측 영상을 생성하는 복수의 카메라; 센서를 구비하며, 상기 센서를 이용하여 상기 피사체와의 거리를 측정하여 거리 정보를 생성하는 거리 측정기; 상기 거리 정보를 이용하여 주시각 제어량을 계산하고, 상기 계산된 주시각 제어량을 이용하여 상기 카메라의 주시각을 제어하는 주시각 제어기; 및 상기 좌측 영상 및 상기 우측 영상을 정해진 스캔 방식으로 비교하여 일치되는 일치 영역을 검출하고, 상기 검출된 일치 영역을 중심으로 상기 좌측 영상 및 상기 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 영상 합성기를 포함하는 입체 영상 생성 장치가 제공될 수 있다.According to an embodiment of the present invention, a plurality of cameras for photographing a subject to generate a left image and a right image; A distance measurer having a sensor and generating distance information by measuring a distance to the subject using the sensor; A vergence controller for calculating a vergence control amount using the distance information and controlling the vergence of the camera using the calculated vergence control amount; And an image synthesizer configured to compare the left image and the right image by a predetermined scan method to detect a matching region, and to clip and synthesize the left image and the right image based on the detected matching region to generate a stereoscopic image. An apparatus for generating a stereoscopic image may be provided.

상기 영상 합성기는, 상기 좌측 영상 및 상기 우측 영상을 각각 영상 처리하여 에지를 추출하여 좌측 에지 영상 및 우측 에지 영상을 생성하고, 상기 좌측 에지 영상 및 상기 우측 에지 영상을 정해진 스캔 방식으로 비교하여 상기 일치 영역에 대한 오프셋 정보를 생성하는 영상 컨버전스부; 및 상기 생성된 오프셋 정보를 이용하여 상기 좌측 영상 및 상기 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 영상 합성부를 포함할 수 있다.The image synthesizer performs image processing on the left image and the right image, respectively, extracts an edge to generate a left edge image and a right edge image, compares the left edge image and the right edge image by a predetermined scan method, and matches the same. An image convergence unit generating offset information about an area; And an image synthesizer configured to generate a stereoscopic image by clipping and combining the left image and the right image using the generated offset information.

상기 영상 합성기는, 상기 좌측 영상 및 상기 우측 영상을 흑백 영상으로 변환하는 영상 변환부를 더 포함하되, 상기 영상 컨버전스부는 상기 흑백 영상으로 변환된 좌측 영상 및 우측 영상을 이용하여 오프셋 정보를 생성할 수 있다.The image synthesizer may further include an image converter configured to convert the left image and the right image into a black and white image, wherein the image convergence unit may generate offset information using the left image and the right image converted to the black and white image. .

상기 영상 컨버전스부는 이전 프레임의 일치 영역을 중심으로 상기 좌측 에지 영상 및 상기 우측 에지 영상을 정해진 스캔 방식으로 비교하여 일치 영역을 검출할 수 있다.The image convergence unit may detect the match region by comparing the left edge image and the right edge image based on the match region of the previous frame by a predetermined scan method.

상기 스캔 방식은 나선형 스캔(spiral scan), 방사형 스캔 및 좌측 픽셀 또는 우측 픽셀의 단조 증감 스캔 중 어느 하나일 수 있다.The scan method may be any one of a spiral scan, a radial scan, and a monotonous increase or decrease scan of a left pixel or a right pixel.

상기 영상 컨버전스부는 상기 좌측 에지 영상 및 상기 우측 에지 영상을 복수의 영역으로 구분하고, 구분된 각각의 영역을 상기 스캔 방식으로 동시에 비교하여 일치 영역을 검출할 수 있다.The image convergence unit may classify the left edge image and the right edge image into a plurality of regions, and simultaneously compare the divided regions by the scan method to detect a matching region.

상기 오프셋 정보는 상기 우측 에지 영상 대비 상기 좌측 에지 영상에서 상기 일치 영역이 이동된 거리에 대한 정보이다.The offset information is information about a distance that the matching area is moved in the left edge image compared to the right edge image.

상기 주시각 제어기는 상기 복수의 카메라간의 거리를 저장하며, 상기 주시각 제어량은 상기 복수의 카메라간의 거리를 더 이용하여 계산되며, 상기 주시각 제어량은 상기 복수의 카메라간의 거리 및 상기 거리 정보를 제2 코사인 법칙 또는 아크탄젠트 함수에 적용하여 계산될 수 있다.
The vergence controller stores distances between the plurality of cameras, and the vergence control amount is further calculated by using the distances between the plurality of cameras, and the vergence control amount is used to determine the distance between the plurality of cameras and the distance information. 2 can be calculated by applying the cosine law or the arctangent function.

본 발명의 다른 실시예에 따르면, 다시점 입체 영상을 생성하는 입체 영상 생성 장치에 있어서, 피사체를 촬상하여 각 시점 영상을 생성하여 각각 출력하는 N(임의의 자연수)개의 카메라; 상기 피사체와의 거리를 측정하기 위한 센서를 구비하고, 상기 센서를 이용하여 상기 피사체와의 거리를 측정하여 거리 정보를 생성하는 거리 측정기; 상기 거리 정보를 이용하여 주시각 제어량을 도출하고, 상기 도출된 주시각 제어량을 이용하여 상기 N개의 카메라의 주시각을 각각 제어하는 주시각 제어기; 상기 N개의 카메라를 통해 입력된 N 시점 영상을 m개씩 k개 클러스터로 구분하는 클러스터부; 동일한 클러스터내의 각 시점 영상을 비교하여 일치하는 일치 영역을 검출하고, 검출된 일치 영역에 대한 클러스터 오프셋 정보를 생성하는 k개의 클러스터 컨버전스부; 인접한 클러스터간 이전 클러스터의 마지막 시점 영상과 다음 클러스터의 최초 시점 영상을 비교하여 일치하는 일치 영역을 검출하고, 상기 검출된 일치 영역에 대한 클러스터간 오프셋 정보를 생성하는 클러스터간 컨버전스부; 및 k개의 클러스터 오프셋 정보와 상기 클러스터간 오프셋 정보를 이용하여 상기 N 시점 영상을 클리핑하고 합성하여 다시점 입체 영상을 생성하는 영상 합성부를 포함하는 입체 영상 생성 장치가 제공될 수 있다.According to another embodiment of the present invention, a stereoscopic image generating apparatus for generating a multiview stereoscopic image, comprising: N (random natural numbers) cameras for photographing a subject to generate and output each viewpoint image; A distance measurer having a sensor for measuring a distance to the subject, and generating distance information by measuring a distance to the subject using the sensor; A vergence controller for deriving a vergence control amount using the distance information and controlling the vergence angles of the N cameras using the derived vergence control amount; A cluster unit for dividing the N viewpoint images input through the N cameras into m clusters of m pieces; K cluster convergence units for comparing matching viewpoint images in the same cluster to detect a matching region and generating cluster offset information for the detected matching region; An inter-cluster convergence unit configured to compare the last viewpoint image of the previous cluster and the first viewpoint image of the next cluster between adjacent clusters, detect a matching region, and generate inter-cluster offset information on the detected matching region; And an image synthesizer configured to generate a multiview stereoscopic image by clipping and synthesizing the N-view image using k cluster offset information and the inter-cluster offset information.

상기 클러스터 컨버전스부 및 상기 클러스터간 컨버전스부는, 상기 일치 영역을 검출하기 위해, 각각의 영상을 흑백 영상으로 변환하는 영상 변환부; 및 상기 흑백 영상으로 변환된 각 영상에서 에지를 검출하여 에지 영상을 각각 생성하고, 각 에지 영상을 비교하여 일치 영역에 대한 오프셋 정보를 생성하는 영상 컨버전스부를 포함할 수 있다.The cluster convergence unit and the inter-cluster convergence unit may include an image converter configured to convert each image into a black and white image to detect the matched region; And an image convergence unit configured to generate edge images by detecting edges in each image converted into the black and white image, and generate offset information for a matching area by comparing each edge image.

상기 클러스터 컨버전스부 및 상기 클러스터간 컨버전스부는, 각 영상을 두개씩 순차적으로 비교하여 오프셋 정보를 생성할 수 있다.
The cluster convergence unit and the inter-cluster convergence unit may generate offset information by sequentially comparing two images.

본 발명의 다른 측면에 따르면, 피사체의 거리에 따라 카메라의 주시각을 제어하여 복수의 영상을 획득한 후 입체 영상으로 합성할 수 있는 방법이 제공된다.According to another aspect of the present invention, there is provided a method of synthesizing a stereoscopic image after obtaining a plurality of images by controlling the viewing angle of the camera according to the distance of the subject.

본 발명의 실시예에 따르면, (a) 피사체와의 거리를 측정하여 거리 정보를 생성하는 단계; (b) 상기 거리 정보를 이용하여 주시각 제어량을 계산하고, 상기 계산된 주시각 제어량을 이용하여 구비된 복수의 카메라의 주시각을 제어하는 단계; (c) 상기 주시각이 제어된 복수의 카메라를 이용하여 피사체를 촬상하여 좌측 영상 및 우측 영상을 각각 생성하는 단계; 및 (d) 상기 좌측 영상 및 상기 우측 영상을 비교하여 일치 영역을 검출하고, 검출된 일치 영역을 중심으로 상기 좌측 영상 및 상기 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 단계를 포함하는 입체 영상 생성 장치에서의 입체 영상 생성 방법이 제공될 수 있다.According to an embodiment of the present invention, (a) measuring the distance to the subject to generate distance information; (b) calculating a vergence control amount using the distance information, and controlling the vergence angles of the plurality of cameras provided using the calculated vergence control amount; (c) photographing a subject using a plurality of cameras having controlled viewing angles to generate left and right images, respectively; And (d) comparing the left image and the right image to detect a matched region, and generating a stereoscopic image by clipping and combining the left and right images around the detected matched region. A stereoscopic image generating method in a generating device may be provided.

상기 (d) 단계는, 상기 좌측 영상 및 상기 우측 영상을 흑백 영상으로 변환하는 단계; 상기 흑백 영상으로 변환된 상기 좌측 영상 및 상기 우측 영상에서 각각 에지를 검출하여 좌측 에지 영상 및 우측 에지 영상을 생성하는 단계; 상기 좌측 에지 영상 및 상기 우측 에지 영상을 정해진 스캔 방식으로 비교하여 일치되는 일치 영역을 검출하고, 상기 검출된 일치 영역에 대한 오프셋 정보를 생성하는 단계; 및 상기 오프셋 정보를 이용하여 상기 좌측 영상 및 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 단계를 포함할 수 있다.The step (d) may include converting the left image and the right image into a black and white image; Generating a left edge image and a right edge image by detecting edges in the left image and the right image converted into the black and white image; Comparing the left edge image and the right edge image by a predetermined scan method to detect a matching region and generate offset information on the detected matching region; And generating a stereoscopic image by clipping and synthesizing the left and right images using the offset information.

상기 일치되는 일치 영역을 검출하는 단계는, 이전 프레임의 오프셋 정보가 존재하면, 상기 이전 프레임의 오프셋 정보에 상응하는 영역부터 상기 좌측 에지 영상 및 상기 우측 에지 영상을 상기 스캔 방식으로 비교하여 일치 영역에 상응하는 현재 프레임에 대한 오프셋 정보를 생성할 수 있다.The detecting of the matched region may include comparing the left edge image and the right edge image from the region corresponding to the offset information of the previous frame by the scanning method, if the offset information of the previous frame exists. Offset information for the corresponding current frame may be generated.

상기 (d) 단계에서, 상기 일치 영역을 검출하는 것은, 상기 좌측 에지 영상 및 상기 우측 에지 영상을 복수의 영역으로 각각 구분하고, 구분된 각각의 영역을 동시에 상기 스캔 방식으로 비교하여 상기 일치 영역을 검출할 수 있다.
In the step (d), the detecting of the matching area may include classifying the left edge image and the right edge image into a plurality of areas, and comparing the divided areas by the scanning method simultaneously. Can be detected.

본 발명의 실시예에 따른 입체 영상 생성 방법 및 장치를 제공함으로써, 피사체의 원근에 따라 복수의 카메라의 주시각을 제어하여 이중상 발생으로 인한 화질 저하를 방지하여 다시점 입체 영상을 생성할 수 있다.By providing a method and apparatus for generating a stereoscopic image according to an exemplary embodiment of the present invention, multi-view stereoscopic images can be generated by controlling the viewing angles of a plurality of cameras according to the perspective of a subject to prevent deterioration of image quality due to the occurrence of a double image.

이와 같이, 피사체의 원근에 따라 기구적으로 주시각을 조정함으로써 디지털 영상 비교 영역을 대폭 축소하고, 복수의 카메라의 영상 중첩율을 높여 클리핑에 따른 손실을 줄임으로써 고속으로 주시각 제어가 가능하고 상대적으로 적은 화소의 촬상 장치로 고화질의 입체 영상을 구현할 수 있다.In this way, by adjusting the viewing angle mechanically according to the subject's perspective, it is possible to control the viewing angle at a high speed by greatly reducing the digital image comparison area and reducing the loss due to clipping by increasing the image overlap ratio of a plurality of cameras. As a result, a high-quality stereoscopic image may be realized by an imaging device having fewer pixels.

또한, 본 발명은 캐스캐이드 방식으로 다시점 입체 영상을 생성하여 카메라 수보다 적은 수의 주시각 제어기로 다시점 입체 영상의 생성이 가능하여 다중이 시청하는 무안경식 다시점 입체 영상 생성을 위한 시간 소모를 최소화할 수 있다.
In addition, the present invention can generate a multi-view three-dimensional image by using a cascade method to generate a multi-view three-dimensional image with a less than the number of cameras of the controller, the time for generating multi-view multi-view stereoscopic image The consumption can be minimized.

도 1은 양안 시점에 따른 입체 영상을 생성하는 입체 영상 생성 장치의 구성을 개략적으로 도시한 블록도.
도 2는 영상 스캔 방식을 설명하기 위해 도시한 도면.
도 3은 입체 영상 생성 장치가 좌측 영상 및 우측 영상을 합성하여 입체 영상을 생성하는 방법을 나타낸 순서도.
도 4는 다시점 입체 영상을 생성하는 입체 영상 생성 장치의 내부 구성을 개략적으로 도시한 블록도.
도 5는 도 4의 입체 영상 생성 장치의 일부 구성을 상세히 도시한 블록도.
1 is a block diagram schematically illustrating a configuration of a stereoscopic image generating apparatus for generating a stereoscopic image according to a binocular viewpoint.
2 is a diagram illustrating an image scanning method.
3 is a flowchart illustrating a method in which a stereoscopic image generating apparatus synthesizes a left image and a right image to generate a stereoscopic image.
4 is a block diagram schematically illustrating an internal configuration of a stereoscopic image generating apparatus for generating a multiview stereoscopic image.
FIG. 5 is a detailed block diagram illustrating some components of the stereoscopic image generating apparatus of FIG. 4. FIG.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[도 1 - 도 2 설명] 1-FIG. 2 Description

도 1은 양안 시점에 따른 입체 영상을 생성하는 입체 영상 생성 장치의 구성을 개략적으로 도시한 블록도이고, 도 2는 영상 스캔 방식을 설명하기 위해 도시한 도면이다.FIG. 1 is a block diagram schematically illustrating a configuration of a stereoscopic image generating apparatus for generating a stereoscopic image according to a binocular viewpoint, and FIG. 2 is a diagram illustrating an image scanning method.

도 1을 참조하면, 입체 영상 생성 장치는 복수의 카메라(110), 거리 측정기(120), 주시각 제어기(130) 및 영상 처리기(140)를 포함하여 구성된다. Referring to FIG. 1, an apparatus for generating a stereoscopic image includes a plurality of cameras 110, a distance measurer 120, a vergence controller 130, and an image processor 140.

제1 카메라와 제2 카메라는 일정 거리 이격되어 위치하고 있으며, 입체 영상 생성 장치의 제어에 따라 피사체를 촬상하여 제1 영상과 제2 영상을 각각 생성하여 출력한다. 이하, 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 제1 카메라를 통해 생성된 제1 영상을 좌측 영상이라 통칭하기로 하며, 제2 카메라를 통해 생성된 제2 영상을 우측 영상이라 통칭하여 설명하기로 한다.The first camera and the second camera are spaced apart from each other by a predetermined distance, and under the control of the stereoscopic image generating apparatus, photograph the subject to generate and output the first and second images, respectively. Hereinafter, in the present specification, for convenience of understanding and explanation, the first image generated through the first camera will be referred to as a left image, and the second image generated through the second camera will be referred to as a right image. Let's do it.

또한, 입체 영상 생성 장치는 제1 카메라와 제2 카메라가 이격되어 배치된 위치 또는 제1 카메라와 제2 카메라 사이의 이격 거리가 사전에 저장되어 있을 수 있다.In the stereoscopic image generating apparatus, a position where the first camera and the second camera are spaced apart or a separation distance between the first camera and the second camera may be stored in advance.

거리 측정기(120)는 제1 카메라와 제2 카메라 사이에 위치되고, 센서를 구비하며, 해당 센서를 이용하여 제1 카메라와 제2 카메라가 촬상하고자 하는 피사체와의 거리를 측정하여 거리 정보를 생성하여 주시각 제어기(130)로 출력하는 기능을 수행한다.The distance measurer 120 is positioned between the first camera and the second camera, has a sensor, and generates distance information by measuring a distance between a first camera and a second camera to be captured by using the sensor. To output to the gaze controller 130.

예를 들어, 거리 측정기(120)는 제1 카메라와 제2 카메라가 이격된 일직선상의 정중앙에 위치될 수 있다. 또한, 거리 측정기(120)는 적외선 센서, 초음파 센서, 레이저 센서 중 어느 하나를 구비할 수 있다. 각 센서를 이용하여 피사체와의 거리를 측정하는 방법은 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다. 또한, 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 거리 측정기(120)에 의해 구비된 센서를 명시하였으나 명시된 센서 이외에도 피사체와의 거리를 측정할 수 있는 장치이면 모두 동일하게 적용될 수 있음은 당연하다.For example, the range finder 120 may be located at the center of a straight line where the first camera and the second camera are spaced apart from each other. In addition, the distance measurer 120 may include any one of an infrared sensor, an ultrasonic sensor, and a laser sensor. Since the method for measuring the distance to the subject using each sensor is obvious to those skilled in the art, a separate description thereof will be omitted. In addition, in the present specification, the sensor provided by the distance measurer 120 is specified for the purpose of convenience of understanding and explanation. Of course, in addition to the specified sensor, any device capable of measuring the distance to the subject may be applied in the same manner. .

주시각 제어기(130)는 거리 측정기(120)를 통해 입력된 거리 정보를 이용하여 주시각 제어량을 도출하고, 도출된 주시각 제어량에 상응하여 제1 카메라와 제2 카메라의 주시각을 제어하여 고정하는 기능을 수행한다.The vergence controller 130 derives the vergence control amount by using the distance information input through the distance measurer 120, and controls and fixes the vergence angles of the first camera and the second camera according to the derived vergence control amount. It performs the function.

예를 들어, 주시각 제어기(130)는 제1 카메라와 제2 카메라가 이격된 거리(이해와 설명의 편의를 위하여 카메라 이격 거리라 칭하기로 함)와 거리 측정기(120)를 통해 입력된 거리 정보(즉, 피사체와의 거리 정보)를 이용하여 제1 카메라와 제2 카메라의 주시각 제어량을 도출할 수 있다. 주시각 제어기(130)는 카메라 이격 거리와 거리 정보를 삼각 함수(예를 들어, 제2 코사인 법칙, 아크탄젠트 등)에 적용하여 주시각 제어량을 도출할 수 있다. 이는 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.For example, the gaze controller 130 may include a distance between the first camera and the second camera (referred to as a camera separation distance for convenience of explanation and description) and distance information input through the distance measurer 120. The vergence control amount of the first camera and the second camera may be derived using the distance information with respect to the subject. The vergence controller 130 may derive the vergence control amount by applying the camera separation distance and the distance information to a trigonometric function (eg, the second cosine law, the arc tangent, etc.). Since this is obvious to those skilled in the art, a separate description thereof will be omitted.

주시각 제어기(130)에 의해 제1 카메라와 제2 카메라의 주시각이 제어되어 고정된 후 제1 카메라 및 제2 카메라는 입체 영상 생성 장치의 제어에 따라 피사체를 촬상하여 좌측 영상 및 우측 영상을 각각 생성하여 영상 처리기(140)로 출력한다.After the viewing angles of the first camera and the second camera are controlled and fixed by the viewing angle controller 130, the first camera and the second camera capture the subject under the control of the stereoscopic image generating apparatus to obtain the left and right images. Each of them is generated and output to the image processor 140.

영상 처리기(140)는 제1 카메라 및 제2 카메라를 통해 입력된 좌측 영상 및 우측 영상을 분석하여 좌측 영상 및 우측 영상 내의 객체가 일치하는 일치 영역을 검출하고, 검출된 일치 영역에 상응하도록 좌측 영상 및 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 기능을 수행한다.The image processor 140 analyzes the left and right images inputted through the first camera and the second camera, detects a matching region where the objects in the left image and the right image match, and matches the detected left region with the left image. And generating a stereoscopic image by clipping and synthesizing the right image.

보다 상세하게, 영상 처리기(140)는 도 1에 도시된 바와 같이, 영상 변환부(142), 영상 컨버전스부(144) 및 영상 합성부(146)를 포함하여 구성된다.In more detail, as illustrated in FIG. 1, the image processor 140 includes an image converter 142, an image convergence unit 144, and an image synthesizer 146.

영상 변환부(142)는 제1 카메라 및 제2 카메라를 통해 입력된 좌측 영상 및 우측 영상을 이미지 처리하여 에지를 각각 검출하고, 검출된 에지에 상응하는 각각의 에지 영상을 출력하는 기능을 수행한다. 이하 본 명세서에서, 영상 변환부(142)에서 좌측 영상에 상응하여 출력되는 에지 영상을 좌측 에지 영상이라 칭하고, 우측 영상에 상응하여 출력되는 에지 영상을 우측 에지 영상이라 통칭하여 설명하기로 한다. 영상 변환부(142)는 좌측 영상 및 우측 영상에 대해 에지를 검출하기 전에, 이미지 처리의 효율을 높이기 위해 좌측 영상 및 우측 영상을 흑백 영상을 변환한 후 변환된 각각의 흑백 영상에 대해 이미지 처리를 통해 에지를 검출할 수 있다. 영상 변환부(142)는 소벨 마스크, 프리윗 마스크, 로버츠 마스크, 라플라시안, 캐니 알고리즘 등을 이용하여 좌측 영상 및 우측 영상에 대한 각각의 에지를 검출할 수 있다. 영상 변환부(142)에 의해 에지 검출을 위해 이용되는 에지 검출 알고리즘은 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다. 이외에도 에지를 검출할 수 있는 방법(예를 들어, 1차 미분을 이용한 방식 등)은 모두 동일하게 적용될 수 있음은 당연하다.The image converter 142 performs a function of detecting edges by outputting left and right images input through the first camera and the second camera, and outputting respective edge images corresponding to the detected edges. . Hereinafter, the edge image output from the image converter 142 corresponding to the left image will be referred to as a left edge image, and the edge image output from the right image will be referred to collectively as a right edge image. Before detecting edges of the left and right images, the image converter 142 converts the left and right images to black and white images and then performs image processing on each of the converted black and white images. Edges can be detected. The image converter 142 may detect respective edges of the left image and the right image using a Sobel mask, a Preit mask, a Roberts mask, a Laplacian, a Canny algorithm, and the like. Since the edge detection algorithm used for edge detection by the image converter 142 is obvious to those skilled in the art, a separate description thereof will be omitted. In addition, it is a matter of course that the method of detecting the edge (for example, the method using the first derivative) can be applied in the same manner.

영상 컨버전스부(144)는 영상 변환부(142)를 통해 입력된 좌측 에지 영상 및 우측 에지 영상을 이용하여 좌측 에지 영상 및 우측 에지 영상의 객체가 일치하는 일치 영역(또는 합치점)을 검출하고, 검출된 일치 영역에 대한 오프셋 정보를 생성하여 영상 합성부(146)로 출력한다.The image convergence unit 144 detects a matching area (or coincidence point) where the objects of the left edge image and the right edge image match by using the left edge image and the right edge image input through the image converter 142. The offset information of the matched region is generated and output to the image synthesizer 146.

예를 들어, 영상 컨버전스부(144)는 우측 에지 영상을 소스 영상으로 설정하고, 좌측 에지 영상을 타겟 영상으로 설정한 후 미리 설정된 크기의 블록 단위로 타겟 영상과 소스 영상을 비교하여 에지가 일치되는 일치 영역을 검출한다. 이어, 영상 컨버전스부(114)는 검출된 일치 영역에 대한 오프셋 정보를 생성할 수 있다. 여기서, 오프셋 정보는 소스 영상 대비 타겟 영상에서 일치 영역이 이동된 거리, 이동된 픽셀 또는 좌표 정보일 수도 있다.For example, the image convergence unit 144 sets the right edge image as the source image, sets the left edge image as the target image, and compares the target image and the source image in units of blocks of a preset size to match the edges. Detect coincidence region. Subsequently, the image convergence unit 114 may generate offset information about the detected match region. In this case, the offset information may be information on a distance, a moved pixel, or coordinate information of a matched area in the target image compared to the source image.

또한, 영상 컨버전스부(114)는 소스 영상과 타겟 영상의 일치 영역을 검출하기 위해 블록 단위로 소스 영상과 타겟 영상을 비교할 수도 있으나, 1 비트 플랜 단위로 비교할 수도 있다.In addition, the image convergence unit 114 may compare the source image and the target image in units of blocks in order to detect a matching area between the source image and the target image, or may compare them in units of 1 bit plan.

도 2는 영상 컨버전스부(114)에서 소스 영상과 타겟 영상을 비교하는 방식을 설명하기 위해 도시한 도면이다. 이하, 이해와 설명의 편의를 도모하기 위해 도 2를 참조하여 영상 컨버전스부(114)에서 소스 영상과 타겟 영상을 비교하는 방식에 대해 간략하게 설명하기로 한다.FIG. 2 is a diagram illustrating a method of comparing a source image and a target image by the image convergence unit 114. Hereinafter, a method of comparing the source image and the target image in the image convergence unit 114 will be briefly described with reference to FIG. 2 for convenience of understanding and description.

영상 컨버전스부(114)는 소스 영상 및 타겟 영상의 전체 영역에 대해 지그재그 스캔 방식으로 영상을 비교할 수 있다. 그러나, 이와 같이 전체 영역에 대해 소스 영상 및 타겟 영상을 비교하는 경우, 일치 영역을 검출하는데 많은 시간이 소요되는 단점이 있다. The image convergence unit 114 may compare the images in the zigzag scan method with respect to the entire area of the source image and the target image. However, when comparing the source image and the target image with respect to the entire area as described above, it takes a long time to detect the matching area.

이에 따라, 영상 컨버전스부(114)는 도 2의 (a)에 도시된 바와 같이, 소스 영상을 타겟 영상 일부 영역과 비교하여 일치 영역을 검출할 수 있다. 이는 주시각 제어기(130)를 통해 제1 카메라와 제2 카메라의 주시각이 기계광학적으로 제어되어, 피사체와의 거리에 따라 좌측 영상 및 우측 영상의 양안 시차(disparity)가 작아지도록 조절하였기에 가능하다. Accordingly, as illustrated in FIG. 2A, the image convergence unit 114 may detect the matched region by comparing the source image with a portion of the target image. This is because the viewing angles of the first camera and the second camera are mechanically controlled by the viewing controller 130 so that binocular disparity of the left image and the right image is reduced according to the distance from the subject. .

기본적으로 좌측 영상 및 우측 영상에서의 중첩 영역은 입체 영상의 해상도와 관련이 있다. 기계광학적으로 주시각이 제어되지 않는 경우, 피사체의 거리가 가까운 근접 영상에서는 중첩 영역이 극단적으로 작아지게 된다. 반면, 기계광학적 주시각이 제어되는 경우, 기계광학적으로 제1 카메라와 제2 카메라의 주시각이 어느 정도 일치된 상태이므로, 근접 영역에서 중첩 영역이 확대되게 된다. 이에 따라 좌측 영상과 우측 영상을 비교하는 영역이 기계광학적 주시각이 제어되지 않는 경우보다 상대적으로 작아지더라도 충분히 정확한 주시각 제어가 가능하게 된다.본 발명의 실시예와 같이, 기계광학적 주시각 제어를 통해 러프하게 제1 카메라와 제2 카메라의 주시각을 제어한 후 영상 합치에 의해 최종적으로 주시각을 제어하는 경우, 소스 영상과 타겟 영상을 비교하는 영역내에 특이점이 존재하지 않으면, 정확하게 주시각을 제어할 수 없는 문제점이 있다. 이에 따라, 영상 컨버전스부(114)는 소스 영상에서 특이점을 찾는 경우에는 유효 해상도의 10 내지 20% 범위에서 특이점을 찾게 하고, 타겟 영상에서는 소스 영상의 화면 중심과 특이점과의 오프셋을 반영하여 유효 해상도의 5 내지 10% 범위내에서 검색하도록 할 수 있다. 결과적으로, 영상 컨버전스부(114)는 전체 영상의 X 및 Y 평면의 5 내지 10%의 유효면에 대해서만 검색하도록 하여 전체적으로 약 100배 이상 검색 효율을 높일 수 있다.Basically, the overlapping region in the left image and the right image is related to the resolution of the stereoscopic image. If the viewing angle is not controlled optically, the overlapping region becomes extremely small in a close-up image in which the distance of the subject is close. On the other hand, when the mechano-optic viewing angle is controlled, the overlapping area is enlarged in the proximal region because the mesoscopic angles of the first camera and the second camera coincide with each other. Accordingly, even if the area comparing the left image and the right image is relatively smaller than the case where the mechanical optical viewing angle is not controlled, sufficiently accurate viewing angle control is possible. As in the embodiment of the present invention, the mechanical optical viewing control When the viewing angles of the first camera and the second camera are roughly controlled through and finally the viewing angle is controlled by image matching, if there is no singularity in the area comparing the source image and the target image, There is a problem that can not be controlled. Accordingly, when the singularity is found in the source image, the image convergence unit 114 searches for the singularity in the range of 10 to 20% of the effective resolution, and in the target image, the effective resolution is reflected by reflecting the offset of the screen center and the singularity of the source image. Search within 5-10% of the range. As a result, the image convergence unit 114 may search only about 5 to 10% effective planes of the X and Y planes of the entire image, thereby increasing the search efficiency by about 100 times or more.

다른 예를 들어, 주시각 제어기(130)를 통해 제1 카메라와 제2 카메라의 주시각을 제어한 경우, 일반적으로 좌측 영상 및 우측 영상의 일치 영역은 중심 영역 부근에 위치되는 경우가 일반적이다. 이에 따라, 영상 컨버전스부(114)는 도 2의 (b)에 도시된 바와 같이, 소스 영상을 타겟 영상 중심 영역부터 나선형 스캔 방식(spiral scan)으로 비교하여 일치 영역을 검출할 수 있다.For another example, when the viewing angles of the first camera and the second camera are controlled through the viewing controller 130, generally, a matching area of the left image and the right image is generally located near the center region. Accordingly, as shown in FIG. 2B, the image convergence unit 114 may compare the source image from the target image center region by a spiral scan to detect a matching region.

또 다른 예를 들어, 이전 프레임의 일치 영역이 저장된 경우, 영상 컨버전스부(114)는 이전 프레임의 일치 영역부터 소스 영상을 타겟 영상과 비교하여 현재 프레임의 일치 영역을 검출할 수도 있다. 이와 같이 이전 프레임의 일치 영역을 이용하는 경우, 현재 프레임의 일치 영역을 검출하는데 소요되는 시간을 줄일 수 있는 장점이 있다.For another example, when the match region of the previous frame is stored, the image convergence unit 114 may detect the match region of the current frame by comparing the source image with the target image from the match region of the previous frame. As described above, when using the matching area of the previous frame, the time required to detect the matching area of the current frame can be reduced.

도 2의 (b)에서는 영상 컨버전스부(114)가 나선형 스캔 방식으로 소스 영상과 타겟 영상을 비교하는 것에 대해 설명하였으나, 나선형 스캔 방식이 아니라 소스 영상을 타겟 영상의 중심 영역부터 방사형으로 비교하거나 픽셀 플랜의 단조 증감을 통해 비교할 수도 있다.In FIG. 2 (b), the image convergence unit 114 compares the source image and the target image by the spiral scan method, but compares the source image radially from the center area of the target image or the pixel instead of the spiral scan method. Comparisons can also be made through monotonic changes in the plan.

다른 예를 들어, 도 2의 (c)에 도시된 바와 같이, 영상 컨버전스부(114)는 타겟 영상을 복수의 영역으로 구분한 후 구분된 복수의 영역을 동시에 나선형 스캔 방식으로 다중 비교하여 소스 영상과의 일치 영역을 검출할 수도 있다. 이와 같이, 복수의 영역을 동시에 다중 비교하는 방식은 일치 영역을 도출하기 위한 시간을 최소화할 수 있는 이점이 있다.For another example, as shown in FIG. 2C, the image convergence unit 114 divides the target image into a plurality of regions, and then compares the plurality of divided regions by a helical scan method to simultaneously compare the source images. The coincidence region with may be detected. As described above, a method of simultaneously comparing multiple areas with each other has an advantage of minimizing time for deriving a matching area.

다시, 도 1을 참조하여 영상 합성부(142)는 영상 컨버전스부(144)를 통해 입력된 오프셋 정보를 이용하여 좌측 영상과 우측 영상을 클리핑하고 합성하여 입체 영상을 생성한다. 이와 같이, 생성된 입체 영상은 영상 합성부(146)에 의해 영상 출력 장치(미도시)로 출력될 수 있다.Again, referring to FIG. 1, the image synthesizing unit 142 generates a stereoscopic image by clipping and synthesizing the left image and the right image using the offset information input through the image converging unit 144. As such, the generated stereoscopic image may be output by the image synthesizing unit 146 to an image output device (not shown).

예를 들어, 영상 합성부(146)는 입력된 오프셋 정보를 이용하여 좌측 영상 및 우측 영상을 클리핑(clipping)할 수 있다. 이어, 영상 합성부(146)는 클리핑된 좌측 영상과 우측 영상을 합성하여 입체 영상을 생성할 수 있다.
For example, the image synthesizing unit 146 may clip the left image and the right image using the input offset information. Subsequently, the image synthesizer 146 may generate a stereoscopic image by combining the clipped left image and the right image.

[도 3 설명][Description of Fig. 3]

도 3은 입체 영상 생성 장치가 좌측 영상 및 우측 영상을 합성하여 입체 영상을 생성하는 방법을 나타낸 순서도이다.3 is a flowchart illustrating a method of generating a stereoscopic image by synthesizing a left image and a right image by the stereoscopic image generating apparatus.

이하에서 설명되는 각각의 단계는 입체 영상 생성 장치의 각각의 내부 구성 요소에 의해 수행되어지나 이해와 설명의 편의를 도모하기 위해 입체 영상 생성 장치로 통칭하여 설명하기로 한다. Each step described below is performed by each internal component of the stereoscopic image generating apparatus, but will be collectively described as a stereoscopic image generating apparatus for the convenience of understanding and explanation.

단계 310에서 입체 영상 생성 장치는 피사체와의 거리를 측정하여 거리 정보를 생성한다. 입체 영상 생성 장치가 거리 정보를 생성하는 방법은 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.In operation 310, the stereoscopic image generating apparatus measures distance to the subject to generate distance information. Since the method of generating the distance information by the 3D image generating apparatus is the same as described above, overlapping description will be omitted.

단계 315에서 입체 영상 생성 장치는 거리 정보를 이용하여 주시각 제어량을 도출한다. 예를 들어, 입체 영상 생성 장치는 거리 정보 및 구비된 복수의 카메라의 카메라 이격 거리를 삼각 함수에 적용하여 주시각 제어량을 도출할 수 있다.In operation 315, the 3D image generating apparatus derives a vergence control amount using distance information. For example, the stereoscopic image generating apparatus may derive a vergence control amount by applying distance information and camera separation distances of a plurality of cameras to a trigonometric function.

단계 320에서 입체 영상 생성 장치는 도출된 주시각 제어량을 이용하여 각각의 카메라의 주시각을 제어하여 고정한다.In operation 320, the stereoscopic image generating apparatus controls and fixes the viewing angle of each camera by using the derived viewing angle control amount.

단계 325에서 입체 영상 생성 장치는 각각의 카메라를 제어하여 피사체를 촬상하여 좌측 영상 및 우측 영상을 생성(또는 획득)한다.In operation 325, the stereoscopic image generating apparatus controls each camera to capture (or acquire) a left image and a right image by capturing a subject.

단계 330에서 입체 영상 생성 장치는 생성된 좌측 영상 및 우측 영상을 이미지 처리하여 각각의 영상에 대한 에지를 각각 검출하여 좌측 에지 영상 및 우측 에지 영상을 생성한다. 이때, 입체 영상 생성 장치는 좌측 영상 및 우측 영상에서 에지를 검출하기 이전에 좌측 영상 및 우측 영상을 각각 흑백 영상으로 변환하여 이미지 처리의 효율을 높일 수 있다.In operation 330, the 3D image generating apparatus processes the generated left image and the right image to detect edges of the respective images to generate a left edge image and a right edge image. In this case, the 3D image generating apparatus may increase the efficiency of image processing by converting the left image and the right image into black and white images before detecting edges in the left image and the right image, respectively.

단계 335에서 입체 영상 생성 장치는 좌측 에지 영상 및 우측 에지 영상을 미리 정해진 스캔 방식으로 비교하여 일치되는 일치 영역을 검출하고, 검출된 일치 영역에 대한 오프셋 정보를 생성한다. 이는 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.In operation 335, the 3D image generating apparatus compares the left edge image and the right edge image by using a predetermined scan method to detect a matching region and generates offset information on the detected matching region. Since this is the same as described above, overlapping description will be omitted.

단계 340에서 입체 영상 생성 장치는 오프셋 정보를 이용하여 좌측 영상 및 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하여 영상 출력 장치(미도시)로 출력한다.
In operation 340, the 3D image generating apparatus generates a 3D image by clipping and synthesizing the left image and the right image using offset information, and outputs the 3D image to an image output device (not shown).

[도 4 - 도 5 설명]4-5 description

도 4는 다시점 입체 영상을 생성하는 입체 영상 생성 장치의 내부 구성을 개략적으로 도시한 블록도이고, 도 5는 도 4의 입체 영상 생성 장치의 일부 구성을 상세히 도시한 블록도이다.4 is a block diagram schematically illustrating an internal configuration of a stereoscopic image generating apparatus for generating a multiview stereoscopic image, and FIG. 5 is a detailed block diagram illustrating some components of the stereoscopic image generating apparatus of FIG. 4.

도 4를 참조하면, 다시점 입체 영상을 생성하는 입체 영상 생성 장치는 카메라(410), 거리 측정기(420), 주시각 제어기(430), 클러스터부(442), 클러스터 컨버전스부(444), 클러스터간 컨버전스부(446) 및 영상 합성부(448)를 포함하여 구성된다.Referring to FIG. 4, a stereoscopic image generating apparatus for generating a multiview stereoscopic image includes a camera 410, a distance measurer 420, a vergence controller 430, a cluster unit 442, a cluster convergence unit 444, and a cluster. And a liver convergence unit 446 and an image synthesizer 448.

카메라(410)는 피사체를 N(임의의 자연수) 시점에서 촬상하여 각 시점에대한 영상을 생성할 수 있는 N개의 카메라를 구비한다. 여기서, N은 n(임의의 자연수)의 제곱인 경우, 영상 처리의 효율이 좋다. 본 명세서에서는 N은 최대 16인 것을 가정하나 구현에 따라 16 이상일 수도 있음은 당연하다. 도 5의 510에 도시된 바와 같이, 카메라(410)는 피사체의 각 시점을 촬상할 수 있는 N개의 각 시점 카메라를 구비한다. 이에, 카메라(410)는 N개의 카메라를 제어하여 피사체에 대한 N 시점 영상을 각각 생성하여 클러스터부(442)로 출력하는 기능을 수행한다. 이하, 각 시점의 영상을 이해와 설명의 편의를 도모하기 위해 제1 영상, 제2 영상,... , 제N 영상이라 칭하여 설명하기로 한다.The camera 410 includes N cameras capable of generating an image for each viewpoint by capturing an object at an N (arbitrary natural number) viewpoint. Here, when N is the square of n (any natural number), the efficiency of image processing is good. In the present specification, it is assumed that N is at most 16, but it is obvious that the number may be 16 or more depending on implementation. As illustrated at 510 of FIG. 5, the camera 410 includes N viewpoint cameras capable of capturing each viewpoint of a subject. Accordingly, the camera 410 controls N cameras to generate N-view images of the subject and output them to the cluster unit 442. Hereinafter, the image of each viewpoint will be described as a first image, a second image, ..., an N-th image for the convenience of understanding and explanation.

거리 측정기(420)는 도 1에서 전술한 바와 같이, 센서를 구비하며, 해당 센서를 이용하여 피사체와의 거리를 측정하여 거리 정보를 생성한 후 주시각 제어기(430)로 출력한다. 거리 측정기(420)는 N개의 카메라 중에서 일정 거리 이격되어 배치된 두개의 카메라 사이의 정중앙(두개의 카메라와 일직선상에 위치되는 정중앙)에 위치되어 피사체와의 거리를 측정할 수 있다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 제1 시점 카메라와 제2 시점 카메라 사이의 정중앙에 위치되는 것으로 가정하여 설명하기로 한다.As described above with reference to FIG. 1, the distance measurer 420 includes a sensor, measures distance to a subject using a corresponding sensor, generates distance information, and outputs the distance information to the gaze controller 430. The distance measurer 420 may be located at the center of the center between two cameras spaced apart from each other by a predetermined distance from the N cameras (the center of gravity located in line with the two cameras) to measure the distance to the subject. In the present specification, for convenience of understanding and explanation, it will be described on the assumption that it is located at the center of the center between the first viewpoint camera and the second viewpoint camera.

다른 예를 들어, 거리 측정기(420)는 N 시점 카메라들 중에서 가운데 두개의 카메라 사이의 정중앙에 위치될 수도 있다.For another example, the range finder 420 may be located at the center of the center of two cameras among the N viewpoint cameras.

주시각 제어기(430)는 도 1에서 전술한 바와 같이, 거리 측정기(420)를 통해 입력된 거리 정보를 이용하여 주시각 제어량을 도출하여 각 시점 카메라의 주시각을 제어하여 고정하는 기능을 수행한다. 주시각 제어량을 도출하는 방법은 도 1에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.As described above with reference to FIG. 1, the vergence controller 430 derives a vergence control amount by using the distance information input through the distance measurer 420 to control and fix the vergence of each viewpoint camera. . Since the method of deriving the vergence control amount is the same as that described with reference to FIG. 1, redundant descriptions thereof will be omitted.

또한, 주시각 제어기(430)는 각 시점 카메라의 주시각을 주시각 제어량에 의해 순차적으로 제어하여 고정할 수도 있으며, 각 시점 카메라의 주시각을 주시각 제어량을 이용하여 동시에 제어하여 고정할 수도 있다. In addition, the viewing angle controller 430 may control and fix the viewing angle of each viewpoint camera sequentially by the viewing angle control amount, and may simultaneously control and fix the viewing angle of each viewpoint camera using the viewing angle control amount. .

또한, 주시각 제어기(430)는 주시각 제어량을 이용하여 각 시점 카메라의 주시각을 제어하여 고정한 후 각 시점 카메라를 동시에 제어하여 피사체를 촬상하여 각 시점 영상을 생성하도록 동기화할 수 있다. Also, the gaze controller 430 may control and fix the gaze angle of each viewpoint camera by using the angle of view control amount, and then simultaneously control the viewpoint cameras to simultaneously capture the subject and generate each viewpoint image.

영상 처리기(440)는 N개의 카메라를 통해 입력된 N 시점 영상을 분석하고, 합성하여 다시점 입체 영상을 생성하는 기능을 수행한다.The image processor 440 analyzes and synthesizes the N-view images input through the N cameras to generate a multi-view stereoscopic image.

보다 상세하게 영상 처리기(440)는 도 4에 도시된 바와 같이, 클러스터부(442), 클러스터 컨버전스부(444), 클러스터간 컨버전스부(446) 및 영상 합성부(448)를 포함한다.In more detail, as illustrated in FIG. 4, the image processor 440 includes a cluster unit 442, a cluster convergence unit 444, an inter-cluster convergence unit 446, and an image synthesizer 448.

클러스터부(442)는 다시점 영상 획득부(410)를 통해 입력된 N개의 각 시점 영상을 미리 정해진 방법으로 k(N이하의 임의의 자연수)개로 클러스터링한다. 이어, 클러스터부(442)는 각각 클러스터링된 영상 집합을 클러스터 컨버전스부(444)로 출력한다. 또한, 클러스터부(442)는 각 클러스터의 마지막 영상과 다음 클러스터의 첫번째 영상을 각각 클러스터간 컨버전스부(446)로 출력하는 기능을 수행한다.The cluster unit 442 clusters each of the N viewpoints images inputted through the multi-viewpoint image acquisition unit 410 into k (any natural number of N or less) in a predetermined method. Subsequently, the cluster unit 442 outputs the clustered image sets to the cluster convergence unit 444, respectively. In addition, the cluster unit 442 outputs the last image of each cluster and the first image of the next cluster to the inter-cluster convergence unit 446, respectively.

예를 들어, 다시점 영상 획득부(410)는 통해 입력된 각 시점 영상이 16시점 영상이라고 가정하자. 이와 같은 경우, 클러스터부(442)는 클러스터 컨버전스부(444)의 개수에 상응하여 k개 단위로 각 시점 영상을 클러스터 단위로 구분하여 클러스터링한다. 예를 들어, 클러스터 컨버전스부(444)가 4개라고 가정하자. 클러스터부(442)는 16개 시점 영상을 각각 3개씩 4개 묶음으로 클러스터링할 수 있다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 클러스터부(442)에서 제1 시점 영상부터 제N 시점 영상까지 순차적으로 k개 묶음으로 클러스터링하는 것으로 가정하기로 한다.For example, it is assumed that each viewpoint image input through the multiview image acquisition unit 410 is a 16 viewpoint image. In this case, the cluster unit 442 classifies and clusters each view image in cluster units in k units corresponding to the number of cluster convergence units 444. For example, assume that there are four cluster convergence units 444. The cluster unit 442 may cluster the 16 viewpoint images into four bundles of three each. In the present specification, for convenience of understanding and explanation, it is assumed that the cluster unit 442 clusters the k clusters sequentially from the first viewpoint image to the Nth viewpoint image.

클러스터 컨버전스부(444)는 각 클러스터내의 시점 영상을 비교하여 일치하는 일치 영역을 검출하고, 검출된 일치 영역에 대한 오프셋 정보를 생성하여 영상 합성부(448)로 출력한다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 클러스터 컨버전스부(444)에 의해 생성된 오프셋 정보를 클러스터 오프셋 정보라 통칭하여 설명하기로 한다.The cluster convergence unit 444 compares the viewpoint images in each cluster to detect a matching region, generates offset information on the detected matching region, and outputs the offset information to the image synthesis unit 448. In the present specification, for convenience of understanding and explanation, the offset information generated by the cluster convergence unit 444 will be collectively described as cluster offset information.

도 5를 참조하면, 클러스터 컨버전스부(444)는 각각 영상 변환부(520) 및 영상 컨버전스부(530)를 포함한다. 영상 변환부(520) 및 영상 컨버전스부(530)의 기능은 도 1에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.Referring to FIG. 5, the cluster convergence unit 444 includes an image converter 520 and an image convergence unit 530, respectively. Since the functions of the image converter 520 and the image convergence unit 530 are the same as those described with reference to FIG. 1, redundant descriptions thereof will be omitted.

또한, 클러스터 컨버전스부(444)는 도 5에 도시된 바와 같이, 복수개로 구성되며, 각각의 클러스터 컨버전스부(444)는 각 클러스터에 상응하는 클러스터 오프셋 정보를 각각 생성하여 영상 합성부(448)로 출력한다. 이때, 클러스터 컨버전스부(444)는 클러스터내의 각 시점 영상이 다수인 경우, 순차적으로 두개씩 비교하여 클러스터내의 각 시점 영상이 일치하는 영역에 대한 클러스터 오프셋 정보를 생성할 수 있다. 여기서, 클러스터 오프셋 정보는 해당 클러스터에 포함된 복수의 시점 영상들의 일치 영역에 대한 오프셋 정보일 수 있다. 즉, 클러스터 오프셋 정보는 기준점을 중심으로 누적될 수 있다. 또한, 복수의 클러스터 오프셋 정보 또한 누적되어 합산될 수 있다.In addition, as shown in FIG. 5, the cluster convergence unit 444 includes a plurality, and each cluster convergence unit 444 generates cluster offset information corresponding to each cluster to the image synthesis unit 448. Output In this case, when there are a plurality of viewpoint images in the cluster, the cluster convergence unit 444 may generate cluster offset information for a region where the viewpoint images in the cluster coincide with each other in sequence. Here, the cluster offset information may be offset information of a matching area of the plurality of viewpoint images included in the corresponding cluster. That is, cluster offset information may be accumulated about a reference point. In addition, the plurality of cluster offset information may also be accumulated and summed.

클러스터간 컨버전스부(446)는 인접한 클러스터간 시점 영상을 분석하여 일치하는 일치 영역을 검출하고, 검출된 일치 영역에 대한 오프셋 정보를 생성하여 영상 합성부(448)로 출력한다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 클러스터간 컨버전스부(446)에 의해 생성된 오프셋 정보를 클러스터간 오프셋 정보라 통칭하여 설명하기로 한다.The inter-cluster convergence unit 446 analyzes adjacent inter-cluster viewpoint images to detect a matching region, generates offset information for the detected matching region, and outputs the offset information to the image synthesis unit 448. In the present specification, for convenience of understanding and explanation, the offset information generated by the inter-cluster convergence unit 446 will be collectively referred to as inter-cluster offset information.

예를 들어, 클러스터간 컨버전스부(446)는 인접한 클러스터간에서 이전 클러스터의 마지막 시점 영상과 다음 클러스터의 최초 시점 영상을 분석하여 일치하는 일치 영역을 검출할 수 있다. For example, the inter-cluster convergence unit 446 may detect the matching region by analyzing the last view image of the previous cluster and the first view image of the next cluster between adjacent clusters.

클러스터간 컨버전스부(446)는 도 5의 530에 도시된 바와 같이, 영상 변환부(520) 및 영상 컨버전스부(530)를 포함한다. 각각의 구성의 기능은 이미 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.The inter-cluster convergence unit 446 includes an image converter 520 and an image convergence unit 530, as illustrated at 530 of FIG. 5. Since the function of each configuration is the same as that described above, overlapping description will be omitted.

영상 합성부(448)는 클러스터 컨버전스부(444)를 통해 입력된 k개의 클러스터 오프셋 정보와 클러스터간 컨버전스부(446)를 통해 입력된 클러스터간 오프셋 정보를 이용하여 N시점 영상을 클리핑하고, 합성하여 다시점 입체 영상을 생성한다.The image synthesizer 448 clips and synthesizes the N-view image using k cluster offset information input through the cluster convergence unit 444 and inter-cluster offset information input through the inter-cluster convergence unit 446. Create a multiview stereoscopic image.

즉, 영상 합성부(448)은 k개의 클러스터 오프셋 정보와 클러스터간 오프셋 정보를 누적하여 최종 오프셋 정보를 도출하고, 도출된 최종 오프셋 정보를 이용하여 N 시점 영상을 클리핑하고 합성함으로써 다시점 입체 영상을 생성할 수 있다.That is, the image synthesizer 448 accumulates k cluster offset information and inter-cluster offset information to derive final offset information, and uses the derived final offset information to clip and synthesize an N-view image to generate a multiview stereoscopic image. Can be generated.

한편, 본 발명의 실시예에 따른 기계 광학적으로 카메라의 주시각을 제어하여 입체 영상을 생성하는 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조등을 단독으로 또는 조합하여 포함할 수 있다. On the other hand, the method for generating a stereoscopic image by controlling the optical angle of the camera optically in accordance with an embodiment of the present invention is implemented in the form of program instructions that can be performed through a variety of electronic means for processing information recorded on the storage medium Can be. The storage medium may include program instructions, data files, data structures, etc. alone or in combination.

저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Program instructions to be recorded on the storage medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of software. Examples of storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic-optical media such as floppy disks. hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. Examples of program instructions include not only machine code generated by a compiler, but also devices that process information electronically using an interpreter, for example, high-level language code that can be executed by a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art to which the present invention pertains without departing from the spirit and scope of the present invention as set forth in the claims below It will be appreciated that modifications and variations can be made.

110: 카메라
120: 거리 측정기
130: 주시각 제어기
140: 영상 처리기
110: camera
120: distance meter
130: gaze controller
140: image processor

Claims (17)

피사체를 촬상하여 좌측 영상 및 우측 영상을 생성하는 복수의 카메라;
센서를 구비하며, 상기 센서를 이용하여 상기 피사체와의 거리를 측정하여 거리 정보를 생성하는 거리 측정기;
상기 거리 정보를 이용하여 주시각 제어량을 계산하고, 상기 계산된 주시각 제어량을 이용하여 상기 카메라의 주시각을 제어하는 주시각 제어기; 및
상기 좌측 영상 및 상기 우측 영상을 정해진 스캔 방식으로 비교하여 일치되는 일치 영역을 검출하고, 상기 검출된 일치 영역을 중심으로 상기 좌측 영상 및 상기 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 영상 합성기를 포함하되,
상기 영상 합성기는,
상기 좌측 영상 및 상기 우측 영상을 각각 영상 처리하여 에지를 추출하여 좌측 에지 영상 및 우측 에지 영상을 생성하고, 상기 좌측 에지 영상 및 상기 우측 에지 영상을 정해진 스캔 방식으로 비교하여 상기 일치 영역에 대한 오프셋 정보를 생성하는 영상 컨버전스부; 및
상기 생성된 오프셋 정보를 이용하여 상기 좌측 영상 및 상기 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 영상 합성부를 포함하는 것을 특징으로 하는 입체 영상 생성 장치.
A plurality of cameras for photographing a subject to generate a left image and a right image;
A distance measurer having a sensor and generating distance information by measuring a distance to the subject using the sensor;
A vergence controller for calculating a vergence control amount using the distance information and controlling the vergence of the camera using the calculated vergence control amount; And
An image synthesizer configured to compare the left image and the right image by a predetermined scan method, detect a matching region, and generate a stereoscopic image by clipping and combining the left image and the right image with respect to the detected matching region; Including,
The video synthesizer,
Image processing is performed on the left image and the right image to extract an edge to generate a left edge image and a right edge image, and compares the left edge image and the right edge image by a predetermined scan method to offset information on the matching area. An image convergence unit generating a; And
And an image synthesizer configured to generate a stereoscopic image by clipping and combining the left image and the right image using the generated offset information.
삭제delete 제1 항에 있어서,
상기 영상 합성기는,
상기 좌측 영상 및 상기 우측 영상을 흑백 영상으로 변환하는 영상 변환부를 더 포함하되,
상기 영상 컨버전스부는 상기 흑백 영상으로 변환된 좌측 영상 및 우측 영상을 이용하여 오프셋 정보를 생성하는 입체 영상 생성 장치.
The method according to claim 1,
The video synthesizer,
The apparatus may further include an image converter configured to convert the left image and the right image into a black and white image.
And the image convergence unit generates offset information using the left image and the right image converted into the black and white image.
제1 항에 있어서,
상기 영상 컨버전스부는 이전 프레임의 일치 영역을 중심으로 상기 좌측 에지 영상 및 상기 우측 에지 영상을 정해진 스캔 방식으로 비교하여 일치 영역을 검출하는 입체 영상 생성 장치.
The method according to claim 1,
And the image convergence unit detects a match region by comparing the left edge image and the right edge image with respect to a match region of a previous frame by a predetermined scan method.
제1 항에 있어서,
상기 스캔 방식은 나선형 스캔(spiral scan), 방사형 스캔, 좌측 픽셀 또는 우측 픽셀의 단조 증감 스캔 및 상측 픽셀 또는 하측 픽셀의 단조 증감 스캔 중 어느 하나인 입체 영상 생성 장치.
The method according to claim 1,
The scanning method may be any one of a spiral scan, a radial scan, a monotonic sensitized scan of a left pixel or a right pixel, and a monotonic sensitized scan of an upper pixel or a lower pixel.
제1 항에 있어서,
상기 영상 컨버전스부는 상기 좌측 에지 영상 및 상기 우측 에지 영상을 복수의 영역으로 구분하고, 구분된 각각의 영역을 상기 스캔 방식으로 동시에 비교하여 일치 영역을 검출하는 입체 영상 생성 장치.
The method according to claim 1,
And the image convergence unit divides the left edge image and the right edge image into a plurality of regions, and simultaneously compares each divided region by the scan method to detect a matching region.
제1 항에 있어서,
상기 오프셋 정보는 상기 우측 에지 영상 대비 상기 좌측 에지 영상에서 상기 일치 영역이 이동된 거리에 대한 정보인 입체 영상 생성 장치.
The method according to claim 1,
The offset information is a stereoscopic image generating device which is information on the distance that the matching area is moved in the left edge image compared to the right edge image.
제1 항에 있어서,
상기 주시각 제어기는 상기 복수의 카메라간의 거리를 저장하며,
상기 주시각 제어량은 상기 복수의 카메라간의 거리를 더 이용하여 계산되는 입체 영상 생성 장치.
The method according to claim 1,
The vergence controller stores distances between the plurality of cameras,
And the vergence control amount is further calculated using the distance between the plurality of cameras.
제8 항에 있어서,
상기 주시각 제어량은 상기 복수의 카메라간의 거리 및 상기 거리 정보를 제2 코사인 법칙 또는 아크탄젠트 함수에 적용하여 계산되거나 미리 계산된 변환 테이블이 이용되는 입체 영상 생성 장치.
The method of claim 8,
And wherein the vergence control amount is calculated by applying a distance between the plurality of cameras and the distance information to a second cosine law or an arc tangent function or using a conversion table calculated in advance.
(a) 피사체와의 거리를 측정하여 거리 정보를 생성하는 단계;
(b) 상기 거리 정보를 이용하여 주시각 제어량을 계산하고, 상기 계산된 주시각 제어량을 이용하여 구비된 복수의 카메라의 주시각을 제어하는 단계;
(c) 상기 주시각이 제어된 복수의 카메라를 이용하여 피사체를 촬상하여 좌측 영상 및 우측 영상을 각각 생성하는 단계; 및
(d) 상기 좌측 영상 및 상기 우측 영상을 흑백 영상으로 변환하고, 상기 흑백 영상으로 변환된 상기 좌측 영상 및 상기 우측 영상에서 각각 에지를 검출하여 좌측 에지 영상 및 우측 에지 영상을 생성하며, 상기 좌측 에지 영상 및 상기 우측 에지 영상을 정해진 스캔 방식으로 비교하여 일치되는 일치 영역을 검출하고, 상기 검출된 일치 영역에 대한 오프셋 정보를 생성하고, 상기 오프셋 정보를 이용하여 상기 좌측 영상 및 우측 영상을 클리핑하고 합성하여 입체 영상을 생성하는 단계를 포함하는 입체 영상 생성 장치에서의 입체 영상 생성 방법.
(a) measuring distance to the subject to generate distance information;
(b) calculating a vergence control amount using the distance information, and controlling the vergence angles of the plurality of cameras provided using the calculated vergence control amount;
(c) photographing a subject using a plurality of cameras having controlled viewing angles to generate left and right images, respectively; And
(d) converting the left image and the right image into a black and white image, detecting an edge from the left image and the right image converted into the black and white image, respectively, to generate a left edge image and a right edge image, and the left edge Compare the image and the right edge image by a predetermined scan method to detect a matching region, generate offset information for the detected matching region, and clip and synthesize the left and right images using the offset information. Generating a stereoscopic image by using the stereoscopic image generating method.
삭제delete 제10 항에 있어서,
상기 일치되는 일치 영역을 검출하는 단계는,
이전 프레임의 오프셋 정보가 존재하면, 상기 이전 프레임의 오프셋 정보에 상응하는 영역부터 상기 좌측 에지 영상 및 상기 우측 에지 영상을 상기 스캔 방식으로 비교하여 일치 영역에 상응하는 현재 프레임에 대한 오프셋 정보를 생성하는 입체 영상 생성 장치에서의 입체 영상 생성 방법.
The method of claim 10,
The detecting of the matched region may include:
If the offset information of the previous frame exists, comparing the left edge image and the right edge image from the region corresponding to the offset information of the previous frame by the scan method to generate the offset information for the current frame corresponding to the matching region A stereoscopic image generating method in a stereoscopic image generating apparatus.
제10 항에 있어서,
상기 (d) 단계에서, 상기 일치 영역을 검출하는 것은,
상기 좌측 에지 영상 및 상기 우측 에지 영상을 복수의 영역으로 각각 구분하고, 구분된 각각의 영역을 동시에 상기 스캔 방식으로 비교하여 상기 일치 영역을 검출하는 입체 영상 생성 장치에서의 입체 영상 생성 방법.
The method of claim 10,
In the step (d), detecting the matching area,
And dividing the left edge image and the right edge image into a plurality of regions, and comparing the divided regions by the scanning method at the same time to detect the matched region.
다시점 입체 영상을 생성하는 입체 영상 생성 장치에 있어서,
피사체를 촬상하여 각 시점 영상을 생성하여 각각 출력하는 N(임의의 자연수)개의 카메라;
상기 피사체와의 거리를 측정하기 위한 센서를 구비하고, 상기 센서를 이용하여 상기 피사체와의 거리를 측정하여 거리 정보를 생성하는 거리 측정기;
상기 거리 정보를 이용하여 주시각 제어량을 도출하고, 상기 도출된 주시각 제어량을 이용하여 상기 N개의 카메라의 주시각을 각각 제어하는 주시각 제어기;
상기 N개의 카메라를 통해 입력된 N 시점 영상을 m개씩 k개 클러스터로 구분하는 클러스터부;
동일한 클러스터내의 각 시점 영상을 비교하여 일치하는 일치 영역을 검출하고, 검출된 일치 영역에 대한 클러스터 오프셋 정보를 생성하는 k개의 클러스터 컨버전스부;
인접한 클러스터간 이전 클러스터의 마지막 시점 영상과 다음 클러스터의 최초 시점 영상을 비교하여 일치하는 일치 영역을 검출하고, 상기 검출된 일치 영역에 대한 클러스터간 오프셋 정보를 생성하는 클러스터간 컨버전스부; 및
k개의 클러스터 오프셋 정보와 상기 클러스터간 오프셋 정보를 이용하여 상기 N 시점 영상을 클리핑하고 합성하여 다시점 입체 영상을 생성하는 영상 합성부를 포함하는 입체 영상 생성 장치.
In the stereoscopic image generating apparatus for generating a multi-view stereoscopic image,
N (random natural numbers) cameras for photographing a subject to generate and output respective viewpoint images;
A distance measurer having a sensor for measuring a distance to the subject, and generating distance information by measuring a distance to the subject using the sensor;
A vergence controller for deriving a vergence control amount using the distance information and controlling the vergence angles of the N cameras using the derived vergence control amount;
A cluster unit for dividing the N viewpoint images input through the N cameras into m clusters of m pieces;
K cluster convergence units for comparing matching viewpoint images in the same cluster to detect a matching region and generating cluster offset information for the detected matching region;
An inter-cluster convergence unit configured to compare the last viewpoint image of the previous cluster and the first viewpoint image of the next cluster between adjacent clusters, detect a matching region, and generate inter-cluster offset information on the detected matching region; And
and an image synthesizer configured to generate a multiview stereoscopic image by clipping and synthesizing the N viewpoint images using k cluster offset information and the inter-cluster offset information.
제14 항에 있어서,
상기 클러스터 컨버전스부 및 상기 클러스터간 컨버전스부는,
상기 일치 영역을 검출하기 위해, 각각의 영상을 흑백 영상으로 변환하는 영상 변환부; 및
상기 흑백 영상으로 변환된 각 영상에서 에지를 검출하여 에지 영상을 각각 생성하고, 각 에지 영상을 비교하여 일치 영역에 대한 오프셋 정보를 생성하는 영상 컨버전스부를 포함하는 입체 영상 생성 장치.
The method of claim 14,
The cluster convergence unit and the inter-cluster convergence unit,
An image converter for converting each image into a black and white image to detect the matching region; And
And an image convergence unit configured to generate edge images by detecting edges in each image converted into the black and white image, and to generate offset information for a matching area by comparing each edge image.
제14 항에 있어서,
상기 클러스터 컨버전스부 및 상기 클러스터간 컨버전스부는,
각 영상을 두개씩 순차적으로 비교하여 오프셋 정보를 생성하는 입체 영상 생성 장치.
The method of claim 14,
The cluster convergence unit and the inter-cluster convergence unit,
A stereoscopic image generating device generating offset information by sequentially comparing two images.
제14 항에 있어서,
상기 주시각 제어부는 상기 카메라의 위치 정보를 더 이용하여 상기 주시각 제어량을 계산하되,
상기 거리 정보 및 상기 위치 정보를 삼각 함수 또는 미리 계산된 삼각함수를 이용한 변환 테이블에 적용하여 상기 주시각 제어량을 계산하는 입체 영상 생성 장치.
The method of claim 14,
The vergence control unit calculates the vergence control amount by further using the position information of the camera,
And calculating the vergence control amount by applying the distance information and the position information to a conversion table using a trigonometric function or a pre-calculated trigonometric function.
KR1020100060825A 2010-06-25 2010-06-25 Method and system for stereo image creation KR101142873B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100060825A KR101142873B1 (en) 2010-06-25 2010-06-25 Method and system for stereo image creation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100060825A KR101142873B1 (en) 2010-06-25 2010-06-25 Method and system for stereo image creation

Publications (2)

Publication Number Publication Date
KR20120000455A KR20120000455A (en) 2012-01-02
KR101142873B1 true KR101142873B1 (en) 2012-05-15

Family

ID=45608334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100060825A KR101142873B1 (en) 2010-06-25 2010-06-25 Method and system for stereo image creation

Country Status (1)

Country Link
KR (1) KR101142873B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014088195A1 (en) 2012-12-04 2014-06-12 Lg Electronics Inc. Method for changing pattern of reference signals according to movement speed of user equipment in wireless communication system, and an apparatus therefor
CN113673425B (en) * 2021-08-19 2022-03-15 清华大学 Multi-view target detection method and system based on Transformer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100237199B1 (en) 1996-12-17 2000-01-15 구자홍 3d(dimension) image recording/reproducing apparatus
KR100424287B1 (en) 2001-09-10 2004-03-24 주식회사 제이앤에이치테크놀러지 Non-parallel optical axis real-time three-demensional image processing system and method
KR20070030501A (en) * 2005-09-13 2007-03-16 (주)브이쓰리아이 Stereo camera system for mobile device and the method for controlling convergence
KR100726933B1 (en) 2006-02-15 2007-06-14 주식회사 이시티 Image signal processing method for auto convergence control method of two fixed cameras

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100237199B1 (en) 1996-12-17 2000-01-15 구자홍 3d(dimension) image recording/reproducing apparatus
KR100424287B1 (en) 2001-09-10 2004-03-24 주식회사 제이앤에이치테크놀러지 Non-parallel optical axis real-time three-demensional image processing system and method
KR20070030501A (en) * 2005-09-13 2007-03-16 (주)브이쓰리아이 Stereo camera system for mobile device and the method for controlling convergence
KR100726933B1 (en) 2006-02-15 2007-06-14 주식회사 이시티 Image signal processing method for auto convergence control method of two fixed cameras

Also Published As

Publication number Publication date
KR20120000455A (en) 2012-01-02

Similar Documents

Publication Publication Date Title
US11995902B2 (en) Facial signature methods, systems and software
US10742957B2 (en) Three-dimensional imaging system
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
KR101419979B1 (en) Method and system for converting 2d image data to stereoscopic image data
KR101804205B1 (en) Apparatus and method for image processing
CN109076200A (en) The calibration method and device of panoramic stereoscopic video system
JP2011166264A (en) Image processing apparatus, imaging device and image processing method, and program
WO2012061549A2 (en) Methods, systems, and computer program products for creating three-dimensional video sequences
US20130258064A1 (en) Apparatus and method for reconstructing high density three-dimensional image
US8922627B2 (en) Image processing device, image processing method and imaging device
KR101853269B1 (en) Apparatus of stitching depth maps for stereo images
EP2787735A1 (en) Image processing device, image processing method and program
KR20120046802A (en) Apparatus and method of creating 3 dimension panorama image by using a camera
JP2011160299A (en) Three-dimensional imaging system and camera for the same
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
KR101983586B1 (en) Method of stitching depth maps for stereo images
WO2021077078A1 (en) System and method for lightfield capture
KR20090037247A (en) Method and device for transformation from multi focused 2d image to 3d image, and recording media
KR101142873B1 (en) Method and system for stereo image creation
KR20120093751A (en) Apparatus and method of eye contact using compositing image of front image view
KR101165810B1 (en) A method and an apparatus extracting a depth image information using a stereo camera
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
US20150002637A1 (en) Apparatus and method for generating stereoscopic image through installation of external camera
KR101275127B1 (en) 3-dimension camera using focus variable liquid lens applied and method of the same
KR101718309B1 (en) The method of auto stitching and panoramic image genertation using color histogram

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee