KR20110101722A - Image processing system and method using multi view image - Google Patents

Image processing system and method using multi view image Download PDF

Info

Publication number
KR20110101722A
KR20110101722A KR1020100020938A KR20100020938A KR20110101722A KR 20110101722 A KR20110101722 A KR 20110101722A KR 1020100020938 A KR1020100020938 A KR 1020100020938A KR 20100020938 A KR20100020938 A KR 20100020938A KR 20110101722 A KR20110101722 A KR 20110101722A
Authority
KR
South Korea
Prior art keywords
image
background
parallax
multiview
region
Prior art date
Application number
KR1020100020938A
Other languages
Korean (ko)
Inventor
이상화
성정두
Original Assignee
(주)알파캠
이상화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)알파캠, 이상화 filed Critical (주)알파캠
Priority to KR1020100020938A priority Critical patent/KR20110101722A/en
Publication of KR20110101722A publication Critical patent/KR20110101722A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

다시점 영상을 이용한 영상 시스템은 다시점 영상을 촬영하는 영상 촬영 장치, 상기 영상 촬영 장치의 교정값을 이용하여 상기 영상 촬영 장치에서 촬영된 다시점 영상을 교정하여 출력하는 전처리부, 상기 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 영상 매칭부, 상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 객체 추출부 및 상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 합성부를 포함한다. 따라서, 다시점 영상을 이용한 영상 시스템은 다시점 영상에 포함된 객체를 추출하여 추출된 객체와 새로운 배경 영상을 자연스럽게 합성할 수 있다.An imaging system using a multiview image may include an image capturing apparatus for capturing a multiview image, a preprocessor for correcting and outputting a multiview image captured by the image capturing apparatus using a correction value of the image capturing apparatus, and the multiview image An image matching unit matching a search image based on the selected reference image among the selected reference images and calculating a parallax value between the reference image and a matching pixel of the search image, and extracting an object from the reference image using the reference image and the parallax value And an object extractor for synthesizing the extracted object and the background image to generate a synthesized image. Accordingly, an image system using a multiview image may naturally synthesize the extracted object and a new background image by extracting an object included in the multiview image.

Description

다시점 영상을 이용한 영상 시스템 및 영상 처리 방법{IMAGE PROCESSING SYSTEM AND METHOD USING MULTI VIEW IMAGE}IMAGE PROCESSING SYSTEM AND METHOD USING MULTI VIEW IMAGE}

개시된 기술은 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법에 관한 것으로서, 카메라와 같은 영상 촬영 장치에서 촬영된 다시점 영상을 이용하여 입체 영상을 생성하거나, 영상을 합성하는 시스템 및 방법에 관한 것이다.The disclosed technology relates to an image system and an image processing method using a multiview image, and a system and method for generating a stereoscopic image or synthesizing an image using a multiview image captured by an image capturing apparatus such as a camera.

다시점 영상은 복수의 영상 촬영장치 또는 카메라를 이용하여 촬영된 영상을 말한다. 다시점 영상 가운데 하나인 스테레오 영상은 2대의 영상 촬영 장치로부터 촬영된 영상을 말한다. 스테레오 영상은 2대의 영상 촬영 장치로부터 촬영된 좌측 영상과 우측 영상을 포함한다.The multi-view image refers to an image photographed using a plurality of image capturing apparatuses or cameras. One of the multi-view images, the stereo image is an image captured by two image capturing devices. The stereo image includes a left image and a right image captured from two image capturing devices.

스테레오 영상 시스템은 촬영된 스테레오 영상 가운데 하나의 영상을 기준 영상으로 선택하고 다른 영상을 탐색 영상으로 선택하여, 3차원 공간상의 한 점이 기준 영상과 탐색 영상에서 각각 대응되는 화소 위치를 매칭할 수 있다. 스테레오 영상 시스템은 대응되는 화소 위치 정보를 이용하여, 촬영된 영상의 3차원 정보를 얻을 수 있다.The stereo imaging system selects one image from the photographed stereo images as a reference image and selects another image as a search image, so that a point in a three-dimensional space matches a pixel position corresponding to each of the reference image and the search image. The stereo imaging system may obtain 3D information of the captured image by using corresponding pixel position information.

일 실시예에서, 다시점 영상을 이용한 영상 시스템은 다시점 영상을 촬영하는 영상 촬영 장치, 상기 영상 촬영 장치의 교정값을 이용하여 상기 영상 촬영 장치에서 촬영된 다시점 영상을 교정하여 출력하는 전처리부, 상기 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 영상 매칭부, 상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 객체 추출부 및 상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 합성부를 포함한다.In an embodiment, the imaging system using a multiview image may include an image capturing apparatus photographing a multiview image and a preprocessing unit correcting and outputting a multiview image captured by the image capturing apparatus by using a correction value of the image capturing apparatus. And an image matching unit matching a search image based on a reference image selected from among the multiview images, and calculating a disparity value between the reference image and a matching pixel of the search image, and using the reference image and the disparity value. An object extractor for extracting an object from an image and a synthesizer for synthesizing the extracted object and a background image to generate a synthesized image.

일 실시예에서, 다시점 영상을 이용한 영상 시스템은 다시점 영상을 촬영하는 영상 촬영 장치, 상기 영상 촬영 장치에서 촬영된 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 영상 매칭부, 상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 객체 추출부, 상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 합성부, 상기 기준 영상과 상기 시차값을 이용하여 입체 영상을 생성하는 입체 영상 생성부 및 상기 다시점 영상 촬영 장치에서 촬영된 영상을 다시점 영상 합성하여 중간 영상(intermediate image)을 생성하는 다시점 영상 합성부를 포함한다.In an embodiment, the imaging system using a multiview image matches a search image based on a reference image selected from an image capturing apparatus photographing a multiview image, a multiview image captured by the image capturing apparatus, and the reference image. An image matching unit configured to calculate a parallax value between matching pixels of the search image, an object extractor extracting an object from the reference image using the reference image and the disparity value, and a synthesized image by synthesizing the extracted object and a background image A synthesizing unit configured to generate an image, a stereoscopic image generating unit generating a stereoscopic image using the reference image and the parallax value, and an intermediate image by synthesizing an image photographed by the multiview image capturing apparatus It includes a multi-view image synthesis unit.

일 실시예에서, 다시점 영상을 처리하는 방법은 다시점 영상을 촬영하는 단계, 상기 다시점 영상을 촬영한 영상 촬영 장치의 교정값을 이용하여 상기 다시점 영상을 교정하여 출력하는 단계, 상기 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 단계, 상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 단계 및 상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 단계를 포함한다.In one embodiment, a method of processing a multiview image may include photographing a multiview image, correcting and outputting the multiview image using a calibration value of the image photographing apparatus photographing the multiview image, and Matching the search image based on the selected reference image among the point images, and calculating a parallax value between the reference image and a matching pixel of the search image, and extracting an object from the reference image using the reference image and the parallax value And generating a composite image by synthesizing the extracted object with the background image.

일 실시예에서, 다시점 영상을 처리하는 방법은 다시점 영상을 촬영하는 단계, 다시점 영상 합성 기능이 설정된 경우, 상기 촬영된 영상을 다시점 영상 합성하여 중간 영상을 생성하는 단계, 입체 영상 생성 기능 또는 배경 합성 기능이 설정된 경우, 상기 다시점 영상 촬영 장치에서 촬영된 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 단계, 입체 영상 생성 기능이 설정된 경우, 상기 기준 영상과 상기 시차값을 이용하여 입체 영상을 생성하는 단계, 배경 합성 기능이 설정된 경우, 상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 단계 및 상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 단계를 포함한다.According to an embodiment, the method of processing a multiview image may include: photographing a multiview image, and when the multiview image synthesis function is set, generating an intermediate image by multiviewing the captured image and generating a stereoscopic image. When the function or the background composition function is set, matching the search image based on the reference image selected from the multi-view image photographed by the multi-view image capturing apparatus, and calculates the parallax value between the reference image and the matching pixel of the search image; Step, when the stereoscopic image generation function is set, generating a stereoscopic image by using the reference image and the parallax value; when the background synthesis function is set, the object in the reference image using the reference image and the parallax value And extracting the extracted object and the background image to generate a synthesized image.

도 1은 개시된 기술의 일 실시예에 따른 영상 시스템의 입체 영상 생성 시스템을 나타내는 도면이다.
도 2는 도 1에 도시된 입체 영상 생성 시스템의 영상 매칭부를 나타낸 도면이다.
도 3은 개시된 기술의 일 실시예에 따른 입체 영상 생성부를 나타낸 도면이다.
도 4는 개시된 기술의 다른 일 실시예에 따른 입체 영상 생성부를 나타낸 도면이다.
도 5는 도 1의 입체 영상 생성 시스템에서 생성된 입체 영상의 예를 나타낸 도면이다.
도 6은 개시된 기술의 일 실시예에 따른 영상 시스템의 배경 합성 시스템을 나타내는 도면이다.
도 7은 도 6에 도시된 배경 합성 시스템의 객체 추출부를 나타낸 도면이다.
도 8은 도 6에 도시된 배경 합성 시스템의 합성부를 나타낸 도면이다.
도 9는 도 8의 배경 합성부에서 객체와 배경 영상을 혼합하는 매팅(matting) 방법을 나타낸 도면이다.
도 10은 영상에서 객체를 추출하고 새로운 배경 영상과 객체를 합성하는 과정을 나타낸 도면이다.
도 11은 배경 영상의 조명 환경을 모델링하는 과정을 설명하는 도면이다.
도 12는 셀 분할된 배경 영상을 나타내는 도면이다.
도 13은 배경 영상의 조명 환경을 객체 영역에 적용하여 합성된 영상을 나타내는 도면이다.
도 14는 개시된 기술의 일 실시예에 따른 영상 시스템의 다시점 영상 합성 시스템을 나타내는 도면이다.
도 15는 중간 영상을 생성하는 뷰 모핑 기술을 설명하는 도면이다.
도 16은 개시된 기술의 일 실시예에 따른 입체 영상 생성 시스템, 배경 합성 시스템 및 다시점 영상 합성 시스템을 포함하는 다시점 영상 시스템을 나타내는 도면이다.
도 17은 개시된 기술의 일 실시예에 따른 입체 영상 처리 방법을 나타내는 순서도이다.
도 18은 개시된 기술의 일 실시예에 따른 배경 합성 영상 처리 방법을 나타내는 순서도이다.
도 19는 개시된 기술의 일 실시예에 따른 다시점 영상 합성 처리 방법을 나타내는 순서도이다.
도 20은 개시된 기술의 일 실시예에 따른 다시점 영상 처리 방법을 나타내는 순서도이다.
1 is a diagram illustrating a stereoscopic image generation system of an imaging system according to an embodiment of the disclosed technology.
FIG. 2 is a diagram illustrating an image matching unit of the stereoscopic image generating system illustrated in FIG. 1.
3 is a diagram illustrating a stereoscopic image generator according to an exemplary embodiment of the disclosed technology.
4 illustrates a stereoscopic image generating unit according to another exemplary embodiment of the disclosed technology.
5 is a diagram illustrating an example of a stereoscopic image generated by the stereoscopic image generating system of FIG. 1.
6 illustrates a background synthesis system of an imaging system according to an embodiment of the disclosed technology.
FIG. 7 is a diagram illustrating an object extracting unit of the background synthesis system illustrated in FIG. 6.
FIG. 8 is a diagram illustrating a synthesis unit of the background synthesis system illustrated in FIG. 6.
FIG. 9 is a diagram illustrating a matting method of mixing an object and a background image in the background synthesizer of FIG. 8.
10 is a diagram illustrating a process of extracting an object from an image and composing a new background image and an object.
11 is a diagram illustrating a process of modeling a lighting environment of a background image.
12 is a diagram illustrating a cell-divided background image.
FIG. 13 is a diagram illustrating an image synthesized by applying a lighting environment of a background image to an object region.
14 illustrates a multiview image synthesis system of an imaging system, according to an embodiment of the disclosed technology.
15 is a view for explaining a view morphing technique for generating an intermediate image.
FIG. 16 is a diagram illustrating a multiview image system including a stereoscopic image generation system, a background synthesis system, and a multiview image synthesis system, according to an exemplary embodiment.
17 is a flowchart illustrating a stereoscopic image processing method according to an embodiment of the disclosed technology.
18 is a flowchart illustrating a background composite image processing method according to an embodiment of the disclosed technology.
19 is a flowchart illustrating a multiview image synthesis processing method according to an embodiment of the disclosed technology.
20 is a flowchart illustrating a multiview image processing method according to an embodiment of the disclosed technology.

개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments may be variously modified and may have various forms, and thus the scope of the disclosed technology should be understood to include equivalents capable of realizing the technical idea.

각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms defined in commonly used dictionaries should be interpreted to be consistent with meaning in the context of the relevant art and can not be construed as having ideal or overly formal meaning unless expressly defined in the present application.

개시된 기술의 일 실시예에 따른 영상 시스템 및 영상 처리 방법의 동작을 첨부한 도면을 참조하여 설명하면 다음과 같다. 일 실시예에 따른 영상 시스템 및 입체 영상 처리 방법은 다양한 시점에서 촬영된 다시점 영상을 이용하여 입체 영상을 만들거나, 영상을 합성할 수 있다. 영상 시스템에서 생성된 입체 영상이나 합성 영상은 상대편 수신기로 전송되거나 시스템에 저장되어 가공될 수 있다.An operation of an image system and an image processing method according to an embodiment of the disclosed technology will be described with reference to the accompanying drawings. The image system and the stereoscopic image processing method according to an embodiment may create a stereoscopic image or synthesize an image using a multiview image photographed at various viewpoints. The stereoscopic image or the composite image generated in the imaging system may be transmitted to the other receiver or stored in the system and processed.

도 1은 개시된 기술의 일 실시예에 따른 영상 시스템의 입체 영상 생성 시스템을 나타내는 도면이다. 도 1의 입체 영상 생성 시스템(100)은 스테레오 카메라에서 촬영된 스테레오 영상을 이용하여 입체 영상을 만드는 시스템의 예이다. 도 1을 참조하면, 입체 영상 생성 시스템(100)은 제1 영상촬영 장치(110a), 제2 영상촬영 장치(110b), 전처리부(120), 영상 매칭부(130), 입체 영상 생성부(140), 전송부(150) 및 저장부(160)를 포함한다.1 is a diagram illustrating a stereoscopic image generation system of an imaging system according to an embodiment of the disclosed technology. The stereoscopic image generating system 100 of FIG. 1 is an example of a system for creating a stereoscopic image using a stereoscopic image captured by a stereo camera. Referring to FIG. 1, the stereoscopic image generating system 100 includes a first image capturing apparatus 110a, a second image capturing apparatus 110b, a preprocessing unit 120, an image matching unit 130, and a stereoscopic image generating unit ( 140, a transmitter 150, and a storage 160.

제1 영상촬영 장치(110a), 제2 영상촬영 장치(110b)는 피사체를 촬영한다. 예를 들어, 영상 촬영 장치(110a, 110b)는 CMOS(Complementary Metal-Oxide Semiconductor) 모듈, CCD(Charge Coupled Device) 모듈 등을 이용하여 피사체를 촬영한다. 피사체의 이미지(또는, 동영상)는 렌즈를 통해 CCD 모듈 또는 CMOS 모듈로 제공되며, 영상 촬영 장치(110a, 110b)의 CCD 모듈 또는 CMOS 모듈은 렌즈를 통과한 피사체의 광신호를 영상 신호로 변환하여 출력한다. 영상 촬영 장치(110a, 110b)는 노출 조정, 감마 조정, 이득 조정, 화이트 밸런스 조정, 또는 컬러 매트릭스 조정 등을 수행한 후, ADC(Analogto- Digital Converter, 이하 ADC라 함)를 통해 광신호를 디지털 영상 신호로 변환하여 출력한다.The first image capturing apparatus 110a and the second image capturing apparatus 110b photograph a subject. For example, the image capturing apparatus 110a or 110b photographs a subject using a complementary metal-oxide semiconductor (CMOS) module, a charge coupled device (CCD) module, or the like. The image (or video) of the subject is provided to the CCD module or the CMOS module through the lens, and the CCD module or the CMOS module of the imaging apparatuses 110a and 110b converts the optical signal of the subject passing through the lens into an image signal. Output The imaging apparatuses 110a and 110b perform exposure adjustment, gamma adjustment, gain adjustment, white balance adjustment, or color matrix adjustment, and then digitally convert the optical signal through an analog-to-digital converter (ADC). The video signal is converted and output.

전처리부(120)는 영상촬영 장치의 교정 파라미터(rectification parameter) 값을 통해 스테레오 영상을 교정(rectification)하고, 영상의 에피폴라(epipolar) 라인을 일치시켜 출력한다. 전처리부(120)는 스테레오 카메라와 같은 영상촬영 장치의 특성 차이, 밝기 차이 등을 교정하는 교정 파라미터를 이용하여 스테레오 영상을 교정하고, 영상의 에피폴라 라인이 수평이 되도록 교정한다.The preprocessor 120 rectifies the stereo image through the correction parameter value of the image capturing apparatus, and outputs the same epipolar line of the image. The preprocessor 120 corrects the stereo image by using correction parameters for correcting characteristic differences, brightness differences, and the like of an image photographing apparatus such as a stereo camera, and corrects the epipolar line of the image to be horizontal.

영상 매칭부(130)는 전처리부(120)에서 수신된 스테레오 영상을 매칭하여 시차(disparity) 정보를 산출한다. 영상 매칭부(130)는 좌측과 우측의 영상촬영 장치에서 촬영된 좌측 영상과 우측 영상을 매칭시키고 매칭되는 픽셀 사이의 시차를 산출한다. 영상 매칭부(130)는 스테레오 영상의 각 픽셀에 대하여 시차값을 산출한 시차 맵(disparity map)을 산출할 수 있다.The image matching unit 130 calculates disparity information by matching the stereo image received by the preprocessor 120. The image matching unit 130 matches the left image and the right image photographed by the left and right image photographing apparatuses and calculates a parallax between the matching pixels. The image matching unit 130 may calculate a disparity map for calculating a disparity value for each pixel of the stereo image.

입체 영상 생성부(140)는 영상 매칭부(130)에서 수신된 영상과 시차 정보를 이용하여 입체 영상을 생성한다. 영상 매칭부(130)는 스테레오 영상(좌측 영상, 우측 영상) 가운데 하나를 선택하여 출력할 수도 있고, 스테레오 영상을 하나의 영상으로 합성한 하나의 영상을 출력할 수도 있다. 입체 영상 생성부(140)는 영상 매칭부(130)에서 출력된 영상의 색성분을 분석하고, 분석된 색성분과 시차 정보를 이용하여 입체 영상을 생성한다.The stereoscopic image generator 140 generates a stereoscopic image by using the image received from the image matching unit 130 and parallax information. The image matching unit 130 may select and output one of the stereo images (left image and right image), or may output one image obtained by synthesizing the stereo image into one image. The stereoscopic image generator 140 analyzes the color components of the image output from the image matcher 130 and generates a stereoscopic image using the analyzed color components and parallax information.

영상 매칭부(130)와 입체 영상 생성부(140)는 입체 영상 시스템에서 소프트웨어를 이용하여 소프트웨어 모듈형태로 구현될 수도 있고, 입체 영상 시스템의 GPU(Graphic Processing Unit)와 같은 그래픽 처리 하드웨어를 이용하여 구현되거나, FPGA(Field-Programmable Gate Array) 상의 전용 하드웨어 로직을 통하여 구현될 수도 있다. The image matching unit 130 and the stereoscopic image generating unit 140 may be implemented in the form of a software module using software in the stereoscopic image system, or by using graphic processing hardware such as a graphic processing unit (GPU) of the stereoscopic image system. Or may be implemented through dedicated hardware logic on a field-programmable gate array (FPGA).

전송부(150)는 입체 영상 생성부(140)에서 생성된 입체 영상을 수신하여 목적지로 전송한다. 전송부(150)는 입체 영상을 변조하여 실시예에 따른 유/무선 통신, 네트워크 시스템을 통하여 상대편 수신기(미도시)로 전송할 수 있다. 전송부(150)는 입체 영상 생성 시스템에서 생성된 입체 영상을 IP(Internet Protocol) 프로토콜에 따라 컴퓨터 네트워크로 전송할 수도 있고, 이동 통신 변조(modulation) 방식에 따라 변조하여 이동 통신 네트워크로 전송할 수도 있다.The transmitter 150 receives the stereoscopic image generated by the stereoscopic image generator 140 and transmits the stereoscopic image to the destination. The transmitter 150 modulates a stereoscopic image and transmits the stereoscopic image to a counterpart receiver (not shown) through wired / wireless communication and a network system according to an embodiment. The transmitter 150 may transmit the stereoscopic image generated by the stereoscopic image generating system to the computer network according to the IP (Internet Protocol) protocol, or may modulate the stereoscopic image generated according to the mobile communication modulation scheme and transmit the stereoscopic image to the mobile communication network.

스테레오 영상 촬영장치 또는 카메라가 컴퓨터나 노트북, 개인 이동 통신 단말기 등에 설치되어 있는 경우, 입체 영상 생성 시스템은 컴퓨터나 노트북, 개인 이동 통신 단말기 등의 어플리케이션 형태로 사용될 수 있다. 예를 들어, 입체 영상 생성 시스템은 컴퓨터나 노트북, 개인 이동 통신 단말기를 이용한 화상 회의 어플리케이션이나, 화상 통화 어플리케이션, 메신저 어플리케이션의 화상 메신저 기능 등으로 사용될 수 있다.When the stereo image photographing apparatus or the camera is installed in a computer, a notebook, a personal mobile communication terminal, or the like, the stereoscopic image generating system may be used in the form of an application such as a computer, a notebook, or a personal mobile communication terminal. For example, the 3D image generating system may be used as a video conference application using a computer, a notebook computer, a personal mobile communication terminal, a video call application, a video messenger function of a messenger application, and the like.

입체 영상 생성 시스템(100)은 수신부(미도시)를 통해 수신기에서 제어 신호를 수신할 수도 있으며, 입체 영상 시스템(100)은 제어 신호를 수신하여 영상 촬영 장치(100a, 100b)의 촬영 각도를 바꾸거나 특정 영역에 대한 주밍(Zooming)을 할 수도 있다.The stereoscopic image generating system 100 may receive a control signal from a receiver through a receiver (not shown), and the stereoscopic imaging system 100 receives the control signal to change the photographing angles of the image capturing apparatuses 100a and 100b. Or zoom in on a specific area.

저장부(160)는 입체 영상 생성부(140)에서 생성된 입체 영상을 저장한다. 사용자는 저장부(160)에 저장된 입체 영상을 이동식 메모리, 이동식 하드 디스크, 광 디스크 등의 저장 매체(storage media)에 복사하여 저장할 수도 있고, 재생 장치를 통해 원하는 시간에 입체 영상을 재생할 수도 있다. 또한, 사용자는 저장부(160)에 저장된 입체 영상을 필터링 하거나, 이미지 효과 처리하여 재가공할 수도 있다.The storage unit 160 stores the stereoscopic image generated by the stereoscopic image generating unit 140. The user may copy and store the stereoscopic image stored in the storage unit 160 to storage media such as a removable memory, a removable hard disk, or an optical disk, or may play the stereoscopic image at a desired time through a playback device. In addition, the user may filter or reprocess the stereoscopic image stored in the storage 160 or process an image effect.

도 2는 도 1에 도시된 입체 영상 생성 시스템의 영상 매칭부를 나타낸 도면이다. 도 2를 참조하면, 영상 매칭부(130)는 스테레오 매칭부(210) 및 시차 산출부(220)를 포함한다.FIG. 2 is a diagram illustrating an image matching unit of the stereoscopic image generating system illustrated in FIG. 1. Referring to FIG. 2, the image matcher 130 includes a stereo matcher 210 and a parallax calculator 220.

스테레오 매칭부(210)는 전처리부(120)로부터 수신된 스테레오 영상(좌측 영상과 우측 영상)을 매칭시켜 스테레오 영상 사이에 대응되는 픽셀(pixel)을 찾는다. 스테레오 매칭부(210)는 좌측 영상과 우측 영상 가운데 하나의 영상을 기준 영상(reference image)으로 선택하고, 기준 영상을 기준으로 나머지 영상즉, 탐색 영상과 대응되는 픽셀을 찾아 매칭한다. 스테레오 매칭은 매칭요소에 따라 특징 기반(feature-based) 매칭, 영역 기반(area-based) 매칭 등이 사용될 수 있다. 예를 들어, 특징 기반 매칭의 경우, 영 교차점, 경계선, 모서리 등을 매칭요소로 사용하여 스테레오 영상을 매칭한다. 영역 기반 매칭의 경우, 픽셀의 밝기 변화가 평탄하거나 동일한 영역의 모양, 영역의 평균 밝기 등을 매칭요소로 사용하여 유사도가 큰 픽셀을 매칭하고 스테레오 영상을 매칭한다.The stereo matching unit 210 matches a stereo image (left image and right image) received from the preprocessor 120 to find a pixel corresponding to the stereo image. The stereo matching unit 210 selects one image of the left image and the right image as a reference image, and finds and matches a pixel corresponding to the other image, that is, the search image, based on the reference image. For stereo matching, feature-based matching and area-based matching may be used according to matching elements. For example, in the case of feature-based matching, stereo images are matched using zero crossings, boundary lines, and corners as matching elements. In the case of region-based matching, a pixel having a high similarity is matched and a stereo image is matched using a shape having the flat or uniform brightness change of the pixel, an average brightness of the region, etc. as a matching element.

스테레오 매칭부(210)는 픽셀 매칭 정보 즉, 기준 영상의 픽셀과 대응되는 탐색 영상의 픽셀에 관한 정보를 시차 산출부(220)로 출력하고, 스테레오 영상 가운데 하나의 영상을 입체 영상 생성부(140)로 출력한다. 이하에서는, 스테레오 매칭부(210)가 스테레오 영상 가운데 기준 영상을 출력하는 경우를 예로하여 설명하기로 한다.The stereo matching unit 210 outputs pixel matching information, that is, information about a pixel of the search image corresponding to the pixel of the reference image to the parallax calculating unit 220, and outputs one of the stereo images to the stereo image generating unit 140. ) Hereinafter, a case in which the stereo matching unit 210 outputs a reference image among the stereo images will be described as an example.

시차 산출부(220)는 스테레오 영상의 픽셀 매칭 정보를 이용하여 픽셀에서의 시차 정보(또는, 시차값)를 산출한다. 시차는 공간상의 동일한 한 점에 대해 기준 영상과 탐색 영상에서 영상 좌표의 차이를 말한다. 시차 산출부(220)는 기준 영상을 기준으로 기준 영상과 탐색 영상에서 동일한 픽셀로 매칭된 픽셀간의 픽셀 거리를 시차값으로 산출한다. 시차 산출부(220)는 기준 영상의 각 픽셀에 대하여 시차값을 산출할 수 있으며, 시차값은 픽셀 거리 단위(예를 들어, 1픽셀 거리, 2픽셀 거리)로 산출될 수 있다. 기준 영상의 각 픽셀에 대하여 시차값을 산출한 결과, 시차 산출부(220)는 시차 맵(disparity map)을 얻을 수 있다.The parallax calculating unit 220 calculates parallax information (or parallax value) in the pixel using the pixel matching information of the stereo image. Parallax refers to the difference in image coordinates in a reference image and a search image for the same point in space. The parallax calculator 220 calculates, as a parallax value, a pixel distance between pixels matched with the same pixel in the reference image and the search image based on the reference image. The parallax calculator 220 may calculate a parallax value for each pixel of the reference image, and the parallax value may be calculated in pixel distance units (eg, 1 pixel distance and 2 pixel distance). As a result of calculating the parallax value for each pixel of the reference image, the parallax calculator 220 may obtain a disparity map.

영상 매칭부(130)는 시차 산출부(220)에서 시차값이 산출되는 기간 동안, 스테레오 매칭부(210)에서 출력되는 기준 영상 데이터를 버퍼링하여 시차값과 기준 영상이 입체 영상부(140)로 동시에 출력되도록 할 수도 있다.The image matching unit 130 buffers the reference image data output from the stereo matching unit 210 while the parallax calculation unit 220 calculates the parallax value, thereby displacing the parallax value and the reference image to the stereoscopic image unit 140. It can also be output at the same time.

도 3은 개시된 기술의 일 실시예에 따른 입체 영상 생성부를 나타낸 도면이다. 도 3을 참조하면, 입체 영상 생성부(140)는 영상 수신부(310), 제1 색 성분 추출부(320), 제2 색 성분 추출부(330) 및 영상 합성부(340)를 포함한다.3 is a diagram illustrating a stereoscopic image generator according to an exemplary embodiment of the disclosed technology. Referring to FIG. 3, the stereoscopic image generator 140 includes an image receiver 310, a first color component extractor 320, a second color component extractor 330, and an image synthesizer 340.

영상 수신부(310)는 영상 매칭부(130)로부터 영상을 수신하여, 색 성분 추출부(320, 330)로 출력한다. 색 성분 추출분(320, 330)는 영상 수신부(310)에서 수신된 영상에서 각각 특정 색 성분을 추출한다. The image receiver 310 receives an image from the image matcher 130 and outputs the image to the color component extractors 320 and 330. The color component extractors 320 and 330 extract specific color components from the image received by the image receiver 310, respectively.

제1 색 성분 추출부(320)와 제2 색 성분 추출부(330)는 영상의 각 픽셀에서 각각 보색(chromatically opposite color) 관계에 있는 색 성분값을 추출한다. 예를 들어, 제1 색 성분 추출부(320)가 영상의 각 픽셀에서 적색(red) 성분값을 추출하는 경우, 제2 색 성분 추출부(330)는 청색(blue) 성분값을 추출한다. 또는, 제1 색 성분 추출부(320)가 적색(red) 성분값을 추출하는 경우, 제2 색 성분 추출부(330)는 청록색(cyan) 성분값을 추출할 수 있다. 색 성분 추출부(320, 330)에서 추출하는 색 성분의 종류는 실시 예에 따라 달라질 수 있으며, 실험예에 따라 더 좋은 입체 영상을 만들 수 있는 색상이 있는 경우 실험예에 따른 색 성분을 추출하도록 할 수 있다.The first color component extractor 320 and the second color component extractor 330 extract color component values having chromaticity opposite colors from each pixel of the image. For example, when the first color component extractor 320 extracts a red component value from each pixel of the image, the second color component extractor 330 extracts a blue component value. Alternatively, when the first color component extractor 320 extracts a red component value, the second color component extractor 330 may extract a cyan component value. The type of color components extracted by the color component extracting units 320 and 330 may vary according to embodiments, and when there is a color to make a better stereoscopic image according to the experiment example, the color components according to the experiment example may be extracted. can do.

영상 합성부(340)는 영상 수신부(310)에 수신된 영상과 제1 색 성분 추출부(320)에서 추출된 제1 색 성분값, 제2 색 성분 추출부(330)에서 추출된 제2 색 성분값을 합성하여 입체 영상을 생성한다. 입체 영상을 생성하는 경우, 영상 합성부(340)는 영상 매칭부(130)에서 수신된 시차값을 이용하여 입체 영상을 생성한다. 예를 들어, 영상 합성부(340)는 제1 색 성분 추출부(320)에서 추출된 제1 색 성분값을 시차 성분(또는, 시차 값)만큼 픽셀을 좌측 또는 우측으로 이동하여 영상과 합성한다. 그리고, 영상 합성부(340)는 제2 색 성분 추출부(330)에서 추출된 제2 색 성분값을 시차 성분(또는, 시차 값)만큼 우측 또는 좌측(제1 색 성분 이동 방향과 반대 방향)으로 이동하여 영상과 합성한다.The image synthesizer 340 may receive an image received by the image receiver 310, a first color component value extracted by the first color component extractor 320, and a second color extracted by the second color component extractor 330. The component values are synthesized to generate a stereoscopic image. When generating a stereoscopic image, the image synthesizing unit 340 generates a stereoscopic image using the disparity value received from the image matching unit 130. For example, the image synthesizer 340 synthesizes the first color component value extracted by the first color component extractor 320 by moving the pixels left or right by the parallax component (or parallax value) to the image. . In addition, the image synthesizing unit 340 sets the second color component value extracted by the second color component extracting unit 330 to the right or the left (or a direction opposite to the moving direction of the first color component) by the parallax component (or parallax value). Go to and synthesize with the image.

도 4는 개시된 기술의 다른 일 실시예에 따른 입체 영상 생성부를 나타낸 도면이다. 도 4를 참조하면, 입체 영상 생성부(140)는 영상 수신부(410), 색 성분 추출부(420) 및 영상 합성부(430)를 포함한다. 도 3의 실시예는 각 색 성분에 대해 각각의 색 성분 추출부(320, 330)가 병렬로 연결된 형태이나, 도 4는 하나의 색 성분 추출부(420)에서 복수의 색 성분값을 추출한 후 출력하는 형태이다.4 illustrates a stereoscopic image generating unit according to another exemplary embodiment of the disclosed technology. Referring to FIG. 4, the stereoscopic image generator 140 includes an image receiver 410, a color component extractor 420, and an image synthesizer 430. In the embodiment of FIG. 3, each color component extracting unit 320 and 330 are connected in parallel with respect to each color component, but FIG. 4 illustrates the extraction of a plurality of color component values from one color component extracting unit 420. This is the output form.

영상 수신부(410)는 영상 매칭부(130)로부터 영상을 수신하여, 색 성분 추출부(420)로 출력한다. 색 성분 추출부(420)는 영상 수신부(310)에서 수신된 영상의 각 픽셀에서 보색(chromatically opposite color) 관계에 있는 복수의 색 성분값을 추출한다. 영상 합성부(430)는 영상 수신부(410)에 수신된 영상과 색 성분 추출부(420)에서 추출된 복수의 색 성분값을 합성하여 입체 영상을 생성한다. 예를 들어, 영상 합성부(340)는 색 성분 추출부(420)에서 추출된 제1 색 성분값을 시차 성분(또는, 시차 값)만큼 픽셀을 좌측 또는 우측으로 이동하여 영상과 합성하고, 색 성분 추출부(420)에서 추출된 제2 색 성분값을 시차 성분(또는, 시차 값)만큼 우측 또는 좌측(제1 색 성분 이동 방향과 반대 방향)으로 이동하여 영상과 합성한다. 상기와 같이 생성된 입체 영상은 저장부(160)에 저장되거나, 전송부(150)에서 변조되어 수신기로 전송될 수 있다.The image receiver 410 receives an image from the image matcher 130 and outputs the image to the color component extractor 420. The color component extractor 420 extracts a plurality of color component values having a chromatically opposite color relationship from each pixel of the image received by the image receiver 310. The image synthesizer 430 generates a stereoscopic image by combining the image received by the image receiver 410 and the plurality of color component values extracted by the color component extractor 420. For example, the image synthesizing unit 340 synthesizes the first color component value extracted by the color component extraction unit 420 by moving the pixels left or right by the parallax component (or parallax value) and synthesizing it with the image. The second color component value extracted by the component extractor 420 is moved to the right or left side (the direction opposite to the moving direction of the first color component) by the parallax component (or parallax value) and synthesized with the image. The stereoscopic image generated as described above may be stored in the storage 160 or may be modulated by the transmitter 150 and transmitted to the receiver.

상기 실시예에서는 스테레오 영상 가운데 하나의 영상과 시차 값을 이용하여 입체 영상을 생성하였으나, 스테레오 영상을 합성한 영상과 시차값을 이용하여 입체 영상을 생성할 수도 있다. 예를 들어, 다시점 영상을 합성하는 모핑(mophing) 기술을 이용하여 스테레오 영상을 하나의 중간 영상(intermediate)으로 합성한 후, 입체 영상을 생성할 수 있다. 모핑 기술을 이용하면 복수의 영상을 이용하여 각 영상에 포함된 모양과 색상을 보간하여 하나의 영상을 생성할 수 있다.In the above embodiment, a stereoscopic image is generated using one image and a parallax value among the stereo images, but a stereoscopic image may be generated using a synthesized stereo image and a parallax value. For example, a stereo image may be synthesized into one intermediate image by using a morphing technique of synthesizing a multiview image, and then a stereoscopic image may be generated. Using a morphing technique, a plurality of images may be used to generate one image by interpolating shapes and colors included in each image.

상기와 같이 생성된 입체 영상을 시청하는 사용자는 보색으로 염색된 입체 안경을 이용하여, 영상의 입체감을 느낄 수 있다. 예를 들어, 입체 영상 생성부(140)에서 적색(red) 성분과 청색(blue) 성분을 추출하여 입체 영상을 생성한 경우, 사용자는 한쪽 눈측이 적색으로 염색되고, 다른 쪽 눈측은 청색으로 염색된 입체 안경을 이용하여 입체 영상을 시청할 수 있다. 입체 영상 생성부(140)에서 적색(red) 성분과 청록색(cyan) 성분을 추출하여 입체 영상을 생성한 경우, 사용자는 한쪽 눈측이 적색으로 염색되고, 다른 쪽 눈측은 청록색으로 염색된 입체 안경을 이용하여 입체 영상을 시청할 수 있다.The user watching the stereoscopic image generated as described above may feel the stereoscopic sense of the image by using the stereoscopic glasses dyed in complementary colors. For example, when the stereoscopic image generator 140 extracts a red component and a blue component to generate a stereoscopic image, the user dyes one eye side in red and the other eye side in blue. Stereoscopic images can be viewed using the stereoscopic glasses. When the stereo component is generated by extracting the red component and the cyan component from the stereoscopic image generator 140, the user may wear stereoscopic glasses in which one eye side is dyed red and the other eye side is dyed cyan. 3D video can be viewed.

도 5는 도 1의 입체 영상 생성 시스템에서 생성된 입체 영상의 예를 나타낸 도면이다. 도 5의 상부에 도시된 각 영상은 입체 영상을 만들기 전의 원 영상을 나타내며, 하부에 도시된 각 영상은 상기에서 설명한 바와 같은 입체 영상 생성 과정을 통해 생성된 입체 영상을 나타낸다. 입체 영상을 시청하는 사용자가 보색으로 염색된 입체 영상을 이용하여 도 5의 하부에 도시된 영상을 시청하는 경우, 입체감을 느낄 수 있다.
5 is a diagram illustrating an example of a stereoscopic image generated by the stereoscopic image generating system of FIG. 1. Each image shown in the upper portion of FIG. 5 represents an original image before making a stereoscopic image, and each image shown in the lower portion represents a stereoscopic image generated through the stereoscopic image generation process as described above. When a user watching a stereoscopic image views the image illustrated in the lower part of FIG. 5 using the stereoscopic image dyed in complementary colors, the user may feel a stereoscopic feeling.

도 6은 개시된 기술의 일 실시예에 따른 영상 시스템의 배경 합성 시스템을 나타내는 도면이다. 도 6의 배경 합성 시스템(600)은 스테레오 카메라에서 촬영된 스테레오 영상을 이용하여 객체를 추출하고, 추출된 객체를 다른 배경과 합성하여 영상을 만드는 시스템의 예이다.6 illustrates a background synthesis system of an imaging system according to an embodiment of the disclosed technology. The background synthesis system 600 of FIG. 6 is an example of a system for extracting an object using a stereo image photographed by a stereo camera, and synthesizing the extracted object with another background to create an image.

도 6을 참조하면, 배경 합성 시스템(600)은 제1 영상촬영 장치(610a), 제2 영상촬영 장치(610b), 전처리부(620), 영상 매칭부(630), 객체 추출부(640), 합성부(650), 전송부(660) 및 저장부(670)를 포함한다. 제1 영상촬영 장치(610a), 제2 영상촬영 장치(610b), 전처리부(620), 영상 매칭부(630), 전송부(660) 및 저장부(670)에 관한 설명은 상기 도 1의 실시예에서 설명한 바와 같으므로 이에 대한 자세한 설명은 생략하기로 한다.Referring to FIG. 6, the background synthesis system 600 includes a first image capturing apparatus 610a, a second image capturing apparatus 610b, a preprocessor 620, an image matcher 630, and an object extractor 640. , A synthesizer 650, a transmitter 660, and a storage 670. A description of the first image capturing apparatus 610a, the second image capturing apparatus 610b, the preprocessor 620, the image matching unit 630, the transmitter 660, and the storage 670 is shown in FIG. As described in the embodiment, a detailed description thereof will be omitted.

객체 추출부(640)는 영상 매칭부(630)에서 출력된 영상과 시차 정보(또는, 시차값)를 이용하여 영상에 포함된 객체를 추출한다. 객체 추출부(640)는 배경 차분 기술이나 에지(edge) 검출 기술을 이용하여 객체를 추출하거나, 시차 정보를 이용하여 객체를 추출한다. 객체 추출부(640)는 영상에 포함된 적어도 하나의 객체를 추출할 수 있다.The object extractor 640 extracts an object included in the image using the image output from the image matcher 630 and parallax information (or parallax value). The object extractor 640 extracts an object using a background difference technique or an edge detection technique, or extracts an object using parallax information. The object extractor 640 may extract at least one object included in the image.

합성부(650)는 객체를 합성할 배경 영상을 선택하여 객체 추출부(640)에서 추출된 객체와 배경 영상을 합성한다. 배경 합성 시스템(600)은 메모리(미도시)에 이미 저장되어 있는 배경 영상 가운데 하나를 선택하거나, 사용자로부터 배경 영상을 입력받아 객체와 배경 영상을 합성할 수 있다. 합성부(650)는 객체를 합성할 배경 영상의 조명 환경(lighting environment)을 모델링한 후, 객체와 배경 영상이 합성된 합성 영상에 상기 모델링된 조명 환경을 적용하여 자연스러운 합성 영상을 만들 수 있다.The synthesis unit 650 selects a background image to synthesize the object, and synthesizes the background image with the object extracted by the object extractor 640. The background synthesis system 600 may select one of the background images already stored in the memory (not shown), or synthesize the object and the background image by receiving the background image from the user. The synthesis unit 650 may model a lighting environment of the background image to synthesize the object, and then apply the modeled lighting environment to the synthesized image obtained by synthesizing the object and the background image to create a natural composite image.

전송부(660)는 합성부(650)에서 생성된 합성 영상을 상대편 수신기로 전송하며, 저장부(670)는 합성부(650)에서 생성된 합성 영상을 저장한다.The transmitter 660 transmits the synthesized image generated by the synthesizer 650 to the opposite receiver, and the storage unit 670 stores the synthesized image generated by the synthesizer 650.

도 7은 도 6에 도시된 배경 합성 시스템의 객체 추출부를 나타낸 도면이다. 도 7을 참조하면, 객체 추출부(640)는 시차 분리부(710), 배경 차분부(720), 에지 검출부(730) 및 객체 결정부(740)를 포함한다.FIG. 7 is a diagram illustrating an object extracting unit of the background synthesis system illustrated in FIG. 6. Referring to FIG. 7, the object extractor 640 includes a parallax separator 710, a background difference unit 720, an edge detector 730, and an object determiner 740.

시차 분리부(710)는 영상 매칭부(630)에서 수신된 영상과 시차값을 이용하여 영상에 포함된 객체를 추출한다. 시차값은 영상 촬영 장치와 거리가 가까울수록 값이 커지며, 영상 촬영 장치와 거리가 멀어질수록 값이 작아진다. 영상에 포함된 배경 영역의 픽셀의 경우에는 특정 값(threshold)이하의 시차값을 가지며, 객체가 포함된 객체 영역의 픽셀의 경우에는 배경 영역과 달리 특정 값(threshold) 이상으로 일정 범위의 시차값을 가질 수 있다. 예를 들어, 사용자가 스테레오 영상촬영 장치를 이용하여 화상 통신을 하는 경우, 영상촬영 장치에 촬영된 사용자의 얼굴 영역은 배경 영역과 달리 일정한 범위의 시차값을 가질 수 있다. 상기 얼굴 영역의 시차값 범위는 영상촬영 장치와 사용자와의 거리에 따라 달라질 수 있으며, 이러한 시차값 범위는 실험을 통해 얻어질 수 있다. 시차 분리부(710)는 상기와 같은 시차값의 특성을 이용하여 일정한 범위의 시차값을 갖는 픽셀 영역을 객체 영역으로 판단하여 추출할 수 있다.The parallax separator 710 extracts an object included in the image using the image received from the image matching unit 630 and the parallax value. The disparity value is larger as the distance from the image capturing apparatus becomes larger, and the value becomes smaller as the distance from the image capturing apparatus becomes larger. In the case of the pixel of the background area included in the image, it has a parallax value less than or equal to a threshold value, and in the case of the pixel of the object area that includes an object, unlike the background area, a pixel of the background area includes a certain range of parallax values above a certain value. Can have For example, when a user performs image communication using a stereo image capturing apparatus, the face region of the user captured by the image capturing apparatus may have a predetermined range of parallax, unlike a background region. The parallax value range of the face region may vary according to the distance between the image photographing apparatus and the user, and the parallax value range may be obtained through an experiment. The parallax separator 710 may determine and extract a pixel area having a predetermined range of parallax as an object area by using the characteristics of the parallax as described above.

객체 영역을 판단한 후, 시차 분리부(710)는 객체 영역을 필터링하여 노이즈를 제거할 수 있다. 예를 들어, 시차 분리부(710)는 모폴로지 필터(Mophological filter)를 이용하여 객체 영역의 노이즈를 제거할 수 있다. 모폴로지 필터는 상기 객체 영역으로 판단된 각 픽셀에 대하여, 각 픽셀을 중심 픽셀로 하는 픽셀 윈도우(예를 들어, 3×3 픽셀 윈도우, 5×5 픽셀 윈도우 등)를 이용하여 노이즈를 제거한다. 즉, 모폴로지 필터는 픽셀 윈도우에 포함된 객체 영역의 픽셀 수가 특정 수(threshold)보다 큰 경우, 중심 픽셀을 객체 영역의 픽셀로 판단하며, 픽셀 윈도우에 포함된 객체 영역의 픽셀 수가 특정 수(threshold)보다 작은 경우, 중심 픽셀을 배경 영역의 픽셀로 판단한다. 모폴로지 필터는 객체 영역으로 판단된 영역의 주변 픽셀 예를 들어, 객체 영역의 경계 픽셀로부터 일정 거리 내에 있는 픽셀까지만 필터링하여 연산량을 줄일 수도 있다.After determining the object area, the parallax separator 710 may remove the noise by filtering the object area. For example, the parallax separator 710 may remove noise in the object region by using a morphological filter. The morphology filter removes noise for each pixel determined as the object region using a pixel window (eg, a 3x3 pixel window, a 5x5 pixel window, etc.) having each pixel as a center pixel. That is, when the number of pixels of the object region included in the pixel window is greater than a certain number, the morphology filter determines the center pixel as the pixel of the object region, and the number of pixels of the object region included in the pixel window is determined by a certain number. If smaller, the center pixel is determined as the pixel of the background area. The morphology filter may reduce the amount of computation by filtering only the pixels around the region determined as the object region, for example, only the pixels within a predetermined distance from the boundary pixels of the object region.

배경 차분부(720)는 객체가 포함되지 않은 배경 영상과 현재 수신되는 영상을 차분하여 객체를 추출한다. 배경 차분부(720)는 이미 저장되어 있는 배경 영상과 현재 수신되는 영상을 비교하여 픽셀 값(예를 들어, 픽셀의 밝기값 또는 색차값)의 차이가 일정 값(threshold) 이상 차이가 나는 영역을 객체 영역으로 판단할 수 있다. 배경 합성 시스템(600)은 시스템을 새로 동작시킬 때마다 객체가 없는 배경 영상을 미리 촬영하거나, 사용자가 수동으로 객체가 없는 배경 영상을 미리 촬영하도록 할 수 있다. 예를 들어, 화상 통신을 하는 경우, 배경 합성 시스템(600)은 화상 통신을 하기 전에 사용자가 포함되지 않은 배경 영상을 미리 촬영한 후 객체를 추출할 수 있다. 객체 영역을 판단한 후, 배경 차분부(720)는 모폴로지 필터와 같은 필터를 이용하여 객체 영역을 필터링하고 노이즈를 제거할 수 있다.The background difference unit 720 extracts an object by differentiating a background image that does not include an object and a currently received image. The background difference unit 720 compares an already stored background image with a currently received image to determine an area where a difference between a pixel value (for example, a brightness value or a color difference value of a pixel) differs by a predetermined value or more. It can be determined as an object area. The background synthesis system 600 may pre-capture a background image without an object each time the system is newly operated, or allow the user to manually photograph a background image without an object in advance. For example, in the case of video communication, the background synthesis system 600 may extract an object after photographing a background image in which the user is not included in advance before performing the video communication. After determining the object region, the background difference unit 720 may filter the object region and remove noise by using a filter such as a morphology filter.

에지 검출부(730)는 현재 수신되는 영상의 에지(edge)를 검출한다. 에지 검출부(730)는 밝기값이 불연속적인 픽셀을 이용하여 객체의 에지를 검출할 수 있다. 예를 들어, 에지 검출부(730)는 픽셀의 밝기값이 주변 픽셀과 비교하여 갑작스럽게 변하는 픽셀을 에지로 검출할 수 있다. 에지 검출부(730)는 그래디언트(gradient) 연산과 같은 1차 미분에 의한 수평, 수직 방향 미분 연산을 이용하여 에지를 검출할 수 있고, 라플라시안(laplacian) 연산과 같은 2차 미분 연산, 가우시안 차(Difference of Gaussian) 연산 등 다양한 검출 연산을 이용하여 에지를 검출할 수 있다.The edge detector 730 detects an edge of the currently received image. The edge detector 730 may detect the edge of the object by using pixels whose brightness values are discontinuous. For example, the edge detector 730 may detect, as an edge, a pixel whose brightness value of the pixel suddenly changes in comparison with a neighboring pixel. The edge detector 730 may detect edges using horizontal and vertical differential operations by first order derivatives such as gradient operations, and second derivatives such as laplacian operations, Gaussian difference, etc. Edges can be detected using various detection operations, such as of Gaussian).

객체 결정부(740)는 시차 분리부(710)와 배경 차분부(720)에서 추출된 객체 영역과 에지 검출부(730)에서 검출된 에지를 이용하여 확정적으로 객체를 결정한다. 예를 들어, 객체 결정부(740)는 시차 분리부(710)와 배경 차분부(720)에서 동시에 객체 영역으로 추출된 영역을 확정적으로 객체 영역으로 결정한다. 시차 분리부(710)와 배경 차분부(720) 가운데 어느 하나에서만 객체 영역으로 판정된 픽셀은 에지 검출부(730)에서 추출된 에지 정보를 이용하여 객체 영역을 결정한다. 예를 들어, 시차 분리부(710)와 배경 차분부(720) 가운데 어느 하나에서만 객체 영역으로 판정된 픽셀이 객체의 에지와 일정 거리(예를 들어, 1 내지 2 픽셀 거리) 이내에 있는 경우, 객체 결정부(740)는 상기 픽셀을 객체 영역에 포함되는 픽셀로 결정한다. 만약, 객체의 에지와 일정 거리 이상 떨어져 있는 경우, 객체 결정부(740)는 상기 픽셀을 배경 영역에 포함되는 픽셀로 결정한다.The object determiner 740 determines the object by using the object region extracted by the parallax separator 710 and the background difference unit 720 and the edge detected by the edge detector 730. For example, the object determiner 740 determines the area extracted as the object area at the same time by the parallax separator 710 and the background difference unit 720 as the object area. A pixel determined as an object region in only one of the parallax separator 710 and the background difference unit 720 determines the object region using the edge information extracted by the edge detector 730. For example, when the pixel determined as the object area is only within one of the parallax separator 710 and the background difference unit 720, the object is within a certain distance (for example, 1 to 2 pixel distance) from the edge of the object. The determiner 740 determines the pixel as a pixel included in the object area. If the object is separated from the edge by a distance or more, the object determiner 740 determines the pixel as a pixel included in the background area.

도 8은 도 6에 도시된 배경 합성 시스템의 합성부를 나타낸 도면이다. 도 8을 참조하면, 합성부(660)는 배경 합성부(810) 및 조명 합성부(820)를 포함한다.FIG. 8 is a diagram illustrating a synthesis unit of the background synthesis system illustrated in FIG. 6. Referring to FIG. 8, the combiner 660 includes a background combiner 810 and an illumination combiner 820.

배경 합성부(810)는 객체를 합성할 배경 영상을 선택하여 객체 추출부(640)에서 추출된 객체와 배경 영상을 합성한다. 배경 합성부(810)는 메모리(미도시)에 이미 저장되어 있는 배경 영상 가운데 하나를 선택하거나, 사용자로부터 배경 영상을 입력받아 배경 영상과 객체 추출부(640)에서 추출된 객체를 합성할 수 있다. 배경 합성부(810)는 객체의 경계를 기준으로 배경 영상과 혼합할 혼합 영역을 설정하고 객체와 배경 영상을 합성한다.The background synthesizer 810 selects a background image for synthesizing an object and synthesizes the background image with the object extracted by the object extractor 640. The background synthesizer 810 may select one of the background images already stored in the memory (not shown), or may synthesize the background image and the object extracted by the object extractor 640 by receiving a background image from the user. . The background synthesizer 810 sets a blending region to be mixed with the background image based on the boundary of the object and synthesizes the object and the background image.

도 9는 도 8의 배경 합성부에서 객체와 배경 영상을 혼합하는 매팅(matting) 방법을 나타낸 도면이다.FIG. 9 is a diagram illustrating a matting method of mixing an object and a background image in the background synthesizer of FIG. 8.

배경 합성부(810)는 객체의 경계를 기준으로 배경 영역과 객체 영역으로 수직 방향의 혼합 영역을 설정한다. 혼합 영역은 배경 영역 방향과 객체 영역 방향으로 일정한 범위의 픽셀 거리를 가질 수 있다. 혼합 영역이 정해지면, 배경 합성부(810)는 선형(linear) 혼합 방법을 이용하여 객체 영역과 배경 영역을 합성한다. 즉, 배경 합성부(810)는 객체 영역의 픽셀 값과 배경 영역의 픽셀 값, 거리에 따른 선형적인 혼합 비율을 이용하여 혼합 영역 내의 픽셀 값을 산출한다. 예를 들어, 객체 영역의 픽셀 값을 X, 배경 영역의 픽셀 값을 Y, 혼합 영역 내의 산출된 픽셀 값을 Z라고 할 경우, Z=aX+bY의 혼합 비율로 혼합될 수 있다. 객체 경계를 기준으로 객체 영역 방향으로 멀어질수록 a값은 커지고, b값은 작아진다. 반대로 객체 경계를 기준으로 배경 영역 방향으로 멀어질수록 a값은 작아지고, b값은 커진다.The background synthesizer 810 sets the mixed region in the vertical direction to the background region and the object region based on the boundary of the object. The mixed region may have a range of pixel distances in the background region direction and the object region direction. When the blending region is determined, the background synthesizing unit 810 synthesizes the object region and the background region by using a linear blending method. That is, the background synthesizer 810 calculates pixel values in the mixed region by using a linear blending ratio according to the pixel value of the object region, the pixel value of the background region, and the distance. For example, when the pixel value of the object area is X, the pixel value of the background area is Y, and the calculated pixel value in the mixing area is Z, the mixing may be performed in a mixing ratio of Z = aX + bY. As the distance from the object boundary toward the object area increases, the value a increases and the value b decreases. On the contrary, the value of a decreases and the value of b increases as the distance from the object boundary toward the background region increases.

도 10은 영상에서 객체를 추출하고 새로운 배경 영상과 객체를 합성하는 과정을 나타낸 도면이다.10 is a diagram illustrating a process of extracting an object from an image and composing a new background image and an object.

도 10의 a는 객체가 촬영된 원 영상을 나타내며, 도 10의 b는 스테레오 영상을 매칭하여 산출된 각 픽셀의 시차값을 밝기로 나타낸 도면이다. 영상촬영 장치와 가까울수록 시차값이 크므로 밝은 색으로 표현된다. 도 10의 c는 도 10의 a 영상에서 객체 영역을 추출한 것을 나타낸 도면이며, 도 10의 d는 도 10의 a 영상에서 추출된 객체와 새로운 배경 영상을 합성한 것을 나타낸 도면이다.FIG. 10A illustrates an original image in which an object is captured, and FIG. 10B illustrates a parallax value of each pixel calculated by matching a stereo image with brightness. The closer to the image capturing apparatus, the larger the parallax value, so that it is expressed in bright colors. FIG. 10C is a diagram illustrating an object region extracted from the image a of FIG. 10, and FIG. 10D is a diagram illustrating the synthesis of the object extracted from the image a of FIG. 10 and a new background image.

합성부(650)는 조명 합성 기능을 이용하여 더 자연스러운 합성 영상을 만들 수 있다. 합성부(650)에 포함된 조명 합성부(820)는 객체를 합성할 배경 영상의 조명 환경(lighting environment)을 모델링한 후, 배경 합성부(810)에서 합성된 영상에 상기 모델링된 조명 환경을 적용하여 자연스러운 합성 영상을 만든다.The synthesizing unit 650 may create a more natural synthetic image using the lighting synthesis function. The lighting synthesis unit 820 included in the synthesis unit 650 models a lighting environment of a background image to synthesize an object, and then applies the modeled lighting environment to the image synthesized by the background synthesis unit 810. To create a natural composite image.

도 11은 배경 영상의 조명 환경을 모델링하는 과정을 설명하는 도면이다. 도 11의 좌측 도면은 배경 영상을 미러 볼(mirror ball) 형태로 형태 변환한 것을 나타내는 도면이다. 도 11의 가운데 도면은 미러 볼 형태의 배경 영상을 위도와 경도로 나누어 표본화한 것을 나타내는 도면이며, 도 11의 우측 도면은 미러 볼 형태의 배경 영상을 중심점을 중심으로 반지름과 각도로 나누어 표본화한 것을 나타내는 도면이다.11 is a diagram illustrating a process of modeling a lighting environment of a background image. 11 is a diagram illustrating a shape conversion of a background image into a mirror ball shape. FIG. 11 is a diagram illustrating a sample of a mirror ball shape divided by latitude and longitude. The right view of FIG. 11 illustrates a sample of the mirror ball shape divided by a radius and an angle around a center point. It is a figure which shows.

조명 합성부(820)는 미러 볼을 이용하여 배경 영상의 조명 환경을 모델링 한다. 미러 볼은 미러 볼이 위치한 지점에서 주변 광원에 의해 영향을 받는 조명 효과를 알 수 있다. The lighting synthesis unit 820 models the lighting environment of the background image by using the mirror ball. The mirror ball can know the lighting effect that is affected by the ambient light at the point where the mirror ball is located.

조명 합성부(820)는 객체와 합성할 배경 영상을 도 11의 좌측 도면과 같이 반 구형의 미러 볼 형태로 변환한다. 예를 들어, 조명 합성부(820)는 영상의 형태 변환 알고리즘을 이용하여 영상의 가운데 부분은 확장하고, 영상의 주변 부분은 수축시켜 반 구형의 미러 볼 형태로 변환할 수 있다. 또는, 조명 합성부(820)는 배경 영상을 셀(cell)로 분할하고, 분할된 셀을 도 11의 가운데 도면 또는 도 11의 우측 도면에 도시된 미러 볼의 각 셀(cell)에 맵핑하여 미러 볼 형태로 변환할 수도 있다.The lighting synthesis unit 820 converts the background image to be synthesized with the object into a semi-spherical mirror ball shape as shown in the left figure of FIG. 11. For example, the lighting synthesizing unit 820 may expand the center portion of the image by using a shape conversion algorithm of the image, and contract the peripheral portion of the image to convert it into a semi-spherical mirror ball shape. Alternatively, the lighting synthesis unit 820 divides the background image into cells, and maps the divided cells to each cell of the mirror ball shown in the center view of FIG. 11 or the right view of FIG. 11. You can also convert to ball form.

도 12는 셀 분할된 배경 영상을 나타내는 도면이다. 도 12의 a는 도 11의 가운데 도면(위도와 경도로 나누어 표본화된 미러 볼)에 맵핑하는 경우의 셀 분할 방식을 나타내며, 도 12의 b는 도 11의 우측 도면(반지름과 각도로 나누어 표본화된 미러 볼)에 맵핑하는 경우의 셀 분할 방식을 나타낸다. 다만, 도 12의 셀 분할 방식은 일 예이며 다른 방식으로 셀 분할을 할 수도 있다. 또한, 셀의 크기가 작으면 작을수록 조명 합성부(820)는 더 정확한 조명 환경을 모델링할 수 있다. 조명 합성부(820)는 도 12와 같은 방식으로 셀을 분할하여 도 11의 가운데 또는 우측 도면의 미러 볼의 셀에 각 셀을 맵핑한다. 배경 영상의 각 셀은 미러 볼의 대응되는 셀 형태에 맞도록 셀 형태가 확장되거나 축소될 수 있다.12 is a diagram illustrating a cell-divided background image. FIG. 12A illustrates a cell dividing method in the case of mapping to the middle view (mirror ball divided by latitude and longitude) of FIG. 11, and FIG. 12B illustrates the right view (divided by radius and angle) of FIG. 11. Cell division method in the case of mapping to a mirror ball). However, the cell division scheme of FIG. 12 is an example and the cell division scheme may be performed in another manner. In addition, as the size of the cell is smaller, the lighting synthesis unit 820 may model a more accurate lighting environment. The lighting synthesizing unit 820 divides the cells in the same manner as in FIG. 12 and maps each cell to the cells of the mirror ball of the middle or right side of FIG. 11. Each cell of the background image may be expanded or contracted to fit the corresponding cell shape of the mirror ball.

미러 볼 형태로 배경 영상을 변환한 후, 조명 합성부(820)는 미러 볼의 각 셀에 대해 평균 조명 값을 산출한다. 조명 값은 조명의 색상값과 조명의 밝기값으로 표현될 수 있다. 조명 합성부(820)는 평균 조명 값을 이용하여 광원의 색상, 방향 또는 각도(angle), 거리 등을 알 수 있다. 예를 들어, 조명 합성부(820)는 밝기 값이 일정 값(threshold) 이상 되는 셀 방향에 광원이 위치하는 것으로 판단할 수 있다. 또한, 조명 합성부(820)는 일정 값(threshold)을 넘는 밝기 값 가운데 밝기 값이 작으면 광원이 상대적으로 먼 거리에 있는 것으로 판단할 수 있으며, 밝기 값이 크면 광원이 상대적으로 가까운 거리에 있는 것으로 판단할 수 있다.After converting the background image into a mirror ball shape, the lighting synthesis unit 820 calculates an average illumination value for each cell of the mirror ball. The illumination value may be expressed as a color value of the illumination and a brightness value of the illumination. The lighting composition unit 820 may know the color, direction or angle, distance, etc. of the light source using the average illumination value. For example, the lighting combination unit 820 may determine that the light source is positioned in a cell direction in which the brightness value is equal to or greater than a predetermined value. In addition, the lighting combination unit 820 may determine that the light source is relatively far when the brightness value is small among the brightness values exceeding a predetermined value, and the light source is relatively close when the brightness value is large. It can be judged that.

조명 합성부(820)는 광원의 색상, 방향 또는 각도, 거리 정보를 이용하여 배경 합성부(810)에서 합성된 영상에 조명 효과를 넣어 다시 합성한다. 조명 합성부(820)는 광원의 색상, 방향 또는 각도, 거리 정보와 객체 영역의 시차값에 따른 객체의 깊이 정보를 이용하여 영상의 표면 색상을 변경한다. 예를 들어, 조명 합성부(820)는 쉐이딩(shading) 기능을 이용하여 객체 영역에 조명 효과를 넣을 수 있다. 쉐이딩(shading) 기능은 광원의 방향 또는 각도, 광원과의 거리 정보를 이용하여 표면(texture)의 색상을 변경한다.The lighting synthesizing unit 820 recombines the lighting effect by adding the lighting effect to the image synthesized by the background synthesizing unit 810 by using the color, direction or angle, and distance information of the light source. The lighting composition unit 820 changes the surface color of the image by using the color, direction or angle, distance information of the light source, and depth information of the object according to the parallax value of the object region. For example, the lighting composition unit 820 may add a lighting effect to the object area by using a shading function. The shading function changes the color of the texture by using the direction or angle of the light source and the distance from the light source.

도 13은 배경 영상의 조명 환경을 객체 영역에 적용하여 합성된 영상을 나타내는 도면이다. 도 13에서 윗 도면은 배경 영상을 나타내며, 아랫 도면은 배경 각각의 배경 영상의 조명 환경을 객체 영역에 적용하여 합성된 영상을 나타낸다.FIG. 13 is a diagram illustrating an image synthesized by applying a lighting environment of a background image to an object region. In FIG. 13, the upper figure shows a background image, and the lower figure shows an image synthesized by applying a lighting environment of each background image to an object region.

전송부(660)는 합성부(650)에서 생성된 합성 영상을 수신하여 목적지로 전송한다. 합성부(650)는 기능 설정에 따라 배경 영상과 객체를 합성한 합성 영상을 출력할 수도 있고, 배경 영상과 객체를 합성한 영상에 배경 영상의 조명 환경을 적용한 합성 영상을 출력할 수도 있다. 저장부(670)는 합성부(650)에서 생성된 입체 영상을 저장한다.
The transmitter 660 receives the synthesized image generated by the synthesizer 650 and transmits the synthesized image to the destination. The synthesizing unit 650 may output a synthesized image obtained by synthesizing the background image and the object according to a function setting, or may output a synthesized image obtained by applying a lighting environment of the background image to the synthesized image of the background image and the object. The storage unit 670 stores the stereoscopic image generated by the synthesis unit 650.

도 14는 개시된 기술의 일 실시예에 따른 영상 시스템의 다시점 영상 합성 시스템을 나타내는 도면이다. 도 14의 다시점 영상 합성 시스템(1400)은 다시점 영상 가운데 스테레오 영상을 이용하여 합성 영상을 만드는 시스템의 예이다.14 illustrates a multiview image synthesis system of an imaging system, according to an embodiment of the disclosed technology. The multiview image synthesis system 1400 of FIG. 14 is an example of a system for creating a synthesized image using a stereo image among the multiview images.

도 14를 참조하면, 다시점 영상 합성 시스템(1400)은 제1 영상촬영 장치(1410a), 제2 영상촬영 장치(1410b), 전처리부(1420), 다시점 영상 합성부(1430), 전송부(1440) 및 저장부(1450)를 포함한다. 제1 영상촬영 장치(1410a), 제2 영상촬영 장치(1410b), 전처리부(1420), 전송부(1440) 및 저장부(1450)에 관한 설명은 상기 도 1의 실시예에서 설명한 바와 같으므로 이에 대한 자세한 설명은 생략하기로 한다.Referring to FIG. 14, the multiview image synthesizing system 1400 includes a first image capturing apparatus 1410a, a second image capturing apparatus 1410b, a preprocessor 1420, a multiview image synthesizing unit 1430, and a transmitting unit. 1440 and the storage 1450. Since the description of the first image capturing apparatus 1410a, the second image capturing apparatus 1410b, the preprocessor 1420, the transmission unit 1440, and the storage unit 1450 is the same as described with reference to the embodiment of FIG. 1. Detailed description thereof will be omitted.

다시점 영상 합성부(1430)는 입력된 다시점 영상을 합성하여 하나의 영상을 출력한다. 다시점 영상 합성부(1430)는 모핑(morphing) 기술을 이용하여 복수의 영상을 합성한다. 모핑 기술은 영상에 포함된 모양(shape)과 색상(color)을 보간하여 하나의 영상을 생성한다. 뷰 모핑(view morphing) 기술을 이용하는 경우, 다시점 영상 합성부(1430)는 제1 영상촬영 장치(1410a)와 제2 영상촬영 장치(1410b) 사이에서 영상촬영 장치를 이용하여 영상을 촬영한 것같은 중간 영상(intermediate view image)을 생성할 수 있다. 도 15는 중간 영상을 생성하는 뷰 모핑 기술을 설명하는 도면이다. 도 15를 참조하면 뷰 모핑 기술은 좌측 영상촬영 장치에서 촬영된 영상과 우측 영상 촬영 장치에서 촬영된 영상을 이용하여 가상 영상촬영 장치(virtual camera)의 위치에서 영상을 촬영한 것같은 중간 영상(mophed view)을 생성할 수 있다.
The multiview image synthesizer 1430 synthesizes the input multiview image and outputs one image. The multiview image synthesizer 1430 synthesizes a plurality of images by using a morphing technique. The morphing technique generates one image by interpolating shapes and colors included in the image. In the case of using a view morphing technique, the multi-view image synthesizing unit 1430 captures an image by using an image capturing apparatus between the first image capturing apparatus 1410a and the second image capturing apparatus 1410b. The same intermediate view image may be generated. 15 is a view for explaining a view morphing technique for generating an intermediate image. Referring to FIG. 15, a view morphing technique may be performed by using an image captured by a left image capturing apparatus and an image captured by a right image capturing apparatus, such as an image captured by a virtual camera at a position of a virtual camera. view).

도 16은 개시된 기술의 일 실시예에 따른 입체 영상 생성 시스템, 배경 합성 시스템 및 다시점 영상 합성 시스템을 포함하는 다시점 영상 시스템을 나타내는 도면이다. 다시점 영상 시스템은 입체 영상 생성 시스템, 배경 합성 시스템 및 다시점 영상 합성 시스템 가운데 적어도 2개 이상의 시스템이 결합되어 시스템이 구성될 수 있다. 도 16은 상기 3개의 시스템이 모두 결합된 형태의 시스템을 나타내는 도면이다.FIG. 16 is a diagram illustrating a multiview image system including a stereoscopic image generation system, a background synthesis system, and a multiview image synthesis system, according to an exemplary embodiment. The multi-view image system may be configured by combining at least two or more systems of a stereoscopic image generation system, a background synthesis system, and a multiview image synthesis system. FIG. 16 illustrates a system in which all three systems are combined.

도 16을 참조하면, 다시점 영상 시스템(1600)은 제1 영상촬영 장치(1610a), 제2 영상촬영 장치(1610b), 전처리부(1620), 영상 매칭부(1630), 객체 추출부(1640), 합성부(1650), 입체 영상 생성부(1660), 다시점 영상 합성부(1670), 전송부(1680) 및 저장부(1690)를 포함한다.Referring to FIG. 16, the multiview imaging system 1600 may include a first image capturing apparatus 1610a, a second image capturing apparatus 1610b, a preprocessor 1620, an image matcher 1630, and an object extractor 1640. ), A synthesizer 1650, a stereoscopic image generator 1660, a multiview image synthesizer 1670, a transmitter 1680, and a storage 1690.

다시점 영상 시스템(1600)은 도 1에서 설명한 입체 영상 생성 시스템, 도 6에서 설명한 배경 합성 시스템 및 도 14에서 설명한 다시점 영상 합성 시스템을 포함한다.The multi-view image system 1600 includes the stereoscopic image generation system described with reference to FIG. 1, the background synthesis system described with reference to FIG. 6, and the multiview image synthesis system described with reference to FIG. 14.

다시점 영상 시스템(1600)는 영상 촬영 장치(1610a, 1610b)에서 촬영된 다시점 영상을 이용하여 입체 영상을 생성하거나, 영상에 포함된 객체와 새로운 배경 영상을 합성할 수 있다. 또한, 다시점 영상 시스템(1600)는 다시점 영상을 합성하여 하나의 영상을 생성할 수 있다. 상기와 같은 다시점 영상 시스템(1600)의 영상 매칭부(1630), 객체 추출부(1640), 합성부(1650), 입체 영상 생성부(1660) 및 다시점 영상 합성부(1670)는 소프트웨어를 이용하여 소프트웨어 모듈형태로 구현될 수도 있고, GPU와 같은 그래픽 처리 하드웨어를 이용하여 구현되거나, FPGA 상의 전용 하드웨어 로직을 통하여 구현될 수도 있다.The multi-view imaging system 1600 may generate a stereoscopic image by using the multi-view images captured by the image capturing apparatus 1610a or 1610b, or may synthesize a new background image with an object included in the image. In addition, the multi-view image system 1600 may generate a single image by synthesizing the multi-view image. The image matcher 1630, the object extractor 1640, the synthesizer 1650, the stereoscopic image generator 1660, and the multiview image synthesizer 1670 of the multi-view image system 1600 may use software. It may be implemented in the form of a software module, or may be implemented using graphics processing hardware such as a GPU, or may be implemented through dedicated hardware logic on an FPGA.

영상 촬영장치 또는 카메라가 컴퓨터나 노트북, 개인 이동 통신 단말기 등에 설치되어 있는 경우, 다시점 영상 시스템(1600)은 컴퓨터나 노트북, 개인 이동 통신 단말기 등의 어플리케이션 형태로 사용될 수 있다. 예를 들어, 입체 영상 생성 시스템은 컴퓨터나 노트북, 개인 이동 통신 단말기를 이용한 화상 회의 어플리케이션이나, 화상 통화 어플리케이션, 메신저 어플리케이션의 화상 메신저 기능 등으로 사용될 수 있다.When the image capturing apparatus or the camera is installed in a computer, a notebook, a personal mobile communication terminal, or the like, the multi-view video system 1600 may be used in the form of an application such as a computer, a notebook, or a personal mobile communication terminal. For example, the 3D image generating system may be used as a video conference application using a computer, a notebook computer, a personal mobile communication terminal, a video call application, a video messenger function of a messenger application, and the like.

사용자가 다시점 영상 시스템(1600)의 배경 합성 기능을 사용하는 경우, 다시점 영상 시스템(1600)은 영상 촬영장치(1610a, 1610b)에서 촬영된 영상을 영상 매칭부(1630), 객체 추출부(1640), 합성부(1650)를 통해 영상에서 객체를 추출하고, 추출된 객체와 새로운 배경 영상을 합성한다. 사용자가 다시점 영상 시스템(1600)의 입체 영상 생성 기능을 사용하는 경우, 다시점 영상 시스템(1600)은 영상 촬영장치(1610a, 1610b)에서 촬영된 영상을 영상 매칭부(1630), 입체 영상 생성부(1660)를 통해 입체 영상을 생성한다. 사용자가 다시점 영상 시스템(1600)의 다시점 영상 합성 기능을 사용하는 경우, 다시점 영상 시스템(1600)은 영상 촬영장치(1610a, 1610b)에서 촬영된 영상을 다시점 영상 합성부(1670)를 통해 다시점 영상을 합성한다.When the user uses the background compositing function of the multiview imaging system 1600, the multiview imaging system 1600 may display an image captured by the image capturing apparatus 1610a or 1610b in the image matching unit 1630 and the object extractor ( 1640, the synthesizer 1650 extracts an object from the image, and synthesizes the extracted object and a new background image. When the user uses the 3D image generating function of the multiview image system 1600, the multiview image system 1600 generates an image matched unit 1630 and a 3D image by using the images captured by the image capturing apparatus 1610a or 1610b. The unit 1660 generates a stereoscopic image. When the user uses the multi-view image synthesis function of the multi-view image system 1600, the multi-view image system 1600 may display the image captured by the image capturing apparatus 1610a or 1610b. Through the multi-view image.

다시점 영상 시스템(1600)은 배경 합성 기능과 입체 영상 생성 기능을 동시에 사용할 수도 있다. 예를 들어, 다시점 영상 시스템(1600)의 입체 영상 생성부(1660)는 합성부(1650)로부터 배경 합성 영상을 수신하고, 영상 매칭부(1630)로부터 객체 영역의 시차 정보를 수신하여 객체와 배경 영상이 합성된 영상을 입체 영상으로 만들 수 있다. 입체 영상 생성부(1660)는 객체와 배경 영상이 합성된 영상의 색 성분값을 추출하고 색 성분값을 시차값만큼 좌측 또는 우측으로 이동하여 입체 영상을 만들 수 있다.The multi-view imaging system 1600 may use a background synthesis function and a stereoscopic image generation function at the same time. For example, the 3D image generating unit 1660 of the multiview image system 1600 receives a background composite image from the combining unit 1650, and receives parallax information of the object area from the image matching unit 1630, thereby receiving the object and the object. An image obtained by synthesizing a background image may be a stereoscopic image. The stereoscopic image generator 1660 may extract the color component values of the image obtained by synthesizing the object and the background image and move the color component values left or right by the parallax value to create a stereoscopic image.

다시점 영상 시스템(1600)에서 생성된 입체 영상이나, 다시점 합성 영상 또는 배경 합성 영상은 전송부(1680)를 통해 상대편 수신기로 전송되거나, 저장부(1690)에 저장될 수 있다.
A stereoscopic image, a multiview composite image, or a background composite image generated by the multiview image system 1600 may be transmitted to the other receiver through the transmitter 1680 or may be stored in the storage unit 1690.

도 17은 개시된 기술의 일 실시예에 따른 입체 영상 처리 방법을 나타내는 순서도이다. 도 17을 참조하면, 도 17은 다시점 영상 가운데 하나인 스테레오 영상을 이용하여 입체 영상을 생성하고 처리하는 방법을 나타낸다.17 is a flowchart illustrating a stereoscopic image processing method according to an embodiment of the disclosed technology. Referring to FIG. 17, FIG. 17 illustrates a method of generating and processing a stereoscopic image by using a stereo image which is one of multi-view images.

입체 영상 생성 시스템은 영상 촬영 장치를 이용하여 스테레오 영상을 촬영한다(S1700). 영상 촬영 장치는 CCD 모듈이나 CMOS 모듈 등과 같은 이미지 모듈을 이용하여 피사체의 영상을 촬영한다.The 3D image generating system captures a stereo image using the image capturing apparatus (S1700). The image capturing apparatus photographs an image of a subject using an image module such as a CCD module or a CMOS module.

입체 영상 생성 시스템은 영상 촬영 장치를 통해 촬영된 스테레오 영상을 전처리 한다. 입체 영상 생성 시스템은 스테레오 영상을 영상 촬영 장치 교정 파라미터를 이용하여 스테레오 영상을 교정한다(S1710). 예를 들어, 입체 영상 생성 시스템은 스테레오 영상의 특성 차이, 밝기 차이 등을 교정하거나, 영상의 에피폴라 라인이 수평이 되도록 교정할 수 있다.The stereoscopic image generating system preprocesses stereo images captured by the image capturing apparatus. The stereoscopic image generating system corrects the stereoscopic image by using the imaging apparatus calibration parameter (S1710). For example, the stereoscopic image generating system may correct characteristic differences, brightness differences, and the like of the stereo image or correct the epipolar line of the image to be horizontal.

입체 영상 생성 시스템은 스테레오 영상을 매칭하여 시차 정보를 산출한다(S1720). 입체 영상 생성 시스템은 스테레오 영상 가운데 하나를 기준 영상으로 선택하여 스테레오 매칭한 후, 각 픽셀에 대하여 시차 정보를 산출한다.The stereoscopic image generating system calculates parallax information by matching stereo images (S1720). The stereoscopic image generating system selects one of the stereo images as a reference image, performs stereo matching, and calculates disparity information for each pixel.

입체 영상 생성 시스템은 하나의 영상에서 특정 색 성분을 추출한다(S1730). 예를 들어, 입체 영상 생성 시스템은 스테레오 영상 가운데 기준 영상을 이용하여 특정 색 성분을 추출할 수도 있고, 스테레오 영상을 합성한 영상을 이용하여 특정 색 성분을 추출할 수도 있다. 색 성분을 추출하는 경우, 입체 영상 생성 시스템은 보색 관계에 있는 2개의 색 성분을 추출할 수 있다.The stereoscopic image generating system extracts a specific color component from one image (S1730). For example, the stereoscopic image generating system may extract a specific color component using a reference image among stereo images, or may extract a specific color component using an image obtained by synthesizing the stereo image. When the color component is extracted, the stereoscopic image generating system may extract two color components having a complementary color relationship.

입체 영상 생성 시스템은 영상에서 추출된 색 성분의 값과 시차 정보를 이용하여 입체 영상을 생성한다(S1740). 입체 영상 생성 시스템은 영상에서 추출된 제1 색성분값을 시차 정보만큼 좌측 또는 우측 이동하여 영상과 합성하고, 제2 색성분값을 시차 정보만큼 우측 또는 좌측(제1 색성분값과 반대방향)으로 이동하여 영상과 합성하여 입체 영상을 생성할 수 있다.
The stereoscopic image generating system generates a stereoscopic image using the values of color components extracted from the image and parallax information (S1740). The stereoscopic image generating system shifts the first color component value extracted from the image left or right by the parallax information and synthesizes the image, and moves the second color component value to the right or left (the opposite direction to the first color component value) by the parallax information. The stereoscopic image may be generated by combining with the image.

도 18은 개시된 기술의 일 실시예에 따른 배경 합성 영상 처리 방법을 나타내는 순서도이다. 도 18을 참조하면, 도 18은 다시점 영상 가운데 하나인 스테레오 영상을 이용하여 배경 합성 영상을 생성하고 처리하는 방법을 나타낸다.18 is a flowchart illustrating a background composite image processing method according to an embodiment of the disclosed technology. Referring to FIG. 18, FIG. 18 illustrates a method of generating and processing a background composite image by using a stereo image which is one of multi-view images.

배경 합성 시스템은 영상 촬영 장치를 이용하여 스테레오 영상을 촬영한다(S1800). 배경 합성 시스템은 영상 촬영 장치를 통해 촬영된 스테레오 영상을 전처리 한다. 배경 합성 시스템은 스테레오 영상을 영상 촬영 장치 교정 파라미터를 이용하여 스테레오 영상을 교정한다(S1810). 배경 합성 시스템은 스테레오 영상을 매칭하여 시차 정보를 산출한다(S1820).The background synthesis system captures a stereo image using the image capturing apparatus (S1800). The background synthesis system pre-processes stereo images captured by the image capturing apparatus. In operation S1810, the background synthesis system corrects the stereo image by using the imaging apparatus calibration parameter. The background synthesis system calculates parallax information by matching stereo images (S1820).

시차 정보를 산출한 후, 배경 합성 시스템은 영상에 포함된 객체를 추출한다(S1830). 예를 들어, 배경 합성 시스템은 시차 분리를 이용하여 객체를 추출하거나, 배경 차분을 이용하여 객체를 추출한다. 배경 합성 시스템은 영상에 포함된 에지를 검출하여 객체를 추출할 수도 있다. 또는, 시차 분리와 배경 차분에 의하여 동시에 객체 영역으로 추출된 영역은 객체 영역으로 결정하고, 어느 하나에서만 객체 영역으로 추출된 픽셀은 에지와의 거리를 기준으로 객체 영역으로 판단할 수도 있다.After calculating the parallax information, the background synthesis system extracts an object included in the image (S1830). For example, a background synthesis system extracts an object using parallax separation, or extracts an object using background difference. The background synthesis system may extract an object by detecting an edge included in the image. Alternatively, the region extracted into the object region at the same time by the parallax separation and the background difference may be determined as the object region, and the pixel extracted as the object region in only one may be determined as the object region based on the distance from the edge.

객체를 추출한 배경 합성 시스템은 추출된 객체와 새로운 배경 영상을 합성한다(S1840). 배경 합성 시스템은 객체의 경계를 기준으로 객체 영역과 배경 영역을 포함하는 혼합 영역을 설정하고, 거리에 따른 선형 혼합 비율을 이용하여 혼합 영역의 픽셀값을 정한다. 객체와 배경 영상을 합성한 배경 합성 시스템은 배경 영상의 조명 환경을 모델링한 후, 모델링된 조명 환경에 따라 객체 영역을 다시 합성하여 더 자연스러운 합성 영상을 만들 수 있다.
The background synthesis system extracting the object synthesizes the extracted object and a new background image (S1840). The background synthesis system sets a blending area including the object area and the background area based on the boundary of the object, and determines the pixel value of the blending area using the linear blending ratio according to the distance. The background synthesis system, which synthesizes the object and the background image, may model the lighting environment of the background image, and then synthesize the object regions according to the modeled lighting environment to create a more natural composite image.

도 19는 개시된 기술의 일 실시예에 따른 다시점 영상 합성 처리 방법을 나타내는 순서도이다. 도 19를 참조하면, 도 19는 다시점 영상 가운데 하나인 스테레오 영상을 이용하여 다시점 영상을 합성하고 처리하는 방법을 나타낸다.19 is a flowchart illustrating a multiview image synthesis processing method according to an embodiment of the disclosed technology. Referring to FIG. 19, FIG. 19 illustrates a method of synthesizing and processing a multiview image using a stereo image which is one of multiview images.

다시점 영상 합성 시스템은 영상 촬영 장치를 이용하여 스테레오 영상을 촬영한다(S1900). 다시점 영상 합성 시스템은 영상 촬영 장치를 통해 촬영된 스테레오 영상을 전처리 한다. 다시점 영상 합성 시스템은 스테레오 영상을 영상 촬영 장치 교정 파라미터를 이용하여 스테레오 영상을 교정한다(S1910).The multi-view image synthesizing system captures a stereo image using the image capturing apparatus (S1900). The multi-view image synthesis system preprocesses stereo images captured by the image capturing apparatus. The multi-view image synthesizing system corrects the stereoscopic image by using the imaging apparatus calibration parameter (S1910).

다시점 영상 합성 시스템은 스테레오 영상을 합성하여 하나의 영상을 생성한다(S1920). 예를 들어, 다시점 영상 합성 시스템은 모핑(morphing) 기술을이용하여 스테레오 영상의 모양, 색상을 보간하여 영상을 합성할 수 있다. 또는, 다시점 영상 합성 시스템은 뷰 모핑(view morphing) 기술을 이용하여 스테레오 영상 사이의 시점에서 촬영된 것과 같은 영상을 합성할 수도 있다.
The multi-view image synthesizing system synthesizes stereo images to generate one image (S1920). For example, a multi-view image synthesis system may synthesize an image by interpolating a shape and a color of a stereo image by using a morphing technique. Alternatively, the multiview image synthesis system may synthesize an image, such as photographed from a viewpoint between stereo images, using a view morphing technique.

도 20은 개시된 기술의 일 실시예에 따른 다시점 영상 처리 방법을 나타내는 순서도이다. 도 20을 참조하면, 도 20은 다시점 영상 가운데 하나인 스테레오 영상을 이용하여 입체 영상을 생성하거나, 배경 합성 영상을 생성하거나 또는 다시점 영상을 합성하고 처리하는 방법을 나타낸다.20 is a flowchart illustrating a multiview image processing method according to an embodiment of the disclosed technology. Referring to FIG. 20, FIG. 20 illustrates a method of generating a stereoscopic image, generating a background composite image, or synthesizing and processing a multiview image using a stereo image which is one of multiview images.

다시점 영상 시스템은 사용자의 기능 설정에 따라 입체 영상을 생성하거나, 배경 합성 영상을 생성하거나 또는 다시점 영상을 합성할 수 있다. 사용자가 기능을 설정하면 다시점 영상 시스템은 영상 촬영 장치를 이용하여 스테레오 영상을 촬영 한다(S2000). 다시점 영상 시스템은 영상 촬영 장치 교정 파라미터를 이용하여 스테레오 영상을 교정한다(S2010).The multiview image system may generate a stereoscopic image, generate a background composite image, or synthesize a multiview image according to a user's function setting. If the user sets the function, the multi-view imaging system captures a stereo image using the image capturing apparatus (S2000). The multi-view imaging system corrects the stereo image using the imaging apparatus calibration parameter (S2010).

다시점 영상 시스템은 사용자가 설정한 기능을 판단하여, 사용자가 입체 영상 생성 기능을 설정하였는지, 배경 합성 기능을 설정하였는지 또는 다시점 영상 합성 기능을 설정하였는지 판단한다(S2020). S2020단계의 판단 결과, 사용자가 다시점 영상 합성 기능을 설정한 경우, 다시점 영상 시스템은 스테레오 영상을 합성하여 하나의 영상을 생성한다(S2030). S2020단계의 판단 결과, 사용자가 입체 영상 생성 기능을 설정하였거나, 배경 합성 기능을 설정한 경우, 다시점 영상 시스템은 스테레오 영상을 매칭하여 시차 정보를 산출한다(S2040).The multi-view image system determines the function set by the user, and determines whether the user has set the 3D image generation function, the background synthesis function, or the multi-view image synthesis function (S2020). As a result of the determination in step S2020, when the user sets the multiview image synthesis function, the multiview image system synthesizes the stereo images to generate one image (S2030). As a result of the determination in step S2020, when the user sets the stereoscopic image generation function or the background synthesis function, the multiview image system calculates parallax information by matching the stereoscopic image (S2040).

시차 정보를 산출한 후, 다시점 영상 시스템은 사용자가 입체 영상 생성 기능을 설정하였는지 또는 배경 합성 기능을 설정하였는지 판단한다(S2050). S2050단계의 판단 결과, 사용자가 입체 영상 생성 기능을 설정한 경우, 다시점 영상 시스템은 스테레오 영상 가운데 하나의 영상에서 특정 색 성분을 추출하고(S2060), 영상에서 추출된 색 성분의 값과 시차 정보를 이용하여 입체 영상을 생성한다(S2070). S2050단계의 판단 결과, 사용자가 배경 합성 기능을 설정한 경우, 다시점 영상 시스템은 영상에 포함된 객체를 추출하고(S2080), 추출된 객체와 새로운 배경 영상을 합성한다(S2090). 각 단계에서 처리 과정에 관한 상세한 설명은 상기 도 1내지 도 19에서 설명한 바와 같다.
After calculating the parallax information, the multi-view image system determines whether the user has set the 3D image generation function or the background synthesis function (S2050). As a result of the determination in step S2050, when the user sets the stereoscopic image generation function, the multi-view image system extracts a specific color component from one image of the stereoscopic image (S2060), and the value and color difference information of the color component extracted from the image. A stereoscopic image is generated using S2070. As a result of the determination in step S2050, when the user sets the background synthesis function, the multiview image system extracts an object included in the image (S2080), and synthesizes the extracted object and a new background image (S2090). Detailed description of the processing procedure at each step is as described with reference to FIGS. 1 to 19.

일 실시예에 따른 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법은 다시점 영상과 시차 정보를 이용하여 입체 영상을 생성할 수 있다. 영상 시스템은 간단하고 효율적으로 입체 영상을 생성할 수 있으며, 시차 정보를 이용하여 영상의 입체 효과를 향상시킬 수 있다.An image system and an image processing method using a multiview image according to an embodiment may generate a stereoscopic image using a multiview image and parallax information. The imaging system can generate stereoscopic images simply and efficiently, and can enhance stereoscopic effects of the images by using parallax information.

일 실시예에 따른 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법은 다시점 영상에 포함된 객체를 추출하여 추출된 객체와 새로운 배경 영상을 자연스럽게 합성할 수 있다. 영상 시스템은 시차 분리와 배경 차분, 에지 검출 방식을 이용하여 정확하게 객체 영역을 추출할 수 있다. 또한, 영상 시스템은 배경 영역의 조명 환경을 모델링하여 영상을 합성하므로 자연스러운 합성 영상을 만들 수 있으며, 합성 영상에 대한 사용자의 거부감을 줄일 수 있다.An image system and an image processing method using a multiview image according to an embodiment may extract an object included in a multiview image and naturally synthesize the extracted object and a new background image. The imaging system can accurately extract object regions using parallax separation, background difference, and edge detection. In addition, the imaging system synthesizes an image by modeling a lighting environment of a background area, thereby making a natural composite image, and reducing a user's dissensation of the composite image.

일 실시예에 따른 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법은 다시점 영상을 합성하여 하나의 영상으로 생성할 수 있다. 뷰 모핑 기술을 이용하여 다시점 영상을 합성하는 경우 가상 위치에서 영상을 촬영한 것과 같은 합성 영상을 얻을 수 있다.An image system and an image processing method using a multiview image according to an embodiment may generate a single image by synthesizing a multiview image. When synthesizing a multi-view image using the view morphing technique, it is possible to obtain a synthesized image as if the image was taken from a virtual position.

일 실시예에 따른 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법은 생성된 입체 영상이나 배경 합성 영상, 다시점 합성 영상을 실시간으로 상대편 수신기로 전송할 수 있다. 영상 시스템은 생성된 영상을 저장할 수 있으며, 사용자는 저장된 입체 영상을 후처리하거나 재가공할 수 있다.An image system and an image processing method using a multiview image according to an embodiment may transmit the generated stereoscopic image, the background composite image, or the multiview composite image to a counterpart receiver in real time. The imaging system may store the generated image, and the user may post-process or reprocess the stored stereoscopic image.

일 실시예에 따른 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법을 이용하여 상대편 사용자와 화상 회의 또는 화상 통신을 하거나, 상대편 사용자에게 시청각 교육을 할 수 있다. 입체 영상을 수신한 상대편 사용자는 영상에 포함된 피사체를 보다 정밀히 관찰할 수 있다. 배경 합성 영상을 이용하여 화상 회의 또는 화상 통신을 하는 경우, 사용자는 자신의 배경 영상을 원하는 배경 영상으로 원하는 때에 바꿀 수 있으므로 화상 회의 또는 화상 통신의 몰입도나 메시지 전달 효과를 높일 수 있다. 또한, 화상 회의 또는 화상 통신의 심미적 효과를 높일 수 있다. 다시점 합성 영상을 이용하여 화상 회의 또는 화상 통신을 하는 경우, 영상 촬영 장치에서 촬영하지 못한 시점에서의 예상 촬영 영상을 상대편 사용자에게 제공할 수 있다.An image system and an image processing method using a multi-view image according to an embodiment may perform video conferencing or video communication with an opposite user, or perform audiovisual education for the opposite user. The opposite user receiving the stereoscopic image can more accurately observe the subject included in the image. When video conferencing or video communication is performed using the background composite image, the user can change his or her background image to a desired background image at any time, thereby increasing the immersion or message delivery effect of the video conferencing or video communication. In addition, the aesthetic effect of video conferencing or video communication can be enhanced. In the case of video conferencing or video communication using a multi-view composite image, it is possible to provide the opposite user with the expected captured image at the time when the image capturing apparatus cannot capture the image.

상기에서는 본 발명의 일 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although described above with reference to an embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the present invention without departing from the spirit and scope of the invention described in the claims below. I can understand that you can.

Claims (28)

다시점 영상을 촬영하는 영상 촬영 장치;
상기 영상 촬영 장치의 교정값을 이용하여 상기 영상 촬영 장치에서 촬영된 다시점 영상을 교정하여 출력하는 전처리부;
상기 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 영상 매칭부;
상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 객체 추출부; 및
상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 합성부를 포함하는 다시점 영상을 이용한 영상 시스템.
An image capturing apparatus for photographing a multiview image;
A preprocessor for correcting and outputting a multi-view image captured by the image capturing apparatus by using the correction value of the image capturing apparatus;
An image matching unit matching a search image based on a reference image selected from the multiview images, and calculating a parallax value between the reference image and a matching pixel of the search image;
An object extracting unit extracting an object from the reference image by using the reference image and the parallax value; And
And a multi-view image including a synthesizer configured to synthesize the extracted object and the background image to generate a synthesized image.
제 1 항에 있어서, 상기 객체 추출부는
상기 시차값을 이용하여 상기 기준 영상에서 객체가 포함된 객체 영역을 추출하는 시차 분리부;
객체가 포함되지 않은 영상과 상기 기준 영상을 차분하여 상기 기준 영상에서 객체가 포함된 객체 영역을 추출하는 배경 차분부;
상기 기준 영상에서 에지(edge)를 검출하는 에지 검출부; 및
상기 시차 분리부와 배경 차분부에서 추출된 객체 영역과 상기 에지 검출부에서 검출된 에지를 이용하여 객체 영역을 결정하는 객체 결정부를 포함하는 다시점 영상을 이용한 영상 시스템.
The method of claim 1, wherein the object extraction unit
A parallax separator extracting an object region including an object from the reference image using the parallax value;
A background difference unit configured to extract an object region including an object from the reference image by differentially distinguishing the reference image from the image not including an object;
An edge detector detecting an edge in the reference image; And
And an object determiner configured to determine an object region by using the object region extracted by the parallax separator and the background difference unit and the edge detected by the edge detector.
제 2 항에 있어서, 상기 시차 분리부는
일정한 범위 내의 시차값을 갖는 픽셀을 포함하는 영역을 객체 영역으로 추출하는 다시점 영상을 이용한 영상 시스템.
The method of claim 2, wherein the parallax separator
An imaging system using a multiview image which extracts a region including pixels having parallax values within a predetermined range into an object region.
제 2 항에 있어서, 상기 시차 분리부는
모폴로지 필터(mopological filter)를 이용하여 상기 추출된 객체 영역을 필터링하여 노이즈를 제거하는 다시점 영상을 이용한 영상 시스템.
The method of claim 2, wherein the parallax separator
An image system using a multi-view image to remove noise by filtering the extracted object region using a morphological filter.
제 2 항에 있어서, 상기 배경 차분부는
모폴로지 필터를 이용하여 상기 추출된 객체 영역을 필터링하여 노이즈를 제거하는 다시점 영상을 이용한 영상 시스템.
The method of claim 2, wherein the background difference unit
An image system using a multiview image to remove noise by filtering the extracted object region using a morphology filter.
제 2 항에 있어서, 상기 객체 결정부는
상기 시차 분리부와 배경 차분부에서 동시에 객체 영역으로 추출된 영역을 객체 영역으로 결정하는 다시점 영상을 이용한 영상 시스템.
The method of claim 2, wherein the object determination unit
An image system using a multi-view image for determining the area extracted into the object area at the same time in the parallax separation unit and the background difference unit.
제 2 항에 있어서, 상기 객체 결정부는
상기 시차 분리부와 배경 차분부 가운데 어느 하나에서만 객체 영역으로 판정된 픽셀의 경우, 상기 픽셀이 객체의 에지와 일정 거리 이내에 있으면 상기 픽셀을 객체 영역에 포함되는 픽셀로 결정하는 다시점 영상을 이용한 영상 시스템.
The method of claim 2, wherein the object determination unit
In the case of a pixel determined as an object area only in one of the parallax separator and the background difference part, an image using a multi-view image that determines the pixel as a pixel included in the object area when the pixel is within a predetermined distance from an edge of the object. system.
제 1 항에 있어서, 상기 합성부는
상기 추출된 객체의 경계를 기준으로 객체 영역의 일부와 배경 영역의 일부를 포함하는 혼합 영역을 정하여 상기 객체 영역과 배경 영역을 합성하는 배경 합성부; 및
상기 배경 영상의 조명 환경을 모델링하고, 상기 모델링된 조명 환경과 상기 객체 영역의 시차값을 이용하여 상기 배경 합성부에서 합성된 영상의 표면 색상을 변경하는 조명 합성부를 포함하는 다시점 영상을 이용한 영상 시스템.
The method of claim 1, wherein the synthesis unit
A background synthesizer configured to combine the object region and the background region by determining a mixed region including a part of the object region and a part of the background region based on the boundary of the extracted object; And
An image using a multiview image including an illumination synthesizer for modeling an illumination environment of the background image and changing a surface color of the image synthesized by the background synthesizer by using the parallax between the modeled illumination environment and the object region. system.
제 8 항에 있어서, 상기 조명 합성부는
상기 배경 영상을 반 구형의 미러 볼(mirror ball) 형태로 변형하여 상기 배경 영상의 조명 환경을 모델링하는 다시점 영상을 이용한 영상 시스템.
The method of claim 8, wherein the lighting synthesis unit
An image system using a multi-view image that transforms the background image into a semi-spherical mirror ball shape to model the lighting environment of the background image.
제 9 항에 있어서, 상기 조명 합성부는
상기 배경 영상을 셀(cell)로 분할하고 분할된 셀을 상기 미러 볼의 대응되는 셀에 맵핑하여 미러 볼 형태로 변환하는 다시점 영상을 이용한 영상 시스템.
The method of claim 9, wherein the lighting synthesis unit
And a multi-view image for dividing the background image into cells and mapping the divided cells to corresponding cells of the mirror ball to convert them into mirror ball shapes.
제 10 항에 있어서, 상기 조명 합성부는
위도와 경도를 기준으로 상기 미러 볼의 셀을 분할하여 표본화하는 다시점 영상을 이용한 영상 시스템.
The method of claim 10, wherein the lighting synthesis unit
Imaging system using a multi-view image for dividing and sampling the cells of the mirror ball on the basis of latitude and longitude.
제 10 항에 있어서, 상기 조명 합성부는
반지름과 각도를 기준으로 상기 미러 볼의 셀을 분할하여 표본화하는 다시점 영상을 이용한 영상 시스템.
The method of claim 10, wherein the lighting synthesis unit
Imaging system using a multi-view image for dividing and sampling the cells of the mirror ball based on the radius and angle.
제 1 항에 있어서,
상기 합성부에서 합성된 합성 영상과 상기 시차값을 이용하여 입체 영상을 생성하는 입체 영상 생성부를 더 포함하는 다시점 영상을 이용한 영상 시스템.
The method of claim 1,
And a stereoscopic image generator configured to generate a stereoscopic image using the synthesized image synthesized by the synthesizer and the parallax value.
제 13 항에 있어서, 상기 입체 영상 생성부는
상기 합성 영상에서 제1 색성분값과 제2 색성분값을 추출하여, 상기 제1 색의 색 성분값은 좌측 또는 우측 방향으로 상기 시차값만큼 이동하고, 제2 색의 색 성분값은 상기 제1 색의 색 성분값과 반대 방향으로 상기 시차값만큼 이동하여 입체 영상을 생성하는 다시점 영상을 이용한 영상 시스템.
The apparatus of claim 13, wherein the stereoscopic image generating unit
Extracting a first color component value and a second color component value from the synthesized image, the color component value of the first color is shifted by the parallax value in a left or right direction, and the color component value of the second color is the first color. An image system using a multiview image to generate a stereoscopic image by moving the parallax value in a direction opposite to the color component value of.
다시점 영상을 촬영하는 영상 촬영 장치;
상기 영상 촬영 장치에서 촬영된 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 영상 매칭부;
상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 객체 추출부;
상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 합성부;
상기 기준 영상과 상기 시차값을 이용하여 입체 영상을 생성하는 입체 영상 생성부; 및
상기 다시점 영상 촬영 장치에서 촬영된 영상을 다시점 영상 합성하여 중간 영상(intermediate image)을 생성하는 다시점 영상 합성부를 포함하는 다시점 영상을 이용한 영상 시스템.
An image capturing apparatus for photographing a multiview image;
An image matching unit matching a search image based on a selected reference image among multiview images captured by the image capturing apparatus, and calculating a parallax value between the reference image and a matching pixel of the search image;
An object extracting unit extracting an object from the reference image by using the reference image and the parallax value;
A synthesizer configured to synthesize the extracted object and the background image to generate a synthesized image;
A stereoscopic image generator configured to generate a stereoscopic image using the reference image and the parallax value; And
And a multiview image synthesizer configured to generate an intermediate image by synthesizing a multiview image of the image photographed by the multiview image capturing apparatus.
제 15 항에 있어서, 상기 객체 추출부는
상기 시차값을 이용하여 상기 기준 영상에서 객체가 포함된 객체 영역을 추출하는 시차 분리부;
객체가 포함되지 않은 영상과 상기 기준 영상을 차분하여 상기 기준 영상에서 객체가 포함된 객체 영역을 추출하는 배경 차분부;
상기 기준 영상에서 에지(edge)를 검출하는 에지 검출부; 및
상기 시차 분리부와 배경 차분부에서 추출된 객체 영역과 상기 에지 검출부에서 검출된 에지를 이용하여 객체 영역을 결정하는 객체 결정부를 포함하는 다시점 영상을 이용한 영상 시스템.
The method of claim 15, wherein the object extraction unit
A parallax separator extracting an object region including an object from the reference image using the parallax value;
A background difference unit configured to extract an object region including an object from the reference image by differentially distinguishing the reference image from the image not including an object;
An edge detector detecting an edge in the reference image; And
And an object determiner configured to determine an object region by using the object region extracted by the parallax separator and the background difference unit and the edge detected by the edge detector.
제 15 항에 있어서, 상기 합성부는
상기 추출된 객체의 경계를 기준으로 객체 영역의 일부와 배경 영역의 일부를 포함하는 혼합 영역을 정하여 상기 객체 영역과 배경 영역을 합성하는 배경 합성부; 및
상기 배경 영상의 조명 환경을 모델링하고, 상기 모델링된 조명 환경과 상기 객체 영역의 시차값을 이용하여 상기 배경 합성부에서 합성된 영상의 표면 색상을 변경하는 조명 합성부를 포함하는 다시점 영상을 이용한 영상 시스템.
The method of claim 15, wherein the synthesis unit
A background synthesizer configured to combine the object region and the background region by determining a mixed region including a part of the object region and a part of the background region based on the boundary of the extracted object; And
An image using a multiview image including an illumination synthesizer for modeling an illumination environment of the background image and changing a surface color of the image synthesized by the background synthesizer by using the parallax between the modeled illumination environment and the object region. system.
제 15 항에 있어서, 상기 입체 영상 생성부는
영상을 수신하는 영상 수신부;
상기 영상 수신부에 수신된 영상에서 색 성분값을 추출하는 색 성분 추출부; 및
상기 색 성분 추출부에서 추출된 색 성분값을 상기 시차값만큼 이동하여 상기 영상 수신부에 수신된 영상과 합성하는 영상 합성부를 포함하는 다시점 영상을 이용한 영상 시스템.
The method of claim 15, wherein the stereoscopic image generating unit
An image receiving unit which receives an image;
A color component extracting unit extracting color component values from the image received by the image receiving unit; And
And an image synthesizer configured to move the color component value extracted by the color component extractor by the parallax value and to synthesize the image received by the image receiver.
제 15 항에 있어서, 상기 다시점 영상 합성부는
모핑(mophing) 방식을 이용하여 상기 다시점 영상을 합성하고 중간 영상을 생성하는 다시점 영상을 이용한 영상 시스템.
The method of claim 15, wherein the multi-view image synthesis unit
An image system using a multiview image for synthesizing the multiview image and generating an intermediate image using a morphing method.
다시점 영상을 촬영하는 단계;
상기 다시점 영상을 촬영한 영상 촬영 장치의 교정값을 이용하여 상기 다시점 영상을 교정하여 출력하는 단계;
상기 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 단계;
상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 단계; 및
상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 단계를 포함하는 다시점 영상을 처리하는 방법.
Photographing a multiview image;
Correcting and outputting the multi-view image using a correction value of the image photographing apparatus photographing the multi-view image;
Matching a search image based on a reference image selected from the multi-view images, and calculating a parallax value between the reference image and matching pixels of the search image;
Extracting an object from the reference image by using the reference image and the parallax value; And
And synthesizing the extracted object and the background image to generate a composite image.
제 20 항에 있어서, 상기 객체를 추출하는 단계는
상기 기준 영상에서 일정한 범위 내의 시차값을 갖는 픽셀을 포함하는 영역을 객체 영역으로 추출하는 제1 단계;
객체가 포함되지 않은 영상과 상기 기준 영상을 차분하여 상기 기준 영상에서 객체가 포함된 객체 영역을 추출하는 제2 단계;
상기 기준 영상에서 에지(edge)를 검출하는 제3 단계; 및
상기 제1 단계와 제2 에서 추출된 객체 영역과 상기 제3 단계에서 검출된 에지를 이용하여 객체 영역을 결정하는 단계를 포함하는 다시점 영상을 처리하는 방법.
The method of claim 20, wherein extracting the object
Extracting a region including a pixel having a parallax value within a predetermined range from the reference image as an object region;
Extracting an object region including an object from the reference image by differentiating the reference image from the image not including the object;
Detecting an edge in the reference image; And
And determining an object region by using the object regions extracted in the first and second stages and the edge detected in the third stage.
제 20 항에 있어서, 상기 합성 영상을 생성하는 단계는
상기 추출된 객체의 경계를 기준으로 객체 영역의 일부와 배경 영역의 일부를 포함하는 혼합 영역을 정하여 상기 객체 영역과 배경 영역을 합성하는 단계; 및
상기 배경 영상의 조명 환경을 모델링하고, 상기 모델링된 조명 환경과 상기 객체 영역의 시차값을 이용하여 상기 객체 영역과 배경 영역이 합성된 영상의 표면 색상을 변경하는 단계를 포함하는 다시점 영상을 처리하는 방법.
The method of claim 20, wherein generating the composite image
Synthesizing the object region and the background region by determining a mixed region including a part of the object region and a part of the background region based on the boundary of the extracted object; And
Modeling a lighting environment of the background image, and changing a surface color of an image obtained by combining the object region and the background region by using a parallax between the modeled lighting environment and the object region. How to.
제 20 항에 있어서,
상기 합성 영상에서 제1 색성분값과 제2 색성분값을 추출하여, 상기 제1 색의 색 성분값은 좌측 또는 우측 방향으로 상기 시차값만큼 이동하고, 제2 색의 색 성분값은 상기 제1 색의 색 성분값과 반대 방향으로 상기 시차값만큼 이동하여 입체 영상을 생성하는 단계를 더 포함하는 다시점 영상을 처리하는 방법.
The method of claim 20,
Extracting a first color component value and a second color component value from the synthesized image, the color component value of the first color is shifted by the parallax value in a left or right direction, and the color component value of the second color is the first color. And generating a stereoscopic image by moving the parallax value in a direction opposite to the color component value of the multi-view image.
다시점 영상을 촬영하는 단계;
다시점 영상 합성 기능이 설정된 경우, 상기 촬영된 영상을 다시점 영상 합성하여 중간 영상을 생성하는 단계;
입체 영상 생성 기능 또는 배경 합성 기능이 설정된 경우, 상기 다시점 영상 촬영 장치에서 촬영된 다시점 영상 가운데 선택된 기준 영상을 기준으로 탐색 영상을 매칭하고, 상기 기준 영상과 탐색 영상의 매칭되는 픽셀 간의 시차값을 산출하는 단계;
입체 영상 생성 기능이 설정된 경우, 상기 기준 영상과 상기 시차값을 이용하여 입체 영상을 생성하는 단계;
배경 합성 기능이 설정된 경우, 상기 기준 영상과 상기 시차값을 이용하여 상기 기준 영상에서 객체를 추출하는 단계; 및
상기 추출된 객체와 배경 영상을 합성하여 합성 영상을 생성하는 단계를 포함하는 다시점 영상을 처리하는 방법.
Photographing a multiview image;
Generating a intermediate image by synthesizing the photographed image by the multi-view image when the multi-view image synthesizing function is set;
When the 3D image generation function or the background synthesis function is set, the search image is matched based on the selected reference image among the multiview images captured by the multiview image capturing apparatus, and a parallax value between the reference image and the matching pixel of the search image Calculating;
Generating a stereoscopic image using the reference image and the parallax value when a stereoscopic image generating function is set;
Extracting an object from the reference image using the reference image and the disparity value when a background synthesis function is set; And
And synthesizing the extracted object and the background image to generate a composite image.
제 24 항에 있어서, 상기 중간 영상을 생성하는 단계는
모핑(mophing) 방식을 이용하여 상기 다시점 영상을 합성하고 중간 영상을 생성하는 다시점 영상을 처리하는 방법.
The method of claim 24, wherein generating the intermediate image
A method for processing a multiview image, which synthesizes the multiview image and generates an intermediate image using a morphing method.
제 24 항에 있어서, 상기 입체 영상을 생성하는 단계는
상기 기준 영상에서 제1 색성분 값과 제2 색 성분값을 추출하는 단계; 및
상기 제1 색 성분값은 좌측 또는 우측 방향으로 상기 시차값만큼 이동하고, 제2 색의 색 성분값은 상기 제1 색의 색 성분값과 반대 방향으로 상기 시차값만큼 이동하여 입체 영상을 생성하는 다시점 영상을 처리하는 방법.
The method of claim 24, wherein generating the stereoscopic image
Extracting a first color component value and a second color component value from the reference image; And
The first color component value is shifted by the parallax value in the left or right direction, and the color component value of the second color is shifted by the parallax value in a direction opposite to the color component value of the first color to generate a stereoscopic image. How to process multiview images.
제 24 항에 있어서, 상기 객체를 추출하는 단계는
상기 기준 영상에서 일정한 범위 내의 시차값을 갖는 픽셀을 포함하는 영역을 객체 영역으로 추출하는 제1 단계;
객체가 포함되지 않은 영상과 상기 기준 영상을 차분하여 상기 기준 영상에서 객체가 포함된 객체 영역을 추출하는 제2 단계;
상기 기준 영상에서 에지(edge)를 검출하는 제3 단계; 및
상기 제1 단계와 제2 에서 추출된 객체 영역과 상기 제3 단계에서 검출된 에지를 이용하여 객체 영역을 결정하는 단계를 포함하는 다시점 영상을 처리하는 방법.
The method of claim 24, wherein extracting the object comprises
Extracting a region including a pixel having a parallax value within a predetermined range from the reference image as an object region;
Extracting an object region including an object from the reference image by differentiating the reference image from the image not including the object;
Detecting an edge in the reference image; And
And determining an object region by using the object regions extracted in the first and second stages and the edge detected in the third stage.
제 24 항에 있어서, 상기 합성 영상을 생성하는 단계는
상기 추출된 객체의 경계를 기준으로 객체 영역의 일부와 배경 영역의 일부를 포함하는 혼합 영역을 정하여 상기 객체 영역과 배경 영역을 합성하는 단계; 및
상기 배경 영상의 조명 환경을 모델링하고, 상기 모델링된 조명 환경과 상기 객체 영역의 시차값을 이용하여 상기 객체 영역과 배경 영역이 합성된 영상의 표면 색상을 변경하는 단계를 포함하는 다시점 영상을 처리하는 방법.
The method of claim 24, wherein generating the composite image
Synthesizing the object region and the background region by determining a mixed region including a part of the object region and a part of the background region based on the boundary of the extracted object; And
Modeling a lighting environment of the background image, and changing a surface color of an image obtained by combining the object region and the background region by using a parallax between the modeled lighting environment and the object region. How to.
KR1020100020938A 2010-03-09 2010-03-09 Image processing system and method using multi view image KR20110101722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100020938A KR20110101722A (en) 2010-03-09 2010-03-09 Image processing system and method using multi view image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100020938A KR20110101722A (en) 2010-03-09 2010-03-09 Image processing system and method using multi view image

Publications (1)

Publication Number Publication Date
KR20110101722A true KR20110101722A (en) 2011-09-16

Family

ID=44953697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100020938A KR20110101722A (en) 2010-03-09 2010-03-09 Image processing system and method using multi view image

Country Status (1)

Country Link
KR (1) KR20110101722A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077521A1 (en) * 2011-11-23 2013-05-30 Lg Innotek Co., Ltd. Preprocessing apparatus in stereo matching system
KR101281003B1 (en) * 2011-06-28 2013-07-08 서울대학교산학협력단 Image processing system and method using multi view image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101281003B1 (en) * 2011-06-28 2013-07-08 서울대학교산학협력단 Image processing system and method using multi view image
WO2013077521A1 (en) * 2011-11-23 2013-05-30 Lg Innotek Co., Ltd. Preprocessing apparatus in stereo matching system

Similar Documents

Publication Publication Date Title
US11877086B2 (en) Method and system for generating at least one image of a real environment
US9288474B2 (en) Image device and image processing method for generating control information indicating the degree of stereoscopic property or whether or not 3D image needs to be outputted
US9204128B2 (en) Stereoscopic shooting device
US8970675B2 (en) Image capture device, player, system, and image processing method
WO2021030002A1 (en) Depth-aware photo editing
US9042709B2 (en) Image capture device, player, and image processing method
US20140002612A1 (en) Stereoscopic shooting device
US20110148868A1 (en) Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection
US20150163478A1 (en) Selecting Camera Pairs for Stereoscopic Imaging
US20110025830A1 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US10708486B2 (en) Generation of a depth-artificial image by determining an interpolated supplementary depth through interpolation based on the original depths and a detected edge
EP2755187A2 (en) 3d-animation effect generation method and system
CN104811684B (en) A kind of three-dimensional U.S. face method and device of image
Lin et al. High dynamic range imaging for stereoscopic scene representation
CN110352592A (en) Imaging device and imaging method and image processing equipment and image processing method
WO2011014421A2 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
Fan et al. Vivid-DIBR based 2D–3D image conversion system for 3D display
CN111447428A (en) Method and device for converting plane image into three-dimensional image, computer readable storage medium and equipment
KR101281003B1 (en) Image processing system and method using multi view image
KR20100134288A (en) Stereoscopic image system and stereoscopic image processing method
KR20110101722A (en) Image processing system and method using multi view image
GB2585197A (en) Method and system for obtaining depth data
AU2016273979A1 (en) System and method for adjusting perceived depth of an image
GB2537142A (en) An arrangement for image segmentation
Xing et al. Point cloud color constancy

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee