KR20070073647A - Method and apparatus of generating three dimensional scene in virtual view point - Google Patents

Method and apparatus of generating three dimensional scene in virtual view point Download PDF

Info

Publication number
KR20070073647A
KR20070073647A KR1020070001577A KR20070001577A KR20070073647A KR 20070073647 A KR20070073647 A KR 20070073647A KR 1020070001577 A KR1020070001577 A KR 1020070001577A KR 20070001577 A KR20070001577 A KR 20070001577A KR 20070073647 A KR20070073647 A KR 20070073647A
Authority
KR
South Korea
Prior art keywords
image
virtual
foreground
live
generating
Prior art date
Application number
KR1020070001577A
Other languages
Korean (ko)
Other versions
KR100879802B1 (en
Inventor
신승주
송영남
김희관
Original Assignee
(주)제니텀 엔터테인먼트 컴퓨팅
정보통신연구진흥원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제니텀 엔터테인먼트 컴퓨팅, 정보통신연구진흥원 filed Critical (주)제니텀 엔터테인먼트 컴퓨팅
Publication of KR20070073647A publication Critical patent/KR20070073647A/en
Application granted granted Critical
Publication of KR100879802B1 publication Critical patent/KR100879802B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method and an apparatus for generating a 3D image in a virtual viewpoint are provided to receive real images from a plurality of real image input devices, generate foreground projection images from the real images, project the foreground projection images to a virtual 3D space sought in a certain virtual viewpoint, produce a cross point between the projected images, embody a virtual hull, and simply and accurately embody a virtual 3D image in the certain virtual viewpoint by the virtual hull. A plurality of real image input devices(10) acquires real images in inter-different viewpoints. A foreground projection image generating device(20) receives a plurality of the real images from the real image input devices(10), and generates foreground projection images from the respective real images. A contour information extractor(30) extracts foreground contour information from the foreground projection images generated in the foreground projection image generating device(20). A virtual hull and virtual 3D image generator(50) generates a virtual hull and a 3D virtual image corresponding to a certain viewpoint by the foreground projection images and the contour information.

Description

가상 시점에서의 3차원 영상 생성 방법 및 장치{Method and apparatus of generating three dimensional scene in virtual view point}Method and apparatus for generating three dimensional scene in virtual view

도 1은 본 발명의 바람직한 일 실시예에 따른 가상 시점에서의 3차원 영상 생성 장치의 전체 구성도,1 is an overall configuration diagram of a 3D image generating apparatus in a virtual view according to an embodiment of the present invention;

도 2는 실사영상 입력 장치의 구성의 일예를 나타낸 예시도,2 is an exemplary view illustrating an example of a configuration of a live action image input device;

도 3은 본 발명의 바람직한 일 실시예에 따른 가상 시점에서의 3차원 영상 생성 방법을 개략적으로 나타내는 순서도이다.3 is a flowchart schematically illustrating a 3D image generating method at a virtual viewpoint according to an exemplary embodiment of the present invention.

도 4는 전경체 사영영상 생성 장치(20)에 의하여 전경과 배경을 분리하여 전경체 사영영상을 생성한 후 윤곽선 정보까지 추출한 상태의 영상을 나타낸 도면,4 is a view showing an image of a state in which the foreground projected image is generated by separating the foreground and the background by the foreground projected image generating apparatus 20, and then the contour information is extracted.

도 5 내지 도 10은 가상 외피 및 가상 3차원 영상 생성기(50)에 의해 가상 외피 기법에 기반하여 임의의 시점에서 가상 3차원 영상을 생성하는 방법을 설명하기 위한 도면이다.5 to 10 are diagrams for describing a method of generating a virtual 3D image at an arbitrary time point by the virtual skin and the virtual 3D image generator 50 based on the virtual skin technique.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

10 : 실사영상 입력 장치10: live image input device

20 : 전경체 사영영상 생성 장치20: foreground projection image generating device

30 : 윤곽선 정보 추출기30: contour information extractor

40 : 3D 모델링 정보 데이터베이스40: 3D modeling information database

50 : 가상외피 및 가상 3차원 영상 생성기50: virtual envelope and virtual 3D image generator

60 : 디스플레이 장치60: display device

본 발명은 가상 시점에서의 3차원 영상을 생성하는 방법 및 장치에 관한 것으로서, 보다 상세하게는 다수의 실사영상 입력 장치로부터 실사영상을 입력받아 이들 실사영상으로부터 상기 실사영상 입력 장치들의 시점이 아닌 임의의 가상 시점에서의 3차원 영상을 생성하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating a 3D image from a virtual viewpoint. More particularly, the present invention relates to a method for generating a 3D image from a virtual viewpoint, and more specifically, receives a real image from a plurality of real image input devices, and selects a random image from the real image. A method and apparatus for generating a 3D image at a virtual viewpoint of the present invention.

현재 실사 기반의 3차원 객체 모델링 기술은 크게 능동적 방법과 수동적 방식으로 나눌 수 있는데, 능동적 방식의 대표적인 경우는 3차원 스캐너를 이용하는 경우이고, 수동적 방식의 대표적인 경우는 카메라로 촬영한 2차원 영상의 기하구조를 분석하여 3차원 모델을 구성하는 방법이다.Currently, due diligence-based three-dimensional object modeling techniques can be divided into active and passive methods. A representative example of the active method is using a 3D scanner, and a representative case of the passive method is the geometry of a 2D image taken by a camera. Analyze the structure to construct a 3D model.

3차원 스캐너를 이용하는 방식은, 대상체에 인위적으로 고안된 다양한 형태의 패턴(레이저등)을 투사하여 형상에 따라 변하는 패턴을 분석하여 3차원 기하구조를 추출하고, CCD 카메라 등을 통하여 획득한 색상정보를 이용하여 3차원 모델을 구성하게 되는데, 이러한 방법은 측정결과가 정확하고 측정시간도 비교적 짧은 편이지만, 고가의 별도 측정장비를 이용하므로 비용이 증가하고 역동적인 대상체에는 적용하기 힘들다는 커다란 단점이 있다.In the method using a 3D scanner, various patterns (lasers, etc.) designed artificially are projected onto an object to analyze a pattern changing according to a shape to extract a 3D geometric structure, and to obtain color information obtained through a CCD camera. The 3D model is constructed by using a 3D model. However, this method has an accurate measurement result and a relatively short measurement time, but there is a big disadvantage that it is expensive and difficult to apply to dynamic objects by using expensive separate measuring equipment. .

한편, 카메라로 촬영한 2차원 영상의 기하구조를 분석하여 3차원 모델을 구성하는 방법은, 비록 3차원 스캐너를 이용하는 방법에 비해 고가의 장비들 없이 경제적으로 3차원 모델을 구성할 수 있지만, 상대적으로 정확도가 떨어지고 3차원 모델을 구성하기 위한 소요 시간이 크다는 단점이 있다.On the other hand, a method of constructing a 3D model by analyzing the geometry of a 2D image taken with a camera is relatively economical without constructing a 3D model without expensive equipment, compared to a method using a 3D scanner. As a result, the accuracy is low and the time required for constructing the 3D model is large.

한편, 현재의 3차원 대상체를 표현하기 위한 기술중에는 대상체에 대한 여러 각도에서 스틸컷을 찍어서 대상체의 다양한 면을 보여주는 기법들도 있다. 예컨대, 하나의 카메라를 사용하여 회전하는 테이블 위의 대상체를 계속해서 촬영하거나 다수의 카메라를 대상체 주변에 배치하여 동시에 촬영한 뒤 후처리 과정을 통해 장면을 만드는 기법이다. 하지만, 이러한 기법들은 대상체의 동적인 장면이나, 사용자의 요구에 적응적인 가상의 시점에서의 장면을 제공할 수는 없다는 한계점이 있었다.On the other hand, among the techniques for representing the current three-dimensional object, there are techniques that show the various aspects of the object by taking a still cut from various angles with respect to the object. For example, a single camera is used to continuously photograph an object on a rotating table, or a plurality of cameras are placed around the object to simultaneously photograph and then create a scene through post-processing. However, these techniques have a limitation in that they cannot provide a dynamic scene of an object or a scene from a virtual viewpoint that is adaptive to a user's request.

본 발명은 상기한 바와 같은 문제점을 감안하여 안출된 것으로서, 다수의 실사영상 입력 장치로부터 실사영상을 입력받아 이들 실사영상으로부터 전경체 사영영상을 생성한 후, 이들을 임의의 가상 시점에서 바라본 가상의 3차원 공간에 투영하고 이들 투영된 영상 간의 교차점을 산출하여 가상 외피를 구현하고, 이 가상 외피에 의하여 임의의 가상 시점에서의 가상 3차원 영상을 간편하고 정확하게 구현할 수 있도록 하는 방법 및 장치에 관한 것이다. The present invention has been made in view of the above-described problems, and receives a real image from a plurality of real image input devices, generates a foreground projection image from these real images, and then views them from an arbitrary virtual view. The present invention relates to a method and apparatus for realizing a virtual envelope by projecting in a dimensional space and calculating an intersection point between the projected images, and enabling a simple and accurate implementation of a virtual three-dimensional image at any virtual viewpoint by the virtual envelope.

상술한 목적들을 달성하기 위하여, 본 발명의 일 측면에 따르면, 다수의 실사영상 입력 장치로부터 실사영상을 입력받아 가상 시점에서의 3차원 영상을 생성하는 방법에 있어서, 상기 다수의 실사영상 입력 장치로부터 입력받은 실사영상의 전경체 사영영상을 생성하는 단계, 상시 생성한 전경체 사영영상으로부터 전경체의 윤곽선 정보를 추출하는 단계, 상기 생성한 전경체 사영영상과 윤곽선 정보를 이용하여 임의의 가상 시점에서의 가상 외피를 생성하는 단계 및 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 단계를 포함하는 가상 시점에서의 3차원 영상 생성 방법을 제공할 수 있다.In order to achieve the above object, according to an aspect of the present invention, in the method for generating a three-dimensional image at a virtual view by receiving a live image from a plurality of live image input device, from the plurality of live image input device Generating a foreground projection image of the received photorealistic image, extracting contour information of the foreground object from a constantly generated foreground projection image, and using the generated foreground projection image and contour information at an arbitrary virtual viewpoint A method of generating a 3D image at a virtual view may include generating a virtual envelope of the image and interpolating image information at the virtual view of the generated virtual envelope.

바람직한 실시예에서, 상기 동기화된 다수의 실사영상 입력 장치로부터 입력받은 실사영상의 전경체 사영영상을 생성하는 단계는, 상기 입력받은 실사영상의 전경과 배경을 구분하는 단계를 더 포함하는 것을 특징으로 한다. 또한 상기 동기화된 다수의 실사영상 입력 장치로부터 입력받은 실사영상의 전경체 사영영상을 생성하는 단계는, 모폴로지 필터링(Morphological Filtering) 및 볼록깍지 필터링(Convex hull Filtering) 작업을 수행하는 단계를 더 포함하는 것을 특징으로 한다. 또한 상기 입력받은 실사영상의 전경과 배경을 구분하는 단계는, 실사영상의 밝기 값 및 컬러성분값을 이용하여 소정의 문턱값을 설정하고, 상기 설정된 문턱값에 의해 전경과 배경을 구분하는 것을 특징으로 한다. 또한 상기 실사영상 입력 장치로부터 입력되는 실사영상들은, 시간적으로 동기화되어 있는 것을 특징으로 한 다. 또한 상기 생성한 전경체 사영영상과 윤곽선 정보를 이용하여 임의의 가상 시점에서의 가상 외피를 생성하는 단계는, 상기 다수의 전경체 사영영상을 임의의 가상 시점에서의 3차원 공간상에 투영하여 상기 투영된 영상들의 교차점들을 산출하는 단계를 포함하는 것을 특징으로 한다. 또한 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 단계는, 다수의 실사영상의 시점 중 어느 하나와 상기 임의의 가상 시점간의 거리가 소정 임계치 이하인 경우, 상기 실사영상의 정보를 그대로 사용하는 것을 특징으로 한다. 또한 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 단계는, 실사영상의 픽셀값을 획득할 수 없는 경우, 거리가 가장 가까운 시점의 실사영상 입력 장치의 전경체 사영영상의 픽셀값들에 대해 거리에 비례하도록 가중치를 부여하는 것을 특징으로 한다.In a preferred embodiment, the step of generating a foreground projection image of the live image received from the synchronized plurality of live image input devices, characterized in that further comprising the step of distinguishing the foreground and background of the received live image do. The generating of the foreground projection image of the live image received from the plurality of synchronized photo image input devices may further include performing morphological filtering and convex hull filtering. It is characterized by. In addition, the step of distinguishing the foreground and background of the received live image, characterized in that for setting a predetermined threshold value using the brightness value and the color component value of the live image and distinguishing the foreground and the background by the set threshold value. It is done. In addition, the live images input from the live image input apparatus are synchronized in time. The generating of the virtual envelope at any virtual viewpoint using the generated foreground projected image and contour information may include projecting the plurality of foreground projected images on a three-dimensional space at an arbitrary virtual viewpoint. Calculating intersections of the projected images. The interpolation of the image information at the virtual viewpoints of the generated virtual envelope may include: when the distance between any one of a plurality of live images and the arbitrary virtual viewpoint is less than or equal to a predetermined threshold, It is characterized by using the information as it is. The interpolation of the image information at the virtual point of time with respect to the generated virtual envelope may include: when the pixel value of the real picture is not obtained, the foreground projected image of the live image input device at a point closest to the distance Weighting is proportional to the pixel values of the in proportion to the distance.

본 발명의 다른 측면에 따르면, 실사영상을 입력받아 가상 시점에서 3차원 영상을 생성하는 장치에 있어서, 서로 다른 시점에서의 실사영상을 획득하는 복수개의 실사영상 입력 장치, 상기 실사영상 입력 장치로부터 복수개의 실사영상을 입력받아 실사영상 각각에 전경체 사영영상을 생성하는 전경체 사영영상 생성 장치, 상기 전경체 사영영상 생성 장치에서 생성된 전경체 사영영상으로부터 전경체의 윤곽선 정보를 추출하는 윤곽선 정보 추출기 및 상기 전경체 사영 영상 및 윤곽선 정보에 의해 임의의 가상 시점에 상응하는 가상 외피 및 3차원 가상 영상을 생성하는 가상외피 및 가상 3차원 영상 생성기를 포함하는 가상 시점에서의 3차원 영상 생성 장치를 제공할 수 있다.According to another aspect of the present invention, in the apparatus for generating a three-dimensional image from a virtual viewpoint by receiving the photo-realistic image, a plurality of photo-realistic image input device for acquiring the photorealistic image from different viewpoints, a plurality of from the photoreal image input A foreground projection image generating device for generating foreground projection images on each of the actual images, and a contour information extractor extracting contour information of the foreground object from the foreground projection image generated by the foreground projection image generating device And a virtual envelope and a virtual three-dimensional image generator for generating a virtual envelope and a three-dimensional virtual image corresponding to an arbitrary virtual viewpoint based on the foreground projected image and the contour information. can do.

바람직한 실시예에서, 상기 실사영상 입력 장치로부터 입력되는 복수 개의 실사영상 각각에 대해서 밝기값과 컬러성분값을 구하고, 대상체가 없는 배경 영상의 밝기값과 컬러성분값의 차이를 구한 후, 소정 문턱값을 설정하여 배경과 전경을 분리하는 배경/전경 분리기를 포함하는 것을 특징으로 한다. 또한 상기 전경체 사영 영상 생성 장치는, 작은 영상 노이즈를 제거하기 위한 모폴로지 필터링 또는 전경체 사영영상 내부 쪽에 작은 홀들을 메우기 위한 볼록깍지 필터링 작업 중 적어도 어느 하나를 수행하는 영상 필터링 처리기를 포함하는 것을 특징으로 한다. 또한 상기 실사영상 입력 장치는, 상기 복수개의 실사영상 입력 장치에서 획득된 복수개의 실사영상 각각에 대한 시간적 동기화를 수행하는 동기화 유니트를 더 포함하는 것을 특징으로 한다. 또한 상기 실사영상 입력 장치에서 획득된 실사영상과, 상기 전경체 사영영상 생성 장치에서 생성된 전경체 사영영상과, 윤곽선 정보 추출기에서 생성된 윤곽선 정보 중 적어도 어느 하나를 저장하는 데이터베이스를 더 포함하는 것을 특징으로 한다. 또한 상기 가상외피 및 가상 3차원 영상 생성기는, 상기 다수의 전경체 사영영상을 임의의 가상 시점에서의 3차원 공간상에 투영하여 상기 투영된 영상들의 교차점들을 산출하는 것을 특징으로 한다. 또한 상기 가상외피 및 가상 3차원 영상 생성기는 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 것을 특징으로 한다. 또한 상기 가상외피 및 가상 3차원 영상 생성기는 다수의 실사영상의 시점 중 어느 하나와 상기 임의의 가상 시점간의 거리가 소정 임계치 이하인 경우 상기 실사영상의 정보를 그대로 사용함으로써 상기 임의의 가상 시점에서의 영상 정보를 보간하는 것을 특징으로 한다. 또 한 상기 가상외피 및 가상 3차원 영상 생성기는 실사영상의 픽셀값을 획득할 수 없는 경우 거리가 가장 가까운 시점의 실사영상 입력 장치의 전경체 사영영상의 픽셀값들에 대해 거리에 비례하도록 가중치를 부여함으로써 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 것을 특징으로 한다.In a preferred embodiment, a brightness value and a color component value are obtained for each of the plurality of live image images input from the live image input device, a difference between the brightness value and the color component value of the background image without an object is obtained, and a predetermined threshold value is obtained. Set to include a background / foreground separator for separating the background and foreground. The foreground projection image generating apparatus may further include an image filtering processor configured to perform at least one of morphology filtering to remove small image noise or convex filter filtering to fill small holes in the foreground projection image. It is done. The live image input apparatus may further include a synchronization unit configured to perform temporal synchronization with respect to each of the plurality of real images acquired by the plurality of live image input apparatuses. The method may further include a database storing at least one of a live image obtained by the live image input apparatus, a foreground projected image generated by the foreground projected image generating apparatus, and contour information generated by a contour information extractor. It features. In addition, the virtual envelope and the virtual three-dimensional image generator is characterized in that for calculating the intersections of the projected images by projecting the plurality of foreground projection images in a three-dimensional space at any virtual viewpoint. In addition, the virtual envelope and the virtual three-dimensional image generator is characterized in that for interpolating the image information from the virtual point of view for the generated virtual envelope. The virtual envelope and the virtual 3D image generator may use an image of the actual image as it is when the distance between any one of a plurality of photorealistic images and the arbitrary virtual view is less than or equal to a predetermined threshold. And interpolating the information. In addition, the virtual envelope and the virtual three-dimensional image generator is weighted to be proportional to the distance to the pixel values of the foreground projected image of the live image input apparatus at the closest distance when the pixel value of the real image is not obtained. And interpolating the image information at the virtual point of view with respect to the generated virtual envelope.

이어서, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Next, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 일 실시예에 따른 가상 시점에서의 3차원 영상 생성 장치의 구성도이다.1 is a block diagram of an apparatus for generating a 3D image from a virtual viewpoint according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 실시예의 가상 시점에서의 3차원 영상 생성 장치는, 실사영상 입력 장치(10), 전경체 사영영상 생성 장치(20), 윤곽선 정보 추출기(30), 3D 모델링 정보 데이터베이스(40), 가상외피 및 가상 3차원 영상 생성기(50) 및 디스플레이 장치(60)를 포함한다.Referring to FIG. 1, the 3D image generating apparatus at the virtual view of the present embodiment may include a real image input apparatus 10, a foreground projected image generating apparatus 20, an outline information extractor 30, and a 3D modeling information database ( 40, a virtual envelope and a virtual 3D image generator 50, and a display device 60.

실사영상 입력 장치(10)는 참조 영상으로 사용할 실사영상을 수집하는 장치를 말하며, 예컨대 복수개의 카메라 또는 캠코더 등을 사용할 수 있다. 실사영상 입력 장치(10)를 구성하는 다수의 영상 수집 장치 예컨대 다수의 카메라는 각각 다른 시점에서의 실사영상을 촬영하여 후술하는 전경체 사영영상 생성 장치(20)로 전송한다. 상기 다수의 카메라 각각은 위치와 거리관계가 미리 설정되어 있고 시공간적으로 동기화되어 있다. 이러한 다수의 카메라는 도 2에 나타낸 바와 같이 구성할 수 있다. The live image input apparatus 10 refers to a device for collecting a live image to be used as a reference image, for example, a plurality of cameras or camcorders. A plurality of image collection apparatuses, for example, a plurality of cameras, which constitute the live image input apparatus 10, photograph the real images at different viewpoints, and transmit them to the foreground projected image generating apparatus 20, which will be described later. Each of the plurality of cameras has a preset position and distance relationship and is synchronized in time and space. Such multiple cameras can be configured as shown in FIG.

도 2를 참조하면, 다수의 카메라는 총 6개로 구성되며, 각각 3개씩 2개의 허브(11,12)에 연결되어 있으며, 상기 허브(11,12)는 동기화 유니트(13)에 연결된다. 허브(11,12)를 통해 다수의 카메라로부터 수집된 실사영상은 동기화 유니트(13)에 의해 시공간적으로 동기화되어 추후의 영상 처리를 위해 컴퓨터(14)로 전송될 수 있다. 여기에서, 상기 컴퓨터(14)는 별도의 영상 처리를 수행하여 별도로 구비된 전경체 사영영상 생성장치(20)로 영상을 전송할 수 있으며, 또는 컴퓨터 자체가 전경체 사영영상 생성장치(20)가 될 수도 있다.Referring to FIG. 2, a plurality of cameras are composed of a total of six, each of which is connected to two hubs 11 and 12, three of which are connected to a synchronization unit 13. Photorealistic images collected from a plurality of cameras through the hubs 11 and 12 may be synchronized in time and space by the synchronization unit 13 and transmitted to the computer 14 for later image processing. Here, the computer 14 may perform a separate image processing and transmit an image to the foreground projected image generating apparatus 20 separately provided, or the computer itself may be the foreground projected image generating apparatus 20. It may be.

전경체 사영영상 생성장치(20)는 상기 살펴 본 바와 같이 실사영상 입력 장치(10)로부터 전송되는 각각의 실사영상으로부터 가상외피 생성에 필요한 참조 영상을 획득하기 위해 필요한 전경체 사영영상을 생성하고, 생성된 전경체 사영영상을 윤곽선 정보 추출기(30)로 전송한다. 전경체 사영영상 생성 장치(20)는 전경체 사영영상을 생성하기 위하여, 실사영상 입력 장치(10)로부터 입력되는 각각의 실사영상에 대해서 밝기값(Intensity)과 컬러성분값(Cb, Cr)을 구하고, 대상체가 없는 순수 배경 영상의 밝기값과 컬러성분값의 차이를 구한 후, 소정 문턱값을 설정해 영상에서 전경체만을 추출해내는 배경/전경 분리기(21)와, 상기 배경/전경 분리기(21)를 통해 구해진 영상에 필터링 처리를 수행하는 영상 필터링 처리기(22)를 포함한다. 상기 영상 필터링 처리기(22)에서 영상 필터링 처리는, 작은 영상 노이즈를 제거하기 위해서 모폴로지 필터링(Morphological Filtering)을 수행하고 전경체 사영영상 내부 쪽에 작은 홀들을 메우기 위한 볼록깍지(Convex hull) 필터링 등 의 작업을 수행할 수 있다.As described above, the foreground projecting image generating apparatus 20 generates a foreground projecting image necessary to obtain a reference image for generating a virtual envelope from each of the actual images transmitted from the actual image input apparatus 10, The generated foreground projection image is transmitted to the contour information extractor 30. The foreground projected image generating apparatus 20 generates brightness and color component values Cb and Cr for each of the actual images inputted from the real image input apparatus 10 to generate the foreground projected image. The background / foreground separator 21 extracting only the foreground object from the image by setting a predetermined threshold value after calculating the difference between the brightness value and the color component value of the pure background image without the object, and the background / foreground separator 21. The image filtering processor 22 performs a filtering process on the image obtained through. In the image filtering processor 22, image filtering processing includes morphological filtering to remove small image noise, and convex hull filtering to fill small holes in the foreground projected image. Can be performed.

윤곽선 정보 추출기(30)는 상기 배경/전경 분리기(21) 및 영상 필터링 처리기(22)를 통해 생성된 전경체 사영영상으로부터, 획득한 전경과 배경의 경계 정보를 이용하여 전경체의 윤곽선 정보를 추출하여 상기 전경체 사영영상 생성장치(20)에서 전송된 전경체 사영영상과 윤곽선 정보를 3D 모델링 정보 데이터베이스(40)에 저장하는 동시에 가상 외피 및 가상 3차원 영상 생성기(50)로도 전송한다. The contour information extractor 30 extracts the contour information of the foreground object from the foreground projected image generated by the background / foreground separator 21 and the image filtering processor 22 using the obtained foreground and background boundary information. Then, the foreground projected image and the contour information transmitted from the foreground projected image generating apparatus 20 are stored in the 3D modeling information database 40 and transmitted to the virtual envelope and the virtual 3D image generator 50.

3D 모델링 정보 데이터베이스(40)는 실사영상 입력 장치(10), 전경체 사영영상 생성 장치(20) 및 윤곽선 정보 추출기(30)를 통해 만들어진 결과 데이터들 즉, 전경체 사영영상과 윤곽선 정보 등을 저장한다. The 3D modeling information database 40 stores the result data generated by the real image input device 10, the foreground projected image generating device 20, and the contour information extractor 30, that is, the foreground projected image and the contour information. do.

가상외피 및 가상 3차원 영상 생성기(50)는 3D 모델링 정보 데이터베이스(40)에 저장되어 있는 데이터들을 이용하여 가상외피 기법에 기반하여 임의의 가상 시점에서 요청되는 3차원 가상 영상을 재구성한다. The virtual envelope and the virtual 3D image generator 50 reconstruct a 3D virtual image requested at an arbitrary virtual view based on the virtual envelope technique using data stored in the 3D modeling information database 40.

디스플레이 장치(60)는 사용자에게 재구성된 3차원 장면을 디스플레이한다.The display device 60 displays the reconstructed three-dimensional scene to the user.

도 3은 도 1과 같은 구성하에서 이루어지는 본 발명의 바람직한 일 실시예에 따른 가상 시점에서의 3차원 영상 생성 방법을 개략적으로 나타내는 순서도이다.FIG. 3 is a flowchart schematically illustrating a 3D image generating method at a virtual view according to an exemplary embodiment of the present invention, which has the configuration as shown in FIG. 1.

도 3을 참조하면, 전경체 사영영상 생성 장치(20)는 도 2에 나타낸 바와 같이 동기화된 다수의 실사영상 입력 장치로부터 실사영상을 입력받는다(S301).Referring to FIG. 3, the foreground projection image generating apparatus 20 receives a live image from a plurality of synchronized image input apparatuses as shown in FIG. 2 (S301).

전경체 사영영상 생성 장치(20)의 배경/전경 분리기(21)는 상기 입력된 실사영상의 밝기값과 컬러성분값을 이용하여 영상에서 배경과 전경을 분리하여 전경체만을 추출한다(S303). 영상으로부터 배경과 전경을 분리하는 방법은 다음과 같은 방법을 사용할 수 있다. 우선, 다수의 실사영상 입력 장치(10)로부터 입력된 실사영상에서 영상의 밝기값과 컬러성분값을 함께 이용하여, 배경과 전경을 구분할 소정의 문턱값을 설정하고 설정된 문턱값에 의해 배경과 전경을 분리한다.The background / foreground separator 21 of the foreground projected image generating apparatus 20 extracts only the foreground by separating the background and the foreground from the image by using the input brightness value and the color component value (S303). As a method of separating a background and a foreground from an image, the following method may be used. First, in a live image input from a plurality of live image input apparatus 10, by using a brightness value and a color component value of the image together, a predetermined threshold value to distinguish the background and the foreground is set, and the background and foreground are set by the set threshold value. To separate.

밝기 값과 컬러 성분값을 구하는 식은 다음과 같다.The equation for calculating the brightness value and color component value is as follows.

밝기 값 = 0.29900R + 0.58700G + 0.11400BBrightness value = 0.29900R + 0.58700G + 0.11400B

청색컬러 값 = -0.16874R - 0.33126G + 0.50000BBlue color value = -0.16874R-0.33126G + 0.50000B

적색컬러 값 = 0.50000R - 0.41869G - 0.08131B Red color value = 0.50000R-0.41869G-0.08131B

기존의 RGB 컬러 공간에서는 각 컬러 성분에 밝기 성분이 포함되어 있어서 조명이나 그림자에 의한 밝기 변화에 영향을 많이 받게 되어 노이즈의 발생이 많으므로, 밝기 성분과 컬러 성분을 분리하여 사용함으로써 밝기 변화에 대한 영향을 줄일 수 있다. In the existing RGB color space, each color component contains a brightness component, which is affected by the brightness change caused by lighting or shadows, and causes a lot of noise. Therefore, the brightness component and the color component are separated and used for the brightness change. The impact can be reduced.

이러한 밝기 값과 컬러성분값을 이용하여 소정의 문턱값을 설정한 후, 아래와 같은 수식을 이용하여 전경체를 구분한다.After setting a predetermined threshold value using the brightness value and the color component value, the foreground object is classified using the following equation.

Figure 112007001371766-PAT00001
Figure 112007001371766-PAT00001

상기 식에서

Figure 112007001371766-PAT00002
는 배경 참조 영상에서의 해당 픽셀의 성분값을 의미하고,
Figure 112007001371766-PAT00003
는 전경체가 존재하는 현재 입력된 영상에서의 해당 픽셀 의 성분값을 의미한다.
Figure 112007001371766-PAT00004
는 문턱값을 의미한다. 이와 같이 밝기 성분과 컬러성분값을 동시에 이용함으로써, 조명이나 그림자에 의한 미세한 변화에 의한 오차를 극복할 수 있으며, 그림자 등이 전경체로 구분되는 것을 효과적으로 제거할 수 있다. In the above formula
Figure 112007001371766-PAT00002
Means the component value of the corresponding pixel in the background reference image,
Figure 112007001371766-PAT00003
Denotes the component value of the corresponding pixel in the currently input image in which the foreground exists.
Figure 112007001371766-PAT00004
Means threshold. In this way, by using the brightness component and the color component value at the same time, it is possible to overcome the error due to the minute change caused by the lighting or shadow, it is possible to effectively remove the shadow and the like divided into the foreground.

다음으로, 영상 필터링 처리기(22)는 모폴로지 필터링(Morphological Filtering) 및 볼록깍지 필터링(Convex hull Filtering) 작업을 수행한다(S305). 여기에서, 모폴로지 필터링은 작은 영상 노이즈를 제거하기 위한 것이고, 볼록깍지 필터링은 전경체 사영영상 내부 쪽에 작은 홀들을 메우기 위한 것이다.Next, the image filtering processor 22 performs morphological filtering and convex hull filtering (S305). Here, morphology filtering is for removing small image noise, and convex pod filtering is for filling small holes inside the foreground projection image.

영상 필터링 처리기(22)에서 필터링 처리까지 수행하여 전경체 사영영상이 생성되면, 전경체 사영영상 생성 장치(20)는 생성된 전경체 사영영상을 윤곽선 정보 추출기(30)로 전송하고, 윤곽선 정보 추출기(30)는 전경체 사영영상에서 전경과 배경의 경계정보를 이용하여 전경체의 윤곽선 정보를 추출한다(S307). 도 4는 전경체 사영영상 생성 장치(20)에 의하여 전경과 배경을 분리하여 전경체 사영영상을 생성한 후 윤곽선 정보까지 추출한 상태의 영상을 나타낸 것이다. When the foreground projection image is generated by performing the filtering process in the image filtering processor 22, the foreground projection image generating apparatus 20 transmits the generated foreground projection image to the contour information extractor 30, and the contour information extractor. 30 extracts contour information of the foreground object from the foreground projected image using boundary information of the foreground and the background (S307). 4 shows an image of a state in which the foreground projecting image is generated by separating the foreground and the background by the foreground projecting image generating apparatus 20, and then the contour information is extracted.

윤곽선 정보를 추출한 후, 윤곽선 정보 추출기(30)는 전경체 사영영상과 윤곽선 정보를 3D 모델링 정보 데이터베이스(40)에 저장하거나(S309, S311), 또는 가상 외피 및 가상 3차원 영상 생성기(50)로 전송한다. 물론, 3D 모델링 정보 데이터베이스(40) 및 가상 외피 및 가상 3차원 영상 생성기(50)로 동시에 전송할 수도 있다.After extracting the contour information, the contour information extractor 30 stores the foreground projection image and the contour information in the 3D modeling information database 40 (S309, S311), or the virtual envelope and the virtual three-dimensional image generator 50. send. Of course, the 3D modeling information database 40 and the virtual envelope and the virtual 3D image generator 50 may be simultaneously transmitted.

다음으로, 가상외피 및 가상 3차원 영상 생성기(50)는 상기 3D 모델링 정보 데이터베이스(40)에 저장되어 있는 데이터들을 이용하여 가상외피 기법에 기반하여 임의의 시점에서의 가상 3차원 영상을 재구성한다(S313). 가상외피 기법에 기반하여 임의의 시점에서의 가상의 3차원 영상을 재구성하는 구체적인 방법에 대해서는 도 5 이하를 참조하여 후술한다.Next, the virtual envelope and the virtual three-dimensional image generator 50 reconstructs the virtual three-dimensional image at any point of time based on the virtual envelope technique using data stored in the 3D modeling information database 40 ( S313). A detailed method of reconstructing a virtual 3D image at an arbitrary time point based on the virtual envelope technique will be described below with reference to FIG. 5.

가상 외피 및 가상 3차원 영상 생성기(50)에 의해 임의의 시점에서의 가상 3차원 영상이 생성되면, 디스플레이 장치(60)는 사용자에게 재구성된 3차원 장면을 디스플레이한다(S315).When a virtual 3D image is generated at an arbitrary time point by the virtual envelope and the virtual 3D image generator 50, the display apparatus 60 displays the reconstructed 3D scene to the user (S315).

도 5 내지 도 10은 가상 외피 및 가상 3차원 영상 생성기(50)에 의해 가상 외피 기법에 기반하여 임의의 시점에서 가상 3차원 영상을 생성하는 방법을 설명하기 위한 도면이다.5 to 10 are diagrams for describing a method of generating a virtual 3D image at an arbitrary time point by the virtual skin and the virtual 3D image generator 50 based on the virtual skin technique.

우선, 임의의 가상 시점에서 가상의 3차원 영상을 새롭게 생성하는 알고리즘을 수도 코드(pseudo code)로 요약하여 나타내면 아래와 같다.First, an algorithm for newly generating a virtual 3D image at an arbitrary virtual point of view may be summarized as pseudo code.

for each pixel p in desired image do   for each pixel p in desired image do

distanceAlongRay = 0distanceAlongRay = 0

while(isOutsideVisualHull)while (isOutsideVisualHull)

distanceAlongRay++distanceAlongRay ++

if(intersectionFound)if (intersectionFound)

for each realCamerafor each realCamera

if(notOccluded && close)if (notOccluded && close)

sampleColor()sampleColor ()

pixelColor = weightMean(sample)pixelColor = weightMean (sample)

elseelse

pixel = backgroundpixel = background

임의의 시점에서의 가상 3차원 영상을 재구성하는 것은, 다수의 카메라로부터 획득한 실사영상에서 전경과 배경을 분리하고 필터링 등의 작업을 수행한 후, 윤곽선 정보를 추출한 다수의 전경체 사영영상(참조 영상)을 임의의 시점 즉, 가상의 3차원 영상을 생성하고자 하는 시점에서의 3차원 공간상에 투영하여 참조 영상들의 3차원 공간상에서의 교차점들을 구하고, 이들 교차점들에 의해 가상외피를 구성한 후, 임의의 시점에서 보여지는 색상 등의 영상 정보를 보간 등의 작업에 의해 텍스쳐를 매핑하는 작업으로 이루어진다. Reconstructing a virtual three-dimensional image at an arbitrary point of time may be performed by separating foreground and background from a live image obtained from a plurality of cameras, performing filtering and the like, and then extracting contour information from a plurality of foreground projection images (see Image) is projected on a three-dimensional space at an arbitrary point of time, that is, the point at which a virtual three-dimensional image is to be generated, to obtain intersection points in three-dimensional space of reference images, and a virtual envelope is formed by these intersections. Image mapping such as color seen at an arbitrary time is performed by mapping textures by interpolation or the like.

도 5 및 도 6은 전경체 사영영상과 가상외피와의 관계를 설명하기 위한 도면이다.5 and 6 are diagrams for explaining the relationship between the foreground projection image and the virtual envelope.

도 5를 참조하면, 4개의 카메라로부터 실사영상을 획득한 경우, 가상 외피를 구현하는 개념을 나타낸 것이다. 가상외피에 대한 정의는 아래와 같다.Referring to FIG. 5, when a live image is obtained from four cameras, a concept of implementing a virtual jacket is shown. The definition of the virtual envelope is as follows.

Figure 112007001371766-PAT00005
Figure 112007001371766-PAT00006
Figure 112007001371766-PAT00005
Figure 112007001371766-PAT00006

상기 식에서

Figure 112007001371766-PAT00007
은 각각의 카메라에서 입력된 실사영상 각각을 의미하며,
Figure 112007001371766-PAT00008
은 다수의 카메라에서 입력된 실사영상의 집합을 의미한다. 그리고
Figure 112007001371766-PAT00009
은 각각의 카메라 중심점에서 전경체 사영영상의 중심점을 향해 가상의 빛을 쏘았을 때 생성되는 원뿔모형의 3차원 형상 각각을 의미한다. 즉 가상외피(Visual Hull)는 원뿔모양의 3차원 형상들의 교집합이라 정의할 수 있다.In the above formula
Figure 112007001371766-PAT00007
Means each of the live images input from each camera,
Figure 112007001371766-PAT00008
Refers to a set of live-action images input from a plurality of cameras. And
Figure 112007001371766-PAT00009
Denotes each of the three-dimensional shapes of the cone model generated when a virtual light is shot from the center point of the camera toward the center point of the foreground projected image. In other words, the virtual hull can be defined as the intersection of three-dimensional cone-shaped shapes.

도 6을 참조하면, 2개의 카메라에서 실사영상을 획득한 경우, 이들을 3차원 공간상으로 투영했을 때 투영 영상들의 교차점을 설명하기 위한 것으로서, 이들 교차점에 의해 가상의 3차원 공간에서 가상 외피가 생성된 것을 확인할 수 있다. Referring to FIG. 6, when real image images are acquired by two cameras, the points of intersection of projection images are illustrated when they are projected in three-dimensional space, and these intersections generate a virtual envelope in a virtual three-dimensional space. You can see that.

도 7 및 도 8은 임의의 가상 시점에서 가상 외피를 생성하고 이에 기반하여 가상의 3차원 영상을 생성하는 것을 설명하기 위한 도면이다.FIG. 7 and FIG. 8 are diagrams for describing generating a virtual envelope at an arbitrary virtual viewpoint and generating a virtual 3D image based on the virtual envelope.

도 7을 참조하면, 2개의 카메라에서 실사영상을 획득하고, 이들을 3차원 공간 상으로 투영한 경우, 임의의 가상 시점과 이들 투영 영상간의 교차점에 의하여 가상 외피를 생성하고 가상 시점에서의 가상 3차원 영상을 생성하게 된다. Referring to FIG. 7, when a real image is obtained from two cameras and the images are projected onto a three-dimensional space, a virtual skin is generated by an intersection point between an arbitrary virtual viewpoint and these projection images, and a virtual three-dimensional image at the virtual viewpoint. Create an image.

도 8을 참조하면, 도 7에서와 같이 2개의 카메라로부터 투영된 영상과 임의의 가상 시점과의 교차점에 의해 생성된 가상 외피와 가상 시점에서 바라본 가상 외피 영상을 나타낸 것으로서, 양감이 있는 3차원 대상체의 모델링을 용이하게 표현할 수 있는 SCG(Constructive Solid Geometry) 개념을 도입하고, 부울 조합 연산(Subtraction)을 수행하여 가상 영상을 형성한 것을 나타낸 것이다.Referring to FIG. 8, as shown in FIG. 7, a virtual envelope generated by an intersection point between an image projected from two cameras and an arbitrary virtual viewpoint and a virtual envelope image viewed from the virtual viewpoint, and having a three-dimensional object with a sense of volume The concept of constructing Solid Geometry (SCG), which can easily express modeling, is introduced, and Boolean subtraction is performed to form a virtual image.

도 9 및 도 10은 앞서 설명한 바와 같은 가상 외피 기법에 기반하여 임의의 가상 시점에서 생성된 가상 3차원 영상의 실제 구현 화면을 나타낸 것으로서, 도 9는 서로 다른 시점의 3개의 카메라로부터 획득된 실사영상을 서로 다른 시점 즉, t=1, t=2, t=3, t=4 마다 나타낸 것이고, 도 10은 도 9와 같은 실사영상에 의해 가상 외피를 생성한 후 도 9에서의 3개의 카메라 이외의 다른 임의의 가상 시점에서 바라본 가상의 3차원 영상 화면을 나타낸 것이다.9 and 10 illustrate actual implementation screens of a virtual 3D image generated at an arbitrary virtual viewpoint based on the virtual envelope technique as described above, and FIG. 9 is a photo-realistic image obtained from three cameras of different views. Are shown at different time points, i.e., at t = 1, t = 2, t = 3, and t = 4, and FIG. 10 generates virtual skins by the live image shown in FIG. It shows a virtual three-dimensional image screen viewed from another arbitrary virtual viewpoint of.

이와 같이, 임의의 시점으로부터 가상 외피를 생성한 경우, 임의의 시점에서의 색상 정보나 밝기 정보 등의 기타 영상 구현에 필요한 정보는 획득되어 있는 실사영상으로부터 텍스쳐 매핑 등의 작업을 통해 보간함으로써 구현할 수 있게 된다. 이 경우, 임의의 시점이 획득되어 있는 실사영상의 시점과 소정 임계치 이하로 근접한 경우에는 실사영상의 정보를 그대로 이용할 수 있다. 한편, 실사영상의 픽셀값을 다른 객체의 가려짐 등으로 인하여 획득할 수 없는 경우, 거리가 가장 가까운 시점의 실사영상 입력 장치의 전경체 사영영상의 픽셀값으로 대체할 수 있는데 이 때 픽셀 값들의 가중치를 거리에 비례하도록 할 수도 있다. As described above, when a virtual envelope is generated from an arbitrary viewpoint, information necessary for realizing other images such as color information and brightness information at an arbitrary viewpoint may be implemented by interpolating from the obtained live image through a process such as texture mapping. Will be. In this case, when an arbitrary viewpoint is close to the viewpoint of the actual image acquired, the information of the actual image may be used as it is. On the other hand, if the pixel value of the live image cannot be obtained due to the obstruction of another object, the pixel value of the foreground projected image of the live image input apparatus of the closest distance can be replaced. The weight may be proportional to the distance.

본 발명은 상기 실시예에 한정되지 않으며, 많은 변형이 본 발명의 사상 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 가능함은 물론이다.The present invention is not limited to the above embodiments, and many variations are possible by those skilled in the art within the spirit of the present invention.

본 발명에 의하면, 다수의 실사영상 입력 장치로부터 실사영상을 입력받아 이들 실사영상으로부터 전경체 사영영상을 생성한 후, 이들을 임의의 가상 시점에서 바라본 가상의 3차원 공간에 투영하고 이들 투영된 영상간의 교차점을 산출하여 가상 외피를 구현하고, 이 가상 외피에 의하여 임의의 가상 시점에서의 가상 3차원 영상을 간편하고 정확하게 구현할 수 있는 방법 및 장치를 제공할 수 있다.According to the present invention, after receiving a live image from a plurality of live image input apparatus to generate a foreground projection image from these live image, and project them in a virtual three-dimensional space viewed from any virtual viewpoint and between the projected image It is possible to provide a method and apparatus for calculating a crossing point to implement a virtual envelope, and by using the virtual envelope, a simple and accurate implementation of a virtual 3D image at any virtual viewpoint.

본 발명에 의하면, 특히 동적 비강체 대상에 대한 다수의 전경체 사영영상을 생성하고 생성된 전경체 사영영상으로부터 가상 외피를 생성하고 영상 보간 기법을 이용하여 임의의 가상시점 장면을 생성함으로써, 다양한 시점에서의 3차원 영상을 제한된 수의 카메라 등의 영상 입력 장치에 의하여 신속하게 구현할 수 있다.According to the present invention, a plurality of viewpoints are generated by generating a plurality of foreground projection images of a dynamic non-rigid object, a virtual envelope from the generated foreground projection images, and an arbitrary virtual viewpoint scene using an image interpolation technique. The 3D image in Esau can be quickly implemented by a video input device such as a limited number of cameras.

또한, 본 발명에 의하면, 이미지 기반의 실사영상을 참조 영상으로 이용하므로, 3차원의 레이저 스캐너 같은 고가의 장비가 필요 없으며, 마커와 같은 센서를 사용하지 않기 때문에 대상체의 보다 자연스럽고 역동적 움직임을 유도할 수 있으며, 동기화된 카메라를 이용하기 때문에 영상 화질을 보다 높일 수 있어 경제적으로 저렴하게 시스템을 구축할 수 있다.In addition, according to the present invention, since an image-based photorealistic image is used as a reference image, expensive equipment such as a 3D laser scanner is not required, and since a sensor such as a marker is not used, more natural and dynamic movement of the object is induced. In addition, by using a synchronized camera, the image quality can be improved and the system can be economically inexpensive.

Claims (17)

다수의 실사영상 입력 장치로부터 실사영상을 입력받아 가상 시점에서의 3차원 영상을 생성하는 방법에 있어서,In the method for receiving a live image from a plurality of live image input apparatus for generating a three-dimensional image from a virtual view, 상기 다수의 실사영상 입력 장치로부터 입력받은 실사영상의 전경체 사영영상을 생성하는 단계;Generating a foreground projection image of the live image received from the plurality of live image input devices; 상시 생성한 전경체 사영영상으로부터 전경체의 윤곽선 정보를 추출하는 단계;Extracting contour information of the foreground from a constantly generated foreground projection image; 상기 생성한 전경체 사영영상과 윤곽선 정보를 이용하여 임의의 가상 시점에서의 가상 외피를 생성하는 단계; 및Generating a virtual envelope at any virtual viewpoint using the generated foreground projected image and contour information; And 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 단계Interpolating image information at the virtual view point of the generated virtual envelope 를 포함하는 가상 시점에서의 3차원 영상 생성 방법.3D image generation method in a virtual view including a. 제1항에 있어서,The method of claim 1, 상기 동기화된 다수의 실사영상 입력 장치로부터 입력받은 실사영상의 전경체 사영영상을 생성하는 단계는, 상기 입력받은 실사영상의 전경과 배경을 구분하는 단계를 더 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.The generating of the foreground projection image of the live image received from the plurality of synchronized image input apparatuses may include distinguishing the foreground and the background of the received live image from the virtual viewpoint. 3D image generation method. 제1항에 있어서,The method of claim 1, 상기 동기화된 다수의 실사영상 입력 장치로부터 입력받은 실사영상의 전경체 사영영상을 생성하는 단계는, 모폴로지 필터링(Morphological Filtering) 및 볼록깍지 필터링(Convex hull Filtering) 작업을 수행하는 단계를 더 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.Generating the foreground projection image of the live image received from the plurality of synchronized image input apparatuses further includes performing morphological filtering and convex hull filtering. 3D image generating method in a virtual view characterized in that. 제2항에 있어서,The method of claim 2, 상기 입력받은 실사영상의 전경과 배경을 구분하는 단계는, 실사영상의 밝기 값 및 컬러성분값을 이용하여 소정의 문턱값을 설정하고, 상기 설정된 문턱값에 의해 전경과 배경을 구분하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.The step of distinguishing the foreground and the background of the received live image, characterized in that for setting a predetermined threshold value using the brightness value and the color component value of the live image and distinguishing the foreground and the background by the set threshold value 3D image generation method in a virtual view. 제1항에 있어서,The method of claim 1, 상기 실사영상 입력 장치로부터 입력되는 실사영상들은, 시간적으로 동기화되어 있는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.3. The method of claim 3, wherein the live images inputted from the live image input device are synchronized in time. 제1항에 있어서,The method of claim 1, 상기 생성한 전경체 사영영상과 윤곽선 정보를 이용하여 임의의 가상 시점에서의 가상 외피를 생성하는 단계는, Generating a virtual envelope at any virtual viewpoint using the generated foreground projection image and the contour information, 상기 다수의 전경체 사영영상을 임의의 가상 시점에서의 3차원 공간상에 투영하여 상기 투영된 영상들의 교차점들을 산출하는 단계를 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.And projecting the plurality of foreground projected images on a three-dimensional space at an arbitrary virtual viewpoint to calculate intersections of the projected images. 제1항에 있어서,The method of claim 1, 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 단계는,Interpolating the image information at the virtual virtual view with respect to the generated virtual envelope, 다수의 실사영상의 시점 중 어느 하나와 상기 임의의 가상 시점간의 거리가 소정 임계치 이하인 경우, 상기 실사영상의 정보를 그대로 사용하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.3. The method of claim 3, wherein when the distance between any one of the plurality of live images and the arbitrary virtual view is less than or equal to a predetermined threshold, the information of the live image is used as it is. 제1항에 있어서,The method of claim 1, 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 단계는, 실사영상의 픽셀값을 획득할 수 없는 경우, 거리가 가장 가까운 시 점의 실사영상 입력 장치의 전경체 사영영상의 픽셀값들에 대해 거리에 비례하도록 가중치를 부여하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 방법.The interpolation of the image information at the virtual view of the generated virtual envelope may include: when the pixel value of the live image cannot be obtained, the foreground projected image of the live image input device at a point closest to the distance 3. The method of claim 3, wherein the pixel values are weighted to be proportional to the distances. 실사영상을 입력받아 가상 시점에서 3차원 영상을 생성하는 장치에 있어서,In the apparatus for receiving a live image and generating a three-dimensional image from a virtual view, 서로 다른 시점에서의 실사영상을 획득하는 복수개의 실사영상 입력 장치;A plurality of live image input apparatuses for obtaining a live image at different viewpoints; 상기 실사영상 입력 장치로부터 복수개의 실사영상을 입력받아 실사영상 각각에 전경체 사영영상을 생성하는 전경체 사영영상 생성 장치;A foreground projecting image generating device which receives a plurality of live image inputs from the live image input apparatus and generates a foreground projecting image on each of the actual image; 상기 전경체 사영영상 생성 장치에서 생성된 전경체 사영영상으로부터 전경체의 윤곽선 정보를 추출하는 윤곽선 정보 추출기; 및A contour information extractor for extracting contour information of the foreground from the foreground projected image generated by the foreground projected image generating device; And 상기 전경체 사영영상 및 윤곽선 정보에 의해 임의의 가상 시점에 상응하는 가상 외피 및 3차원 가상 영상을 생성하는 가상외피 및 가상 3차원 영상 생성기A virtual envelope and a virtual three-dimensional image generator for generating a virtual envelope and a three-dimensional virtual image corresponding to an arbitrary virtual viewpoint based on the foreground projected image and contour information 를 포함하는 가상 시점에서의 3차원 영상 생성 장치.3D image generating apparatus in a virtual view including a. 제9항에 있어서,The method of claim 9, 상기 전경체 사영영상 생성 장치는,The foreground projection image generating device, 상기 실사영상 입력 장치로부터 입력되는 복수개의 실사영상 각각에 대해서 밝기값과 컬러성분값을 구하고, 대상체가 없는 배경 영상의 밝기값과 컬러성분값의 차이를 구한 후, 소정 문턱값을 설정하여 배경과 전경을 분리하는 배경/전경 분리 기A brightness value and a color component value are obtained for each of the plurality of live image images input from the live image input device, a difference between the brightness value and the color component value of the background image without an object is obtained, and a predetermined threshold is set to set the background and Background / foreground separator to separate foreground 를 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.3D image generating apparatus in a virtual view, characterized in that it comprises a. 제9항에 있어서,The method of claim 9, 상기 전경체 사영영상 생성 장치는,The foreground projection image generating device, 작은 영상 노이즈를 제거하기 위한 모폴로지 필터링 또는 전경체 사영영상 내부 쪽에 작은 홀들을 메우기 위한 볼록깍지 필터링 작업 중 적어도 어느 하나를 수행하는 영상 필터링 처리기An image filtering processor that performs at least one of morphological filtering to remove small image noise or convex pod filtering to fill small holes in the foreground projected image. 를 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.3D image generating apparatus in a virtual view, characterized in that it comprises a. 제9항에 있어서,The method of claim 9, 상기 실사영상 입력 장치는,The live image input device, 상기 복수개의 실사영상 입력 장치에서 획득된 복수개의 실사영상 각각에 대한 시간적 동기화를 수행하는 동기화 유니트A synchronization unit that performs temporal synchronization with respect to each of the plurality of live image images acquired by the plurality of live image image input apparatuses 를 더 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.3D image generating apparatus in a virtual view further comprising. 제9항에 있어서,The method of claim 9, 상기 실사영상 입력 장치에서 획득된 실사영상과, 상기 전경체 사영영상 생성 장치에서 생성된 전경체 사영영상과, 윤곽선 정보 추출기에서 생성된 윤곽선 정보 중 적어도 어느 하나를 저장하는 데이터베이스A database storing at least one of a live image obtained by the live image input apparatus, a foreground projected image generated by the foreground projected image generating apparatus, and contour information generated by a contour information extractor 를 더 포함하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.3D image generating apparatus in a virtual view further comprising. 제9항에 있어서,The method of claim 9, 상기 가상외피 및 가상 3차원 영상 생성기는, 상기 다수의 전경체 사영영상을 임의의 가상 시점에서의 3차원 공간상에 투영하여 상기 투영된 영상들의 교차점들을 산출하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.The virtual envelope and the virtual three-dimensional image generator 3 calculates intersections of the projected images by projecting the plurality of foreground projected images on a three-dimensional space at an arbitrary virtual viewpoint. Dimensional image generating device. 제9항에 있어서,The method of claim 9, 상기 가상외피 및 가상 3차원 영상 생성기는 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.And the virtual envelope and the virtual three-dimensional image generator interpolate the image information of the virtual viewpoint with respect to the generated virtual envelope. 제15항에 있어서,The method of claim 15, 상기 가상외피 및 가상 3차원 영상 생성기는 다수의 실사영상의 시점 중 어느 하나와 상기 임의의 가상 시점간의 거리가 소정 임계치 이하인 경우 상기 실사영상의 정보를 그대로 사용함으로써 상기 임의의 가상 시점에서의 영상 정보를 보간하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.The virtual envelope and the virtual three-dimensional image generator, when the distance between any one of the plurality of live images and the arbitrary virtual view is less than a predetermined threshold value by using the information of the live image as it is image information at the arbitrary virtual view 3D image generating apparatus in a virtual view, characterized in that to interpolate. 제15항에 있어서,The method of claim 15, 상기 가상외피 및 가상 3차원 영상 생성기는 실사영상의 픽셀값을 획득할 수 없는 경우 거리가 가장 가까운 시점의 실사영상 입력 장치의 전경체 사영영상의 픽셀값들에 대해 거리에 비례하도록 가중치를 부여함으로써 상기 생성한 가상 외피에 대한 상기 임의의 가상 시점에서의 영상 정보를 보간하는 것을 특징으로 하는 가상 시점에서의 3차원 영상 생성 장치.When the virtual envelope and the virtual 3D image generator cannot obtain the pixel value of the live image, the virtual weight and the virtual 3D image generator are weighted proportionally to the distance of the pixel values of the foreground projected image of the live image input apparatus at the closest distance. And 3D image generating apparatus at the virtual viewpoint, wherein the image information of the generated virtual envelope is interpolated.
KR1020070001577A 2006-01-05 2007-01-05 Method and apparatus of generating three dimensional scene in virtual view point KR100879802B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20060001380 2006-01-05
KR1020060001380 2006-01-05

Publications (2)

Publication Number Publication Date
KR20070073647A true KR20070073647A (en) 2007-07-10
KR100879802B1 KR100879802B1 (en) 2009-01-22

Family

ID=38508168

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070001577A KR100879802B1 (en) 2006-01-05 2007-01-05 Method and apparatus of generating three dimensional scene in virtual view point

Country Status (1)

Country Link
KR (1) KR100879802B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120033872A1 (en) * 2010-08-03 2012-02-09 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view based on image resizing
KR101249159B1 (en) * 2011-08-01 2013-04-01 한밭대학교 산학협력단 Tree dimension composition apparatus for realizing camera oriented effect of object in three dimensionsimagination space and tree dimention composition method using thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101615238B1 (en) * 2009-07-21 2016-05-12 삼성전자주식회사 Image processing apparatus and method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020021700A (en) * 2000-09-16 2002-03-22 장기화 Device And Method For 3 Dimensional Measurement
KR100399735B1 (en) * 2001-03-26 2003-09-29 이호균 Realization method of virtual navigation using still photograph
KR100489366B1 (en) * 2001-09-17 2005-05-12 박영 Modelling System of 3 Dimension
KR20040041297A (en) * 2002-11-11 2004-05-17 (주) 에이치비전 Method for tracing and displaying multiple object movement using multiple camera videos
KR20060021566A (en) * 2004-09-03 2006-03-08 (주)제니텀 엔터테인먼트 컴퓨팅 Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120033872A1 (en) * 2010-08-03 2012-02-09 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view based on image resizing
US8634675B2 (en) 2010-08-03 2014-01-21 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view based on image resizing
KR101249159B1 (en) * 2011-08-01 2013-04-01 한밭대학교 산학협력단 Tree dimension composition apparatus for realizing camera oriented effect of object in three dimensionsimagination space and tree dimention composition method using thereof

Also Published As

Publication number Publication date
KR100879802B1 (en) 2009-01-22

Similar Documents

Publication Publication Date Title
CN111066065B (en) System and method for hybrid depth regularization
JP6425780B1 (en) Image processing system, image processing apparatus, image processing method and program
TWI524734B (en) Method and device for generating a depth map
KR100603601B1 (en) Apparatus and Method for Production Multi-view Contents
JP6513169B1 (en) System, method and program for generating virtual viewpoint image
RU2708437C1 (en) Image processing device, image processing system, image processing method and data storage
CN109690620A (en) Threedimensional model generating means and threedimensional model generation method
RU2744699C1 (en) Generating apparatus, method of generation and program for a three-dimensional model
JPWO2019031259A1 (en) Image processing equipment and methods
KR20090064154A (en) Method and apparatus for 3d reconstructing of object by using multi-view image information
KR20130089649A (en) Method and arrangement for censoring content in three-dimensional images
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
JP7479729B2 (en) Three-dimensional representation method and device
KR20130118105A (en) Method and apparatus for representation 3d space based plane
WO2022156451A1 (en) Rendering method and apparatus
KR101125061B1 (en) A Method For Transforming 2D Video To 3D Video By Using LDI Method
CN104243970A (en) 3D drawn image objective quality evaluation method based on stereoscopic vision attention mechanism and structural similarity
KR100879802B1 (en) Method and apparatus of generating three dimensional scene in virtual view point
KR101805636B1 (en) Automatic extracting system for 3d digital image object based on 2d digital image and extracting method using thereof
JP2004280776A (en) Method for determining shape of object in image
CN114429531A (en) Virtual viewpoint image generation method and device
JP2015019346A (en) Parallax image generator
JP7078564B2 (en) Image processing equipment and programs
KR20060021566A (en) Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap
KR101849696B1 (en) Method and apparatus for obtaining informaiton of lighting and material in image modeling system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130712

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131220

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150112

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee