KR20060021566A - Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap - Google Patents

Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap Download PDF

Info

Publication number
KR20060021566A
KR20060021566A KR1020040070350A KR20040070350A KR20060021566A KR 20060021566 A KR20060021566 A KR 20060021566A KR 1020040070350 A KR1020040070350 A KR 1020040070350A KR 20040070350 A KR20040070350 A KR 20040070350A KR 20060021566 A KR20060021566 A KR 20060021566A
Authority
KR
South Korea
Prior art keywords
image
virtual
foreground
scene
camera
Prior art date
Application number
KR1020040070350A
Other languages
Korean (ko)
Inventor
김희관
신승주
Original Assignee
(주)제니텀 엔터테인먼트 컴퓨팅
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제니텀 엔터테인먼트 컴퓨팅 filed Critical (주)제니텀 엔터테인먼트 컴퓨팅
Priority to KR1020040070350A priority Critical patent/KR20060021566A/en
Publication of KR20060021566A publication Critical patent/KR20060021566A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 다수의 카메라를 통해서 입력되어진 인간의 신체와 같은 비강체 객체에 대해 마커를 사용하지 않는 모션캡쳐를 진행하고, 영상보간 알고리즘을 통해 실제로 존재하지 않는 가상의 카메라 시점에 상응하는 장면을 3차원 모델로 재구성하는 방법 및 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다.The present invention proceeds without capturing a marker on a non-rigid object such as a human body input through a plurality of cameras, and through a video interpolation algorithm, a scene corresponding to a virtual camera viewpoint that does not actually exist is 3 A method for reconstructing into a dimensional model and a computer-readable recording medium having recorded thereon a program for realizing the method.

복합현실, 전경체 사영영상, 가상외피Complex reality, foreground image, virtual envelope

Description

전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템{Reconstruction 3D Scene of Virtual Viewpoint using Foreground Projection-Image and Virtual-Shap} Reconstruction 3D Scene of Virtual Viewpoint using Foreground Projection-Image and Virtual-Shap}             

도 1은 본 발명에 따른 전경체 상영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템의 시스템 전체 구성도.1 is a system-wide configuration diagram of a method and system for reconstructing a virtual viewpoint 3D scene based on a foreground image and a virtual envelope according to the present invention.

도 2는 본 발명에 따른 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 시스템에서 카메라로 부터 입력된 실사영상에서 배경과 전경을 구분하여 전경체 사영영상을 구하는 일실시예 구성도.FIG. 2 is a diagram illustrating an embodiment of obtaining a foreground projection image by dividing a background and a foreground from an actual image input from a camera in a virtual viewpoint 3D scene reconstruction system based on a foreground projection image and a virtual envelope according to the present invention.

도 3과 4는 본 발명에 따른 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 시스템에서 전경체 사영영상과 가상외피의 관계를 설명하는 일실시예 개념도.3 and 4 is an embodiment conceptual diagram illustrating the relationship between the foreground projection image and the virtual envelope in a virtual viewpoint three-dimensional scene reconstruction system based on the foreground projection image and the virtual envelope according to the present invention.

도 5와 6은 본 발명에 따른 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 시스템에서, 가상외피를 구하는 일실시예 개념도. 5 and 6 is an embodiment conceptual diagram for obtaining a virtual envelope in a virtual viewpoint three-dimensional scene reconstruction system based on the foreground projection image and the virtual envelope according to the present invention.

도 7은 본 발명의 따른 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 시스템 및 그 방법에 대한 일실시예 흐름도.7 is a flowchart illustrating an embodiment of a virtual viewpoint 3D scene reconstruction system and method thereof based on a foreground projection image and a virtual envelope according to the present invention.

도 8과 9는 본 발명에 따른 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 시스템에서 카메라로 부터 입력받는 영상과 전체 과정을 거쳐 생성되는 결과 영상에 대한 일실시예 구성도.8 and 9 are diagrams illustrating exemplary embodiments of an image received from a camera and a resultant image generated through a whole process in a virtual viewpoint 3D scene reconstruction system based on a foreground projected image and a virtual envelope according to the present invention.

본 발명은 위치와 거리관계가 조정되어 있는 다수의 카메라에서 입력되어진 실사영상에서 전경체의 움직임 정보와 전경체의 사영영상을 구하고, 사영영상에 보간 알고리즘을 적용하여 요구되는 가상의 관찰 시점에 맞는 다양한 장면을 재구성하여 제공해 주는 방법 및 상기 방법을 실현시키기 위한 시스템에 관한 것이다.The present invention obtains the motion information of the foreground object and the projected image of the foreground object from the actual image inputted from a plurality of cameras whose position and distance relationship are adjusted, and applies an interpolation algorithm to the projected image to fit the required virtual observation point. The present invention relates to a method for reconstructing and providing various scenes and a system for realizing the method.

현재 실사 기반의 객체 모델링 기술은 크게 능동적 방법과 수동적 방식으로 나눌 수 있는데 능동적 방식의 대표적인 경우는 3차원 스캐너를 이용하는 경우이고, 수동적 방식의 대표적인 경우는 카메라로 촬영한 2차원 영상의 기하구조를 분석하여 3차원 모델을 구성하는 방법이다.Currently, due diligence-based object modeling techniques can be divided into active and passive methods. A representative case of the active method is a 3D scanner, and a representative case of the passive method is to analyze the geometry of a 2D image taken by a camera. To construct a three-dimensional model.

3차원 스캐너를 이용하여 대상체에 인위적으로 고안된 다양한 형태의 패턴(레이저등)을 투사하여 형상에 따라 변하는 패턴을 분석하여 3차원 기하구조를 추출하고 CCD카메라를 통하여 획득한 색상정보를 이용하여 3차원 모델을 구성하는 방법은 측정결과가 정확하고, 측정 시간도 비교적 짧은 편이지만 고가의 별도 측정장비를 이용하므로 비용이 증대되고 역동적인 대상체에는 적용하기 힘들다는 커다란 단점이 있다. Projecting various patterns (lasers, etc.) artificially designed on the object using a 3D scanner to analyze patterns changing according to the shape, extracting the 3D geometric structure and using the color information acquired through the CCD camera The method of constructing the model is accurate, and the measurement time is relatively short, but there is a big disadvantage that it is difficult to apply to dynamic objects because the cost is increased by using expensive separate measuring equipment.

이미지 기반 방식은 비록 스캐너를 이용하는 방법에 비해 고가의 장비들 없이 경제적으로 3차원 모델을 구성할 수 있지만, 상대적으로 정확도가 떨어지고 3차원 모델을 구성하기 위한 소요 시간이 크며, 카메라의 수(또는 참조 영상의 수)가 적으면 재구성된 영상의 질이 크게 떨어진다는 단점이 있다. Although image-based methods can construct a three-dimensional model economically without expensive equipment compared to the method using a scanner, it is relatively inaccurate and requires a long time to construct a three-dimensional model, and the number of cameras (or references) If the number of images is small, the quality of the reconstructed image is greatly degraded.

또한 현재의 3차원 대상체를 표현하기 위한 기술중에서는, 대상체에 대한 여러 각도에서 스틸컷을 찍어서 대상체의 다양한 면을 보여주는 기법들도 있다. 하나의 카메라로 회전되는 테이블 위의 대상체를 계속해서 촬영하거나 다수의 카메라를 대상체 주변에 배치하여 동시에 촬영한뒤 후처리 과정을 통해 장면을 만드는 기법이다. 하지만 이러한 기법들은 대상체의 동적인 장면이나, 사용자의 요구에 적응적인 가상의 시점에서의 장면을 제공할 수는 없다.In addition, among the techniques for representing the current three-dimensional object, there are techniques that show the various aspects of the object by taking a still cut at various angles to the object. It is a technique of continuously photographing an object on a table rotated by one camera or by simultaneously placing a plurality of cameras around an object and shooting at the same time, followed by post-processing. However, these techniques cannot provide a dynamic scene of an object or a scene from a virtual viewpoint that is adaptive to a user's request.

본 발명은 상기 문제점을 해결 및 보완하기 위하여 제안된 방법 및 시스템으 로, 동적인 비강체 대상에 대한 실사 영상을 기반으로 하여 실제 카메라에 의해서는 얻을 수 없는 가상 시점의 장면을 생성한다. 또한 생성된 가상 시점의 장면들을 이용하여사용자의 요구에 따라 3차원으로 제공해 주는 방법 및 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.The present invention is a method and system proposed to solve and supplement the above problems, and generates a scene of a virtual view that cannot be obtained by a real camera based on a live image of a dynamic non-rigid object. It is also an object of the present invention to provide a method of providing a three-dimensional image according to a user's request by using scenes of a virtual view and a computer-readable recording medium on which a program for realizing the method is recorded.

즉, 본 발명은 위치와 거리관계가 조절되어 있고 시공간적으로 동기화된 다수의 카메라에서 입력되어지는 동적인 비강체 대상에 대한 각각의 실사영상으로 부터 효과적으로 전경체 사영영상을 구한다. 이때 전경체 사영영상은 대상체가 없는 배경참조영상과 대상체가 존재하는 영상간의 차이를 이용하는 방법(Background Subtraction Method)를 사용하는데 밝기값과 컬러성분값을 모두 이용하여 보다 안정적으로 배경과 전경을 구분한다. 또한 획득된 전경체 사영영상을 토대로 빠른 영상 보간 기법을 이용하여 실제 카메라에 의해서 얻을 수 없는 가상시점(Virtual View Point)에서의 장면 영상을 생성할 수 있도록 시스템을 구성한다. 여기서 가상시점 장면에 대한 개개의 픽셀값들은, 가상시점에서 가까운 카메라 2대의 영상을 참조하여 가상시점과 카메라 중심점과의 거리에 따라 픽셀값에 가중치를 주는 보간 기법을 사용하여 구한다.
That is, the present invention effectively obtains a foreground projection image from each real image of a dynamic non-rigid object input from a plurality of cameras whose position and distance relation are controlled and synchronized in time and space. In this case, the foreground projection image uses a background subtraction method that uses the difference between the background reference image without the object and the image in which the object exists. The foreground and projection images are more stably distinguished from the background and foreground using both brightness and color component values. . In addition, the system is configured to generate a scene image at a virtual view point that cannot be obtained by an actual camera by using a fast image interpolation technique based on the acquired foreground projected image. Here, the individual pixel values of the virtual view scene are obtained by using an interpolation technique that weights the pixel values according to the distance between the virtual view point and the camera center point by referring to images of two cameras close to the virtual view point.

상기 목적을 달성하기 위하여 본 발명은, 가상 시점의 장면을 사용자의 요구에 적응적으로 생성 및 제공하는 장치에 있어서, 거리와 위치관계가 조절되어 있고 시간적으로 동기화된 다수의 카메라로부터 대상체에 대한 실사영상들을 입력받아 각각의 영상들에 대해서 영상의 밝기(Intensity) 값과 컬러성분(Cr) 값을 병합하여 문턱값을 설정하므로써 배경과 전경을 구분하는 단계; 상기 배경과 전경 구분 방법을 이용하여 동적 비강체 전경체에 대한 사영영상을 구하고 영상필터링 기법을 이용하여 전경체 사영영상에 존재하느 작은 노이즈를 제거하는 단계; 사영영상들에 영상 보간 방법을 적용하여 가상 시점에 대한 참조 사영영상을 생성하는 단계; 상기한 방법에 의해서 획득된 전경체 사영영상들 각각에 카메라 위치의 한점에서 가상의 빛을 쏘아 만들어지는 원뿔모양의 형상들간의 교차점을 계산하여 대상이 되는 객체에 대한 가상외피를 생성하는 단계를 포함한다.In order to achieve the above object, the present invention provides an apparatus for adaptively generating and providing a scene of a virtual view according to a user's request. Dividing the background and the foreground by inputting the images and setting a threshold value by merging the intensity value and the color component value of the image for each image; Obtaining a projected image of a dynamic non-rigid foreground using the background and foreground separation method and removing a small noise present in the foreground projected image using an image filtering technique; Generating a reference projection image for a virtual viewpoint by applying an image interpolation method to the projection images; Generating a virtual envelope for a target object by calculating intersection points between cone-shaped shapes generated by shooting virtual light at one point of the camera position on each of the foreground projected images obtained by the above method. do.

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음에 설명을 통하여 보다 분명해질 것이다.The above objects, features and advantages will become more apparent from the following description taken in conjunction with the accompanying drawings.

도 1은 본 발명에 따른 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템의 일실시예 구성도이다.1 is a diagram illustrating an embodiment of a method and system for reconstructing a virtual viewpoint 3D scene based on a foreground projection image and a virtual envelope according to the present invention.

도면에 도시된 바와 같이, 본 발명의 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 시스템 구현 장치는 참조영상으로 사용할 실사영상을 수집하기 위한 영상입력장치(10), 입력된 각각의 실사 영상으로 부터 가상외피 생성에 필요한 참조영상을 획득하기 위한 전경체 사영영상 생성장치(11), 획득된 전경체 사영영상들과 영상보간기법을 이용하여 가상의 시점에서 보여지는 장면을 생 성하는 가상시점 장면 생성기(12), 상기 실사영상 입력장치(10)와 전경체 생성장치(11), 그리고 가상시점 장면 생성기(12)를 통해 만들어진 결과 데이터들을 저장하는 3D 모델링 데이터베이스(13)와 데이터 베이스에 있는 모델링 데이터들을 이용하 여 가상외피기법에 기반한 3차원 장면을 재구성하는 가상외피 생성기(14), 그리고 사용자에게 재구성된 3차원 장면을 디스플레이 하는 장치(15)를 포함한다.As shown in the drawing, the apparatus for implementing a virtual viewpoint 3D scene reconstruction system based on the foreground projected image and the virtual envelope of the present invention includes an image input device 10 for collecting a live image to be used as a reference image, each of which is inputted. Foreground projective image generating device 11 for obtaining a reference image required for generating a virtual envelope from the real image, and using the obtained foreground projected images and the image interpolation technique to generate a scene seen from the virtual viewpoint 3D modeling database 13 and database for storing the result data generated by the virtual view scene generator 12, the live image input device 10 and the foreground object generating device 11, and the virtual view scene generator 12 Virtual envelope generator 14 for reconstructing three-dimensional scenes based on virtual envelope techniques using modeling data in the And a device 15 for displaying the scene.

상기 전경체 사영영상 생성장치(11)는 영상입력장치로 부터 실사 영상을 입력 받아서 각각의 영상에 대해서 밝기값(Intensity)과 컬러성분값(Cr)을 구해서 대상체가 없는 순수배경영상의 밝기값과 컬러성분값과의 차이를 구하고, 문턱값을 설정해 영상에서 전경체만을 추출해 내는 배경과 전경 분리기(100)와 배경과 전경 분리기를 통해 구해진 영상에서 작은 영상 노이즈들을 제거하기 위해서 모폴로지 필터링(Morphological Filtering)을 수행하고 전경체 사영영상 내부쪽에 작은 홀들을 메우기 위한 볼록깍지(Convex Hull) 필터링을 수행하는 영상 필터링 처리기(101)를 포함한다.The foreground projection image generating apparatus 11 receives a live image from an image input device and obtains brightness and color component values Cr for each image to obtain brightness values of pure background images without an object. Morphological filtering to remove small image noises from the image obtained through the background and foreground separator 100 and the background and foreground separator that extract only the foreground from the image by obtaining the difference from the color component values and setting the threshold. And an image filtering processor 101 for performing convex hull filtering to fill small holes in the foreground projected image.

상기 가상시점 장면 생성기(12)에서 3D 모델링 정보 데이터베이스에 저장하지 않고 바로 가상외피 생성기(14)로 진행하여 실시간으로 3차원 장면을 재구성해 보여주는 과정(102)의 방법을 포함한다. In the virtual viewpoint scene generator 12, the method 102 proceeds to the virtual envelope generator 14 without storing the data in the 3D modeling information database and reconstructs the 3D scene in real time.

도 2는 카메라로부터 입력되어진 실사영상에서 영상의 밝기값과 컬러성분 값을 함께 이용하여 배경과 전경을 구분할 문턱값을 설정하고 그 문턱값에 의해 구분되어진 전경체에 대한 사영영상을 보여준다. FIG. 2 sets a threshold for distinguishing a background from a foreground by using a brightness value and a color component value of an image in a live image input from a camera, and shows a projected image of a foreground separated by the threshold.

도 2의 대상체가 존재하는 (a) 영상과 대상체가 존재하지 않는 배경참조영상(b)의 밝기값과 컬러성분값의 차이를 구하고 그 차이값을 문턱값과의 대소여부를 판단하여 전경체를 구분해 낸다. 밝기값과 컬러성분값을 구하는 식은 아래와 같다. The difference between the brightness value and the color component value of the (a) image in which the object of FIG. 2 exists and the background reference image (b) in which the object does not exist is determined, and the difference between the threshold value and the threshold value is determined. Distinguish The equation for calculating the brightness value and color component value is as follows.

밝기값(Intensity) = 0.29900R + 0.58700G + 0.11400BIntensity = 0.29900R + 0.58700G + 0.11400B

컬러값(cr) = 0.50000R - 0.41869G - 0.08131BColor value (cr) = 0.50000R-0.41869G-0.08131B

전경체를 구분해 내는 식은 아래와 같다.The equation for identifying the foreground is:

Figure 112004040033446-PAT00001
Figure 112004040033446-PAT00001

상기 식에서 문턱값은 아래식에 의해서 설정된다.In the above equation, the threshold value is set by the following equation.

Figure 112004040033446-PAT00002
Figure 112004040033446-PAT00002

상기 문턱값을 구하는 식에서 C는 상수로서 실사영상이 입력되는 환경에 따라 크기를 조정해준다. 상수가 가지는 최소값은 1이다.In the equation for calculating the threshold value, C is a constant and adjusts the size according to the environment in which the live image is input. The minimum value of the constant is one.

상기와 같이 밝기 성분과 컬러성분을 동시에 이용하면 조명의 미세한 변화에 의한 오차를 극복할 수 있으면 그림자 등이 전경체로 구분되는 것을 효과적으로 제거 할 수 있다. Using the brightness component and the color component at the same time as described above can effectively eliminate the separation of the shadow and the like if the error can be overcome by the slight change in the illumination.

도 3와 도 4은 전경체 사영영상과 가상외피와의 관계를 보이는 평면도와 입체도 이다. 가상외피에 대한 정의는 아래와 같다.3 and 4 are a plan view and a three-dimensional view showing the relationship between the foreground projection image and the virtual envelope. The definition of the virtual envelope is as follows.

Figure 112004040033446-PAT00003
Figure 112004040033446-PAT00003

상기 식에서 R은 카메라로부터 입력받은 실사영상의 집합을 의미하고, r은 실사영상 각각을 의미하며 VSr은 카메라 중심점에서 전경체 사영영상의 중심점을 향해 가상의 빛을 쏘았을 때 생성되는 원뿔모형의 3차원 형상 각각을 의미한다. 즉 가상외피(Virtual-Shape)는 원뿔모양의 3차원 형상들의 교집합이라 정의할 수 있다. In the above formula, R means a set of live images received from the camera, r means each of the live images, and VSr is a conical model 3 generated when a virtual light is shot from the camera center to the center of the foreground projection image. Each of the dimensional shapes means. In other words, virtual-shape may be defined as an intersection of three-dimensional shapes having a cone shape.

도 5는 다수의 전경체 사영영상의 중심점을 향해서, 카메라 중심점 위치에 해당하는 한점에서 시작하는 가상의 광선을 쏘고, 이 광선에 의해 형성되는 원뿔모양 형상이 서로 교차하게 되는 장면을 보인 일실시 예시도이며, 도 6은 도5에서 양감이 있는 3차원 대상체의 모델링을 용이하게 표현할 수 있는 SCG(Constructive Solid Geometry)개념을 도입하고, 부울조합 연산(Subtraction)을 수행하여 가상외피의 형성을 보이는 일실시예이다.5 is a view showing a scene in which a virtual ray starting from one point corresponding to a camera center point position is shot toward a center point of a plurality of foreground projected images, and a cone shape formed by the ray intersects each other. FIG. 6 is a view illustrating the formation of a virtual envelope by introducing a SCG (Constructive Solid Geometry) concept capable of easily expressing a modeling of a three-dimensional object having a sense of feeling in FIG. 5, and performing a Boolean combination operation. Example.

도 7은 본 발명에 따른 다수의 카메라에서 입력되어진 실사영상에서 전경체의 사영영상을 구하고, 사영영상에 가상외피 개념과 보간 알고리즘을 적용하여 요구되는 가상의 관찰 시점에 맞는 다양한 장면을 재구성하여 제공해 주는 방법에 대 한 전체 과정을 설명하기 위한 흐름도이다. 7 is to obtain a projected image of the foreground from the live image input from a plurality of cameras according to the present invention, and to reconstruct and provide a variety of scenes suitable for the required virtual observation point by applying a virtual envelope concept and interpolation algorithm to the projected image This is a flowchart to explain the whole process of how to give.

도 7에서 가상시점 장면 요구에 적응하여 가상의 새로운 장면을 생성하는 알고리즘을 수도 코드로 요약하여 나타내면 아래와 같다.In FIG. 7, an algorithm for generating a virtual new scene by adapting to a virtual view scene request is summarized as follows.

for each pixel p in desired image dofor each pixel p in desired image do

distanceAlongRay = 0;  distanceAlongRay = 0;

while(isOutsideVisualHull)  while (isOutsideVisualHull)

distanceAlongRay++;      distanceAlongRay ++;

if(intersectionFound)      if (intersectionFound)

for each realCamera          for each realCamera

if(notOccluded && close)              if (notOccluded && close)

sampleColor();                 sampleColor ();

pixelColor = weightdMean(sample);          pixelColor = weightdMean (sample);

else    else

pixel = background;pixel = background;

도 8은 거리와 위치관계가 조절되어 있고 시간동기화된 카메라로 부터 입력되는 영상들을 보인 것이고, 도 9는 도 8에서 입력된 영상들이 본 발명에서 실시하는 전체 과정을 거쳐서 생성되는 가상시점의 장면 예를 보인것이다.8 is a view showing images inputted from a time-synchronized camera having a controlled distance and positional relationship, and FIG. 9 is a scene example of a virtual view generated through the entire process of the images input from FIG. It is shown.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있다.As described above, the method of the present invention may be implemented as a program and stored in a computer-readable recording medium.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다. The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those of ordinary skill in the art to which the present invention pertains, the foregoing embodiments and the accompanying drawings. It is not limited to.

상기와 같은 본 발명은 사용자의 요구에 적응적인 장면을 실시간으로 보여주는데 필수적인 새로운 시점의 장면 생성을 위해, 동적 비강체 대상에 대한 다수의 전경체 사영영상과 빠른 영상보간기법을 이용하여 가상시점 장면을 생성한다. 상기한 바에 의해 구해진 가상시점 장면을 토대로 가상외피라는 개념을 결합하여 3차원 장면을 재구성 하므로써, 기존의 방법처럼 카메라로 부터 입력된 실사 영상에 제한적인 장면만이 아니라 임의의 가상시점 장면을 생성하여 다양한 장면을 신속하게 제공할 수 있는 효과가 있다.As described above, the present invention provides a virtual view scene using a plurality of foreground projection images and fast image interpolation techniques for dynamic non-rigid objects in order to generate a scene of a new view which is essential for showing a scene adaptive to a user's demand in real time. Create By reconstructing the three-dimensional scene by combining the concept of the virtual envelope based on the virtual viewpoint scene obtained as described above, it generates a random virtual viewpoint scene as well as a limited scene to the real image input from the camera as in the conventional method. It is effective to provide various scenes quickly.

또한, 이미지 기반 실사 영상을 참조영상으로 이용하기 때문에, 레이저 스캐너 같은 고가의 장비가 필요없으며, 마커와 같은 센서를 사용하지 않기 때문에 대상체의 보다 자연스럽고 역동적 움직임을 유도할 수 있는 효과가 있고, 그리고 시간동기 카메라를 이용하기 때문에 카메라 수를 일정 정도로 유지하면서도 영상 화질을 보다 높일수 있어 경제적으로 저렴하게 시스템을 구축할 수 있는 효과가 있 다. In addition, since an image-based photorealistic image is used as a reference image, expensive equipment such as a laser scanner is not required, and since a sensor such as a marker is not used, there is an effect of inducing more natural and dynamic movement of an object, and By using time-synchronized cameras, the number of cameras can be maintained to a certain level while the image quality can be further improved, making the system economically inexpensive.

Claims (5)

사용자의 임의의 가상 시점에 맞쳐서 다양한 장면을 생성하고 실시간으로 보여주는 방법 및 상기 방법을 실현시키기 위한 시스템에 있어서,What is claimed is: 1. A method of creating and displaying various scenes in real time in accordance with an arbitrary virtual viewpoint of a user, and a system for realizing the method, 다수의 카메라로 부터 입력받은 실사영상에 대해 효과적으로 전경체 사영영상을 구하는 제 1단계;A first step of effectively obtaining a foreground projection image of the live image received from a plurality of cameras; 전경체 사영영상을 이용하여 3차원 대상 객체의 가상외피를 구성하는 제 2단계;A second step of constructing a virtual envelope of the 3D target object using the foreground projected image; 가상외피를 토대로 빠른 영상 보간기법을 이용하여 사용자 요구에 적응적인 가상시점의 장면을 실시간으로 생성하는 제 3단계;A third step of generating in real time a scene of a virtual view adaptive to a user's request by using a fast image interpolation technique based on the virtual envelope; 를 포함하는 실사영상 기반의 가상시점 장면 생성방법 및 시스템. A method and system for generating a virtual viewpoint scene based on real image. 제 1항에 있어서 카메라로 부터 입력받은 영상의 전경과 배경을 구분하여 전경체 사영영상을 구하는 방법에 있어서,The method of claim 1, wherein the foreground projection image is obtained by dividing the foreground and the background of the image received from the camera. 영상의 밝기 정보 뿐만 아니라 컬러 정보를 함께 이용하여 문턱값을 설정하는 전경체 사영영상 획득 방법 및 시스템.A method and system for obtaining a foreground projection image for setting a threshold using color information as well as brightness information of an image. 제 1항에 있어서 가상외피를 토대로 영상 보간기법을 이용하는 방법에 있어서,The method of claim 1, wherein the image interpolation technique is based on a virtual envelope. 참조해야 할 카메라의 실루엣 영상의 픽셀값이 다른 객체의 가려짐 등으로 정보 획득이 불가능한 때, 거리가 가까운 카메라의 전경체 사영영상의 픽셀값으로 대체할경우에 있어서 픽셀 값들의 가중치를 거리에 비례하여 주는 방법 및 시스템.When the pixel value of the silhouette image of the camera to be referenced cannot be obtained due to the obstruction of another object, the weight of the pixel values is proportional to the distance when the pixel value of the foreground projection image of the closest camera is replaced with the pixel value. How and how to give. 제 1항에 있어서 카메라에서 입력되는 실사영상들이 카메라의 시간적 동기화에 의해서 한정된 카메라수를 통해 얻을 수 있는 참조영상(카메라 수와 같은 수의 실사영상)보다 더 많은 영상을 참조영상으로 사용할 수 있게 해주는 방법 및 시스템.The method of claim 1, wherein the actual images inputted from the camera enable more images to be used as reference images than the reference images obtained by the limited number of cameras by the camera's temporal synchronization. Method and system. 제 4항에서 시간적 동기화에 의해 얻은 참조영상을 대상체의 움직임 정보를 이용하여 이전 시간에 촬영된 대상체와의 특징점 매칭을 통해 대상체에 대해 보다 정확하고 세밀하게 형상을 획득하게 하는 방법 및 시스템.The method and system of claim 4, wherein the reference image obtained by temporal synchronization is used to obtain a more precise and detailed shape of the object by matching feature points with the object photographed at a previous time using motion information of the object.
KR1020040070350A 2004-09-03 2004-09-03 Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap KR20060021566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040070350A KR20060021566A (en) 2004-09-03 2004-09-03 Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040070350A KR20060021566A (en) 2004-09-03 2004-09-03 Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap

Publications (1)

Publication Number Publication Date
KR20060021566A true KR20060021566A (en) 2006-03-08

Family

ID=37128367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040070350A KR20060021566A (en) 2004-09-03 2004-09-03 Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap

Country Status (1)

Country Link
KR (1) KR20060021566A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100879802B1 (en) * 2006-01-05 2009-01-22 (주)제니텀 엔터테인먼트 컴퓨팅 Method and apparatus of generating three dimensional scene in virtual view point
KR100924170B1 (en) * 2006-12-04 2009-10-28 한국전자통신연구원 System for transmitting/receiving multiview panoramic contents for increasing transmitting efficency and its method
WO2015167738A1 (en) * 2014-04-30 2015-11-05 Replay Technologies Inc. System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
CN109427100A (en) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 A kind of assembling fittings method and system based on virtual reality
CN113837979A (en) * 2021-09-28 2021-12-24 北京奇艺世纪科技有限公司 Live image synthesis method and device, terminal device and readable storage medium
CN116723303A (en) * 2023-08-11 2023-09-08 腾讯科技(深圳)有限公司 Picture projection method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020021700A (en) * 2000-09-16 2002-03-22 장기화 Device And Method For 3 Dimensional Measurement
KR20030024227A (en) * 2001-09-17 2003-03-26 박영 Modelling System of 3 Dimension
KR20040041297A (en) * 2002-11-11 2004-05-17 (주) 에이치비전 Method for tracing and displaying multiple object movement using multiple camera videos
KR20040055310A (en) * 2002-12-20 2004-06-26 한국전자통신연구원 Apparatus and method for high-speed marker-free motion capture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020021700A (en) * 2000-09-16 2002-03-22 장기화 Device And Method For 3 Dimensional Measurement
KR20030024227A (en) * 2001-09-17 2003-03-26 박영 Modelling System of 3 Dimension
KR20040041297A (en) * 2002-11-11 2004-05-17 (주) 에이치비전 Method for tracing and displaying multiple object movement using multiple camera videos
KR20040055310A (en) * 2002-12-20 2004-06-26 한국전자통신연구원 Apparatus and method for high-speed marker-free motion capture

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100879802B1 (en) * 2006-01-05 2009-01-22 (주)제니텀 엔터테인먼트 컴퓨팅 Method and apparatus of generating three dimensional scene in virtual view point
KR100924170B1 (en) * 2006-12-04 2009-10-28 한국전자통신연구원 System for transmitting/receiving multiview panoramic contents for increasing transmitting efficency and its method
US10477189B2 (en) 2014-04-30 2019-11-12 Intel Corporation System and method of multi-view reconstruction with user-selectable novel views
US9846961B2 (en) 2014-04-30 2017-12-19 Intel Corporation System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space
US10063851B2 (en) 2014-04-30 2018-08-28 Intel Corporation System for and method of generating user-selectable novel views on a viewing device
WO2015167738A1 (en) * 2014-04-30 2015-11-05 Replay Technologies Inc. System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
US10491887B2 (en) 2014-04-30 2019-11-26 Intel Corporation System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space
US10567740B2 (en) 2014-04-30 2020-02-18 Intel Corporation System for and method of generating user-selectable novel views on a viewing device
US10728528B2 (en) 2014-04-30 2020-07-28 Intel Corporation System for and method of social interaction using user-selectable novel views
US11463678B2 (en) 2014-04-30 2022-10-04 Intel Corporation System for and method of social interaction using user-selectable novel views
CN109427100A (en) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 A kind of assembling fittings method and system based on virtual reality
CN113837979A (en) * 2021-09-28 2021-12-24 北京奇艺世纪科技有限公司 Live image synthesis method and device, terminal device and readable storage medium
CN113837979B (en) * 2021-09-28 2024-03-29 北京奇艺世纪科技有限公司 Live image synthesis method, device, terminal equipment and readable storage medium
CN116723303A (en) * 2023-08-11 2023-09-08 腾讯科技(深圳)有限公司 Picture projection method, device, equipment and storage medium
CN116723303B (en) * 2023-08-11 2023-12-05 腾讯科技(深圳)有限公司 Picture projection method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
Rematas et al. Soccer on your tabletop
JP7003994B2 (en) Image processing equipment and methods
KR102280587B1 (en) System, method, and non-transitory computer readable storage medium for generating virtual viewpoint image
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
KR20190034092A (en) Image processing apparatus, image processing method, image processing system, and storage medium
US11151787B2 (en) Generation device, generation method and storage medium for three-dimensional model from object images and structure images
CN107798704B (en) Real-time image superposition method and device for augmented reality
KR20090064154A (en) Method and apparatus for 3d reconstructing of object by using multi-view image information
JP7250493B2 (en) Image processing device, method and program for generating three-dimensional shape data
US10863210B2 (en) Client-server communication for live filtering in a camera view
JP2016537901A (en) Light field processing method
KR20150021522A (en) Method and device for implementing stereo imaging
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
CN107820019B (en) Blurred image acquisition method, blurred image acquisition device and blurred image acquisition equipment
JP2008191072A (en) Three-dimensional shape restoration method, three-dimensional shape restoring device, three-dimensional shape restoration program implemented with the method, and recording medium with the program stored
JP7479729B2 (en) Three-dimensional representation method and device
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
JP2019106145A (en) Generation device, generation method and program of three-dimensional model
JP6285686B2 (en) Parallax image generation device
JP6799468B2 (en) Image processing equipment, image processing methods and computer programs
KR20060021566A (en) Reconstruction 3d scene of virtual viewpoint using foreground projection-image and virtual-shap
EP3605469A1 (en) Information processing device
KR100879802B1 (en) Method and apparatus of generating three dimensional scene in virtual view point
JP6595878B2 (en) Element image group generation apparatus and program thereof
JP2020035218A (en) Image processing device, method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application