KR20220032948A - Method and apparatus for processing 3d object - Google Patents
Method and apparatus for processing 3d object Download PDFInfo
- Publication number
- KR20220032948A KR20220032948A KR1020200114921A KR20200114921A KR20220032948A KR 20220032948 A KR20220032948 A KR 20220032948A KR 1020200114921 A KR1020200114921 A KR 1020200114921A KR 20200114921 A KR20200114921 A KR 20200114921A KR 20220032948 A KR20220032948 A KR 20220032948A
- Authority
- KR
- South Korea
- Prior art keywords
- object data
- magnification
- type
- screen
- data processing
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000003672 processing method Methods 0.000 claims abstract description 13
- 238000012805 post-processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 3차원 객체 데이터를 처리하는 방법과 이러한 방법을 수행할 수 있는 장치에 관한 것이다.The present invention relates to a method for processing three-dimensional object data and an apparatus capable of performing such a method.
3차원 컴퓨터 그래픽을 구현하는 방식 중의 하나로서 객체에 대한 촬영 영상으로부터 캡쳐링 데이터(Capturing data)를 생성하는 볼류메트릭 비디오 캡쳐(Volumetric Video Capture) 방식이 있다. 이 경우에, 음영 영역이 없도록 최대한 모든 영역에서 촬영을 진행한다.As one of the methods for implementing 3D computer graphics, there is a volumetric video capture method for generating capturing data from a captured image of an object. In this case, photographing is performed in all areas as much as possible so that there is no shadow area.
하지만, 객체의 움직임이나 옷의 펄럭임 등으로 캡쳐링 페일(fail) 영역이 발생하며, 이러한 캡쳐링 페일 영역은 자동 또는 수동의 후처리(Post Processing)를 통하여 임의적으로 폴리곤(Polygon) 메쉬를 생성한다.However, a capturing fail region occurs due to the movement of an object or the fluttering of clothes, and such a capturing fail region arbitrarily creates a polygon mesh through automatic or manual post processing. .
그런데, 화면 확대 영역에 캡쳐링 페일 영역이 포함되는 비율에 따라 부족한 영상정보로 인하여 저품질의 확대 화면이 제공되는 경우가 있다.However, there are cases in which a low-quality enlarged screen is provided due to insufficient image information depending on the ratio of the capturing fail area to the screen enlargement area.
본 발명의 실시예에 의하면, 화면 확대 영역에 해당하는 메쉬 데이터에 대한 정보에 기초하여 확대 배율을 결정하는 3차원 객체 데이터 처리 방법 및 장치를 제공한다.According to an embodiment of the present invention, there is provided a 3D object data processing method and apparatus for determining a magnification magnification based on information on mesh data corresponding to a screen magnification area.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.
본 발명의 제 1 관점에 따른 3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법은, 3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하는 단계와, 상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정하는 단계를 포함한다.In the 3D object data processing method performed by the 3D object data processing apparatus according to the first aspect of the present invention, additional information of vertices or polygons included in mesh data corresponding to an enlarged screen area among reproduction screens of 3D object data and determining a magnification ratio for the enlarged screen area based on the additional information.
본 발명의 제 2 관점에 따른 3차원 객체 데이터 처리 장치는, 3차원 객체 데이터를 획득하는 획득부와, 상기 3차원 객체 데이터에 대한 처리를 수행하는 프로세서부를 포함하고, 상기 프로세서부는, 상기 3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하고, 확인된 상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정한다.An apparatus for processing 3D object data according to a second aspect of the present invention includes an acquisition unit configured to acquire 3D object data, and a processor unit configured to process the 3D object data, wherein the processor unit comprises: Additional information of vertices or polygons included in mesh data corresponding to the screen enlargement area among the reproduction screens of object data is checked, and an enlargement magnification of the screen enlarged area is determined based on the checked additional information.
발명의 제 3 관점에 따른 컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램은, 상기 3차원 객체 데이터 처리 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer program stored in the computer-readable recording medium according to the third aspect of the invention includes instructions for causing a processor to perform the three-dimensional object data processing method.
본 발명의 제 4 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이 상기 3차원 객체 데이터 처리 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer readable recording medium storing the computer program according to the fourth aspect of the present invention includes instructions for causing the computer program to perform the 3D object data processing method by a processor.
본 발명의 실시예에 의하면, 화면 확대 영역에 해당하는 메쉬 데이터에 대한 정보에 기초하여 확대 가능한 배율을 결정함으로써 저품질의 확대 화면이 제공되지 않도록 사전에 차단할 수 있다.According to an embodiment of the present invention, it is possible to prevent a low-quality enlarged screen from being provided in advance by determining an enlargeable magnification based on information on mesh data corresponding to the enlarged screen area.
도 1은 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치를 포함하는 3차원 객체 영상 서비스 시스템의 구성도이다.
도 2는 도 1에 도시된 3차원 객체 캡쳐 장치의 일 실시예에 따른 평면도이다.
도 3은 도 1에 도시된 3차원 객체 데이터 처리 장치의 일 실시예에 따른 구성도이다.
도 4는 도 3에 도시된 3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법을 설명하기 위한 흐름도이다.
도 5는 도 3에 도시된 3차원 객체 데이터 처리 장치가 획득할 수 있는 객체에 대한 메쉬 데이터를 예시한 도면이다.1 is a block diagram of a 3D object image service system including an apparatus for processing 3D object data according to an embodiment of the present invention.
FIG. 2 is a plan view of the 3D object capturing apparatus shown in FIG. 1 according to an embodiment.
FIG. 3 is a configuration diagram of an apparatus for processing 3D object data shown in FIG. 1 according to an embodiment;
4 is a flowchart illustrating a 3D object data processing method performed by the 3D object data processing apparatus shown in FIG. 3 .
FIG. 5 is a diagram illustrating mesh data for an object that can be obtained by the apparatus for processing 3D object data shown in FIG. 3 .
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or configurations will be omitted except when it is actually necessary to describe the embodiments of the present invention. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.
본 명세서에서 단수의 표현은 문맥상 명백하게 다름을 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함하다' 또는 '구성하다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as 'comprise' or 'comprise' are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.Also, in an embodiment of the present invention, when it is said that a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary.
도 1은 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치를 포함하는 3차원 객체 영상 서비스 시스템의 구성도이고, 도 2는 도 1에 도시된 3차원 객체 캡쳐 장치의 일 실시예에 따른 평면도이며, 도 3은 도 1에 도시된 3차원 객체 데이터 처리 장치의 일 실시예에 따른 구성도이다.1 is a block diagram of a 3D object image service system including a 3D object data processing apparatus according to an embodiment of the present invention, and FIG. 2 is a 3D object capturing apparatus shown in FIG. 1 according to an embodiment It is a plan view, and FIG. 3 is a configuration diagram according to an embodiment of the 3D object data processing apparatus shown in FIG. 1 .
일 실시예에 따른 3차원 객체 영상 서비스 시스템(10)은 3차원 객체 캡쳐 장치(20), 서버(30) 및 3차원 객체 데이터 처리 장치(100)가 네트워크(40)를 통하여 연결될 수 있다.In the 3D object
3차원 객체 캡쳐 장치(20)는 객체(1)를 중심으로 하는 동심원 상에 배치된 복수의 캡쳐기(21)에 의해 볼류메트릭 비디오 캡쳐(Volumetric Video Capture) 방식 등을 통하여 객체(1)에 대한 캡쳐링 데이터(Capturing data)를 획득하고, 획득된 캡쳐링 데이터를 네트워크(40)를 통하여 서버(30)로 전송한다. 복수의 캡쳐기(21)는 소정 공간을 형성하는 하우징(22) 내에 배치될 수 있고, 하우징(22)은 원형 또는 다각형 형상으로 이루어질 수 있으나, 그 형상은 특별히 한정되지 않는다. 하우징(22)에는 객체(1)가 출입할 수 있는 게이트(23)가 형성될 수 있다. 또한, 하우징(23) 내의 일측에는 진행 상황을 표시할 수 있는 표시 장치(Prompter, 24)가 마련될 수 있다. 캡쳐기(21)는 캡쳐 대상인 객체(1)를 중심으로 동심원 상에 복수개가 배치될 수 있으나, 그 개수는 한정되지 않는다. 캡쳐기(21)는 서로 마주보도록 배치된 적어도 2개 이상의 개수를 포함할 수 있다. 복수의 캡쳐기(21)는 고정되거나 또는 동심원 상으로 회전될 수도 있다. 예를 들어, 복수의 캡쳐기(21)는 구조광(structured light)을 발생시켜 객체(1)에 조사한 후에 객체(1)로부터 반사된 구조광을 캡쳐할 수 있다.The three-dimensional
서버(30)는 3차원 객체 캡쳐 장치(20)로부터 수신된 객체(1)에 대한 캡쳐링 데이터에 기초하여 객체(1)에 대한 3차원 객체 데이터를 생성하고, 생성된 3차원 객체 데이터를 네트워크(40)를 통하여 3차원 객체 데이터 처리 장치(100)로 전송할 수 있다. 이러한 서버(30)는 캡쳐링 데이터에 기초하여 객체(1)에 대한 정점(Vertex) 및/또는 폴리곤(Polygon)을 포함하는 메쉬 데이터를 생성할 수 있다. 이때, 캡쳐링 페일(fail) 영역에 대해서는 자동 또는 수동의 후처리를 통하여 임의적으로 폴리곤 메쉬를 생성할 수 있다. 예컨대, 메쉬 데이터를 생성할 때에 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리(Post Processing)로 생성된 제2형 중 어느 것인지에 대한 식별정보를 정점 및/또는 폴리곤의 부가정보에 포함시켜 생성할 수 있다.The
3차원 객체 데이터 처리 장치(100)는 서버(30)로부터 네트워크(40)를 통하여 객체(1)에 대한 3차원 객체 데이터를 수신하고, 수신된 3차원 객체 데이터를 화면에 디스플레이할 수 있다. 이러한 3차원 객체 데이터 처리 장치(100)는 3차원 객체 데이터를 화면에 디스플레이할 때에 화면 확대 영역에 대해서는 3차원 객체 데이터의 메쉬 데이터에 포함된 정점 및/또는 폴리곤의 부가정보를 확인하고, 확인된 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정할 수 있다. 또한, 3차원 객체 데이터 처리 장치(100)는 3차원 객체 데이터를 화면에 디스플레이할 수 있는 디스플레이 장치(도시 생략됨)와 별개로 구현될 수 있고, 화면 확대 영역의 확대 배율에 대한 정보를 디스플레이 장치(도시 생략됨)에 제공할 수 있다. 예컨대, 3차원 객체 데이터 처리 장치(100)는 스마트폰 등과 같이 네트워크(40)를 통하여 서버(30)와 데이터를 송수신할 수 있는 정보통신기기일 수 있다.The 3D object
3차원 객체 데이터 처리 장치(100)는 획득부(110) 및 프로세서부(120)를 포함하고, 저장부(130) 및/또는 출력부(140)를 더 포함할 수 있다.The 3D object
획득부(110)는 객체에 대한 3차원 객체 데이터를 획득하여 프로세서부(120)에 제공한다. 예를 들어, 획득부(110)는 네트워크(40)를 통하여 서버(30)로부터 3차원 객체 데이터를 수신할 수 있는 통신모듈을 포함할 수 있다. 또는, 획득부(110)는 객체에 대한 3차원 객체 데이터를 직접 입력받을 수 있는 인터페이스를 포함할 수 있다.The
프로세서부(120)는 객체에 대한 3차원 객체 데이터를 처리하며, 처리된 결과에 대한 출력을 제어한다.The
이러한 프로세서부(120)는 화면에 디스플레이될 3차원 객체 데이터의 메쉬 데이터 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 및/또는 폴리곤의 부가정보를 확인하고, 확인된 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정한다. 이러한 프로세서부(120)는 화면 확대 영역에 해당하는 메쉬 데이터의 정점 및/또는 폴리곤 중 후처리로 생성된 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 확대 제한 배율을 조정할 수 있다. 예를 들어, 프로세서부(120)는 3차원 객체 데이터에 대한 처리 결과를 저장하도록 저장부(130)를 제어하거나 3차원 객체 데이터에 대한 처리 결과를 출력하도록 출력부(140)를 제어할 수 있다.The
저장부(130)에는 객체에 대한 3차원 객체 데이터가 저장될 수 있다. 객체에 대한 3차원 객체 데이터의 메쉬 데이터는 정점 또는 폴리곤의 부가정보를 포함할 수 있고, 이러한 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리로 생성된 제2형을 포함할 수 있으며, 부가정보는 제1형 및 제2형 중 어느 것인지에 대한 식별정보를 포함할 수 있다. 예를 들어, 저장부(130)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.The
출력부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 출력할 수 있다. 예를 들어, 출력부(140)는 프로세서부(120)에 의한 처리의 결과에 따라 3차원 객체 데이터를 시각적 식별이 가능하게 디스플레이할 수 있다. 또는, 출력부(140)는 프로세서부(120)에 의한 처리의 결과를 송신할 수 있는 통신모듈을 포함하거나 처리의 결과를 다른 전자장치로 전달할 수 있는 인터페이스를 포함할 수 있다. 예컨대, 출력부(140)는 3차원 객체 데이터에 대응하는 객체가 포함된 화면을 출력할 수 있고, 화면 확대 영역에 해당하는 메쉬 데이터를 프로세서부(120)에 의해 결정된 확대 배율로 화면에 출력할 수 있다.The
도 4는 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a 3D object data processing method performed by the 3D object data processing apparatus according to an embodiment of the present invention.
도 4를 참조하면, 일 실시예에 따른 3차원 객체 데이터 처리 방법은 화면 확대 영역에 해당하는 3차원 객체 데이터의 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하는 단계(S210)를 포함한다. 여기서, 메쉬 데이터에 포함된 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리로 생성된 제2형을 포함할 수 있고, 정점 및/또는 폴리곤의 부가정보에는 제1형과 제2형 중 어느 것인지에 대한 식별정보를 포함할 수 있다.Referring to FIG. 4 , the 3D object data processing method according to an embodiment includes a step (S210) of checking additional information of vertices or polygons included in mesh data of 3D object data corresponding to an enlarged screen area. . Here, the vertices and/or polygons included in the mesh data may include a first type generated based on the capturing data and a second type generated by post-processing, and the additional information of the vertices and/or polygons includes the first type It may include identification information for any of the type and the second type.
그리고, 3차원 객체 데이터 처리 방법은 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정하는 단계(S220 내지 S240)를 더 포함한다. 예를 들어, 부가정보에 포함된 식별정보에 의거하여 제2형의 정점 및/또는 폴리곤을 식별할 수 있고(S220), 식별된 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 식별된 제2형의 양이 임계값을 초과할 경우(S230)에 확대 제한 배율을 조정할 수 있다(S240).In addition, the 3D object data processing method further includes the steps ( S220 to S240 ) of determining the magnification of the enlarged screen area based on additional information of vertices or polygons included in the mesh data. For example, the vertices and/or polygons of the second type may be identified based on the identification information included in the additional information ( S220 ), and the identification is performed according to the result of comparison between the identified quantity of the second type and a preset threshold value. When the amount of the second type exceeds the threshold value (S230), the magnification limit may be adjusted (S240).
도 3은 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치(100)가 획득할 수 있는 객체에 대한 3차원 객체 데이터의 메쉬 데이터를 예시한 도면이다. 도 3에 예시한 바와 같이 메쉬 데이터의 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형(A)과 후처리로 생성된 제2형(B)을 포함할 수 있다.3 is a diagram illustrating mesh data of 3D object data for an object obtainable by the 3D object
이하, 도 1 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치(100)가 수행하는 3차원 객체 데이터 처리 과정에 대하여 더 자세히 살펴보기로 한다.Hereinafter, a 3D object data processing process performed by the 3D object
먼저, 3차원 객체 데이터 처리 장치(100)에 의한 3차원 객체 데이터 치리 과정을 설명하기에 앞서 서버(30)에 의하여 객체(1)에 대한 3차원 객체 데이터가 생성되는 과정에 대하여 설명하기로 한다.First, before describing the process of processing the three-dimensional object data by the three-dimensional object
3차원 객체 캡쳐 장치(20)가 객체(1)에 대한 캡쳐링 데이터를 획득한 후에 네트워크(40)를 통하여 서버(30)로 전달할 수 있고, 서버(30)는 3차원 객체 캡쳐 장치(20)로부터 제공받은 캡쳐링 데이터에 기초하여 객체에 대한 3차원 객체 데이터로서 메쉬 데이터를 생성하는 과정을 수행한다.After the 3D
여기서, 서버(30)가 생성하는 메쉬 데이터는 정점 및 폴리곤의 부가정보를 포함한다. 폴리곤은 3개의 정점들로 구성된 삼각형이며, 이러한 폴리곤들이 모여 복잡한 물체를 표현할 수 있는 메쉬를 구성한다. 이 때 하나의 정점은 점군 데이터를 이루는 점(Point)에 대응되며, 이러한 점들의 집합은 점 군(Point Cloud)로 표현된다.Here, the mesh data generated by the
한편, 서버(30)가 생성하는 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성할 수 있는 제1형과 후처리로 생성할 수 있는 제2형이 있다. 객체에 대한 메쉬 데이터는 도 5를 참조하면, 캡쳐링 데이터에 기반하여 생성된 제1형(A)과 후처리로 생성된 제2형(B)이 있다. 제2형(B)의 정점 및 폴리곤이 생성되는 이유는 객체의 움직임이나 옷의 펄럭임 등으로 캡쳐링 페일 영역이 발생하며, 이러한 캡쳐링 페일 영역은 자동 또는 수동의 후처리를 통하여 임의적으로 폴리곤을 생성하기 때문이다. 여기서, 정점 및 폴리곤이 제1형과 제2형 중 어는 것인지에 대한 식별정보는 정점 및 폴리곤의 부가정보에 포함되는 형태로 생성될 수 있다. 예를 들어, 정점 및 폴리곤은 헤더 필드와 데이터 필드로 구성할 수 있다. 예컨대, 헤더 필드에는 전체 포인트 수와 데이터 타입 및 크기 등의 정보를 기록할 수 있다. 데이터 필드에는 좌표(x,y,z) 정보 및 색상 정보 그리고 각종 부가정보를 기록할 수 있다. 예컨대, 이러한 데이터 필드의 부가정보에 정점 및 폴리곤이 제1형과 제2형 중 어는 것인지에 대한 식별정보로서 플래그(Flag)를 기록할 수 있다. 예컨대, 플래그 0은 제1형임을 나타낼 수 있고, 플래그 1은 자동 후처리를 통하여 생성된 제2형임을 나타낼 수 있으며, 플래그 2는 수동 후처리를 통하여 생성된 제2형임을 나타낼 수 있다.Meanwhile, the vertices and/or polygons generated by the
그리고, 서버(30)는 객체(1)에 대한 3차원 객체 데이터를 네트워크(40)를 통하여 3차원 객체 데이터 처리 장치(100)로 전송한다. 그러면, 3차원 객체 데이터 처리 장치(100)의 획득부(110)가 3차원 객체 데이터를 수신하여 3차원 객체 데이터 처리 장치(100)의 프로세서부(120)에 제공한다.Then, the
그러면, 프로세서부(120)는 획득부(110)로부터 제공받은 3차원 객체 데이터의 메쉬 데이터 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 및/또는 폴리곤의 부가정보를 확인하고, 확인된 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정할 수 있다. 예를 들어, 프로세서부(120)가 화면 확대 영역에 대한 확대 배율을 결정하는 절차는 출력부(140)을 통하여 3차원 객체 데이터가 최초에 디스플레이되기 전에 수행할 수도 있고, 출력부(140)에 의해 3차원 객체 데이터가 디스플레이된 후에 관람자가 화면 확대를 요청할 경우에 해당 화면 확대 영역에 대한 확대 배율을 결정할 수도 있다.Then, the
예를 들어, 프로세서부(120)는 출력부(140)를 제어하여 객체(1)에 대한 3차원 객체 데이터의 메쉬 데이터를 재생하고, 객체(1)에 대한 3차원 영상을 출력하도록 출력부(140)를 제어할 수 있다. 그러면, 출력부(140)는 프로세서부(120)의 제어에 따라 객체(1)에 대한 3차원 영상(동영상 또는 정지영상)을 디스플레이할 수 있다.For example, the
여기서, 객체(1)에 대한 3차원 영상을 관람하는 자가 3차원 영상을 희망하는 확대 배율로 확대시켜서 관람하고자 하는 경우에 화면 확대 영역에 대한 정보와 희망 확대 배율에 대한 정보를 3차원 객체 데이터 처리 장치(100)에 제공하여야 한다. 예를 들어, 출력부(140)가 터치스크린을 포함하는 경우라면, 관람자는 터치스크린의 두 점을 터치한 상태에서 드래그를 수행하는 공지의 2점 터치 등의 방식을 이용한 줌 인(Zoom In) 모션을 이용함으로써, 화면 확대 영역에 대한 정보와 희망 확대 배율에 대한 정보를 입력할 수 있다. 여기서, 관람자에 의한 터치된 두 점의 시작 위치부터 드래그 후에 터치가 종료된 위치까지의 거리값에 대응하여 희망 확대 배율에 대한 정보가 입력될 수 있다. 물론, 관람자는 좌표입력장치 등과 같은 별도의 정보입력장치 등을 이용해 획득부(110)를 통하여 화면 확대 영역에 대한 정보와 희망 확대 배율에 대한 정보를 차원 객체 데이터 처리 장치(100)에 제공할 수도 있다.Here, when the viewer of the 3D image of the object 1 enlarges the 3D image at a desired magnification to view the 3D image, information on the screen magnification area and the desired magnification are processed as 3D object data It should be provided to the
그러면, 프로세서부(120)는 객체(1)에 대한 3차원 객체 데이터 중 화면 확대 영역에 해당하는 메쉬 데이터를 파악하고, 파악된 메쉬 데이터의 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정할 수 있다. 이를 위해, 프로세서부(120)는 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 및 폴리곤의 부가정보를 확인한다(S210).Then, the
그리고, 프로세서부(120)는 단계 S210에서 확인된 부가정보에 포함된 식별정보에 의거하여 제2형의 정점 및 폴리곤을 식별할 수 있다(S220).Then, the
이어서, 프로세서부(120)는 식별된 제2형 정점 및 폴리곤의 양과 기 설정된 임계값과의 비교 결과에 따라 식별된 제2형 정점 및 폴리곤의 양이 임계값을 초과하는지를 판단한다. 여기서, 프로세서부(120)는 화면 확대 영역의 메쉬 데이터가 고품질의 확대 화면을 제공할 수 있을 만큼 충분한 영상정보를 가지고 있는지를 판단하게 된다. 제2형 정점 및 폴리곤의 양이 임계값을 초과하는 때에는 캡쳐링 데이터에 기반하여 생성된 영상정보가 적다는 것이기에 고품질의 확대 화면을 제공할 만큼 충분한 영상정보를 가지고 있지 않다고 판단할 수 있다(S230).Next, the
프로세서부(120)는 단계 S230에서 제2형 정점 및 폴리곤의 양이 임계값을 초과하는 것으로 판단되면 해당 화면 확대 영역에 대해서는 확대 제한 배율을 조정한다(S240). 예를 들어, 프로세서부(120)는 확대 화면을 고품질로 제공할 수 있을 범위 내로 확대 배율을 결정할 수 있다. 예컨대, 프로세서부(120)는 획득부(110)를 통한 입력에 따라 줌 인 모션을 인식한 경우라면, 줌 인 모션에 의한 드래그 거리값에 대응하는 확대 요청 배율을 계산한 후에 확대 제한 배율 이내인 경우에는 확대 요청 배율까지 화면 확대를 처리하지만 확대 요청 배율이 확대 제한 배율을 초과하는 경우에는 확대 제한 배율까지만 화면 확대를 처리할 수 있다.When it is determined in step S230 that the amount of type 2 vertices and polygons exceed the threshold value, the
그러면, 출력부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 출력하게 된다. 예를 들어, 출력부(140)는 프로세서부(120)의 제어에 따라 단계 S240에서 조정된 확대 제한 배율로 객체에 대한 확대 화면을 디스플레이장치를 통하여 출력할 수 있다. 또는, 출력부(140)는 통신모듈이나 인터페이스를 통하여 다른 전자장치에게 단계 S240에서 조정된 확대 제한 배율에 대한 정보를 전송할 수 있다(S240).Then, the
지금까지 설명한 바와 같이 본 발명의 실시예들에 의하면, 화면 확대 영역에 해당하는 3차원 객체 데이터의 메쉬 데이터에 대한 정보에 기초하여 확대 가능한 배율을 결정함으로써 저품질의 확대 화면이 제공되지 않도록 사전에 차단할 수 있다.As described so far, according to the embodiments of the present invention, it is possible to block in advance so that a low-quality enlarged screen is not provided by determining an enlargeable magnification based on information about the mesh data of the 3D object data corresponding to the enlarged screen area. can
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general-purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment may be configured in the respective blocks of the block diagram or of the flowchart. Each step creates a means for performing the described functions. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. The instructions stored in the block diagram may also produce an item of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and in each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
본 발명의 실시예에 따르면, 화면 확대 영역에 해당하는 메쉬 데이터에 대한 정보에 기초하여 확대 가능한 배율을 결정할 수 있다. 이러한 본 발명은 카메라에 의해 획득된 객체에 대한 촬영 영상으로부터 캡쳐링 데이터를 생성하는 볼류메트릭 비디오 캡쳐 방식 등을 이용하여 3차원 컴퓨터 그래픽을 구현하는 기술 분야에 적용할 수 있다.According to an embodiment of the present invention, an enlargeable magnification may be determined based on information on mesh data corresponding to a screen enlargement area. The present invention can be applied to a technical field for implementing 3D computer graphics using a volumetric video capture method that generates capturing data from a captured image of an object obtained by a camera, and the like.
100: 3차원 객체 데이터 처리 장치
110: 획득부
120: 프로세서부
130: 저장부
140: 출력부100: 3D object data processing device
110: acquisition unit
120: processor unit
130: storage
140: output unit
Claims (7)
3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하는 단계와,
상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정하는 단계를 포함하는
3차원 객체 데이터 처리 방법.As a three-dimensional object data processing method performed by a three-dimensional object data processing apparatus,
Checking additional information of vertices or polygons included in the mesh data corresponding to the enlarged screen area of the 3D object data reproduction screen;
Determining a magnification ratio of the screen magnification area based on the additional information
3D object data processing method.
상기 정점 또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리(Post Processing)로 생성된 제2형을 포함하고,
상기 부가정보는 상기 제1형 및 상기 제2형 중 어느 것인지에 대한 식별정보를 포함하는
3차원 객체 데이터 처리 방법.The method of claim 1,
The vertices or polygons include a first type generated based on the capturing data and a second type generated by post processing,
The additional information includes identification information on which one of the first type and the second type
3D object data processing method.
상기 확대 배율을 결정하는 단계는,
상기 정점 또는 폴리곤 중 상기 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 확대 제한 배율을 조정하는
3차원 객체 데이터 처리 방법.3. The method of claim 2,
The step of determining the magnification is,
Adjusting the magnification limiting magnification according to the result of comparison between the amount of the second type among the vertices or polygons and a preset threshold value
3D object data processing method.
상기 3차원 객체 데이터에 대한 처리를 수행하는 프로세서부를 포함하고,
상기 프로세서부는,
상기 3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하고, 확인된 상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정하는
3차원 객체 데이터 처리 장치.an acquisition unit for acquiring three-dimensional object data;
and a processor unit for processing the three-dimensional object data,
The processor unit,
Checking additional information of vertices or polygons included in mesh data corresponding to the screen enlargement area among the reproduction screen of the 3D object data, and determining an enlargement magnification for the screen enlargement area based on the confirmed additional information
3D object data processing device.
상기 정점 또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리(Post Processing)로 생성된 제2형을 포함하고,
상기 부가정보는 상기 제1형 및 상기 제2형 중 어느 것인지에 대한 식별정보를 포함하는
3차원 객체 데이터 처리 장치.5. The method of claim 4,
The vertices or polygons include a first type generated based on the capturing data and a second type generated by post processing,
The additional information includes identification information on which one of the first type and the second type
3D object data processing device.
상기 프로세서부는,
상기 정점 또는 폴리곤 중 상기 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 확대 제한 배율을 조정하는
3차원 객체 데이터 처리 장치.6. The method of claim 5,
The processor unit,
Adjusting the magnification limiting magnification according to the result of comparison between the amount of the second type among the vertices or polygons and a preset threshold value
3D object data processing device.
제 1 항 내지 제 3 항 중 어느 한 항의 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The method of any one of claims 1 to 3 comprising instructions for causing a processor to perform the method.
computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200114921A KR20220032948A (en) | 2020-09-08 | 2020-09-08 | Method and apparatus for processing 3d object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200114921A KR20220032948A (en) | 2020-09-08 | 2020-09-08 | Method and apparatus for processing 3d object |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220032948A true KR20220032948A (en) | 2022-03-15 |
Family
ID=80817040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200114921A KR20220032948A (en) | 2020-09-08 | 2020-09-08 | Method and apparatus for processing 3d object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220032948A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102671280B1 (en) | 2023-10-10 | 2024-05-31 | 엠앤앤에이치 주식회사 | Apparatus and method for automatically correcting body proportions of multi frame avatar object in 3D volumetric video |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120126211A (en) | 2011-05-11 | 2012-11-21 | 나비스오토모티브시스템즈 주식회사 | navigation system displaying 3D type child POI and method for controling the same |
-
2020
- 2020-09-08 KR KR1020200114921A patent/KR20220032948A/en active Search and Examination
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120126211A (en) | 2011-05-11 | 2012-11-21 | 나비스오토모티브시스템즈 주식회사 | navigation system displaying 3D type child POI and method for controling the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102671280B1 (en) | 2023-10-10 | 2024-05-31 | 엠앤앤에이치 주식회사 | Apparatus and method for automatically correcting body proportions of multi frame avatar object in 3D volumetric video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11756223B2 (en) | Depth-aware photo editing | |
CN111050210B (en) | Method of performing operations, video processing system, and non-transitory computer readable medium | |
US9639914B2 (en) | Portrait deformation method and apparatus | |
US10970915B2 (en) | Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium | |
US20220215568A1 (en) | Depth Determination for Images Captured with a Moving Camera and Representing Moving Features | |
WO2017092303A1 (en) | Virtual reality scenario model establishing method and device | |
US20120320152A1 (en) | Stereoscopic image generation apparatus and method | |
JP2018107793A (en) | Generation device, generation method and program of virtual view point image | |
EP2787734B1 (en) | Apparatus and method for forming light field image | |
US11227428B2 (en) | Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region | |
US11810248B2 (en) | Method for processing image data to provide for soft shadow effects using shadow depth information | |
CN113223130B (en) | Path roaming method, terminal equipment and computer storage medium | |
JP2018113683A (en) | Image processing apparatus, image processing method, and program | |
US11689815B2 (en) | Image modification of motion captured scene for reconstruction of obscured views using uncoordinated cameras | |
CN110475109A (en) | A kind of projection imaging system, method, apparatus and storage medium | |
US11127141B2 (en) | Image processing apparatus, image processing method, and a non-transitory computer readable storage medium | |
KR20220032948A (en) | Method and apparatus for processing 3d object | |
JP2009246917A (en) | Video display device, and video processing apparatus | |
KR102517205B1 (en) | Method for displaying content derived from light field data on a 2D display device | |
AU2015271981A1 (en) | Method, system and apparatus for modifying a perceptual attribute for at least a part of an image | |
EP2821997A1 (en) | Method and device for editing a video sequence | |
CN106131638B (en) | Information display method and equipment | |
KR102461031B1 (en) | Network-based image processing method and apparatus therefor | |
US20230206471A1 (en) | Method and Apparatus for Processing Reference Inputs for Video Compositing with Replacement | |
JP4983757B2 (en) | Image generating apparatus, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |