KR20220032948A - Method and apparatus for processing 3d object - Google Patents

Method and apparatus for processing 3d object Download PDF

Info

Publication number
KR20220032948A
KR20220032948A KR1020200114921A KR20200114921A KR20220032948A KR 20220032948 A KR20220032948 A KR 20220032948A KR 1020200114921 A KR1020200114921 A KR 1020200114921A KR 20200114921 A KR20200114921 A KR 20200114921A KR 20220032948 A KR20220032948 A KR 20220032948A
Authority
KR
South Korea
Prior art keywords
object data
magnification
type
screen
data processing
Prior art date
Application number
KR1020200114921A
Other languages
Korean (ko)
Inventor
임국찬
신동엽
신승호
한진용
전진수
조익환
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020200114921A priority Critical patent/KR20220032948A/en
Publication of KR20220032948A publication Critical patent/KR20220032948A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to an embodiment of the present invention, provided is a method and device for processing a 3D object for determining a magnification based on information on mesh data corresponding to a screen magnification area. The 3D object data processing method performed by the disclosed 3D object data processing device comprises: a step of checking additional information of peak or polygon included in mesh data corresponding to an enlarged screen area of a reproduction screen of the 3D object data; and a step of determining a magnification ratio for the magnification area of the screen based on the additional information.

Description

3차원 객체 데이터 처리 방법{METHOD AND APPARATUS FOR PROCESSING 3D OBJECT}3D object data processing method {METHOD AND APPARATUS FOR PROCESSING 3D OBJECT}

본 발명은 3차원 객체 데이터를 처리하는 방법과 이러한 방법을 수행할 수 있는 장치에 관한 것이다.The present invention relates to a method for processing three-dimensional object data and an apparatus capable of performing such a method.

3차원 컴퓨터 그래픽을 구현하는 방식 중의 하나로서 객체에 대한 촬영 영상으로부터 캡쳐링 데이터(Capturing data)를 생성하는 볼류메트릭 비디오 캡쳐(Volumetric Video Capture) 방식이 있다. 이 경우에, 음영 영역이 없도록 최대한 모든 영역에서 촬영을 진행한다.As one of the methods for implementing 3D computer graphics, there is a volumetric video capture method for generating capturing data from a captured image of an object. In this case, photographing is performed in all areas as much as possible so that there is no shadow area.

하지만, 객체의 움직임이나 옷의 펄럭임 등으로 캡쳐링 페일(fail) 영역이 발생하며, 이러한 캡쳐링 페일 영역은 자동 또는 수동의 후처리(Post Processing)를 통하여 임의적으로 폴리곤(Polygon) 메쉬를 생성한다.However, a capturing fail region occurs due to the movement of an object or the fluttering of clothes, and such a capturing fail region arbitrarily creates a polygon mesh through automatic or manual post processing. .

그런데, 화면 확대 영역에 캡쳐링 페일 영역이 포함되는 비율에 따라 부족한 영상정보로 인하여 저품질의 확대 화면이 제공되는 경우가 있다.However, there are cases in which a low-quality enlarged screen is provided due to insufficient image information depending on the ratio of the capturing fail area to the screen enlargement area.

대한민국 공개특허공보 제10-2012-0126211호, 공개일자 2012년 11월 21일.Republic of Korea Patent Publication No. 10-2012-0126211, publication date November 21, 2012.

본 발명의 실시예에 의하면, 화면 확대 영역에 해당하는 메쉬 데이터에 대한 정보에 기초하여 확대 배율을 결정하는 3차원 객체 데이터 처리 방법 및 장치를 제공한다.According to an embodiment of the present invention, there is provided a 3D object data processing method and apparatus for determining a magnification magnification based on information on mesh data corresponding to a screen magnification area.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

본 발명의 제 1 관점에 따른 3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법은, 3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하는 단계와, 상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정하는 단계를 포함한다.In the 3D object data processing method performed by the 3D object data processing apparatus according to the first aspect of the present invention, additional information of vertices or polygons included in mesh data corresponding to an enlarged screen area among reproduction screens of 3D object data and determining a magnification ratio for the enlarged screen area based on the additional information.

본 발명의 제 2 관점에 따른 3차원 객체 데이터 처리 장치는, 3차원 객체 데이터를 획득하는 획득부와, 상기 3차원 객체 데이터에 대한 처리를 수행하는 프로세서부를 포함하고, 상기 프로세서부는, 상기 3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하고, 확인된 상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정한다.An apparatus for processing 3D object data according to a second aspect of the present invention includes an acquisition unit configured to acquire 3D object data, and a processor unit configured to process the 3D object data, wherein the processor unit comprises: Additional information of vertices or polygons included in mesh data corresponding to the screen enlargement area among the reproduction screens of object data is checked, and an enlargement magnification of the screen enlarged area is determined based on the checked additional information.

발명의 제 3 관점에 따른 컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램은, 상기 3차원 객체 데이터 처리 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer program stored in the computer-readable recording medium according to the third aspect of the invention includes instructions for causing a processor to perform the three-dimensional object data processing method.

본 발명의 제 4 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이 상기 3차원 객체 데이터 처리 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer readable recording medium storing the computer program according to the fourth aspect of the present invention includes instructions for causing the computer program to perform the 3D object data processing method by a processor.

본 발명의 실시예에 의하면, 화면 확대 영역에 해당하는 메쉬 데이터에 대한 정보에 기초하여 확대 가능한 배율을 결정함으로써 저품질의 확대 화면이 제공되지 않도록 사전에 차단할 수 있다.According to an embodiment of the present invention, it is possible to prevent a low-quality enlarged screen from being provided in advance by determining an enlargeable magnification based on information on mesh data corresponding to the enlarged screen area.

도 1은 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치를 포함하는 3차원 객체 영상 서비스 시스템의 구성도이다.
도 2는 도 1에 도시된 3차원 객체 캡쳐 장치의 일 실시예에 따른 평면도이다.
도 3은 도 1에 도시된 3차원 객체 데이터 처리 장치의 일 실시예에 따른 구성도이다.
도 4는 도 3에 도시된 3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법을 설명하기 위한 흐름도이다.
도 5는 도 3에 도시된 3차원 객체 데이터 처리 장치가 획득할 수 있는 객체에 대한 메쉬 데이터를 예시한 도면이다.
1 is a block diagram of a 3D object image service system including an apparatus for processing 3D object data according to an embodiment of the present invention.
FIG. 2 is a plan view of the 3D object capturing apparatus shown in FIG. 1 according to an embodiment.
FIG. 3 is a configuration diagram of an apparatus for processing 3D object data shown in FIG. 1 according to an embodiment;
4 is a flowchart illustrating a 3D object data processing method performed by the 3D object data processing apparatus shown in FIG. 3 .
FIG. 5 is a diagram illustrating mesh data for an object that can be obtained by the apparatus for processing 3D object data shown in FIG. 3 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or configurations will be omitted except when it is actually necessary to describe the embodiments of the present invention. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

본 명세서에서 단수의 표현은 문맥상 명백하게 다름을 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함하다' 또는 '구성하다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as 'comprise' or 'comprise' are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.Also, in an embodiment of the present invention, when it is said that a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary.

도 1은 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치를 포함하는 3차원 객체 영상 서비스 시스템의 구성도이고, 도 2는 도 1에 도시된 3차원 객체 캡쳐 장치의 일 실시예에 따른 평면도이며, 도 3은 도 1에 도시된 3차원 객체 데이터 처리 장치의 일 실시예에 따른 구성도이다.1 is a block diagram of a 3D object image service system including a 3D object data processing apparatus according to an embodiment of the present invention, and FIG. 2 is a 3D object capturing apparatus shown in FIG. 1 according to an embodiment It is a plan view, and FIG. 3 is a configuration diagram according to an embodiment of the 3D object data processing apparatus shown in FIG. 1 .

일 실시예에 따른 3차원 객체 영상 서비스 시스템(10)은 3차원 객체 캡쳐 장치(20), 서버(30) 및 3차원 객체 데이터 처리 장치(100)가 네트워크(40)를 통하여 연결될 수 있다.In the 3D object image service system 10 according to an embodiment, the 3D object capture device 20 , the server 30 , and the 3D object data processing device 100 may be connected through a network 40 .

3차원 객체 캡쳐 장치(20)는 객체(1)를 중심으로 하는 동심원 상에 배치된 복수의 캡쳐기(21)에 의해 볼류메트릭 비디오 캡쳐(Volumetric Video Capture) 방식 등을 통하여 객체(1)에 대한 캡쳐링 데이터(Capturing data)를 획득하고, 획득된 캡쳐링 데이터를 네트워크(40)를 통하여 서버(30)로 전송한다. 복수의 캡쳐기(21)는 소정 공간을 형성하는 하우징(22) 내에 배치될 수 있고, 하우징(22)은 원형 또는 다각형 형상으로 이루어질 수 있으나, 그 형상은 특별히 한정되지 않는다. 하우징(22)에는 객체(1)가 출입할 수 있는 게이트(23)가 형성될 수 있다. 또한, 하우징(23) 내의 일측에는 진행 상황을 표시할 수 있는 표시 장치(Prompter, 24)가 마련될 수 있다. 캡쳐기(21)는 캡쳐 대상인 객체(1)를 중심으로 동심원 상에 복수개가 배치될 수 있으나, 그 개수는 한정되지 않는다. 캡쳐기(21)는 서로 마주보도록 배치된 적어도 2개 이상의 개수를 포함할 수 있다. 복수의 캡쳐기(21)는 고정되거나 또는 동심원 상으로 회전될 수도 있다. 예를 들어, 복수의 캡쳐기(21)는 구조광(structured light)을 발생시켜 객체(1)에 조사한 후에 객체(1)로부터 반사된 구조광을 캡쳐할 수 있다.The three-dimensional object capture device 20 is a volumetric video capture method by means of a plurality of capturers 21 arranged on concentric circles centered on the object 1 through a volumetric video capture method, etc. Capture data is obtained, and the obtained capturing data is transmitted to the server 30 through the network 40 . The plurality of capture units 21 may be disposed in the housing 22 forming a predetermined space, and the housing 22 may have a circular or polygonal shape, but the shape is not particularly limited. A gate 23 through which the object 1 can enter and exit may be formed in the housing 22 . In addition, a display device (Prompter) 24 capable of displaying the progress status may be provided on one side of the housing 23 . A plurality of capture units 21 may be disposed on concentric circles with respect to the object 1 to be captured, but the number is not limited. The capture unit 21 may include at least two or more numbers disposed to face each other. The plurality of capturers 21 may be fixed or rotated concentrically. For example, the plurality of capturers 21 may capture structured light reflected from the object 1 after generating structured light and irradiating the object 1 .

서버(30)는 3차원 객체 캡쳐 장치(20)로부터 수신된 객체(1)에 대한 캡쳐링 데이터에 기초하여 객체(1)에 대한 3차원 객체 데이터를 생성하고, 생성된 3차원 객체 데이터를 네트워크(40)를 통하여 3차원 객체 데이터 처리 장치(100)로 전송할 수 있다. 이러한 서버(30)는 캡쳐링 데이터에 기초하여 객체(1)에 대한 정점(Vertex) 및/또는 폴리곤(Polygon)을 포함하는 메쉬 데이터를 생성할 수 있다. 이때, 캡쳐링 페일(fail) 영역에 대해서는 자동 또는 수동의 후처리를 통하여 임의적으로 폴리곤 메쉬를 생성할 수 있다. 예컨대, 메쉬 데이터를 생성할 때에 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리(Post Processing)로 생성된 제2형 중 어느 것인지에 대한 식별정보를 정점 및/또는 폴리곤의 부가정보에 포함시켜 생성할 수 있다.The server 30 generates 3D object data for the object 1 based on the capturing data for the object 1 received from the 3D object capture device 20, and connects the generated 3D object data to the network. It can be transmitted to the 3D object data processing apparatus 100 through ( 40 ). The server 30 may generate mesh data including vertices and/or polygons for the object 1 based on the capturing data. In this case, a polygon mesh may be arbitrarily generated through automatic or manual post-processing for the capturing fail region. For example, when generating mesh data, identification information of either type 1 generated based on the capturing data or type 2 generated by post processing is included in the additional information of vertices and/or polygons. can create

3차원 객체 데이터 처리 장치(100)는 서버(30)로부터 네트워크(40)를 통하여 객체(1)에 대한 3차원 객체 데이터를 수신하고, 수신된 3차원 객체 데이터를 화면에 디스플레이할 수 있다. 이러한 3차원 객체 데이터 처리 장치(100)는 3차원 객체 데이터를 화면에 디스플레이할 때에 화면 확대 영역에 대해서는 3차원 객체 데이터의 메쉬 데이터에 포함된 정점 및/또는 폴리곤의 부가정보를 확인하고, 확인된 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정할 수 있다. 또한, 3차원 객체 데이터 처리 장치(100)는 3차원 객체 데이터를 화면에 디스플레이할 수 있는 디스플레이 장치(도시 생략됨)와 별개로 구현될 수 있고, 화면 확대 영역의 확대 배율에 대한 정보를 디스플레이 장치(도시 생략됨)에 제공할 수 있다. 예컨대, 3차원 객체 데이터 처리 장치(100)는 스마트폰 등과 같이 네트워크(40)를 통하여 서버(30)와 데이터를 송수신할 수 있는 정보통신기기일 수 있다.The 3D object data processing apparatus 100 may receive 3D object data for the object 1 from the server 30 through the network 40 , and display the received 3D object data on a screen. When displaying the 3D object data on the screen, the 3D object data processing apparatus 100 checks additional information of vertices and/or polygons included in the mesh data of the 3D object data for the screen enlarged area, Based on the additional information, it is possible to determine a magnification ratio for the enlarged area of the screen. In addition, the 3D object data processing apparatus 100 may be implemented separately from a display device (not shown) capable of displaying 3D object data on a screen, and may display information on the magnification of the magnification area of the screen. (not shown) may be provided. For example, the 3D object data processing apparatus 100 may be an information communication device capable of transmitting and receiving data to and from the server 30 through the network 40, such as a smart phone.

3차원 객체 데이터 처리 장치(100)는 획득부(110) 및 프로세서부(120)를 포함하고, 저장부(130) 및/또는 출력부(140)를 더 포함할 수 있다.The 3D object data processing apparatus 100 includes an acquisition unit 110 and a processor unit 120 , and may further include a storage unit 130 and/or an output unit 140 .

획득부(110)는 객체에 대한 3차원 객체 데이터를 획득하여 프로세서부(120)에 제공한다. 예를 들어, 획득부(110)는 네트워크(40)를 통하여 서버(30)로부터 3차원 객체 데이터를 수신할 수 있는 통신모듈을 포함할 수 있다. 또는, 획득부(110)는 객체에 대한 3차원 객체 데이터를 직접 입력받을 수 있는 인터페이스를 포함할 수 있다.The acquisition unit 110 obtains 3D object data for an object and provides it to the processor unit 120 . For example, the acquiring unit 110 may include a communication module capable of receiving 3D object data from the server 30 through the network 40 . Alternatively, the acquisition unit 110 may include an interface through which 3D object data for an object can be directly input.

프로세서부(120)는 객체에 대한 3차원 객체 데이터를 처리하며, 처리된 결과에 대한 출력을 제어한다.The processor unit 120 processes 3D object data for an object, and controls an output of the processed result.

이러한 프로세서부(120)는 화면에 디스플레이될 3차원 객체 데이터의 메쉬 데이터 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 및/또는 폴리곤의 부가정보를 확인하고, 확인된 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정한다. 이러한 프로세서부(120)는 화면 확대 영역에 해당하는 메쉬 데이터의 정점 및/또는 폴리곤 중 후처리로 생성된 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 확대 제한 배율을 조정할 수 있다. 예를 들어, 프로세서부(120)는 3차원 객체 데이터에 대한 처리 결과를 저장하도록 저장부(130)를 제어하거나 3차원 객체 데이터에 대한 처리 결과를 출력하도록 출력부(140)를 제어할 수 있다.The processor unit 120 checks additional information of vertices and/or polygons included in mesh data corresponding to the enlarged screen area among mesh data of 3D object data to be displayed on the screen, and based on the checked additional information, the screen Determines the magnification factor for the magnification area. The processor unit 120 may adjust the magnification limit magnification according to a result of comparing the amount of type 2 generated by post-processing among vertices and/or polygons of mesh data corresponding to the enlarged screen area and a preset threshold value. For example, the processor unit 120 may control the storage unit 130 to store the processing result for the 3D object data or control the output unit 140 to output the processing result for the 3D object data. .

저장부(130)에는 객체에 대한 3차원 객체 데이터가 저장될 수 있다. 객체에 대한 3차원 객체 데이터의 메쉬 데이터는 정점 또는 폴리곤의 부가정보를 포함할 수 있고, 이러한 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리로 생성된 제2형을 포함할 수 있으며, 부가정보는 제1형 및 제2형 중 어느 것인지에 대한 식별정보를 포함할 수 있다. 예를 들어, 저장부(130)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.The storage unit 130 may store 3D object data for the object. The mesh data of the 3D object data for the object may include additional information of vertices or polygons, and these vertices and/or polygons are of type 1 generated based on the capturing data and type 2 generated by post-processing. may include, and the additional information may include identification information for any of the first type and the second type. For example, the storage unit 130 includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floppy disks. It may be a computer-readable recording medium, such as a hardware device specially configured to store and execute program instructions, such as a magneto-optical medium or a flash memory.

출력부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 출력할 수 있다. 예를 들어, 출력부(140)는 프로세서부(120)에 의한 처리의 결과에 따라 3차원 객체 데이터를 시각적 식별이 가능하게 디스플레이할 수 있다. 또는, 출력부(140)는 프로세서부(120)에 의한 처리의 결과를 송신할 수 있는 통신모듈을 포함하거나 처리의 결과를 다른 전자장치로 전달할 수 있는 인터페이스를 포함할 수 있다. 예컨대, 출력부(140)는 3차원 객체 데이터에 대응하는 객체가 포함된 화면을 출력할 수 있고, 화면 확대 영역에 해당하는 메쉬 데이터를 프로세서부(120)에 의해 결정된 확대 배율로 화면에 출력할 수 있다.The output unit 140 may output a result of the processing by the processor unit 120 under the control of the processor unit 120 . For example, the output unit 140 may display 3D object data to be visually identified according to a result of processing by the processor unit 120 . Alternatively, the output unit 140 may include a communication module capable of transmitting the result of processing by the processor unit 120 or an interface capable of transmitting the processing result to another electronic device. For example, the output unit 140 may output a screen including an object corresponding to the 3D object data, and output mesh data corresponding to the enlarged area of the screen to the screen at a magnification determined by the processor unit 120 . can

도 4는 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a 3D object data processing method performed by the 3D object data processing apparatus according to an embodiment of the present invention.

도 4를 참조하면, 일 실시예에 따른 3차원 객체 데이터 처리 방법은 화면 확대 영역에 해당하는 3차원 객체 데이터의 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하는 단계(S210)를 포함한다. 여기서, 메쉬 데이터에 포함된 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리로 생성된 제2형을 포함할 수 있고, 정점 및/또는 폴리곤의 부가정보에는 제1형과 제2형 중 어느 것인지에 대한 식별정보를 포함할 수 있다.Referring to FIG. 4 , the 3D object data processing method according to an embodiment includes a step (S210) of checking additional information of vertices or polygons included in mesh data of 3D object data corresponding to an enlarged screen area. . Here, the vertices and/or polygons included in the mesh data may include a first type generated based on the capturing data and a second type generated by post-processing, and the additional information of the vertices and/or polygons includes the first type It may include identification information for any of the type and the second type.

그리고, 3차원 객체 데이터 처리 방법은 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정하는 단계(S220 내지 S240)를 더 포함한다. 예를 들어, 부가정보에 포함된 식별정보에 의거하여 제2형의 정점 및/또는 폴리곤을 식별할 수 있고(S220), 식별된 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 식별된 제2형의 양이 임계값을 초과할 경우(S230)에 확대 제한 배율을 조정할 수 있다(S240).In addition, the 3D object data processing method further includes the steps ( S220 to S240 ) of determining the magnification of the enlarged screen area based on additional information of vertices or polygons included in the mesh data. For example, the vertices and/or polygons of the second type may be identified based on the identification information included in the additional information ( S220 ), and the identification is performed according to the result of comparison between the identified quantity of the second type and a preset threshold value. When the amount of the second type exceeds the threshold value (S230), the magnification limit may be adjusted (S240).

도 3은 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치(100)가 획득할 수 있는 객체에 대한 3차원 객체 데이터의 메쉬 데이터를 예시한 도면이다. 도 3에 예시한 바와 같이 메쉬 데이터의 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형(A)과 후처리로 생성된 제2형(B)을 포함할 수 있다.3 is a diagram illustrating mesh data of 3D object data for an object obtainable by the 3D object data processing apparatus 100 according to an embodiment of the present invention. As illustrated in FIG. 3 , vertices and/or polygons of mesh data may include a first type (A) generated based on the capturing data and a second type (B) generated by post-processing.

이하, 도 1 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 3차원 객체 데이터 처리 장치(100)가 수행하는 3차원 객체 데이터 처리 과정에 대하여 더 자세히 살펴보기로 한다.Hereinafter, a 3D object data processing process performed by the 3D object data processing apparatus 100 according to an embodiment of the present invention will be described in more detail with reference to FIGS. 1 to 5 .

먼저, 3차원 객체 데이터 처리 장치(100)에 의한 3차원 객체 데이터 치리 과정을 설명하기에 앞서 서버(30)에 의하여 객체(1)에 대한 3차원 객체 데이터가 생성되는 과정에 대하여 설명하기로 한다.First, before describing the process of processing the three-dimensional object data by the three-dimensional object data processing apparatus 100, a process in which the three-dimensional object data for the object 1 is generated by the server 30 will be described. .

3차원 객체 캡쳐 장치(20)가 객체(1)에 대한 캡쳐링 데이터를 획득한 후에 네트워크(40)를 통하여 서버(30)로 전달할 수 있고, 서버(30)는 3차원 객체 캡쳐 장치(20)로부터 제공받은 캡쳐링 데이터에 기초하여 객체에 대한 3차원 객체 데이터로서 메쉬 데이터를 생성하는 과정을 수행한다.After the 3D object capturing device 20 obtains the capturing data for the object 1 , it may be transmitted to the server 30 through the network 40 , and the server 30 may provide the 3D object capturing device 20 . A process of generating mesh data as 3D object data for an object is performed based on the capturing data provided from the .

여기서, 서버(30)가 생성하는 메쉬 데이터는 정점 및 폴리곤의 부가정보를 포함한다. 폴리곤은 3개의 정점들로 구성된 삼각형이며, 이러한 폴리곤들이 모여 복잡한 물체를 표현할 수 있는 메쉬를 구성한다. 이 때 하나의 정점은 점군 데이터를 이루는 점(Point)에 대응되며, 이러한 점들의 집합은 점 군(Point Cloud)로 표현된다.Here, the mesh data generated by the server 30 includes additional information of vertices and polygons. A polygon is a triangle composed of three vertices, and these polygons form a mesh that can express complex objects. In this case, one vertex corresponds to a point constituting the point cloud data, and a set of these points is expressed as a point cloud.

한편, 서버(30)가 생성하는 정점 및/또는 폴리곤은 캡쳐링 데이터에 기반하여 생성할 수 있는 제1형과 후처리로 생성할 수 있는 제2형이 있다. 객체에 대한 메쉬 데이터는 도 5를 참조하면, 캡쳐링 데이터에 기반하여 생성된 제1형(A)과 후처리로 생성된 제2형(B)이 있다. 제2형(B)의 정점 및 폴리곤이 생성되는 이유는 객체의 움직임이나 옷의 펄럭임 등으로 캡쳐링 페일 영역이 발생하며, 이러한 캡쳐링 페일 영역은 자동 또는 수동의 후처리를 통하여 임의적으로 폴리곤을 생성하기 때문이다. 여기서, 정점 및 폴리곤이 제1형과 제2형 중 어는 것인지에 대한 식별정보는 정점 및 폴리곤의 부가정보에 포함되는 형태로 생성될 수 있다. 예를 들어, 정점 및 폴리곤은 헤더 필드와 데이터 필드로 구성할 수 있다. 예컨대, 헤더 필드에는 전체 포인트 수와 데이터 타입 및 크기 등의 정보를 기록할 수 있다. 데이터 필드에는 좌표(x,y,z) 정보 및 색상 정보 그리고 각종 부가정보를 기록할 수 있다. 예컨대, 이러한 데이터 필드의 부가정보에 정점 및 폴리곤이 제1형과 제2형 중 어는 것인지에 대한 식별정보로서 플래그(Flag)를 기록할 수 있다. 예컨대, 플래그 0은 제1형임을 나타낼 수 있고, 플래그 1은 자동 후처리를 통하여 생성된 제2형임을 나타낼 수 있으며, 플래그 2는 수동 후처리를 통하여 생성된 제2형임을 나타낼 수 있다.Meanwhile, the vertices and/or polygons generated by the server 30 have a first type that can be generated based on the capturing data and a second type that can be generated by post-processing. Referring to FIG. 5 , mesh data for an object includes a first type (A) generated based on the capturing data and a second type (B) generated through post-processing. The reason why the vertices and polygons of type 2 (B) are generated is that the capturing fail area occurs due to the movement of an object or the flapping of clothes. because it creates Here, identification information on whether the vertex and polygon is of the first type or the second type may be generated in a form included in the additional information of the vertex and polygon. For example, vertices and polygons can consist of header fields and data fields. For example, information such as the total number of points and data types and sizes may be recorded in the header field. In the data field, coordinate (x, y, z) information, color information, and various additional information may be recorded. For example, in the additional information of the data field, a flag may be recorded as identification information for whether the vertex and polygon are of the first type or the second type. For example, flag 0 may indicate type 1, flag 1 may indicate type 2 generated through automatic post-processing, and flag 2 may indicate type 2 generated through manual post-processing.

그리고, 서버(30)는 객체(1)에 대한 3차원 객체 데이터를 네트워크(40)를 통하여 3차원 객체 데이터 처리 장치(100)로 전송한다. 그러면, 3차원 객체 데이터 처리 장치(100)의 획득부(110)가 3차원 객체 데이터를 수신하여 3차원 객체 데이터 처리 장치(100)의 프로세서부(120)에 제공한다.Then, the server 30 transmits the 3D object data for the object 1 to the 3D object data processing apparatus 100 through the network 40 . Then, the acquisition unit 110 of the 3D object data processing apparatus 100 receives the 3D object data and provides it to the processor unit 120 of the 3D object data processing apparatus 100 .

그러면, 프로세서부(120)는 획득부(110)로부터 제공받은 3차원 객체 데이터의 메쉬 데이터 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 및/또는 폴리곤의 부가정보를 확인하고, 확인된 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정할 수 있다. 예를 들어, 프로세서부(120)가 화면 확대 영역에 대한 확대 배율을 결정하는 절차는 출력부(140)을 통하여 3차원 객체 데이터가 최초에 디스플레이되기 전에 수행할 수도 있고, 출력부(140)에 의해 3차원 객체 데이터가 디스플레이된 후에 관람자가 화면 확대를 요청할 경우에 해당 화면 확대 영역에 대한 확대 배율을 결정할 수도 있다.Then, the processor unit 120 checks additional information of vertices and/or polygons included in the mesh data corresponding to the enlarged screen area among the mesh data of the 3D object data provided from the acquisition unit 110, and adds the confirmed Based on the information, it is possible to determine a magnification factor for the magnification area of the screen. For example, a procedure in which the processor unit 120 determines the magnification ratio for the screen magnification area may be performed before the 3D object data is initially displayed through the output unit 140 , or in the output unit 140 . When the viewer requests to enlarge the screen after the 3D object data is displayed, the enlargement magnification of the corresponding screen enlargement area may be determined.

예를 들어, 프로세서부(120)는 출력부(140)를 제어하여 객체(1)에 대한 3차원 객체 데이터의 메쉬 데이터를 재생하고, 객체(1)에 대한 3차원 영상을 출력하도록 출력부(140)를 제어할 수 있다. 그러면, 출력부(140)는 프로세서부(120)의 제어에 따라 객체(1)에 대한 3차원 영상(동영상 또는 정지영상)을 디스플레이할 수 있다.For example, the processor unit 120 controls the output unit 140 to reproduce mesh data of 3D object data for the object 1 and output the 3D image for the object 1 to the output unit ( 140) can be controlled. Then, the output unit 140 may display a 3D image (movie or still image) of the object 1 under the control of the processor unit 120 .

여기서, 객체(1)에 대한 3차원 영상을 관람하는 자가 3차원 영상을 희망하는 확대 배율로 확대시켜서 관람하고자 하는 경우에 화면 확대 영역에 대한 정보와 희망 확대 배율에 대한 정보를 3차원 객체 데이터 처리 장치(100)에 제공하여야 한다. 예를 들어, 출력부(140)가 터치스크린을 포함하는 경우라면, 관람자는 터치스크린의 두 점을 터치한 상태에서 드래그를 수행하는 공지의 2점 터치 등의 방식을 이용한 줌 인(Zoom In) 모션을 이용함으로써, 화면 확대 영역에 대한 정보와 희망 확대 배율에 대한 정보를 입력할 수 있다. 여기서, 관람자에 의한 터치된 두 점의 시작 위치부터 드래그 후에 터치가 종료된 위치까지의 거리값에 대응하여 희망 확대 배율에 대한 정보가 입력될 수 있다. 물론, 관람자는 좌표입력장치 등과 같은 별도의 정보입력장치 등을 이용해 획득부(110)를 통하여 화면 확대 영역에 대한 정보와 희망 확대 배율에 대한 정보를 차원 객체 데이터 처리 장치(100)에 제공할 수도 있다.Here, when the viewer of the 3D image of the object 1 enlarges the 3D image at a desired magnification to view the 3D image, information on the screen magnification area and the desired magnification are processed as 3D object data It should be provided to the device 100 . For example, if the output unit 140 includes a touch screen, a viewer can zoom in using a known two-point touch method in which a drag is performed while touching two points of the touch screen. By using motion, it is possible to input information about a screen magnification area and a desired magnification ratio. Here, information on a desired magnification may be input in correspondence to a distance value from the start position of the two points touched by the viewer to the position where the touch is terminated after dragging. Of course, the viewer may provide the dimensional object data processing device 100 with information on the screen magnification area and the desired magnification magnification through the acquisition unit 110 using a separate information input device such as a coordinate input device. there is.

그러면, 프로세서부(120)는 객체(1)에 대한 3차원 객체 데이터 중 화면 확대 영역에 해당하는 메쉬 데이터를 파악하고, 파악된 메쉬 데이터의 부가정보에 기초하여 화면 확대 영역에 대한 확대 배율을 결정할 수 있다. 이를 위해, 프로세서부(120)는 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 및 폴리곤의 부가정보를 확인한다(S210).Then, the processor unit 120 determines mesh data corresponding to the screen enlargement area among the 3D object data of the object 1, and determines an enlargement magnification for the screen enlargement area based on additional information of the identified mesh data. can To this end, the processor 120 checks additional information of vertices and polygons included in the mesh data corresponding to the enlarged screen area (S210).

그리고, 프로세서부(120)는 단계 S210에서 확인된 부가정보에 포함된 식별정보에 의거하여 제2형의 정점 및 폴리곤을 식별할 수 있다(S220).Then, the processor 120 may identify the vertex and polygon of the second type based on the identification information included in the additional information confirmed in step S210 (S220).

이어서, 프로세서부(120)는 식별된 제2형 정점 및 폴리곤의 양과 기 설정된 임계값과의 비교 결과에 따라 식별된 제2형 정점 및 폴리곤의 양이 임계값을 초과하는지를 판단한다. 여기서, 프로세서부(120)는 화면 확대 영역의 메쉬 데이터가 고품질의 확대 화면을 제공할 수 있을 만큼 충분한 영상정보를 가지고 있는지를 판단하게 된다. 제2형 정점 및 폴리곤의 양이 임계값을 초과하는 때에는 캡쳐링 데이터에 기반하여 생성된 영상정보가 적다는 것이기에 고품질의 확대 화면을 제공할 만큼 충분한 영상정보를 가지고 있지 않다고 판단할 수 있다(S230).Next, the processor 120 determines whether the identified amount of the second type vertex and polygon exceeds a threshold value according to a result of comparison between the identified second type vertex and polygon amounts and a preset threshold value. Here, the processor 120 determines whether the mesh data of the screen enlarged area has sufficient image information to provide a high quality enlarged screen. When the amount of type 2 vertices and polygons exceeds the threshold value, it can be determined that there is not enough image information to provide a high-quality enlarged screen because there is little image information generated based on the capturing data (S230) ).

프로세서부(120)는 단계 S230에서 제2형 정점 및 폴리곤의 양이 임계값을 초과하는 것으로 판단되면 해당 화면 확대 영역에 대해서는 확대 제한 배율을 조정한다(S240). 예를 들어, 프로세서부(120)는 확대 화면을 고품질로 제공할 수 있을 범위 내로 확대 배율을 결정할 수 있다. 예컨대, 프로세서부(120)는 획득부(110)를 통한 입력에 따라 줌 인 모션을 인식한 경우라면, 줌 인 모션에 의한 드래그 거리값에 대응하는 확대 요청 배율을 계산한 후에 확대 제한 배율 이내인 경우에는 확대 요청 배율까지 화면 확대를 처리하지만 확대 요청 배율이 확대 제한 배율을 초과하는 경우에는 확대 제한 배율까지만 화면 확대를 처리할 수 있다.When it is determined in step S230 that the amount of type 2 vertices and polygons exceed the threshold value, the processor 120 adjusts the magnification limit magnification for the corresponding screen magnification area (S240). For example, the processor 120 may determine the magnification within a range capable of providing the magnified screen with high quality. For example, if the processor 120 recognizes the zoom-in motion according to the input through the acquisition unit 110, after calculating the zoom-in request magnification corresponding to the drag distance value by the zoom-in motion, the magnification is within the magnification limit. In this case, screen enlargement is processed up to the enlargement request magnification, but if the enlargement request magnification exceeds the enlargement limit magnification, the screen enlargement can be processed only up to the enlargement limit magnification.

그러면, 출력부(140)는 프로세서부(120)에 의한 처리의 결과를 프로세서부(120)의 제어에 따라 출력하게 된다. 예를 들어, 출력부(140)는 프로세서부(120)의 제어에 따라 단계 S240에서 조정된 확대 제한 배율로 객체에 대한 확대 화면을 디스플레이장치를 통하여 출력할 수 있다. 또는, 출력부(140)는 통신모듈이나 인터페이스를 통하여 다른 전자장치에게 단계 S240에서 조정된 확대 제한 배율에 대한 정보를 전송할 수 있다(S240).Then, the output unit 140 outputs the result of the processing by the processor unit 120 under the control of the processor unit 120 . For example, the output unit 140 may output an enlarged screen of the object through the display device at the magnification limit magnification adjusted in step S240 under the control of the processor unit 120 . Alternatively, the output unit 140 may transmit information on the magnification limit magnification adjusted in step S240 to another electronic device through a communication module or interface (S240).

지금까지 설명한 바와 같이 본 발명의 실시예들에 의하면, 화면 확대 영역에 해당하는 3차원 객체 데이터의 메쉬 데이터에 대한 정보에 기초하여 확대 가능한 배율을 결정함으로써 저품질의 확대 화면이 제공되지 않도록 사전에 차단할 수 있다.As described so far, according to the embodiments of the present invention, it is possible to block in advance so that a low-quality enlarged screen is not provided by determining an enlargeable magnification based on information about the mesh data of the 3D object data corresponding to the enlarged screen area. can

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general-purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment may be configured in the respective blocks of the block diagram or of the flowchart. Each step creates a means for performing the described functions. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. The instructions stored in the block diagram may also produce an item of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

본 발명의 실시예에 따르면, 화면 확대 영역에 해당하는 메쉬 데이터에 대한 정보에 기초하여 확대 가능한 배율을 결정할 수 있다. 이러한 본 발명은 카메라에 의해 획득된 객체에 대한 촬영 영상으로부터 캡쳐링 데이터를 생성하는 볼류메트릭 비디오 캡쳐 방식 등을 이용하여 3차원 컴퓨터 그래픽을 구현하는 기술 분야에 적용할 수 있다.According to an embodiment of the present invention, an enlargeable magnification may be determined based on information on mesh data corresponding to a screen enlargement area. The present invention can be applied to a technical field for implementing 3D computer graphics using a volumetric video capture method that generates capturing data from a captured image of an object obtained by a camera, and the like.

100: 3차원 객체 데이터 처리 장치
110: 획득부
120: 프로세서부
130: 저장부
140: 출력부
100: 3D object data processing device
110: acquisition unit
120: processor unit
130: storage
140: output unit

Claims (7)

3차원 객체 데이터 처리 장치가 수행하는 3차원 객체 데이터 처리 방법으로서,
3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하는 단계와,
상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정하는 단계를 포함하는
3차원 객체 데이터 처리 방법.
As a three-dimensional object data processing method performed by a three-dimensional object data processing apparatus,
Checking additional information of vertices or polygons included in the mesh data corresponding to the enlarged screen area of the 3D object data reproduction screen;
Determining a magnification ratio of the screen magnification area based on the additional information
3D object data processing method.
제 1 항에 있어서,
상기 정점 또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리(Post Processing)로 생성된 제2형을 포함하고,
상기 부가정보는 상기 제1형 및 상기 제2형 중 어느 것인지에 대한 식별정보를 포함하는
3차원 객체 데이터 처리 방법.
The method of claim 1,
The vertices or polygons include a first type generated based on the capturing data and a second type generated by post processing,
The additional information includes identification information on which one of the first type and the second type
3D object data processing method.
제 2 항에 있어서,
상기 확대 배율을 결정하는 단계는,
상기 정점 또는 폴리곤 중 상기 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 확대 제한 배율을 조정하는
3차원 객체 데이터 처리 방법.
3. The method of claim 2,
The step of determining the magnification is,
Adjusting the magnification limiting magnification according to the result of comparison between the amount of the second type among the vertices or polygons and a preset threshold value
3D object data processing method.
3차원 객체 데이터를 획득하는 획득부와,
상기 3차원 객체 데이터에 대한 처리를 수행하는 프로세서부를 포함하고,
상기 프로세서부는,
상기 3차원 객체 데이터의 재생 화면 중 화면 확대 영역에 해당하는 메쉬 데이터에 포함된 정점 또는 폴리곤의 부가정보를 확인하고, 확인된 상기 부가정보에 기초하여 상기 화면 확대 영역에 대한 확대 배율을 결정하는
3차원 객체 데이터 처리 장치.
an acquisition unit for acquiring three-dimensional object data;
and a processor unit for processing the three-dimensional object data,
The processor unit,
Checking additional information of vertices or polygons included in mesh data corresponding to the screen enlargement area among the reproduction screen of the 3D object data, and determining an enlargement magnification for the screen enlargement area based on the confirmed additional information
3D object data processing device.
제 4 항에 있어서,
상기 정점 또는 폴리곤은 캡쳐링 데이터에 기반하여 생성된 제1형과 후처리(Post Processing)로 생성된 제2형을 포함하고,
상기 부가정보는 상기 제1형 및 상기 제2형 중 어느 것인지에 대한 식별정보를 포함하는
3차원 객체 데이터 처리 장치.
5. The method of claim 4,
The vertices or polygons include a first type generated based on the capturing data and a second type generated by post processing,
The additional information includes identification information on which one of the first type and the second type
3D object data processing device.
제 5 항에 있어서,
상기 프로세서부는,
상기 정점 또는 폴리곤 중 상기 제2형의 양과 기 설정된 임계값과의 비교 결과에 따라 확대 제한 배율을 조정하는
3차원 객체 데이터 처리 장치.
6. The method of claim 5,
The processor unit,
Adjusting the magnification limiting magnification according to the result of comparison between the amount of the second type among the vertices or polygons and a preset threshold value
3D object data processing device.
컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
제 1 항 내지 제 3 항 중 어느 한 항의 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The method of any one of claims 1 to 3 comprising instructions for causing a processor to perform the method.
computer program.
KR1020200114921A 2020-09-08 2020-09-08 Method and apparatus for processing 3d object KR20220032948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200114921A KR20220032948A (en) 2020-09-08 2020-09-08 Method and apparatus for processing 3d object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200114921A KR20220032948A (en) 2020-09-08 2020-09-08 Method and apparatus for processing 3d object

Publications (1)

Publication Number Publication Date
KR20220032948A true KR20220032948A (en) 2022-03-15

Family

ID=80817040

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200114921A KR20220032948A (en) 2020-09-08 2020-09-08 Method and apparatus for processing 3d object

Country Status (1)

Country Link
KR (1) KR20220032948A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102671280B1 (en) 2023-10-10 2024-05-31 엠앤앤에이치 주식회사 Apparatus and method for automatically correcting body proportions of multi frame avatar object in 3D volumetric video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120126211A (en) 2011-05-11 2012-11-21 나비스오토모티브시스템즈 주식회사 navigation system displaying 3D type child POI and method for controling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120126211A (en) 2011-05-11 2012-11-21 나비스오토모티브시스템즈 주식회사 navigation system displaying 3D type child POI and method for controling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102671280B1 (en) 2023-10-10 2024-05-31 엠앤앤에이치 주식회사 Apparatus and method for automatically correcting body proportions of multi frame avatar object in 3D volumetric video

Similar Documents

Publication Publication Date Title
US11756223B2 (en) Depth-aware photo editing
CN111050210B (en) Method of performing operations, video processing system, and non-transitory computer readable medium
US9639914B2 (en) Portrait deformation method and apparatus
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
US20220215568A1 (en) Depth Determination for Images Captured with a Moving Camera and Representing Moving Features
WO2017092303A1 (en) Virtual reality scenario model establishing method and device
US20120320152A1 (en) Stereoscopic image generation apparatus and method
JP2018107793A (en) Generation device, generation method and program of virtual view point image
EP2787734B1 (en) Apparatus and method for forming light field image
US11227428B2 (en) Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region
US11810248B2 (en) Method for processing image data to provide for soft shadow effects using shadow depth information
CN113223130B (en) Path roaming method, terminal equipment and computer storage medium
JP2018113683A (en) Image processing apparatus, image processing method, and program
US11689815B2 (en) Image modification of motion captured scene for reconstruction of obscured views using uncoordinated cameras
CN110475109A (en) A kind of projection imaging system, method, apparatus and storage medium
US11127141B2 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
KR20220032948A (en) Method and apparatus for processing 3d object
JP2009246917A (en) Video display device, and video processing apparatus
KR102517205B1 (en) Method for displaying content derived from light field data on a 2D display device
AU2015271981A1 (en) Method, system and apparatus for modifying a perceptual attribute for at least a part of an image
EP2821997A1 (en) Method and device for editing a video sequence
CN106131638B (en) Information display method and equipment
KR102461031B1 (en) Network-based image processing method and apparatus therefor
US20230206471A1 (en) Method and Apparatus for Processing Reference Inputs for Video Compositing with Replacement
JP4983757B2 (en) Image generating apparatus, method and program

Legal Events

Date Code Title Description
A201 Request for examination